Las grandes tecnológicas ante el Supremo de EE UU: échale la culpa a Smith | Tecnología

[ad_1]

Los Ángeles, 1950. Eleazar Smith poseía una librería en la que almacenaba para su venta libros que no había leído. De todos es sabido que, aunque se espere siempre el buen consejo del librero de confianza, resulta imposible pretender que haya leído todo lo que guardan sus estanterías, incluso antes del desbordamiento de las mesas de novedades. Eleazar vive en los EEUU de la guerra fría y del auge del macartismo, un tiempo en el que se utilizaron técnicas tan antidemocráticas como la culpa por asociación, la violación indiscriminada de la intimidad y las acusaciones sin fundamento para censurar a la población general. Eleazar probablemente vería en su televisión en blanco y negro pagada a plazos las sesiones del Comité de Actividades Antiamericanas de la Cámara de Representantes que inició miles de investigaciones sobre actividades potencialmente comunistas y que dio lugar a la famosa lista negra de Hollywood.

La ciudad de Los Ángeles no era ajena a este estado de cosas y dictó una ordenanza municipal que prohibía “a cualquier persona tener en su poder cualquier escrito obsceno o indecente, [o]… en cualquier establecimiento comercial donde… se vendan o se tengan a la venta libros”. Así es como el Sr. Smith fue condenado por infringir esta ordenanza al encontrarse en su establecimiento libros considerados obscenos. Los tribunales municipales y superiores de California sostuvieron su responsabilidad penal por la mera posesión del material obsceno, aunque no tuviera conocimiento del contenido del libro, ya que la intención y el conocimiento no se exigían para que el castigo se pudiera imponer. Smith recurrió al Tribunal Supremo de los EEUU (SCOTUS).

No fue el primero ni el último que en estos años convulsos uso la libertad de expresión y de prensa para defenderse de la hostilidad de unos gobiernos manifiestamente intrusivos. El Tribunal le dio la razón en 1956. La publicación y distribución de libros se encuentran protegidos por los derechos a la libertad de prensa en donde los libreros desempeñan un papel clave no solo para su publicación sino también en su distribución, no siendo aceptable la aprobación de normas que tengan por efecto imposibilitar el derecho a la libertad de expresión. De lo contrario, según SCOTUS, se conseguiría de facto que los libreros teman o sean reacios a ejercer dichas libertades.

Si esto no fuera lo suficientemente importante, la sentencia sienta el siguiente principio, de hecho el que nos trae hoy aquí: si aceptamos que los libreros sean penalmente responsables sin conocimiento del contenido de los libros que venden, estos solo pondrían en sus escaparates aquellos que hubieran inspeccionado personalmente disminuyendo, inevitablemente, el número de obras a disposición del público. Así que les hacemos irresponsables. Esto es lo que se conoce en Derecho como la protección del “buen samaritano” frente a la responsabilidad civil y penal. Desde Smith v. California, bibliotecarios y libreros no son responsables por los libros, obras de creación o cualquier contenido que almacenen, distribuyan o vendan.

En el nacimiento de la internet comercial, se llevó la protección del buen samaritano a los servicios de intermediación a través de la famosa Sección 230 de la Communication Decency Act. Si un bibliotecario no sabía lo que había en todos los libros de su biblioteca, cómo un proveedor de servicios de comunicaciones, de hosting, un proxy, un buscador o una red de blogs iba a tener la más mínima noción de todo lo que volaba de byte en byte por su red.

No se le podía, por lo tanto, exigir que hiciese un filtrado de los contenidos, casi imposible técnicamente y costoso económicamente. Eso sí, tenía que tener un sistema habilitado de denuncias por si algún contenido infringía la propiedad intelectual de alguien. Por eso es tan sencillo retirar un vídeo con una canción de Mariah Carey de YouTube y tan complicado si el que sale es tu hijo agredido por sus compañeros de colegio.

Este principio se arrastró a la legislación europea, que lo trasladó a la Directiva de Comercio Electrónico, y acabó en nuestra Ley de Servicios de la Sociedad de la Información (LSSI). Lo de la Ley Sinde que vino después lo dejo para que se lo cuenten los viejos del lugar.

La famosa DSA (Reglamento de Servicios Digitales en español) publicada el año pasado, que sustituye y deroga la directiva y, de paso, la LSSI, mantiene la protección del buen samaritano porque no le ha quedado más remedio aunque ha impuesto una serie de controles y auditorías que son un incordio, bien se lo pueden permitir las grandes tecnológicas que basan todo su modelo de negocio en la irresponsabilidad de los contenidos. Y de esto es de lo que de verdad va el caso González v. Google que se vio el martes 21 de febrero en audiencia pública, de nuevo, ante el Tribunal Supremo de los EEUU. Y también, Twitter v. Taamneh que visto el 22 de febrero ante el mismo Tribunal.

Ambos casos tienen su origen en circunstancias similares: el atentado terrorista de 2015 en París, en el que murió, entre otros, una estudiante estadounidense llamada Nohemi González; y el atentado terrorista de 2017 en una discoteca de Estambul, en el que murió una ciudadana jordana llamada Nawras Alassaf. Tras el atentado de París, el padre de González demandó a Google, alegando que había ayudado e instigado a un grupo terrorista al permitir no solo que miembros del ISIS publicaran vídeos en YouTube sino que sus algoritmos los recomendaran.

En Twitter v. Taamneh, los familiares de Alassaf acusaron a Twitter, Facebook y Google de “colaborar” en el atentado de Estambul al permitir que la propaganda del ISIS se difundiera en Internet. En González v. Google, SCOTUS tendrá que decidir si la Sección 230 protege a las plataformas de la responsabilidad no sólo por las publicaciones de sus usuarios, sino cuando en la difusión de esos contenidos intervienen sus algoritmos de recomendación. En Taamneh, el tribunal dejará de lado la Sección 230 y evaluará si una plataforma de Internet puede realmente ser acusada de complicidad con el terrorismo.

Los dos asuntos han suscitado docenas de amicus curiae (intervenciones de personas que no son parte en el procedimiento pero que apoyan a una de ellas en el proceso) de empresas tecnológicas, grupos de defensa de las libertades civiles e incluso de los propios autores de la Sección 230, que han alertado al tribunal sobre el peligro de recortar o eliminar la protección del buen samaritano que se basa, como ya sabe el lector, en la protección de la libertad de expresión y prensa. Otros, entre ellos legisladores conservadores, defensores de las fuerzas de seguridad, grupos de defensa de los derechos de los niños y Frances Haugen, han adoptado posturas contrarias, abogando por una interpretación restrictiva de la Sección 230. Un tercer grupo se han dirigido al tribunal, sin tomar partido, pero detallando las ramificaciones de la reforma o derogación de la ley.

Como vemos, la cuestión no es sencilla. Las grandes tecnológicas se benefician de una doctrina de 67 años de antigüedad que se aplicaba a una tecnología y en unas condiciones radicalmente diferentes a las actuales. Sin mencionar que, efectivamente, los primeros operadores de internet no tenían capacidad para leer de manera comprensiva todo el contenido que alojaban y transportaban pero que esto, también, ha cambiado radicalmente. Facebook, Twitter, Google o Instagram tienen capacidad para “leer” los contenidos y lo sabemos porque los seleccionan y nos los presentan como haría un editor.

De ahí su resistencia feroz a moderar los contenidos porque sería reconocer que tienen capacidad editorial sobre los mismos lo que haría peligrar la protección del buen samaritano que es lo que plantea la familia González. Lo que sabemos hasta ahora de la vista es que los jueces del tribunal parecían desconcertados con sus argumentos (Kagan y Kavanaugh admitieron que el tribunal puede no estar a la altura del conocimiento técnico que requiere el asunto y que es mejor que se encargue el Congreso de legislar), pero varios de ellos sugirieron con sus intervenciones que habría que rediseñar la protección que les otorga la Sección 230, distinguiendo entre el contenido y lo que la plataforma hace con él, lo que abriría una puerta a la responsabilidad en caso de usar algoritmos de recomendación. Si se acoge esta postura, muchas cosas van a cambiar en internet.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



[ad_2]

Source link