El futuro de internet se juega en el Tribunal Supremo de Estados Unidos | Tecnología

[ad_1]

Los abogados de Google, Facebook y Twitter acuden este martes y este miércoles a defender a sus empresas en el Tribunal Supremo de Estados Unidos. Con ellos, el futuro de internet tiene una cita ante los jueces. Se celebran dos vistas orales, las de los casos Gonzalez contra Google y Twitter contra Taamneh. En ellos se cuestiona el alcance de la sección 230, la norma que ha servido de piedra angular de internet tal y como hoy lo conocemos. Esa norma, básicamente, da poder a las tecnológicas para moderar el contenido que generan sus usuarios, pero al tiempo las blinda de asumir responsabilidades por él.

Los dos casos están relacionados con el terrorismo y la pregunta que late tras ellos es: ¿ni siquiera son responsables redes sociales como YouTube (propiedad de Google), Facebook y Twitter de evitar que se difunda propaganda terrorista en la Red? La selección de esos dos casos apunta a que los jueces quieren matizar esa exención de responsabilidad que da la ley a las tecnológicas por los contenidos de terceros.

La frase clave de la sección 230 de la Ley de Decencia en las Comunicaciones establece: “Ningún proveedor o usuario de un servicio informático interactivo será tratado como editor o difusor de información facilitada por otro proveedor de contenidos informativos”. En función de ello, se exime a las plataformas de responsabilidad por los contenidos de sus usuarios. Es una ley de 1996, cuando las firmas de internet aún eran pequeñas y parecía adecuado protegerlas.

La regla es aplicable a las redes sociales como Facebook, YouTube, Twitch o Twitter, pero va mucho más allá. Numerosas funcionalidades de Google, TripAdvisor, Yelp, Reddit, Craiglist, Apple o Microsoft dependen de alguna manera de las aportaciones de sus usuarios y ese blindaje de responsabilidad ha sido clave para el florecimiento de sus contenidos. Dichas compañías se han personado en los casos para defender su posición en un frente común.

Nohemi Gonzalez, estudiante universitaria estadounidense de 23 años, fue una de las 131 personas asesinadas por los terroristas del Estado Islámico en una serie de atentados que conmocionaron París el 13 de noviembre de 2015, en la sala de conciertos Bataclan y otros lugares de la capital francesa. Gonzalez fue asesinada en un restaurante donde se encontraba cenando ese día y sus familiares han demandado a Google.

Reynaldo Gonzalez critica que YouTube no se limitaba a un papel pasivo, de permitir sin más que los usuarios busquen lo que ver, sino que su algoritmo recomienda vídeos basados en el historial de cada usuario. Con ello, quienes veían vídeos de propaganda islamista recibían más contenidos de ese tipo, facilitando su radicalización. Los familiares de Nohemi se quejan de que la compañía del grupo de Google, cuya matriz ahora es Alphabet, permitiese la difusión de vídeos de propaganda radical que incitaban a la violencia. La familia de la víctima cree que Google violó la ley antiterrorista al permitir la difusión de esos vídeos y al insertar publicidad, compartiendo ingresos.

Gonzalez ha salido derrotado en los tribunales inferiores. La cuestión que plantea al Supremo es si la exención de responsabilidad alcanza a esas recomendaciones que hace el algoritmo. Google argumenta en su último escrito ante el tribunal que los algoritmos son la única forma de organizar la ingente información que se vuelca cada día en la Red. “La clasificación y agrupación de vídeos es la quintaesencia de la edición”. Si organizarlos elimina el blindaje de responsabilidad, argumenta la empresa, no habrá forma de salvar “las recomendaciones de búsqueda y otras herramientas básicas de software que organizan una avalancha de sitios web, vídeos, comentarios, mensajes, listados de productos, archivos y otra información por la que, de otro modo, sería imposible navegar”.

Riesgo de “distopía”

Según Google, si se hace a la empresa responsable, internet “se convertiría en una distopía en la que los proveedores se enfrentarían a presiones legales para censurar cualquier contenido censurable”. “Algunos podrían cumplir; otros podrían tratar de eludir la responsabilidad cerrando los ojos y dejando publicar todo, no importa lo objetable que sea. Este tribunal no debería socavar un elemento fundamental de la internet moderna”, concluye.

El otro caso que se examina esta semana, en este caso el miércoles, Twitter contra Taamneh, no tiene que ver con las recomendaciones del algoritmo, sino que en general plantea si las redes sociales pueden ser demandadas por presunta complicidad en un acto de terrorismo, por albergar contenidos de usuarios que expresan en general su apoyo al grupo que está detrás de la violencia, aunque no vayan referidos a un atentado en concreto.

La demanda es por el atentado terrorista contra una discoteca de Estambul en el que murieron 39 personas en la fiesta de Nochevieja de 2016, año nuevo de 2017. Aunque el caso lleva el nombre de la red social propiedad de Elon Musk, junto a Twitter también son parte Google y Facebook. En este caso, los jueces fallaron contra las tecnológicas, que son las que han recurrido al Supremo.

Varios jueces del Supremo, entre ellos los conservadores Clarence Thomas y Samuel Alito, habían expresado ya su interés en admitir a trámite casos sobre la moderación de contenidos en internet. Los argumentos orales de este martes permitirán intuir cuáles son sus posiciones, aunque para dictar sentencia tendrán de plazo en principio hasta finales de junio. Las dos sentencias y la doctrina que las acompañe pueden tener un calado enorme y abrir paso a una avalancha de demandas si abren una grieta en ese blindaje tradicional.

Las tecnológicas llevan además tiempo sometidas al fuego cruzado de los partidos políticos. Los republicanos las acusan de ejercer la censura con un sesgo progresista. Los demócratas, con el presidente Joe Biden a la cabeza, critican ese blindaje que les exime de responsabilidades cuando difunden discursos de odio o desinformación. Biden publicó el mes pasado una tribuna en The Wall Street Journal, diario económico de orientación conservadora, en la que llamaba a republicanos y demócratas a “unirse contra los abusos de las grandes tecnológicas”. Y dejaba clara cuál es su posición en el debate en torno a la sección 230, que pedía reformar: “Necesitamos que las Big Tech se hagan responsables del contenido que difunden y de los algoritmos que usan”, escribía.

Ahora está en juego ese blindaje de responsabilidad, una de las dos grandes ventajas que han tenido las tecnológicas. La otra, el poder para decidir con sus políticas de moderación qué se publica y qué no, está también en juego. Florida y Texas han aprobado leyes que impiden a las plataformas negarse a difundir ciertos contenidos políticos.

El de los contenidos, por otra parte, no es el único frente de batalla. Las grandes tecnológicas están sometidas a un mayor escrutinio regulatorio, fiscal y de competencia, con episodios que van desde la demanda del Departamento de Justicia contra Google por abuso de posición dominante, la impugnación de la compra de Activision por Microsoft o la demanda de algunos Estados contra las redes sociales por contribuir a la crisis de salud mental de los jóvenes.

En principio, la sección 230 no afecta a los derechos de propiedad intelectual y no es una patente de corso para su violación, aunque en la práctica esas redes sociales han cimentado su éxito en la violación sistemática de los derechos de autor. Millones de fotografías y vídeos sobre los que los usuarios no tienen derechos se difunden cada día casi con completa impunidad. En la práctica, solo se persiguen los casos extremos de pirateo de contenidos de alto valor económico como retransmisiones deportivas y películas de estreno.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



[ad_2]

Source link