No si es mi hija: el usuario de porno ‘deepfake’ lo ve sin reparo, pero lo denunciaría si la víctima fuera de su entorno | Tecnología

[ad_1]

Todavía no era primera ministra italiana, pero ya era popular cuando hace cuatro años se publicó un vídeo pornográfico falso con la cara de Giorgia Meloni en el cuerpo de otra mujer. El próximo 2 de julio está llamada a declarar en una demanda contra los implicados, un hombre de 40 años, que elaboró las imágenes, y su padre de 73, que prestó la línea para publicarlo. Les reclama 100.000 euros como “medida simbólica ejemplar” que “contribuya a la protección de las mujeres blanco de este tipo de delitos”, según la abogada Maria Giulia Marongiu. Los deepfakes, materiales audiovisuales falsos hiperrealistas, se duplican cada año desde que se registró la primera denuncia en 2017 por desnudos no consentidos y poco han cambiado desde entonces. Una investigación de Home Security Heroes (HSH) ratifica un panorama ya identificado: el 98% es pornografía y 99 de cada 100 víctimas son mujeres y casi todas populares.

El cambio más radical ha sido tecnológico. Si en un principio se precisaban conocimientos de informática y edición de imágenes, ahora, una de cada tres herramientas disponibles permite elaborar creaciones falsas en menos de 25 minutos y a coste cero. Google, que sirve como indicador al ser el buscador predominante, ha retirado, según su último informe de transparencia, 8.000 millones de enlaces. Miles de ellos son páginas de deepfakes, concentradas en dos portales, según la base de datos Lumen de la Universidad de Harvard. Las tecnológicas, obligadas por las nuevas leyes, comienzan a actuar.

La accesibilidad de las herramientas (60% en línea y el 40% descargable) se une a las motivaciones de los abusadores, que se autoconvencen de que solo lo hacen por curiosidad, la atracción por las famosas, como el caso de la cantante Taylor Swift, y la visualización de una fantasía, según HSH. Esta pueril percepción lleva a que un 74% de los usuarios (según una encuesta con 1.522 participantes masculinos) no se sienta culpable.

Pero esta supuesta ingenuidad es tan falsa como el material que consumen. “Es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos. La Directiva de la UE relativa a la lucha contra la violencia contra las mujeres incluye estas creaciones como agresión.

Y la percepción de este ataque es tan clara que hasta la gran mayoría de los usuarios de deepfakes, según el estudio de HSH, haciendo un alarde de hipocresía, los denunciaría si la víctima fuera alguien cercano (73%) y se sentiría “conmocionado e indignado” (68%) por la violación de su intimidad.

El crecimiento de los desnudos no consentidos se ha producido a pesar de leyes que condenan estas prácticas y amparan a las víctimas frente a la alegada libertad de expresión que esgrimen los creadores de contenidos. Conforme al artículo 18.1 de la Constitución, los derechos al honor, a la intimidad personal y familiar y a la propia imagen tienen el rango de fundamentales (…) El artículo 20.4 dispone que el respeto de tales derechos constituye un límite al ejercicio de las libertades de expresión”. Así arranca la Ley Orgánica 1/1982 que regula esta materia.

“Desde un punto de vista teórico, ahí hay un marco de referencia posible”, explica Ricard Martínez, director de la Cátedra de Privacidad y Transformación Digital de la Universidad de Valencia. En Estados Unidos, la mayoría de las reclamaciones se amparan en la Digital Millennium Copyright Act (DMCA) de 1998.

“En el momento en que coges la imagen real de una persona, pero la modificas con cualquier intención, hay una conducta instrumental que consiste en tratar su imagen sin consentimiento para un fin que no es lícito”, explica Martínez. “Otra cosa”, matiza, “es un humorista que genera una imagen con ánimo satírico y en un contexto claro”.

Pero estas normativas se han mostrado insuficientes, por lo que Europa aprobó en noviembre de 2022 (entró en vigor el pasado mayo) las leyes de servicios y mercados digitales para “proteger los derechos fundamentales de los usuarios y establecer unas condiciones de competencia equitativas para las empresas”. Estas normas obligan a las grandes empresas a colaborar en la evaluación de riesgos, identificación, notificación y eliminación de enlaces sospechosos.

“Hay dos sujetos importantes: el que ofrece la herramienta, que siempre dirá que su aplicación no fue pensada para cometer un delito, y el que ofrece la creación, el que hace de altavoz. La norma les impone deberes de colaboración más intensos a estos últimos”, añade Martínez.

Google admite las nuevas responsabilidades y, en una escueta respuesta por escrito, ante el incremento de reclamaciones, declara: “Tenemos políticas para la pornografía deepfake no consensuada, por lo que las personas pueden eliminar este tipo de contenido que incluye su imagen de los resultados de búsqueda. Y estamos desarrollando activamente salvaguardas adicionales para ayudar a las personas afectadas. Por otra parte, tenemos un proceso de eliminación que permite a los titulares de derechos proteger su trabajo en Internet”.

Meta también está en esta línea. Nick Clegg, como presidente de asuntos globales, anunciaba el pasado 6 de febrero: “Aplicamos etiquetas de Imaginado con IA a imágenes fotorrealistas creadas con nuestra función, pero también queremos poder hacerlo con contenido creado con herramientas de otras empresas”. Se refiere a Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que implementen sus planes para agregar metadatos a las imágenes creadas por sus herramientas.

Las grandes tecnológicas se van sumando así a la cruzada legal contra los deepfakes y a la reciente aprobación de la ley europea de inteligencia artificial, que obliga a etiquetar de forma inequívoca las creaciones desarrolladas con esta tecnología. El Gobierno de Estados Unidos también avanza en esa dirección. “Ya no se puede alegar que el uso del sistema o sus resultados responden al ejercicio de la libertad de expresión y de la libertad de creación”, celebra el profesor valenciano.

“La preocupación es común y empieza a ver una confluencia de intereses desde dos culturas jurídicas distintas. Empieza a lanzarse el mensaje a estas compañías de que no todo vale, que no se pueden lavar las manos diciendo ‘oiga, yo solo soy una plataforma y no puedo ser responsable de todo’. Los proveedores de servicio de la sociedad de información tienen una influencia decisiva sobre la viralización de los contenidos que se muestran. No son un operador neutral o un mero contenedor. Ellos forman parte de la operación, del juego”, concluye Ricard Martínez.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_



[ad_2]

Source link