[ad_1]
La detección de fotografías falsas de desnudos de adolescentes en Almendralejo (Badajoz) evidencia que la plaga de violencia machista con creaciones hiperrealistas de inteligencia artificial con fines maliciosos, especialmente pornográficos, ha llegado a España. Estados Unidos, Reino Unido y Corea del Sur están a la cabeza en denuncias, pero los casos de la cantante Rosalía, víctima de otro cantante que difundió un falso desnudo, y la modelo Laura Escanes, que denunció un ataque similar, demuestran que esta lacra se ha asentado también en España y se ha extendido a todos los ámbitos, incluidos grupos de menores. Las armas son aplicaciones de inteligencia artificial de fácil acceso, pese a las limitaciones que intentan imponer algunas compañías.
El número de estos contenidos en internet, conocidos como deepfakes, se duplica cada seis meses y acapara más de 134 millones de visualizaciones. En el 95% de los casos, la intención es generar pornografía sin consentimiento y las mujeres son las víctimas en 9 de cada 10 creaciones, según Sensity AI, una compañía de investigación que rastrea vídeos hiperrealistas falsos en internet.
Un deepfake es un vídeo o una imagen estática (también puede ser sonido) donde se sustituye el rostro de la imagen original por el de cualquier otra persona, famosa o no. Se basan en técnicas de aprendizaje mecánico profundo a raíz de algoritmos complejos que, una vez implementados en una aplicación, son de fácil manejo.
La inteligencia artificial ha convertido este proceso en algo accesible. Esta recrea una secuencia aprendiendo de miles de imágenes similares y utiliza redes neuronales generativas antagónicas (GAN, por sus siglas en inglés) para desarrollar patrones y facilitar que la reproducción sea hiperrealista. Ni siquiera es necesario disponer de un potente equipo personal para crearlos, ya que existen recursos en plataformas en la nube, en aplicaciones, webs e incluso por Telegram. Algunas compañías como Google han lanzado una base de datos con miles de vídeos manipulados para desarrollar herramientas que detecten las falsificaciones.
Responsabilidad empresarial
Dall-e, una de las aplicaciones de creación digital, asegura que ha “limitado la capacidad para generar imágenes violentas, de odio o adultas” y ha desarrollado tecnologías para “evitar generaciones fotorrealistas de rostros de individuos reales, incluidos los de figuras públicas”. Un grupo de 10 empresas ha firmado un catálogo de directrices sobre cómo construir, crear y compartir contenidos generados por IA de forma responsable.
Pero muchas aplicaciones campan libremente por la Red o por plataformas de mensajería o de código abierto. Además, la misma inteligencia artificial que se aplica para crear las imágenes facilita eludir los controles.
Los deepfakes más conocidos afectan a personajes populares. Dos de las primeras famosas afectadas fueron las actrices Emma Watson y Natalie Portman. Pero se pueden crear con cualquier persona accediendo a sus imágenes en redes sociales o robándolas de los equipos personales.
“Es crucial mantener las imágenes protegidas y garantizar la privacidad, ya que muchos ciberdelincuentes pueden acceder a ellas a través de diversas técnicas”, afirma Marc Rivero, investigador de seguridad de Kaspersky. Sin embargo, según un informe de esta compañía, el 43,5% de los españoles no protege las cámaras de ninguno de sus dispositivos y tampoco sus imágenes.
Ciberviolencia machista
La utilización de deepfakes de mujeres “es un problema de violencia machista”, afirma al Instituto Tecnológico de Massachusetts (MIT) Adam Dodge, fundador de EndTAB, una organización sin ánimo de lucro para la educación en usos tecnológicos.
El Instituto Europeo para la Igualdad de Género también lo considera así e incluye estas creaciones en su informe sobre ciberviolencia contra las mujeres como una forma más de agresión machista.
“La violencia online no es más que una continuación de la violencia que se produce contra las mujeres y las chicas en el día a día. Esta se amplifica, se extiende y se agrava con el uso de internet y los dispositivos digitales”, explica Iris Luarasi, presidenta del Grupo Experto en la Lucha contra la Violencia contra la Mujer y la Violencia Doméstica (Grevio).
El Instituto Europeo para la Igualdad de Género (EIGE, por sus siglas en inglés) incluye entre los ataques “emergentes” contra las mujeres “la difusión de imágenes falsas o la recepción de contenido sexual explícito no requerido”.
Expertos como Borja Adsuara, profesor universitario especializado en derecho digital, abogan por la identificación inequívoca de los contenidos como falsos y por rastreadores automáticos de estas creaciones. A su juicio, lo que separa el deepfake de una creación personal amparada por la libertad de expresión es su verosimilitud y la finalidad. Adsuara explica que la regulación actual se fija en el resultado de las acciones y la intención del delincuente. “Si la escena nunca ha existido porque es falsa, no se está descubriendo un secreto. Habría que tratarlo como un caso de injurias o como delito contra la integridad moral al difundirlo con intención de humillar públicamente a otra persona”, explica.
El letrado apunta como una solución que se incorpore el concepto de pseudopornografía, que ya se aplica con menores. “Esto permitiría que los delitos contra la intimidad no incluyeran solo los vídeos reales, sino también los realistas con imágenes íntimas que se parezcan a las de una persona”.
El pasado mayo, Junts per Catalunya presentó una proposición de ley que abordaba la reforma del Código Penal para incluir la difusión de deepfakes, pero fue rechazada y relegada para su debate en la próxima legislatura. El texto proponía penas de prisión de seis meses a dos años para la divulgación de estas creaciones por cualquier medio cuanto “menoscabe gravemente el honor o la intimidad”. También se pedía multa de uno a tres meses para quien, habiéndolas recibido por cualquier plataforma, “las difunda, revele o ceda a terceros sin el consentimiento de la persona afectada.” La pena mayor se dirigía a cónyuges o amistades, si existía, además, ánimo de lucro, y cuando la víctima fuera menor de edad o una persona con discapacidad.
Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.
[ad_2]
Source link