José Luis Hernández, informático: “Es muy fácil engañar a la inteligencia artificial para que genere un ataque” | Tecnología


José Luis Hernández Ramos (Murcia, 37 años) es investigador Marie Skłodowska-Curie en la Universidad de Murcia, donde estudió la licenciatura, el máster y el doctorado en Informática. “Cuando era niño y jugaba con las maquinitas como la Game Boy, me preguntaba cómo era posible que salieran todas esas imágenes al meter los cartuchos”, confiesa. A lo largo de su trayectoria profesional ha sido oficial científico en la Comisión Europea y ha publicado más de 60 artículos de investigación, además de colaborar durante cinco años con la Agencia de la Unión Europea para la Ciberseguridad (ENISA) y la Organización Europea de Ciberseguridad (ECSO), de donde surgió su interés por buscar el impacto de su trabajo. “Cualquier investigador tiene que preguntarse qué puede hacer la inteligencia artificial en su campo”, afirma. Ahora, su proyecto Gladiator ha sido uno de los 58 seleccionados por las becas Leonardo 2023 de la Fundación BBVA, dotadas con hasta 40.000 euros, para desarrollar una herramienta de inteligencia artificial que sea capaz de detectar amenazas de ciberseguridad y analizar programas informáticos maliciosos.

Pregunta. ¿Cómo resumiría el objetivo del proyecto Gladiator?

Respuesta. La investigación quiere aplicar o usar un modelo grande de lenguaje, como ChatGPT, Bard, o Llama, para entender cómo podemos utilizarlos para abordar problemas de ciberseguridad. Cuando queremos adaptar uno de estos modelos a un determinado dominio como la ciberseguridad, necesitamos ajustar el modelo a una terminología relacionada con esa disciplina concreta. Queremos entender cómo adaptar esos modelos para detectar un ataque y, al mismo tiempo, adaptarlos con información sobre ciberseguridad para mejorar su rendimiento y que sean capaces de resolver problemas de este tipo. El proyecto durará hasta marzo de 2025.

P. ¿Cómo se van a adaptar los modelos de lenguaje a lo que necesita el proyecto?

R. Se coge información relacionada con ciberseguridad, con bases de datos que contengan información sobre amenazas, y se entrena o se ajusta el modelo con la información. De esta manera va a ser capaz de mejorar su comprensión acerca de lo que es una amenaza de ciberseguridad.

P. ¿Cómo detecta la inteligencia artificial las amenazas de ciberseguridad y cómo las combate?

R. Muchos sistemas basados en inteligencia artificial se basan en aprender lo que es un ataque o no, por ejemplo, usando conjuntos de datos relacionados con las conexiones de red de cierto entorno. Lo que buscamos con el proyecto es ser capaces de analizar la información de ciberseguridad que viene en formato de texto, que pueda estar relacionada con vulnerabilidades o que pueda encontrarse en redes sociales y otras fuentes, y determinar si es una amenaza o no.

P. ¿Cuál es la diferencia entre los sistemas que se utilizaban antes para combatir la ciberseguridad y los de ahora?

R. Los sistemas de seguridad necesitan ser cada vez más inteligentes para detectar posibles amenazas considerando técnicas de inteligencia artificial. Antes, estos sistemas detectaban ataques buscando amenazas conocidas en bases de datos. Los sistemas necesitan evolucionar para ser capaces de identificar ataques que no conozcan.

P. ¿Y qué tipo de ataques se podrían prevenir o identificar?

R. La aplicación de técnicas de inteligencia artificial en ciberseguridad nos permitirá mejorar la identificación y detección de una gran variedad de ataques. Un ataque de phishing, es un ejemplo claro de cómo puede ayudar el uso de los de los modelos de lenguaje, analizando el texto o el contenido que viene en un correo electrónico. Podemos identificar si varios dispositivos se están confabulando para lanzar un ataque, y también si no viene solamente de una fuente, sino de varias.

José Luis Hernández Ramos junto a un clúster de ordenadores en la Universidad de Murcia.
José Luis Hernández Ramos junto a un clúster de ordenadores en la Universidad de Murcia.Fundación BBVA

P. Y desde casa, ¿cómo se puede utilizar la inteligencia artificial para combatir los ataques?

R. Ahora tenemos acceso 24 horas a la inteligencia artificial a través de herramientas como ChatGPT, y nos da la capacidad para fomentar la educación y la concienciación en ciberseguridad. Todo el mundo puede preguntar a la herramienta sobre cómo protegerse o cómo configurar un dispositivo para que sea menos vulnerable. Es importante saber que los modelos no son perfectos, todavía hay que contrastar los resultados y las respuestas que ofrecen.

P. ¿La inteligencia artificial ayudaría a detectar si una aplicación ha sido alterada?

R. Absolutamente. Ayudaría a detectar, por ejemplo, si una aplicación es fake o maliciosa. De hecho, una de las cosas que también se está viendo con este tipo de análisis de aplicaciones, de código y de software en general, son las iniciativas de modelo de lenguaje para analizar código de software.

P. ¿La inteligencia artificial es capaz de detectar un robo de datos o desinformación?

R. Sí, aunque los atacantes suelen ser cada vez más creativos y utilizan lógicamente mejor las herramientas.

P. ¿La inteligencia artificial ayuda tanto al que quiere crear la desinformación como al que quiere combatirla?

R. Sí, es un arma de doble filo. Si está en las manos equivocadas, se puede utilizar para lanzar ataques cada vez más sofisticados. Ahí también está el peligro del acceso que se tiene ahora, en general, a los sistemas de inteligencia artificial, como ChatGPT u otros.

P. ¿Cómo se puede usar una herramienta como ChatGPT para definir o generar un ataque?

R. Cuando le preguntas a un sistema como ChatGPT que te genere un ataque, lo primero que te dice es que no lo genera porque puede dar lugar a un problema de ciberseguridad. En cambio, es muy fácil engañar a la herramienta y decirle que necesitas conocer el ataque porque quieres que tu sistema sea más robusto o quieres enseñar el ataque en una clase. En esos casos el sistema sí te da la respuesta.

P. ¿El sistema del proyecto permitirá diseñar una herramienta en la que no se tengan que compartir datos sensibles?

R. La investigación quiere intentar entender cuáles son los problemas, y las limitaciones para que el ajuste de modelo de lenguaje se haga de forma descentralizada. Ahora mismo, un modelo se entrena y se ajusta con varias fuentes de información, como la que le doy yo mismo cuando interactúo con el sistema. La idea es que ese proceso sea descentralizado, y en lugar de tener que compartir información sensible, se pueda compartir información relacionada, pero sin tener que mandarle la información sobre la vulnerabilidad concreta para que el sistema identifique un ataque.

P. ¿Cuál es el objetivo que querría alcanzar con su proyecto cuando finalice, en 2025?

R. Mejorar nuestra capacidad de comprensión de los modelos de lenguaje para abordar problemas de ciberseguridad, crear un sistema que nos ayude a identificar un ataque, entender cómo y por qué se ha producido, y buscar relaciones entre los diferentes ataques que ayuden a predecir si mi sistema va a ser atacado. También queremos saber cómo la inteligencia artificial es capaz de generar una medida que aborde y resuelva ese ataque de ciberseguridad, por ejemplo, implementado un parche de seguridad de forma automática.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_





Source link