James Manyika (Google): “La inteligencia artificial cambiará el mundo, como las computadoras o la electricidad” | Tecnología

[ad_1]

James Manyika (57 años, Harare, Zimbabue) asegura que la inteligencia artificial (IA) nos rodea hace décadas, solo que la gente aún no se había dado cuenta. Él ya trabajaba en este campo mucho antes de convertirse en el vicepresidente de las áreas de Investigación, Tecnología y Sociedad de Google, cargo que desempeña desde hace un año. En ese tiempo, la inteligencia artificial ha saltado desde a las escenas apocalípticas de las películas de ciencia ficción a primera plana de la actualidad mundial. “Hace 25 años, cuando hice mi doctorado en robótica, nadie entendía de que estábamos hablando. La gente sigue sin darse cuenta de que desde mucho antes de la llegada de los chatbots, ya se estaban beneficiando de la inteligencia artificial”, explica a EL PAÍS en Madrid, donde participó el pasado jueves en un evento de Google en el Museo Lázaro Galdiano.

Manyika insiste en que esta revolución se había venido gestando sobre todo durante los últimos 15 años, aunque reconoce que ha sido en los últimos meses cuando la irrupción de la inteligencia artificial se ha acelerado, tras el lanzamiento de ChatGPT, el chatbot de IA generativa de OpenAI. Desde el pasado febrero, también Google cuenta con su propia aplicación de esta categoría, Bard, que aún no se puede utilizar en España. “Llegará pronto”, garantiza Manyika. “Hay mucho trabajo que hacer porque el español es una lengua compleja, con muchas variantes. Queremos hacerlo bien porque es un asunto muy importante”.

Pregunta. ¿Es posible que estén sobrestimando la importancia de la inteligencia artificial?

Respuesta. No, no creo. Le estamos dando importancia porque es un cambio tan profundo a que afectará a casi todo lo que hacemos. La economía, la productividad, cómo concebimos la información y el aprendizaje. Para mí, la pregunta es cómo conseguir las dos caras de la moneda: asegurarnos de que sea útil para la sociedad y, al mismo, tiempo ser capaces de abordar los desafíos que se nos presentan.

P. ¿Cambiará el mundo?

R. Creo que sí. Lo que encuentro tan crítico acerca de la IA es que será como las computadoras o la electricidad. Es una tecnología esencial: no puedo imaginar una actividad ni una parte de la sociedad en las que no vaya a ser útil. En ese sentido, pienso que cambiará al mundo. Al mismo tiempo, creo que es tan poderosa y tan útil que también traerá consecuencias, riesgos y desafíos muy importantes, con los que tenemos que lidiar.

Más de dos tercios de los trabajos serán diferentes. No desaparecerán, simplemente evolucionarán y cambiarán

P. ¿A qué se refiere cuando habla de riesgos?

R. Por un lado, están los riesgos que se dan cuando la tecnología en sí no funciona como queremos que lo haga, cuando resulta imprecisa o errónea. Otros tipos de riesgos son los que tienen a que ver con la privacidad y con el manejo de las informaciones. Y además, incluso cuando esos dos aspectos funcionan bien, es posible hacer un mal uso de esta tecnología. Puede usarse con fines criminales, para la desinformación o para crear amenazas a la seguridad nacional. También hay una cuarta complicación, que tiene que ver con los efectos secundarios, como el impacto que la IA puede tener en los puestos de trabajo, en la salud mental y en otros factores socioeconómicos a los que deberíamos prestar atención.

P. De hecho, ya hay personas perdiendo su trabajo a causa de la IA…

R. Hay trabajos en los que las máquinas pueden desempeñar algunas tareas que ahora hacen las personas; y en ellos habrá pérdidas, es cierto. También se crearán puestos de trabajo, tanto por el aumento de la productividad como por la creación de nuevas categorías. Pero creo que el efecto más grande, y esto es lo que todos los análisis parecen indicar ahora, es que los trabajos están destinados a cambiar. Hay que pensar en los cajeros de los bancos, que en los años 70 del siglo pasado pasaban el 90% de su tiempo contando dinero, mientras ahora pasan menos del 10% de su tiempo con esta tarea. Nuestros datos sugieren que más de dos tercios de los trabajos serán diferentes. No desaparecerán, simplemente evolucionarán y cambiarán.

P. ¿Hay que tenerle miedo a la IA?

R. No, pero deberíamos tener cuidado en cómo la usamos. La inteligencia artificial no es algo de los últimos meses, vivimos con ella desde hace años. Si miras hacia atrás en su historia te darás cuenta de que en cuanto alguna de sus aplicaciones se vuelve útil, dejamos de llamarla IA; pero mantenemos el término para las cosas que están por venir o las cosas que nos asustan. No estoy diciendo que no debamos preocuparnos. Pero también deberíamos recordar todas las formas en las que ya la utilizamos y nos es muy útil.

P. Geoffrey Hinton dejó Google justamente para alertar sobre los riesgos de esta tecnología.

R. Conozco bien a Jeff. Creo que lo que intentaba hacer, y lo que muchos de nosotros hemos estado intentando hacer, es resaltar que deberíamos adoptar un enfoque preventivo. Porque sí, los beneficios son increíblemente útiles, pero también hay preocupaciones que debemos tener en cuenta. Creo que quiso recordarnos a todos los riesgos que conlleva, especialmente a medida que se vuelve más avanzada. Y pienso que ese enfoque es apropiado.

P. ¿Por qué hay tantos manifiestos apocalípticos firmados por los padres de la IA?

R. Yo mismo firmé una de estas cartas, porque considero fundamental asegurarnos de que se esté prestando la debida atención. Cada vez que tenemos una tecnología poderosa, hay que pensar tanto en sus beneficios como en los riesgos reales. En Google queremos ser audaces y responsables. Sé que esas dos cosas suenan contradictorias pero ambas importan.

P. ¿Regular la IA es una forma de ser responsable?

R. Sí. Estas tecnologías son demasiado importantes como para no ser reguladas. Hace tiempo que lo estamos diciendo públicamente. Cualquier tecnología poderosa que sea tan rompedora y compleja lo necesita, incluso si es tan útil como esta. Si está afectando a la vida de las personas y a la sociedad, tiene que haber alguna forma de regulación.

P. Hay quien pide pausar su desarrollo hasta que se regule.

R. Estaríamos pausando los beneficios de esta tecnología para las personas. ¿De verdad queremos dejar de enviar alertas de inundaciones a los millones de personas que las reciben hoy en día? ¿Dejar de trabajar en avances en medicina? No creo. Tendría que haber un plan claro sobre qué estaríamos haciendo durante esa pausa y habría que coordinar a todos los que están trabajando en el desarrollo de la IA. Lo que considero que es importante es asegurarnos de estar en conversación con los gobiernos, para averiguar qué queremos hacer y como lo queremos hacer.

P. ¿Hay algún sector donde es peligroso aplicar la IA?

R. No pienso tanto en sectores concretos, sino en el uso que se le da. Una tecnología aplicada en medicina es diferente a la misma tecnología aplicada en el sector del transporte. Los riesgos son diferentes. Estoy de acuerdo en que es necesario reflexionar en cómo se aplica esta tecnología en cada caso. Por ejemplo, por mucho que me guste lo que hacemos con Bard, creo que es una idea terrible pedirle asesoramiento legal. Ahora, si me pregunta si se debería usar Bard para escribir un ensayo y explorar ideas, mi respuesta es por supuesto.

P. ¿Es una buena idea pedirle ayuda si estamos enfermos?

R. Yo no obtendría un diagnóstico médico de un chatbot. En general, si quisiera obtener información factual, iría al buscador de Google. Si quiero saber qué pasó en Madrid esta mañana, tampoco utilizaría Bard para eso.

P. ¿Cree que los chatbots de IA (como Bard o ChatGPT) pueden llegar a remplazar a los buscadores?

R. No sé qué están haciendo otras compañías, pero puedo decirle lo que estamos haciendo nosotros. Para nosotros Bard no es lo mismo que Google Search [el clásico buscador de la empresa]. Sí que hay formas en las que estamos incorporando IA y los grandes modelos de lenguaje a Search, pero son dos casos muy diferentes. Lanzamos Bard como un experimento: estamos tratando de entender por qué la gente lo está utilizando, para qué es útil. Y todavía estamos aprendiendo. Es importante tener en cuenta que hemos estado utilizando la inteligencia artificial para mejorar la búsqueda durante mucho más tiempo del que la gente cree. Hace seis años, cuando intentabas usar el buscador, probablemente tenías que escribir una consulta bastante precisa para que te devolviera algo útil. Hoy ya no tienes que hacerlo. Con escribir algo que sea más o menos correcto es suficiente.

P. ¿Cómo cree que será el escenario en 10 años?

R. Creo que será asombroso. Pienso en todas las cosas que podrán beneficiar a la sociedad, por ejemplo la posibilidad de entender miles de idiomas, y me emociona. Ahora mismo nos hemos puesto como objetivo conseguir traducir 2.000 idiomas en Google, pero en diez años pienso que podemos llegar a todas las 7.000 lenguas que se hablan en el mundo, incluso a idiomas que están desapareciendo. Sería extraordinario. Pero, al mismo tiempo, espero que también hayamos logrado progresos increíbles a la hora de combatir todos los riesgos de los que hemos hablado.

Parte del miedo que le tenemos a la IA viene de la incapacidad de aceptar que las máquinas también pueden hacer cosas creativas

P. ¿Qué debería pasar para que la IA se escape de nuestro control?

R. Que de alguna forma lleguemos a desarrollar sistemas que se diseñan por sí mismos y que sean capaces de crear sus propios objetivos. Eso sería problemático, pero estamos a años luz de ello. Esa sería la versión de ciencia ficción. Una situación más probable y problemática no tendría tanto que ver con la inteligencia artificial fuera de control, sino con las mismas personas. El peligro es que los humanos pongan estas tecnologías al servicio de usos horribles. Sabemos que el mismo sistema que puede descifrar estructuras de proteínas para desarrollar medicamentos también podría diseñar toxinas o virus si cae en manos equivocadas. Esto es lo que realmente me preocupa a corto plazo.

P. ¿De dónde viene entonces el miedo a la inteligencia artificial?

R. [Ríe] De las películas de Hollywood. Lo digo en broma, pero también creo que es cierto. Vuelvo a lo que he dicho antes, a la idea de que cuando esta tecnología empieza a ser útil, simplemente dejamos de llamarla IA. Parece que reservamos esta etiqueta para cosas que vemos en las películas o cosas que aún no entendemos o están a punto de suceder. Por otro lado, creo que parte de ese miedo se remonta a un factor muy humano, que es una pregunta que la humanidad se hace desde siempre. ¿Qué significa ser humano cuando las máquinas consiguen hacer las cosas que hasta ahora nos diferenciaban de cualquier otro ser vivo? Hasta ahora pensábamos que éramos los únicos capaces de hacer arte, los únicos en tener creatividad y empatía. Pienso que parte de ese miedo viene de la incapacidad de aceptar que las máquinas también pueden hacer cosas creativas, que hasta ahora se consideraban exclusivas de los humanos.

P. ¿Podríamos decir que lo que nos asusta es que las máquinas puedan hacer algo mejor que nosotros?

R. Tenemos que enfrentarnos a ese miedo. Tenemos que ajustar nuestra forma de pensar y preguntarnos quiénes somos y en qué somos buenos. Hubo un tiempo en que solíamos suponer que solo las personas que podían hacer matemáticas en su cabeza eran inteligentes. Que si en un examen no podías recitar de memoria cosas que habías aprendido en un libro de texto, probablemente no eras muy inteligente. Solíamos pensar todo esto, pero ahora hemos avanzado, y creo que lo mismo sucederá con la IA. Es solo que quizás está sucediendo más rápido de lo que los humanos estamos preparados para asimilar. Pero creo que la humanidad siempre se ha adaptado y que seguirá haciéndolo.

Puedes seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites



[ad_2]

Source link