Los límites de la computación digital y los chips neuromórficos | Tecnología

[ad_1]

Neurocientíficos computacionales apuntan a que los cerebros evolucionaron como máquinas de predicción para optimizar su consumo de energía.
Neurocientíficos computacionales apuntan a que los cerebros evolucionaron como máquinas de predicción para optimizar su consumo de energía.Yuichiro Chino (Getty Images)

Un número creciente de neurocientíficos piensa que nuestro cerebro es una especie de “máquina de predicción” que pronostica lo que está pasando antes de que ocurra, es decir, nuestras percepciones son, en parte, hipótesis. Experimentos de “neurocientíficos computacionales” con redes neuronales artificiales (los componentes de los algoritmos de la IA) apuntan a que los cerebros evolucionaron como máquinas de predicción para optimizar su consumo de energía. La vida evolucionó creando un balance perfecto entre lo que podía “computar” y la energía que podía gastar. Entrelazando genes y formas, lo digital y lo analógico, hardware y software, razón y emoción, el universo creó inteligencia biológica, que usa mucha menos energía que nuestras computaciones en ordenadores digitales.

La inteligencia artificial progresó de una manera muy diferente a la biológica, obedeciendo a las leyes de la geopolítica científica y de la competición industrial casi tanto como a las de la física. Los pioneros Alan Turing y John von Neumann, inspirados por la biología humana y también por las matemáticas de Kurt Goedel sobre los límites de la lógica y los algoritmos para entender la realidad, crearon los primeros ordenadores digitales (con financiación del Manhattan Project y fondos militares durante la “Guerra fría”). Gracias a la física de semiconductores los ordenadores expandieron su capacidad de computar a medida que se pudieron ir reduciendo el tamaño de los chips. Entre 1980 y 2010 la capacidad de memoria y computación de los microprocesadores se dobló cada dos años. Esto provocó una separación entre la actividad de los fabricantes de chips (el hardware) y la actividad de los desarrolladores de software y algoritmos. Los informáticos y científicos nos acostumbramos a pensar solo en el algoritmo, asumiendo que se ejecutaría en máquinas capaces de calcular cualquier cosa que les echáramos.

Pero estamos alcanzando los límites de este modelo. Por una parte, los chips no se pueden miniaturizar más (se alcanza ya el límite de los 2 nanómetros, ya no hay más espacio para seguir menguando). Por otra, solo en Taiwán y Corea del Sur saben fabricar los chips más avanzados, lo que crea una incierta situación geopolítica. Pero hay otro problema, el consumo energético, que empieza a convertirse en otro obstáculo insuperable para las frágiles cadenas de producción globalizadas. Se calcula que el 3% de toda la electricidad utilizada en el mundo se consume en los centros de datos, mucho más que toda la electricidad utilizada por todo el Reino Unido. Las proyecciones apuntan a que en 2030 subirá al 13%.

Los supercomputadores que usamos en modelos del clima, diseño de medicinas, de aviones y coches, etc. también consumen muchísimo, aproximadamente la misma electricidad que una ciudad de 10.000 habitantes. La supercomputadora Summit en el Laboratorio Nacional de Oak Ridge, por ejemplo, producirá anualmente emisiones de CO2 equivalentes a las de más de 30,000 vuelos de ida y vuelta entre Washington y Londres. Una ronda de entrenamiento de un algoritmo potente de AI (por ejemplo, los traductores de idiomas) cuesta 4 millones de dólares en factura de la luz. Una sola transacción de criptomonedas gasta la misma electricidad que una familia típica en una semana.

Estos gastos exorbitantes limitan lo que se puede/debe computar. Los científicos están intentando mejorar la situación, pero de manera descoordinada. Aunque algo los une, todos miran a la biología para buscar inspiración en las estructuras vivas, capaces de computar con un gasto de energía muy bajo. Los diseñadores de algoritmos intentan incorporar la capacidad de predicción del cerebro que mencioné al principio, usando la física del proceso, para reducir en número de parámetros de AI. Pero la tendencia de los poderosos no va por ahí: la carrera hacia la “superinteligencia artificial” comenzó en 2020 con “Open AI” fundado por Elon Musk que reveló GPT-3 con una capacidad de 175 mil millones de parámetros en el algoritmo. Le siguió en 2021 Google (1,6 billones de parámetros) y la Academia de Inteligencia Artificial de Beijing (con 1,75 billones). Pero este camino de aumentar sin más el tamaño del algoritmo no está claro que lleve a la superIA, porque el gasto energético le pone un tope que quizá no se pueda superar.

Algunos científicos lo tenemos claro, para progresar la única solución es volver a mirar a la biología. Como en nuestro cerebro, el hardware y el algoritmo/software tienen que estar íntimamente relacionados. Un área particularmente interesante que está empezando a ganar tracción es la de los “chips neuromórficos”. Los diseños neuromórficos imitan la arquitectura de la masa gelatinosa en nuestras cabezas, con unidades informáticas ubicadas junto a la memoria. Los investigadores usan computación analógica, que puede procesar señales continuas, al igual que las neuronas reales. Varios computadores neuromórficos analógicos están ya en funcionamiento, en EE UU dos ejemplos son NeuRRAM (que gasta 1,000 veces menos que un chip digital) y Neurogrid de “Brains in Silicon” en Stanford. En Europa, IMEC construyó el primer chip neuromórfico de autoaprendizaje del mundo y demostró su capacidad para aprender a componer música. No está claro como estos nuevos sistemas llegarán al mundo real. El problema es que diseñar hardware es arriesgado y costoso (desarrollar un chip nuevo cuesta entre 30 y 80 millones de dólares y 2-3 años).

Quizá sea precisamente la situación geopolítica, como pasó en el nacimiento de los primeros ordenadores, la que nos dé el empujón. En China, la computación neuromórfica, se ve como una de las áreas donde poder sobrepasar a los actuales sistemas digitales y existen laboratorios dedicados en todas sus universidades punteras. En EE UU la Oficina de Inteligencia Digital y Artificial de las fuerzas armadas (CDAO) y otras instituciones militares, desarrollan y financian ya la implementación de hardware neuromórfico para uso en combate. Las aplicaciones incluyen auriculares/gafas inteligentes, drones y robots.

En un mundo inestable amenazado de nuevo por guerras, la geopolítica posiblemente nos llevará a reinventar la computación y reconectar con Goedel, Turing y von Neumann para superar sus límites. Como ellos sabían bien, la realidad no se puede simular en algoritmos digitales. Volvemos a la realidad de la física, que siempre se escapa del control total de la lógica humana, para intentar avanzar.

Puedes seguir a EL PAÍS TECNOLOGÍA en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.



[ad_2]

Source link