Google consigue un sistema de corrección de errores necesario para una computación cuántica útil y a gran escala | Tecnología

[ad_1]

El director ejecutivo de Google, Sundar Pichai, junto a un investigador con un computador cuántico en Santa Bárbara (California) en 2019.
El director ejecutivo de Google, Sundar Pichai, junto a un investigador con un computador cuántico en Santa Bárbara (California) en 2019.Handout . (REUTERS)

La computación cuántica da hoy otro paso fundamental. El mayor problema para aprovechar las singularidades de las partículas subatómicas, que elevan exponencialmente las posibilidades de procesamiento, reside en los errores generados en la manipulación y la medida de los cúbits (unidad cuántica mínima de información). Cualquier interacción con ellos los degrada y anula la ventaja. “Este límite puede superarse gracias a fórmulas de corrección de errores, pero estas técnicas requieren aumentar significativamente el número de cúbits”, explica Alberto Casas, profesor de investigación en el Instituto de Física Teórica (CSIC-UAM) en La revolución cuántica (Ediciones B, 2022). Esta limitación acaba de ser superada por el científico Hartmut Neven y más de un centenar de sus compañeros de Google Quantum AI, quienes aportan, en un trabajo publicado en Nature, “una demostración de computación cuántica donde el error disminuye a medida que aumenta el tamaño del sistema y permite registrar tasas de fallos suficientemente bajas para ejecutar algoritmos cuánticos útiles”. Es la puerta para una computación cuántica robusta sin depender del desarrollo de tecnologías casi imposibles. “Es un hito en nuestro viaje para construir una computadora cuántica útil, un paso necesario por el que tiene que pasar cualquier tecnología informática actual madura”, afirma Neven.

Si un superordenador actual puede hacer millones de operaciones con bites (el Summit de IBM es capaz de procesar más de 200.000 millones de cálculos por segundo), uno cuántico puede ejecutar trillones. Esta potencia se basa en la superposición, una particularidad de las partículas subatómicas que les permite estar en dos estados o en cualquier superposición de ellos. Un bit (la unidad mínima en computación clásica) solo puede tener un valor binario: 0 o 1. El cúbit, por el contrario, puede encontrarse en esos dos estados o en ambos a la vez. De esta forma, dos bits pueden almacenar un número, mientras dos cúbits almacenan cuatro y diez cúbits pueden tener 1.024 estados simultáneos, por lo que se amplía exponencialmente la capacidad de cálculo por cada cúbit añadido.

Sin embargo, al intentar extraer la información almacenada, el sistema sufre un fenómeno conocido como decoherencia: la degradación de esas superposiciones cuánticas hasta convertirlas en estados clásicos. Y ese efecto lo ocasiona cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia genera ruido y reduce a microsegundos el tiempo en el que se mantienen las superposiciones que multiplican la capacidad de computación.

Una forma de evitar las limitaciones es construir computadoras aisladas hasta límites inéditos y a una temperatura cercana al cero absoluto (-273 grados Celsius) así como ir ampliando su capacidad. El procesador Osprey de IBM ha alcanzado los 433 cúbits y la compañía prevé llegar en 2025, con el Kookaburra (Cucaburra), a más de 4.000. “Desde 1990 se intentan organizar conjuntos cada vez más grandes de cúbits físicos en lógicos para lograr tasas de error más bajas. Pero hasta ahora sucedía lo contrario porque a más cúbits, más puertas, más operaciones que pueden arrojar un error”, explica Neven.

La corrección de errores es el único camino conocido para hacer computadoras cuánticas útiles y a gran escala

Julian Kelly, investigador del equipo de Google Quantum AI

De esta forma, la carrera tecnológica por construir ordenadores cada vez más capaces, dispositivos que proporcionen tiempos de coherencia más largos y aporten una mejora neta respecto a los métodos clásicos, es cada vez más compleja y precisa de un camino complementario. “La tecnología más importante para el futuro de la computación cuántica es la corrección de errores, es el único camino conocido para hacer computadoras cuánticas útiles y a gran escala”, asegura Julian Kelly, investigador del equipo de Google.

Y este es el avance presentado este miércoles: “Un cúbit lógico de código superficial puede reducir las tasas de error a medida que aumenta el tamaño del sistema”, es decir, que se puede aumentar la capacidad de computación cuántica robusta sin depender de máquinas que rocen los límites de la tecnología disponible.

El cúbit lógico superficial o de superficie es un conjunto de cúbits físicos agrupados y controlados de una forma determinada para que, una vez entrelazados (la acción sobre una partícula afecta instantáneamente a la otra, incluso si están separadas por grandes distancias), actúen de estabilizadores del sistema para evitar imperfecciones de los estados, materiales o medidas.

Se necesita más trabajo para alcanzar las tasas de error lógicas requeridas para un cálculo efectivo, pero esta investigación demuestra el requisito fundamental para futuros desarrollos

Hartmut Neven, investigador de Google y principal autor del trabajo publicado en ‘Nature’

Según explica el investigador principal, “se necesita controlar al conjunto mediante los llamados cúbits de medida, que detectan errores de una manera indirecta inteligente para no destruir el tipo de estado de superposición cuántica y actuar en consecuencia”. “No podemos simplemente medir dónde ocurren los errores. Si identificamos, además de dónde, qué cúbits de datos tenían errores y cuáles fueron, podemos decodificar y recuperar la información cuántica”, añade Kelly.

“El código de superficie es”, según explican los investigadores, “un tipo de computación cuántica altamente tolerante a fallos y robusto”. Los sistemas actuales arrojan errores en una proporción de uno entre mil. Estos pueden parecer escasos, pero las aplicaciones prácticas de la computación cuántica necesitan reducirlos mucho más, hasta uno entre un millón, según resalta Neven. Es el camino emprendido por Google y que, según asegura el científico, “demuestra que la corrección de errores funciona y nos informa de todo lo que se necesita saber sobre este sistema”.

Para la demostración que publica Nature, el equipo de Hartmut Neven creó, a partir de la tercera generación del Sycamore de Google, un procesador cuántico superconductor con 72 cúbits y lo probaron con dos códigos de superficie, uno mayor que el otro. El más grande (sobre 49 cúbits físicos) arrojó una tasa de fallos (2,914% de error lógico por ciclo) menor que el más pequeño (3.028% en 17 cúbits físicos). “Se necesita más trabajo para alcanzar las tasas de error lógicas requeridas para un cálculo efectivo, pero esta investigación demuestra el requisito fundamental para futuros desarrollos”, afirma Neven.

La línea de investigación de Google se basa en la premisa expuesta por el físico Richard Feynman, en 1981, cuando afirmó: “La naturaleza es cuántica, maldita sea, así que, si la quieres simular, mejor que sea una simulación cuántica”. De esta forma, Feynman limitaba las posibilidades de la computación convencional para desentrañar el mundo cuántico e instaba a simular esta segunda realidad para conseguirlo.

Desde esa propuesta para computar a partir de la física cuántica han surgido, según recuerdan los investigadores de Google, numerosas aplicaciones que incluyen factorización (clave en la criptografía), aprendizaje mecánico o química cuántica. Pero estas siguen precisando miles de operaciones para minimizar la aún alta tasa de error. Los científicos de la multinacional norteamericana creen haber abierto la puerta para que “la corrección de errores pueda suprimir exponencialmente las tasas de fallos operacionales en un procesador cuántico”.

Kelly admite que es un resultado necesario y crítico, pero no suficiente. “Los resultados aún no muestran la escala de rendimiento en el nivel necesario para construir una máquina sin errores. Pero es realmente un hito científico clave porque demuestra que la corrección de errores finalmente funciona y nos brinda aprendizajes clave a medida que avanzamos hacia nuestro próximo hito”.

Tampoco evita que se mantenga la carrera por construir computadoras con más de 100.000 cúbits, proyectos en los que trabajan, además de Google, compañías como IBM, Intel, Microsoft o Rigetti. La corrección de errores es complementaria. “Estamos abordando primero lo que creemos que es más difícil y es, básicamente, tomar información cuántica y protegerla del entorno. Estamos tratando fundamentalmente de usar la corrección de errores cuánticos para la coherencia. El desafío fundamental y clave es demostrar que esa corrección de errores funciona a una escala para poder tomar información cuántica y protegerla del entorno”, explica Julian Kelly.

Puedes escribirnos a rlimon@elpais.es, seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.



[ad_2]

Source link