Una investigación avanza hacia la supremacía cuántica con resultados imposibles en la computación clásica | Tecnología

[ad_1]

Para la ciencia, el futuro de la computación cuántica ya está aquí, es una realidad incluso con las limitaciones actuales. Una investigación que publica Nature este miércoles demuestra que un procesador de 127 cúbits, capacidad ya presente en los ordenadores cuánticos comerciales existentes, es capaz de medir valores esperados en operaciones de física, incluso con los errores que aún genera este tipo de computación. Para Göran Wendin y Jonas Bylander, investigadores de la Universidad de Tecnología de Chalmers (Suecia), el trabajo demuestra “que los procesadores cuánticos pueden ser potencialmente útiles para algunos cálculos específicos, a pesar de los errores”, robustez a la que aún le quedan algunos años por delante para ser alcanzada. Esta demostración no establece la supremacía cuántica, entendida como la capacidad de resolver problemas que los ordenadores convencionales no pueden solucionar, pero sí avanza hacia ella al probar una ventaja de la computación cuántica actual, la ya disponible, para ser eficiente e “ir más allá de las capacidades de los mejores métodos computacionales clásicos actuales” con procesos de mitigación de fallos tras el análisis.

Un superordenador actual, como el Summit de IBM, es capaz de procesar más de 200.000 millones de cálculos por segundo. Pero uno cuántico podría ejecutar trillones gracias a la superposición, una propiedad que permite a las partículas estar en dos estados o en cualquier superposición de ellos. De esta forma, mientras dos bits (el bit es la unidad mínima en computación clásica) pueden almacenar un número, dos cúbits pueden contener cuatro y diez cúbits, 1.024 estados simultáneos, por lo que se amplía exponencialmente la capacidad por cada cúbit añadido.

El problema es que las superposiciones cuánticas se degradan hasta convertirse en estados clásicos (decoherencia) por cualquier interacción con el entorno: temperatura, electromagnetismo, vibraciones… Cualquier interferencia produce ruido, reduce a microsegundos el tiempo en el que se mantienen las superposiciones que multiplican la capacidad de computación y genera fallos que intentan mitigarse con programación, buscando partículas cercanas a la esquiva Majorana y que mantengan la coherencia, o evitándolos con sistemas muy complejos, aislados y a temperaturas de cero absoluto (-273 grados Celsius).

De esta forma, la computación cuántica tolerante a fallos es hoy imposible para las tecnologías existentes y está “fuera del alcance de los procesadores actuales”, según los autores de la investigación, aunque empresas como Google han dados pasos de gigante de forma reciente en este sentido.

La demostración que publican ahora Youngseok Kim, Andrew Eddins y Abhinav Kadala, investigadores de IBM, junto a otros autores, evidencia que un procesador cuántico y un procesamiento posterior al análisis pueden generar, manipular y medir de manera confiable estados cuánticos tan complejos que sus propiedades no podrían estimarse de forma precisa mediante aproximaciones clásicas.

No se trata de velocidad de computación, sino de capacidad. “Ninguna computadora clásica tiene suficiente memoria para codificar las posibilidades calculadas por los 127 cúbits”, afirman los autores. Wendin y Bylander lo comparten: “La ventaja cuántica fundamental aquí es la escala en lugar de la rapidez: los 127 cúbits codifican un problema para el cual ninguna computadora clásica tiene suficiente memoria”.

Ventaja cuántica

“Estos resultados experimentales son posibles gracias a los avances en la coherencia y calibración del procesador superconductor, así como por la capacidad de caracterizar y manipular de forma controlada el ruido. Estos experimentos evidencian la utilidad de la computación cuántica en una era pretolerante a fallos [la actual] y muestran una herramienta fundamental para la realización de aplicaciones cuánticas a corto plazo”, aseguran los autores.

La medición física ya fue demostrada por un equipo internacional europeo en el que participó el profesor de la Universidad de Sevilla Adán Cabello, quien logró observar el estado cuántico de un ion de estroncio durante todo el proceso, no solo al principio y al final. Esta primera película de algo nunca visto y que dura una millonésima de segundo, fue considerada por Physics World como uno de los avances más destacados de 2020.

Uno de los primeros modelos de computador cuántico comercial de IBM.
Uno de los primeros modelos de computador cuántico comercial de IBM.IBM

Para la investigación actual se ha recurrido a un modelo de Ising, un paradigma propuesto para estudiar la transición ferromagnética de las partículas. Pero el objetivo no era el proceso físico, sino demostrar que una medición fiable sobre un sistema complejo se puede realizar con un ordenador cuántico comercialmente disponible, aunque no sea tolerante a fallos. “La pregunta que se plantea el artículo de Nature es: ¿Podemos hacer algo útil con los ordenadores cuánticos actuales, con un número pequeño de cúbits y unas probabilidades de error relativamente altas? La respuesta de los autores es que sí, pero tiene un truco: la mitigación de errores”, afirma Carlos Sabín, investigador Ramón y Cajal en el departamento de Física Teórica de la Universidad Autónoma de Madrid (UAM), a Science Media Center (SMC).

“Los autores muestran que su máquina [de IBM], tras la mitigación de errores, sí que aporta resultados fiables al calcular magnitudes físicas del sistema”, explica Sabín. Y añade: “Si estos resultados se confirman (por ejemplo, por el equipo de la competencia de Google) significarían un primer paso en la prueba de la utilidad de los ordenadores cuánticos actuales, relativamente pequeños y ruidosos, cuando se les ayuda con mitigación de errores”. “Aunque seguramente este cálculo concreto no tiene aplicación práctica directa (ya que los valores de los parámetros donde se muestra la superioridad cuántica probablemente no se correspondan con sistemas físicos reales), al menos, el modelo de Ising [el utilizado en el experimento] tiene una inspiración física, por lo que es posible que existan modelos de complejidad similar con aplicaciones más inmediatas que también puedan ser atacados por máquinas parecidas y un enfoque basado en mitigación, no corrección, de errores”, concluye

Juan José García-Ripoll, investigador científico en el Instituto de Física Fundamental IFF-CSIC, resalta a SMC que “el trabajo, de excelente calidad, demuestra la capacidad de cómputo del ordenador cuántico de 127 cúbits de IBM”. García-Ripoll resume las conclusiones de la investigación: “Los ordenadores cuánticos que tenemos, aunque imprecisos, pueden simular problemas de interés para la física que son de una elevada complejidad; aunque el ordenador cuántico comete errores, el protocolo permite cancelarlos y obtener predicciones cuantitativas muy precisas; y las técnicas de simulación en ordenadores clásicos para problemas de este tipo producen resultados menos precisos que el ordenador cuántico”.

Para el físico español, el resultado “no es necesariamente definitivo”, aunque la computación cuántica haya desarrollado procesadores como el Osprey, también de IBM y con 413 cúbits. “Es posible que otros científicos mejoren el estado del arte en redes de tensores [los sistemas clásicos usados para problemas como el abordado en Nature] y consigan igualar o superar lo que puede hacer este procesador con 127 cúbits”, añade.

Una opinión similar sostienen Göran Wendin y Jonas Bylander: “¿Este avance mejora las perspectivas de aplicar la computación cuántica a problemas industrialmente relevantes? La respuesta es: probablemente no. Tales algoritmos deben involucrar un número mucho mayor de cúbits y muchas más operaciones para ser competitivos con las supercomputadoras clásicas de alto rendimiento y estos cálculos cuánticos inevitablemente se ahogarían en ruido”

Puedes escribir a rlimon@elpais.es y seguir a EL PAÍS Tecnología en Facebook y Twitter o apuntarte aquí para recibir nuestra newsletter semanal.



[ad_2]

Source link