Avance
Logran la corrección de errores en la computación cuántica
Este avance logrado por un grupo de científicos puede abrir nuevas puertas a este tipo de computación e impulsar su rendimiento
Un grupo de investigadores de Google acaba de publicar un artículo científico en la revista Nature en el que aseguran haber conseguido un hito en lo que a la corrección de errores en computación cuántica se refiere con la creación de un nuevo chip denominado Willow. Un hallazgo que puede resultar clave debido a la naturaleza frágil de la información cuántica y la propensión a errores de las operaciones cuánticas.
Además, Google asegura que este nuevo procesador fue capaz de hacer un cálculo en menos de cinco minutos que a los superordenadores actuales les llevaría 10 septillones de años, superando ampliamente la edad del universo, utilizando el benchmark de muestreo de circuitos aleatorios (RCS, por su denominación en inglés random circuit sampling).
Según la compañía, estos logros pueden suponer un paso de gigante en la construcción de computadoras cuánticas útiles a nivel comercial, capaces de resolver problemas intratables para los ordenadores clásicos, y abre la puerta a aplicaciones en diversos campos como la IA, la medicina y las energías renovables.
Hallazgo
Según se detalla en el artículo de Nature, la información cuántica es susceptible a la decoherencia, un proceso por el cual la interacción con el entorno degrada la información cuántica, introduciendo errores. Además, las operaciones cuánticas, como las puertas lógicas, son propensas a errores. Incluso las plataformas de cúbits de última generación tienen tasas de error mucho más altas que las requeridas para muchas aplicaciones. Por eso se considera clave la corrección de errores cuánticos, porque permite suprimir exponencialmente la tasa de error lógico a medida que se aumenta el número de cúbits físicos por cúbit lógico. La corrección de errores es un componente esencial de la computación cuántica tolerante a fallos, que busca construir ordenadores cuánticos robustos que puedan funcionar de manera fiable a pesar de los errores.
Además, este hito se ha logrado mediante el uso de códigos como el código de superficie, lo que permite superar las limitaciones de las mejoras de hardware. Si bien las mejoras en el hardware son importantes para reducir las tasas de error físicas, la corrección de errores proporciona una ventaja exponencial al permitir que pequeños avances en el rendimiento del procesador se traduzcan en reducciones drásticas de la tasa de error lógico.
Un nuevo chip
Este logro se materializa en un nuevo chip denominado Willow que trabaja a velocidades muy altas, lo que, según los investigadores, supone un desafío para la decodificación de errores en tiempo real. El decodificador debe procesar la información del síndrome lo suficientemente rápido para mantenerse al ritmo del ciclo de corrección de errores.
Sin embargo, Google asegura haber logrado un rendimiento por debajo del umbral con sus procesadores Willow, donde la tasa de error lógico se reduce a medida que se aumenta el número de cúbits, validando las predicciones teóricas de la corrección de errores. La expresión “por debajo del umbral” se refiere, en computación cuántica, a un régimen de operación en el que la tasa de error para un cúbit lógico disminuye exponencialmente a medida que se aumenta la distancia del código, es decir, el número de cúbits físicos utilizados para codificar un cúbit lógico. Estar por debajo del umbral es crucial para la computación cuántica tolerante a fallos porque permite construir cúbits lógicos con tasas de error arbitrariamente bajas, lo que mejora la escalabilidad (al aumentar la distancia del código, se pueden suprimir exponencialmente los errores y construir ordenadores cuánticos más grandes y potentes) y la computación fiable (cúbits lógicos con bajas tasas de error son esenciales para ejecutar algoritmos cuánticos complejos de manera fiable).
Eso sí, los experimentos con códigos de repetición de alta distancia en Willow han revelado nuevos mecanismos de error, como ráfagas de error correlacionadas, que destacan la importancia de la investigación continua para comprender y mitigar estos errores.
✕
Accede a tu cuenta para comentar