Aunque los ordenadores cuánticos todavía están muy lejos de estar operativos, el trabajo en el sector continúa. Google acaba de ser noticia al presentar una solución para resolver un viejo problema. Y al mismo tiempo revelar un chip cuántico que hará que las supercomputadoras se pongan verdes de envidia.
¿Cómo podemos afirmar nuestra presencia a la vanguardia de la investigación en computación cuántica? Ofreciendo un número enorme desde el principio. Esto es lo que acaba de hacer Google el 9 de diciembre, al presentar su trabajo más reciente en uno de los campos de investigación en los que el grupo estadounidense es más activo: la inteligencia artificial.
Su trabajo, pero también un nuevo chip llamado Willow. Y esta Willow, según Google, destacó por realizar “ en menos de 5 minutos se puede realizar un cálculo de referencia estándar que a uno de los superordenadores más rápidos de la actualidad le llevaría 10 septillones (es decir, 1025) años “. Hasta aquí el número del club.
729.927 billones de Universos más
Es imposible para la mente imaginar qué es un número 1 seguido de veinticinco 0. Por supuesto, podemos escribirlo en un papel (10.000.000.000.000.000.000.000.000), pero no podemos “captarlo intelectualmente”. En cambio, la edad del Universo desde el Big Bang es de “sólo” 13,7 mil millones de años (13.700.000.000).
Esto también significa que si el superordenador utilizado para esta comparación hubiera trabajado continuamente desde el Big Bang para realizar esta misma operación completada en 5 minutos por Willow, todavía tendría que repetir este ciclo de 13,7 mil millones de años… 729 927 000.000.000 de veces. Por tanto, todavía necesitaríamos 729.927 billones de universos.
En este caso, la supercomputadora que sirvió de referencia es Frontier, operada por el Departamento de Energía de Estados Unidos. Está operativo desde 2022 y actualmente es el segundo superordenador más potente del mundo, detrás de El Capitán, también estadounidense, según el ranking de referencia de noviembre de 2024.
Este anuncio en torno a Willow va acompañado de la publicación en la prestigiosa revista científica Nature de un estudio firmado por una gran cohorte de 255 especialistas cuánticos. Estos provienen tanto de las filas de los laboratorios de Google como de universidades americanas o europeas.
Este estudio, fechado el 9 de diciembre, se centra en un método para reducir el número de errores en el cálculo cuántico, con el fin de hacer el resultado más fiable y estabilizar el uso de qubits. El qubit es la unidad elemental sobre la que se construye la computación cuántica. Es el equivalente al bit para la computadora clásica.
Una solución a un desafío de 30 años
Sin embargo, según afirma la firma de Mountain View en su entrada de blog, “ Cuantos más qubits usamos en Willow, más reducimos los errores y más cuántico se vuelve el sistema “. La reducción es “ exponencial a medida que aumentamos el número de qubits », añade Sundar Pichai, el jefe de Google. Esto por sí solo se resuelve” Un desafío de 30 años. »
En este caso, explica la empresa estadounidense, el desafío en cuestión se llama teorema del umbral. En computación cuántica, se supone que es posible mantener la tasa de error de cada operación cuántica por debajo de un cierto umbral crítico. Este es precisamente el propósito del estudio publicado en Nature.
Noble Corrección de errores cuánticos por debajo del umbral del código de superficieel estudio tenía como objetivo “ demostrar que estamos por debajo del umbral para lograr un progreso real en la corrección de errores, y esto ha sido un desafío importante desde que Peter Shor introdujo la corrección de errores cuánticos en 1995. », añade Google.
El célebre matemático americano, en un estudio publicado en aquella época, había esbozado una esquema para reducir la decoherencia en la memoria de una computadora cuánticaseñalando que el problema en esta área es “ decoherencia ”, debido a la fragilidad de los qubits. Esta decoherencia destruye la información » y « hace imposible realizar cálculos largos. »
Peter Shor consideró en su momento que era necesario encontrar una solución análoga a los clásicos códigos de corrección de errores para “ Reducir los efectos de la decoherencia de la información almacenada en una memoria cuántica. “. Un objetivo imprescindible para que la computación cuántica tenga un futuro a gran escala.
Aún no es el final del viaje hacia el Grial Cuántico
En un artículo más técnico, Google describe cómo lleva a cabo esta corrección de errores, hasta el punto de reducir a la mitad la tasa de error, hasta llevarla a una proporción de uno a mil. Bueno, pero insuficiente en comparación con las necesidades, admite la empresa. La proporción esencial que tendremos que esperar algún día tendrá que ser de uno a un billón.
Por supuesto, mediante la corrección de errores, en principio sería posible escalar el sistema para lograr una computación cuántica casi perfecta. Pero Google tranquiliza la situación. Aún queda un largo camino por recorrer, sobre todo porque los últimos avances se han producido en un ámbito limitado.
En este caso Google señala que el procesador Willow tiene 105 qubits. Sin embargo, con las tasas de error actuales, se necesitarían más de mil qubits físicos para obtener tasas de error relativamente modestas, del orden de 10-6. Y nada dice que se vaya a conseguir el mismo rendimiento con un procesador de 1.000 qubits. Etcétera.
Además, esta manifestación tiene sus límites, señala Le Monde. Se hacía sobre una memoria que consistía en repetir los pasos de lectura de su valor, y no sobre un cálculo real. No se produjeron intentos de manipulación de qubits. Además, sin ser ridículo, la tasa de error no es tan destacable. En resumen, aún queda trabajo por hacer.
Queda por ver si estos desafíos se superarán dentro de cinco años, cuando Google cree que podrá comercializar una primera computadora cuántica, según sus proyecciones realizadas en 2021.
Entendiendo la materia y el Universo con la física