En ce début de semaine, Google a présenté Willow, la dernière version de son processeur quantique. Dans un billet de blog, elle attribue des performances absolument époustouflantes à cette puce dotée de 105 qbits; en moins de 5 minutes, elle serait capable de résoudre des problèmes qui demanderaient 10 millions de milliards de milliards d’années de travail aux meilleurs supercalculateurs actuels.
Mais il y a un hic : l’intérêt pratique des calculs en question est extrêmement limité, et il faudra encore patienter avant d’arriver à la “suprématie quantique” que Google avait eu l’audace de revendiquer dès 2019.
Le RCS, un benchmark pas forcément pertinent
Pour comprendre ce qui rend cette annonce discutable, il faut se pencher sur la métrique utilisée par Google : l’échantillonnage de circuits aléatoires, ou RCS (pour Random Circuit Sampling). Ce test consiste à générer des séquences aléatoires de portes logiques quantiques qui seront inscrites dans un ensemble de qbits – les unités logiques fondamentales de l’informatique quantique. En échantillonnant ces circuits à plusieurs reprises, le système produit alors des séries de bits dont la répartition statistique dépend de la configuration du circuit.
C’est un exercice traditionnellement très éprouvant pour l’informatique classique, car la complexité des calculs augmente de manière exponentielle avec le nombre de portes logiques. En d’autres termes, les supercalculateurs conventionnels sont très vite dépassés.
En revanche, ce problème est beaucoup plus abordable pour les ordinateurs quantiques. Les qbits sont des entités quantiques qui peuvent exister dans une superposition de différents états ; en d’autres termes, contrairement aux bits de l’informatique traditionnelle, ils ne sont pas limités à une seule valeur précise, comme 0 ou 1. À la place, cette superposition quantique leur permet d’exister dans des états intermédiaires. Et surtout, dans des conditions idéales, tous ces qbits sont corrélés en vertu de l’intrication quantique — la fameuse « action effrayante à distance » mentionnée par Einstein.
Cette combinaison de superposition et d’intrication est au cœur du fonctionnement d’un ordinateur quantique. Elle permet à la machine de traiter différentes informations en parallèle, et donc de résoudre des problèmes très complexes comme le RCS dans des délais extrêmement courts par rapport aux supercalculateurs traditionnels.
Mais s’il s’agit effectivement d’un exercice très exigeant d’un point de vue strictement calculatoire, le RCS n’est pas forcément le benchmark le plus pertinent lorsqu’il s’agit de comparer les performances d’un ordinateur quantique à celles d’un supercalculateur conventionnel. En effet, à l’exception de quelques applications de niche dans des domaines comme le chiffrement, ce test n’a quasiment aucun intérêt pratique dans le monde réel. Plutôt ennuyeux, sachant que l’objectif principal des leaders de l’informatique quantique est de permettre à ces machines de résoudre des problèmes concrets.
Malgré l’intérêt pratique limité de cette approche, Google continue cependant d’affirmer que tous les ordinateurs quantiques devraient être jugés par rapport à leurs performances en RCS. Rien d’étonnant, puisque la firme de Mountain View est désormais dominante dans ce domaine… et que cela lui permet aussi d’éviter les comparaisons directes avec ses principaux concurrents. En effet, de nombreux cadors de l’informatique quantique, comme IBM, ont plutôt tendance à se baser sur une autre métrique : le volume quantique, qui estime la capacité du système à faire tourner des algorithmes généralistes. Or, le communiqué de Google évite soigneusement de faire référence à cet indicateur.
Un immense progrès dans la gestion des erreurs
Cela ne signifie toutefois pas que ces travaux n’ont aucune valeur, car Google revendique tout de même un grand progrès sur un point très important : la correction des erreurs.
À cause de leur dépendance aux états de superposition et d’intrication, les qbits sont des objets très délicats. La moindre variation de l’environnement peut introduire des erreurs qui doivent être corrigées par la suite. Or, préserver l’intégrité du système devient de plus en plus difficile lorsqu’on augmente la puissance du système; plus le nombre de qbits est élevé, plus il est difficile d’empêcher les erreurs.
Mais Google semble avoir réussi à contourner cet obstacle; l’entreprise affirme en effet que la robustesse de son architecture Willow augmente de manière exponentielle au lieu de diminuer lorsqu’on introduit de nouveaux qbits !
“Nous avons testé des réseaux de qubits physiques de plus en plus grands, passant d’une grille de 3×3 qubits à une grille 5×5, puis 7×7. À chaque fois, grâce à nos avancées en matière de correction d’erreurs quantiques, nous avons pu réduire le taux d’erreur de moitié. En d’autres termes, nous avons obtenu une réduction exponentielle du taux d’erreur. Cette réussite historique est connue dans le domaine sous le nom de « sous le seuil » : elle permet de réduire les erreurs tout en augmentant le nombre de qubits”, peut-on lire dans le communiqué.
La cerise sur le gâteau, c’est que ce système de correction est capable de fonctionner en temps réel – un point très important pour l’intégrité des données à la sortie, et donc pour envisager d’éventuelles applications pratiques.
Il sera très intéressant de voir si Google décidera un jour de sortir de sa zone de confort qu’est le RCS, afin de montrer ce que Willow a dans le ventre lorsqu’il s’agit de résoudre des problèmes plus terre-à-terre et d’arriver à la fameuse “suprématie quantique” que l’entreprise avait déjà revendiqué – à tort – en 2019.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.