Google communique sur sa maîtrise de l’erreur quantique

Dans la course à l’ordinateur quantique à laquelle nombre de géants de la tech prennent part, Google dit avoir réalisé des progrès significatifs en la matière. Dans son centre de recherche de Santa Barbara, une avancée notable dans la réduction du taux d’erreur de calcul a été rendue possible en rallongeant les codes quantiques qui y correspondent.

En effet, pour un ordinateur classique – où les bits d’information prennent les valeurs binaires 0 ou 1-  les erreurs (un 0 transformé en 1 ou l’inverse) peuvent être localisées et résolues par la puce elle-même. Ce n’est pas le cas avec un ordinateur quantique où l’information quantique est contenue dans des bits quantiques appelés qubits dont l’état est caractérisé non par la valeur prise (0 ou 1) mais par les probabilités avec lesquelles ils prennent les valeurs 0 ou 1. Les qubits sont particulièrement sensibles aux erreurs et il est plus délicat de les identifier (comment ​évaluer cette probabilité ?). Un enjeu majeur de la recherche à ce sujet est donc la mise au point de codes de correction de ces erreurs et la stabilisation des qubits. 

La piste explorée pour diminuer le taux d’erreur inhérent au calcul sur bits quantiques consiste à regrouper plusieurs qubits physiques pour former chaque qubit logique. Malheureusement cette forme de redondance n’est pas facile à exploiter car la multiplication des qubits physiques augmente aussi drastiquement la sensibilité du système aux erreurs et jusqu’à présent cet effet négatif se révélait plus fort que le bénéfice apporté par la redondance. Le pas franchi par Google a consisté à abaisser le taux d’erreur d’un qubit logique composé de 49 qubits physiques en dessous d’un composé  de 17 qubits physiques (de 0.114%). On aurait pourtant supposé a priori que des qubits logiques plus longs sont plus sensibles aux erreurs car plusieurs de leurs constituants peuvent être affectés par une erreur simultanément. Cela représente un espoir pour qu’un changement d’échelle permette effectivement d’améliorer le taux (scalability). 

Cette avancée dans la qualité des codes correcteurs d’erreurs montre que l’on peut améliorer le taux d’erreur par ce type de procédé (redondance) mais, à ce stade, l’ordre de grandeur de l’amélioration nous laisse encore loin de ce qui serait un système effectivement opérationnel ! L’annonce de Google qui présente ce succès comme l’accomplissement du second milestone de son plan quantique sert en tout cas sa communication… 


© Photo by Manuel on Unsplash

Rédacteur

Antoine Glory, Chargé de mission pour la Science et la Technologie à l’Ambassade de France à Washington, [email protected]

 

Partager

Derniers articles dans la thématique
, ,