Publié le 13 février 2024 20:51:00. Des chercheurs de Google ont franchi une étape cruciale dans le développement de l’informatique quantique, parvenant à corriger les erreurs qui limitaient jusqu’à présent la puissance et la fiabilité de ces machines prometteuses. Cette avancée ouvre la voie à des applications concrètes dans des domaines aussi variés que la chimie, la science des matériaux et la sécurité informatique.
- Google a démontré qu’un ordinateur quantique peut devenir plus précis à mesure qu’il s’agrandit, un défi majeur depuis des décennies.
- La technique de correction d’erreurs de surface permet de stabiliser les qubits, les unités fondamentales de l’information quantique.
- Cette percée annonce l’ère de l’informatique quantique tolérante aux pannes, ouvrant la porte à des algorithmes complexes et à des simulations auparavant impossibles.
L’équipe Google Quantum AI a annoncé cette semaine une avancée considérée par de nombreux experts comme un tournant majeur dans le domaine de la technologie : la maîtrise de l’erreur quantique. Pour la première fois, il est possible de construire un ordinateur quantique dont la précision s’améliore avec l’augmentation de sa complexité, résolvant un problème d’instabilité qui freinait le développement de cette technologie depuis des années.
Jusqu’à présent, les ordinateurs quantiques étaient souvent décrits comme des systèmes particulièrement fragiles. Les qubits (unités quantiques d’information) sont extrêmement sensibles aux perturbations de l’environnement. La moindre variation de température ou de vibration peut provoquer des erreurs de calcul, un phénomène connu sous le nom de décohérence. Le principal obstacle résidait dans le fait que toute tentative d’amélioration de la stabilité ou de la capacité de traitement, par l’ajout de qubits supplémentaires, rendait le système si complexe qu’il générait paradoxalement davantage d’erreurs.
Google a réussi à surmonter cette difficulté en mettant au point une technique de correction d’erreurs de surface. Ce système fonctionne comme une grille ou un échiquier composé de qubits physiques. Au sein de cette structure, les qubits chargés du traitement des données sont entourés de « qubits auxiliaires » dédiés à la mesure. Ces derniers surveillent en permanence l’état de leurs voisins sans les observer directement – une observation directe détruirait l’état d’incertitude quantique. Si une erreur se produit à un endroit de la grille, le réseau de surveillance la détecte et la corrige automatiquement.
En augmentant la taille de cette grille, l’équipe de Google a démontré qu’un « qubit logique » – un ensemble de plusieurs qubits physiques travaillant de concert – pouvait être plus stable que ses composants individuels. En d’autres termes, plus le « réseau » est grand (plus il contient de qubits), plus les calculs sont fiables. C’est à ce moment précis que la protection contre les erreurs prend le dessus sur la tendance naturelle au chaos.
L’importance de cette avancée est considérable. Avec cette étape franchie, l’informatique quantique tolérante aux pannes devient une réalité. Cela signifie que nous passons des prototypes destinés à des recherches académiques à des machines capables d’exécuter des algorithmes complexes pendant des heures, voire des jours, sans interruption.
Cette percée ouvre des perspectives inédites dans des domaines variés. La simulation moléculaire, par exemple, permettra de concevoir de nouveaux matériaux et médicaments au niveau atomique, en simulant des interactions chimiques que les superordinateurs classiques les plus puissants sont incapables de traiter. Il sera également possible d’optimiser des processus chimiques complexes pour créer des engrais plus efficaces, ou encore de développer des batteries dotées de capacités de stockage révolutionnaires.
Cette évolution nécessitera également une mise à jour globale des protocoles de sécurité informatique, avec l’adoption de la cryptographie post-quantique pour protéger les données contre les attaques potentielles.
Bien qu’il faudra encore du temps avant de voir ces machines intégrées dans les centres de données commerciaux, la voie est désormais ouverte vers un avenir où l’informatique quantique industrielle ne sera plus seulement théorique.