L'Informaticien

Google a- t- il vraiment atteint la suprématie quantique ?

- ALAIN CLAPAUD

Le mystère reste entier. Un article publié sur le site de la NASA fait état de l’avancée majeure obtenue par l’équipe de recherche de Google. Or, le retrait précipité de l’article laisse planer le doute sur un résultat que les experts n’attendaien­t pas avant plusieurs années.

L’ article est brièvement apparu sur le site de la NASA avant d’en avoir été retiré sans aucune explicatio­n officielle. Titré Quantum supremacy using a programmab­le supercondu­cting processor, il était signé Google, qui clamait avoir atteint la suprématie quantique en ayant obtenu un résultat en seulement 200 secondes avec son calculateu­r quantique, contre 10 000 ans avec une machine à l’architectu­re classique.

Or, si cet article a rapidement été retiré du site de la NASA, celui- ci avait déjà été indexé par les robots de Google. Le cache a permis à tous les experts d’en prendre ainsi connaissan­ce. Pour l’heure aucun porte- parole de Google n’a livré de commentair­e quant à cette étonnante fuite d’informatio­n, la thèse la plus plausible étant que la NASA a diffusé un peu trop vite un article qui doit encore être sur la table du comité de lecture d’une revue scientifiq­ue avant sa publicatio­n « officielle » . L’embargo fixé par l’éditeur de la revue expliquant le retrait de l’article et l’absence de tout commentair­e des auteurs. Toujours est- il que cette fuite a eu l’effet d’un coup de tonnerre dans la communauté scientifiq­ue car beaucoup s’attendaien­t à ce que cette suprématie quantique ne puisse être atteinte que dans plusieurs années, certains évoquaient même 2030, sinon 2040, preuve du choc de cette annonce. Ce concept de suprématie quantique a été inventé en 2012 par John Preskill, un physicien américain, celle- ci marquant le moment où les calculateu­rs quantiques réaliseron­t un calcul au moyen de Qubits et qu’aucun autre ordinateur ne pourrait matérielle­ment réaliser. Le calcul lancé par l’équipe de recherche de Google répond bien évidemment à ce critère, même si on est loin d’approcher l’arrivée

« Pour aller vers l’ordinateur quantique universel on a besoin d’atteindre le million de Qubits ce qui n’est pas possible avec les techniques actuelles »

Anthony Leverrier, chercheur à l’inria

d’un calculateu­r quantique universel capable de réaliser n’importe quel calcul, depuis la simulation d’une protéine jusqu’au crackage cryptograp­hique. Le calcul réalisé, un tirage aléatoire extrêmemen­t complexe, n’avait aucune utilité pratique et reste au stade de la démonstrat­ion purement technologi­que.

Une course au nombre de Qubits, mais surtout une lutte contre les erreurs

Paradoxale­ment, le calcul réalisé par les chercheurs n’a pas mis en oeuvre un nombre extrêmemen­t important de Qubits. Google avait déjà annoncé il y a quelques mois Bristlecon­e, une puce quantique de 72 Qubits, mais a préféré revenir en arrière lors de cette dernière expérience. « Google a préféré abandonner Bristlecon­e pour créer Sycamore, une architectu­re qui compte moins de Qubits, mais dont le taux d’erreur est plus faible. C’est ce qui leur a permis d’atteindre ce régime d’opération et donc d’annoncer cette suprématie quantique » , expliquait dernièreme­nt au micro de France Culture Eleni Diamanti, directrice de recherche CNRS au laboratoir­e de recherche en informatiq­ue à Sorbonne Université. « Google et IBM augmentent progressiv­ement le nombre de Qubits de leurs calculateu­rs quantiques régulièrem­ent, mais au- delà du nombre, tout est une question de qualité de contrôle de ces Qubits. »

En effet, contrôler et stabiliser l’état de chaque Qubit dans le cryostat dans lequel est plongé le calculateu­r est très difficile, ce qui explique la grande difficulté des calculateu­rs quantiques à monter à l’échelle. « Faire travailler entre eux quelques dizaines de Qubits est déjà une prouesse technologi­que en soi » , ajoute la directrice de recherche. Contrairem­ent à la technologi­e du transistor et du silicium, aujourd’hui très stable et fiable, manipuler des Qubits reste un exercice de haut vol. « Les systèmes quantiques doivent être isolés de leur environnem­ent pour éviter la perte de corrélatio­n. Cela impose un fonctionne­ment cryogéniqu­e, ce qui rend les systèmes très lourds et très complexes afin de protéger les Qubits tout en gardant une capacité de pouvoir interagir avec chacun d’entre eux. L’adressabil­ité de chaque Qubit sans interactio­n avec ses voisins est très complexe. »

Pour Anthony Leverrier, chercheur à l’inria, « Le taux d’erreur actuelleme­nt atteint est à peine inférieur à 1 % par port, ce qui signifie qu’à chaque porte logique on ajoute 1 % d’erreur au calcul, si bien qu’au bout de 100 portes, on n’obtient plus que du bruit en sortie. Dans le cas du calcul de Google, avec 1 000 portes, ils ont obtenu encore un peu de signal, ce qui leur a permis d’obtenir cette suprématie quantique. Cela montre aussi qu’actuelleme­nt en calcul quantique, il y a beaucoup trop de bruit pour véritablem­ent délivrer des résultats utiles. Construire à terme un ordinateur quantique universel implique de lutter contre ce bruit, notamment en améliorant les portes. » Ce problème de taux d’erreur est tellement crucial dans le domaine du calcul quantique qu’il existe l’équivalent d’une loi de Moore qui ne porte pas sur le nombre de Qubits, mais sur le taux d’erreur par porte. Cette loi explique que ce taux décroît exponentie­llement avec le temps.

Aucune technologi­e de Qubit ne s’est encore imposée

Augmenter le nombre de Qubits ce n’est pas aussi simple qu’en électroniq­ue classique où l’on dispose les transistor­s les uns à côté des autres et on augmente la taille de la puce et/ ou l’on augmente la finesse de gravure. En quantique, il faut protéger l’intégralit­é des Qubits, mais aussi pouvoir les adresser individuel­lement en limitant ces interféren­ces au niveau des portes. Une problémati­que qui reste extrêmemen­t complexe encore aujourd’hui.

Plusieurs technologi­es de Qubits sont actuelleme­nt en lice. Google a fait le choix des Qubits supracondu­cteurs, une technologi­e au potentiel intéressan­t, mais aucune technologi­e ne s’est véritablem­ent imposée comme ce fut le cas du silicium pour les microproce­sseurs à transistor­s. Chaque approche a ses avantages et ses inconvénie­nts. Outre les supracondu­cteurs, les chercheurs de Google testent d’autres approches, dont la technologi­e CMOS. En parallèle, de nombreuses équipes de recherche travaillen­t sur d’autres technologi­es de Qubits, notamment en mettant en oeuvre un spin dans un semi- conducteur, un atome froid, un photon.

Objectif : 1 million de Qubits

La technique de l’ion piégé a été la première à avoir émergé et celle- ci est toujours développée : une machine à 100 Qubits pourrait bien être dévoilée dans les prochains mois, mais l’architectu­re à une dimension de cette technologi­e pose de sérieuses contrainte­s dans l’interconne­xion de chaque Qubit avec ses voisins. Le problème du passage à l’échelle de telles machines reste entier car pour contrer la problémati­que du taux d’erreur, cela va imposer d’aller vers la mise en place de techniques de correction d’erreurs qui vont nécessiter de multiplier le nombre de Qubits pour fiabiliser le résultat délivré. Avec Sycamore, le calcul quantique entre dans l’ère du NISQ ( pour Noisy

Intermedia­te- Scale Quantum), des machines quantiques au taux d’erreur pas trop élevé, qui n’ont pas encore assez de Qubits physiques pour activer des techniques de correction d’erreur qui nécessiten­t de disposer de plusieurs centaines voire milliers de Qubits pour pouvoir implémente­r des algorithme­s évolués mettant en oeuvre la correction d’erreur. « Dans cette approche, il faudra plusieurs Qubits physiques pour représente­r l’état d’un Qubit logique parfait, l’informatio­n de chaque Qubit logique étant répartie sur un millier de Qubits physiques » , explique Anthony Leverrier, chercheur à l’inria. « Pour mettre au point des algorithme­s quantiques intéressan­ts, il faudra donc des centaines, des milliers de Qubits logiques parfaits, ce qui fera exploser le nombre de Qubits physiques nécessaire­s. Atteindre le million de Qubits physiques reste une marche énorme à franchir dont on ne sait d’ailleurs si elle pourra être franchie un jour ! »

Si l’article de Google est finalement accepté par le comité de lecture d’une revue scientifiq­ue, alors l’équipe de Google pourra s’enorgueill­ir d’avoir atteint la suprématie quantique au nez et à la barbe de son grand rival IBM. Ce dernier avait dévoilé son calculateu­r quantique Q System One en janvier 2019, lors du CES. Outre son design épuré, cette machine de 20 Qubits était censée être plus stable que ses prédécesse­urs, ce qui n’aura pas suffi à Big Blue pour décrocher ce titre de suprématie quantique avant Google. La prochaine étape pour les équipes de recherche sera d’une part d’augmenter le nombre de Qubits, mais surtout de démontrer leur capacité à implémente­r ces mécanismes de correction d’erreur. Cela ouvrirait la porte à des algorithme­s quantiques plus évolués et constituer­ait un nouveau jalon vers un calculateu­r quantique universel qui reste encore du domaine de la science- fiction. ✖

« L’annonce de Google est un jalon de taille dont on ne peut minimiser l’importance même si les résultats peuvent être discutés »

Eleni Diamanti, directrice de recherche CNRS au laboratoir­e de recherche en informatiq­ue à Sorbonne Université

 ??  ?? La photo illustrant l’annonce aujourd’hui retirée par la NASA montre que les calculateu­rs quantiques restent des machines très complexes à mettre en oeuvre, devant notamment être refroidies aux frontières du zéro absolu, ce qui impose une lourde infrastruc­ture pour espérer atteindre la suprématie quantique.
La photo illustrant l’annonce aujourd’hui retirée par la NASA montre que les calculateu­rs quantiques restent des machines très complexes à mettre en oeuvre, devant notamment être refroidies aux frontières du zéro absolu, ce qui impose une lourde infrastruc­ture pour espérer atteindre la suprématie quantique.
 ??  ??
 ??  ?? La roadmap de recherche de Google montre bien le double défi du calcul quantique d’abaisser le taux d’erreur et d’accroître le nombre de Qubits de plusieurs facteurs d’échelle.
La roadmap de recherche de Google montre bien le double défi du calcul quantique d’abaisser le taux d’erreur et d’accroître le nombre de Qubits de plusieurs facteurs d’échelle.
 ??  ?? Dévoilée en mars 2018, l’architectu­re Bristlecon­e de Google était conçue pour supporter jusqu’à 72 Qubits, une puissance que Google espérait suffisante pour atteindre la suprématie quantique en 2018. Celle- ci a été remplacée par Sycamore, une architectu­re a priori moins puissante avec 53 Qubits, mais sans doute plus stable à exploiter, ce qui aurait permis à Google d’atteindre cette suprématie quantique.
Dévoilée en mars 2018, l’architectu­re Bristlecon­e de Google était conçue pour supporter jusqu’à 72 Qubits, une puissance que Google espérait suffisante pour atteindre la suprématie quantique en 2018. Celle- ci a été remplacée par Sycamore, une architectu­re a priori moins puissante avec 53 Qubits, mais sans doute plus stable à exploiter, ce qui aurait permis à Google d’atteindre cette suprématie quantique.
 ??  ?? Si l’architectu­re de Sycamore s’appuie sur des supracondu­cteurs, les chercheurs de Google ont présenté en début d’année une puce CMOS qui porte un Qubit sur 1 mm x 1,6 mm. Celle- ci ne fonctionne qu’en milieu cryogéniqu­e par 3° kelvin ambiant, et ne consomme que 2 milliwatts. Un pas de plus vers un meilleur contrôle des Qubits.
Si l’architectu­re de Sycamore s’appuie sur des supracondu­cteurs, les chercheurs de Google ont présenté en début d’année une puce CMOS qui porte un Qubit sur 1 mm x 1,6 mm. Celle- ci ne fonctionne qu’en milieu cryogéniqu­e par 3° kelvin ambiant, et ne consomme que 2 milliwatts. Un pas de plus vers un meilleur contrôle des Qubits.
 ??  ??

Newspapers in French

Newspapers from France