Quantique : the next big thing( k)
L’année 2017 aura vu une accélération impressionnante concernant le futur des ordinateurs quantiques. Les premiers simulateurs ou ordinateurs sont proposés par quelques acteurs qui s’affairent dans un domaine où les perspectives sont vertigineuses pour l’
Si Shakespeare revenait parmi nous aujourd’hui, il serait contraint de changer la célèbre réflexion d’Hamlet : To be or not
to be, that is the question. Dans l’univers quantique, la formule devient : Être « et » ne pas être, ce « n’est pas » la question ! En effet, le monde quantique se caractérise en premier lieu par la superposition d’états. L’informatique « classique » est régie par les bits qui prennent la valeur 0 ou 1 selon que le courant circule ou non. Avec les Quantum bits ou « qubits » , ce n’est plus zéro « ou » un, mais zéro « et » un ; et une infinité d’états intermédiaires. C’est ce que l’on appelle une combinaison linéaire d’états. Ceci a été popularisé en 1935 par Erwin Shrödinger dans son fameux paradoxe du chat. Enfermé dans une boîte qui contient également une fiole de poison, un événement brise la fiole de poison. Selon la théorie quantique, le chat est à la fois mort et vivant tant que l’on n’a pas ouvert la boîte pour procéder à ce que l’on nomme la mesure quantique. Et si l’on ajoute que le chat mort « et » vivant pourrait se trouver dans deux boîtes en même temps, on met le doigt sur un second phénomène essentiel que l’on nomme l’intrication quantique.
Majorana, l’extra- terrestre
Le « en même temps » cher à notre président jupitérien est le fondement de la physique quantique et la notion est particulièrement contre- intuitive. C’est d’ailleurs le terme le plus souvent employé par les spécialistes. S’embarquer dans le voyage quantique conduit à fréquenter la fine fleur des physiciens et mathématiciens du siècle passé : Einstein, Bohr, Heinsenberg, Planck, Schrödinger, Paoli, Dirac, De Broglie, Gamow ou encore Majorana, l’extra- terrestre selon Étienne Klein. Nous ne saurions d’ailleurs trop vous recommander la série de trois conférences sur la physique quantique animées par M. Klein et disponibles sur YouTube. Présentant ces différentes personnes, Étienne Klein dit : « Tous sont des génies, il n’y a pas de doute là- dessus. Mais en travaillant beaucoup, on arrive à suivre leurs raisonnements. Majorana, c’est un extra- terrestre, il est hors catégorie. Il ne pouvait plus discuter avec les physiciens de son époque. … donc il s’est arrangé pour que ses articles soient lus quarante ans plus tard. » Nous y reviendrons en détail plus loin puisque le fermion de Majorana – l’une de ses trouvailles – est à la base de la recherche menée par Microsoft avec son approche topologique. Après des années de recherche dans les laboratoires académiques et au sein des entreprises, l’informatique quantique a considérablement progressé ces deux dernières années et il semble que nous soyons à l’aube d’une révolution absolument fondamentale. Rappelons que les ordinateurs quantiques ont été imaginés en 1982 par le prix Nobel 1965 de Physique, Richard Feynman, six ans avant sa mort. M. Feynman est considéré comme l’un des physiciens les plus influents de la 2de moitié du XXe s. Concernant le principe des qubits, ceux- ci ont été décrits par Mingsheng Ying dans un article intitué Quantum Computation, quantum theory & AI. Le problème principal de ces machines est lié au fait que dès que l’on commence à empiler des particules
subatomiques, même si on est proche du zéro absolu et de la matière condensée, dans un état dans lequel « plus rien ne bouge » , ces particules sont tout de même en interaction les unes avec les autres, et avec le monde qui les entoure. Si de nombreux laboratoires de recherche travaillent sur ces sujets, les constructeurs sont peu nombreux à y participer et encore moins à communiquer. On dénombre IBM, Google, Microsoft, Atos, Intel et DWave. Possiblement, d’autres acteurs comme le Chinois Huawei sont vraisemblablement sur les rangs, mais la Chine n’a pas fait l’ombre d’un commentaire sur le fait qu’elle travaillerait sur un calculateur quantique alors que l’on sait qu’elle déploie des efforts sur les réseaux et la cryptographie quantique. Le fait que l’Empire du Milieu ne communique pas ne signifie donc nullement qu’il ne participe pas à la recherche. Rappelonsnous que personne ne soupçonnait ses travaux dans le domaine du HPC ( High Performance Computing) alors que les supercalculateurs chinois trustent maintenant les premières places du HPC 500 et que leur nombre est plus important que les calculateurs américains
Un simulateur de 40 qubits
Commençons donc notre tour d’horizon des acteurs du marché. Une fois n’est pas coutume, le Français Atos a décidé de se lancer dans la course et affiche de sérieuses ambitions, et pas seulement des ambitions. La société dirigée par l’ancien ministre et ancien président de France Télécom, Thierry Breton, est aujourd’hui la seule entreprise au monde à commercialiser un véritable simulateur quantique opérationnel. Profitant de ses connaissances dans les domaines du HPC, de la sécurité ou encore des serveurs in memory, Atos propose depuis la fin du printemps sa Quantum Learning Machine, une bête de course dotée de 16 CPU, 24 To de mémoire et qui est capable de simuler jusqu’à 40 qubits. Cette machine est donc utilisée pour tester les programmes, créer de nouveaux algorithmes, découvrir les subtilités de la programmation quantique. La promesse faite par Atos est que toutes les applications ainsi créées et tournant sur le simulateur seront fonctionnelles sur un calculateur quantique lorsque celui- ci sera disponible. L’autre promesse est la suivante : Atos sera le premier constructeur – et vraisemblablement le seul – européen à livrer un calculateur quantique. « Nous avons lancé notre programme au début de l’année 2016 » , indique Philippe Duluc Chief Technology Officer Big Data & Sécurité d’Atos. « La réflexion part de deux ruptures technologiques qui vont se produire. La première concerne le calcul. La loi de Moore va s’arrêter alors que nos clients réclament toujours plus de puissance de calcul. Il est donc impératif de travailler sur le calcul quantique. La deuxième rupture est dans le domaine de la cyber- sécurité. En effet, avec l’algorithme quantique de Shor, il deviendra possible de casser les clés de chiffrement RSA et d’autres algorithmes cryptographiques asymétriques qui garantissent aujourd’hui le bon fonctionnement d’Internet. » Atos travaille donc également sur la cryptographie post- quantique au sein de l’entreprise et en partenariat avec différents universitaires ( lire encadré en page 16). Un autre axe de travail est la veille technologique sur les différents composants de l’ordinateur quantique. Actuellement, les deux technologies quantiques les plus prometteuses sont les circuits
supraconducteurs et les ions piégés. « Nous analysons les différentes technologies au travers de partenariats. Nous ne faisons pas de pari sur l’une ou l’autre. C’est également lié à la partie programmation car les différentes technologies ne permettent pas toujours de faire les mêmes traitements sur les portes quantiques, et nous intégrons ces différences dans notre simulateur » , poursuit M. Duluc. Enfin, une équipe est également chargée de travailler sur de nouveaux algorithmes quantiques spécifiques au Machine Learning. Le programme Atos Quantum comprend une centaine de personnes, dont une vingtaine de chercheurs dédiés au calcul quantique. Le programme, supervisé directement par M. Breton, s’appuie sur un conseil scientifique qui réunit le mathématicien Cédric Villani, le prix Nobel de Physique Serge Haroche, Alain Aspect, David Divicenzo, Daniel Esteve et Artur Ekert. Tous sont considérés comme des sommités dans le domaine. Le conseil se réunit deux fois par an pour faire l’état des lieux, confronter les avancées, les recherches. Interrogé sur la relative solitude d’Atos au niveau européen, M. Duluc n’esquive pas. « Sur le volet industriel, c’est exact. Mais nous avons la chance d’avoir un secteur académique très bien développé en France et en Europe. Nous avons des relations privilégiées avec le CEA, l’UPMC, l’INRIA. J’ajoute que l’Union européenne a lancé sur le domaine du quantique un Flagship doté de 1 milliard d’euros et nous souhaitons être présents dans ce projet. » Il précise également que quelques pays européens ( RoyaumeUni, Pays- Bas) ont mis en place des financements nationaux et ne désespère pas que ce soit prochainement le cas de la France. M. Duluc souligne cependant que les montants aujourd’hui investis sont sans comparaison avec ce qui est fait aux ÉtatsUnis ou au Canada et rappelle les passerelles entre industriels et universitaires, un phénomène qui se développe en France mais qui n’est pas encore au même niveau. Lorsque nous l’interrogeons sur une date de commercialisation d’un ordinateur quantique général, le CTO se montre d’une prudence de sioux, s’appuyant derrière la rigueur scientifique qui sied dans ce domaine. Nous lui proposons l’année 2020. Il ne confirme pas mais estime qu’une puissance de 40 ou 50 qubits pourrait être atteinte et possiblement 100 qubits si les technologies continuent à progresser à la même vitesse qu’actuellement. Interrogé sur les premières applications, il met en avant la chimie quantique permettant de travailler par la simulation sur de grosses molécules. Ceci ouvrira la voie à de nouveaux médicaments ou de nouveaux matériaux.
Un saut quantique… en 12 mois
Si Atos est le seul constructeur à disposer d’un simulateur quantique de la taille d’un serveur d’entreprise, IBM est le seul industriel à proposer de tester gratuitement un véritable ordinateur quantique auquel on accède via le Cloud. Le premier modèle a été présenté il y a un an et disposait d’une puissance de 5 qubits. Très récemment, Big Blue en a proposé deux nouveaux : un modèle 16 qubits, toujours accessible, et un prototype de 17 qubits qui pourrait servir de base à un futur modèle commercialisé. IBM a ouvert le projet en construisant une API, un kit de développement et plus de 300 000 expériences ont d’ores et déjà été effectuées. La prestigieuse revue Nature vient de publier un article montrant les travaux réalisés par des chercheurs sur l’hydride de lithium et l’hydride de berylium. Xavier Vasques, directeur technique chez IBM France, l’indique : « Nous voulons montrer notre maîtrise du processus industriel. C’est ce qui nous a permis de progresser rapidement de 5 à 16 qubits en une année » . L’ordinateur quantique proposé par IBM utilise des boucles supraconductrices. Le coeur quantique fonctionne à une température de 15 millikelvin, soit 0,15 degré au- dessus du Zéro absolu (– 273,15 ° C). La « bestiole » est une pièce entière bardée de cryocompresseurs à base d’helium liquide qui ont pour objectif de maintenir cette température extrême, indispensable pour maintenir le plus longtemps la stabilité des qubits et, conséquemment, leur permettre de fonctionner et de les lire. « Le plus important est l’aspect matériel. Cryocompresseurs : cela demande beaucoup de recherche pour développer des matériaux en termes de supra conductivité, mais pas uniquement. Isolants, compresseurs, micro- ondes… Le qubit n’est pas le seul paramètre car il faut s’atteler à la gestion et la correction d’erreurs qui sont des opérations complexes. »
Interrogé sur le délai pour obtenir un ordinateur fonctionnant à 50 qubits, qui dépassera tout ce qu’il est possible de faire avec un calculateur traditionnel, M. Vasques se refuse à donner une date. « Je sais que nous allons y arriver mais je ne peux pas vous dire quand. Nous sommes humbles dans l’approche et nous communiquons uniquement lorsque nous sommes sûrs. » Comme M. Duluc chez Atos, Xavier Vasques voit les premières applications dans la chimie moléculaire et rappelle qu’une quinzaine d’articles ont déjà été publiés, dont celui publié par Nature cité plus haut. Articles qui s’appuient sur des travaux réalisés à l’aide de l’ordinateur quantique d’IBM. Il insiste également sur l’importance de créer un vaste écosystème.
Le lièvre Google…
En premier lieu, Google s’est appuyé sur l’ordinateur quantique de DWave que nous étudierons plus loin. Mais l’entreprise de Mountain View s’est lancée dans sa propre recherche et affirme pouvoir présenter d’ici à la fin de l’année un ordinateur quantique qui approcherait les 50 qubits et offrirait une fiabilité de 99,7 %. Comme IBM, Google s’appuie sur une technologie de supra- conducteurs. Par rapport à d’autres, Google a démarré relativement tard avec l’arrivée de John Martinis, professeur à l’université Santa Barbara de Californie, l’une des écoles les plus pointues et les plus actives dans le domaine quantique. Comme à son habitude, Google n’a pas fait les choses à moitié et a donc décidé d’investir massivement dans ce domaine, en s’appuyant notamment sur les travaux de M. Martinis. Toutefois, ce dernier a déclaré au mois d’août dernier, lors de Crypto 2017, qu’il faudrait une dizaine d’années avant que l’ordinateur quantique ne devienne une réalité concrète. Lors de cette conférence, John Martinis est également revenu sur la notion de qubits de calcul et qubits de correction d’erreurs. En effet, la course à l’armement au nombre de qubits ne signifie rien en soi. En effet, il faut savoir que selon les technologies – à l’exception du topologique – le nombre de qubits nécessaires à corriger les erreurs intervenant dans les qubits de calcul est de 1 000 à 10 000 fois plus élevé. Et bien évidemment, plus on superpose des qubits, plus la tâche est ardue. Google se montre plutôt discret sur son engagement, mais continue à affirmer la présentation de ce chip de 49 qubits d’ici à la fin de l’année, ce que semble confirmer un chercheur du MIT, Simon Gustavsson : « Google et IBM sont au même niveau » , affirmet- il. Si Google arrive donc à faire fonctionner son calculateur à 49 qubits, il obtiendrait alors ce que l’on nomme la suprématie quantique, c’est- à- dire réussir à réaliser des calculs inatteignables par des ordinateurs traditionnels. La magie du qubit est que le rajout de 1 a pour conséquence de multiplier par 2 la capacité théorique de calcul sous- jacente. Ce qui est très compliqué, c’est de maintenir la cohérence de l’environnement.
… et la tortue Microsoft
Et si Microsoft mettait tout le monde d’accord ? Comme dans la fable de La Fontaine, Microsoft joue le rôle de la tortue. En effet, l’entreprise travaille sur le quantique depuis 1997, lorsque Microsoft a recruté Michaël Freedman, médaille Fields 1986. En compagnie d’Alexei Kitaev, ils ont fait le pari d’un ordinateur quantique topologique reposant sur le fermion de Majorana, théorisé en 1937. Comme le souligne Bernard Ourghanlian, CTO de Microsoft France, l’entreprise de Redmond a fait un pari complètement dingue. Lorsque la recherche a démarré, personne n’avait pu prouver l’existence de cette particule qui est en même temps son antiparticule et il a fallu attendre 2012 pour qu’elle soit enfin vue par Léo Kouvenhowen de l’université de Delft, aux Pays- Bas. Le choix du topologique pourrait bien se révéler le plus judicieux. En effet, selon les chercheurs de Microsoft et leurs partenaires, le fermion pourrait présenter plusieurs avantages décisifs, comme indiqué sur l’iconographie ci- contre présentée par M. Ourghanlian lors de la conférence Microsoft Experiences au mois d’octobre dernier. Le fermion s’avérerait beaucoup plus stable que les autres particules et conséquemment durerait plus longtemps et nécessiterait 100 à 1 000 fois moins de qubits pour les corrections d’erreur. Si tout ceci est avéré, l’ordinateur quantique topologique pourrait bien gagner la loterie.
Tous les sujets balayés ces 20 dernières années
Microsoft est donc en train de bâtir un ordinateur quantique à trois étages. L’étage du bas – le coeur quantique – est refroidi à 0,02° Kelvin, à l’instar de ce que proposent IBM ou Google. Un étage au- dessus est le cryogénique. « L’ordinateur cryogénique fonctionne en état de supraconductivité et son rôle est de piloter et contrôler l’état des qubits de l’étage du dessous. Enfin, il y a un étage traditionnel qui fonctionne dans une salle des machines pour programmer tout cela » , explique M. Ourghanlian. Dans ses 20 années de recherche, Microsoft a balayé de très nombreux sujets et c’est pourquoi l’entreprise fondée par Bill Gates indique aujourd’hui avoir une vision très claire et très détaillée de tout ce qui compose le quantique : matériels, logiciels, compilateurs, algorithmes, langage de programmation, applications. Microsoft affirme avoir déjà des solutions pour résoudre les équations de Schödinger nécessaires pour résoudre le problème de la captation carbone. Redmond travaille aussi sur le remplacement des techniques de production d’engrais lesquelles sont actuellement très coûteuses en énergie. D’autres équipes réfléchissent autour de nouveaux matériaux. Certes, il va falloir encore des années pour arriver à une puissance de calcul suffisante ( 100 à 200 qubits) pour résoudre ces questions, mais les algos sont en cours de création. D’ici à la fin de l’année, Microsoft va mettre à disposition un simulateur de 40 qubits via le Cloud Azure et proposer un nouveau langage de programmation, dédié
à la programmation quantique, connu pour le moment sous le nom de LiQuid. Bernard Ourghanlian prévient que la courbe d’apprentissage est substantielle, en particulier le passage vers les portes quantiques. À l’instar de ses concurrents, Microsoft propose donc un langage intégré dans la suite Visual Studio afin que les développeurs se fassent la main dès maintenant.
Et aussi
● Intel vient de présenter récemment une puce- test de 17 qubits qu’il a confié à son partenaire Qu- Tech à des fins de tests. Cette puce contient selon le fondeur une nouvelle architecture offrant une fiabilité et une performance thermique renforcées, et des interférences radio réduites entre les qubits. ● Un schéma d’interconnexion évolutif qui permet de 10 à 100 fois plus de signaux vers et en provenance de la puce, par rapport aux puces à interconnexion filaire. ● Des procédés de conception et de fabrication et des matériaux avancés permettant d’adapter le boîtier aux circuits intégrés quantiques, lesquels sont bien plus volumineux que pour les puces silicium traditionnelles. ● Intel travaille donc sur la technologie Quantum dots sur Silicium
Quantique… pas tout à fait quantique
La société canadienne D- Wave est l’un des plus anciens fournisseurs de systèmes quantiques puisque son existence remonte à 1999 et qu’elle a commercialisé son premier système quantique en 2001 ( 128 qubits). Contrairement aux autres systèmes, il ne s’agit pas d’un calculateur général mais d’un système qui permet de faire du recuit simulé quantique pour lequel il est plus performant que les ordinateurs traditionnels. Elle a notamment commercialisé des modèles auprès de Google ou encore à la Nasa. Le dernier modèle proposé revendique fièrement « 2031 qubits » . Toutefois le manque d’applications a conduit Google à développer son propre système. Depuis plusieurs années, la polémique fait rage pour savoir si le fonctionnement des ordinateurs D- Wave est quantique ou non. De même, le débat sur le nombre de qubits revendiqué ne fournit aucune explication sur leur utilisation : s’agit- il de qubits logique en charge des calculs ou au contraire ceux destinés à la correction d’erreurs ? La seconde explication semble la bonne car avec plus de 300 qubits, il semble possible de simuler toute la formation de l’univers, une tâche dont D- Wave semble encore très éloignée. L’une des contributions les plus récentes est celle du professeur Gérard Berry, du Collège de France, qui rappelle que la machine actuelle de D- Wave n’est pas un calculateur quantique général, mais optimisé pour un type de calcul nommé le recuit simulé, qui se prête bien au calcul quantique. On le voit : le bouillonnement des universités et des industriels sur ce domaine est aujourd’hui maximal. Tous ont maintenant conscience que l’informatique quantique donnera accès à des puissances de calcul qui pourront permettre de régler des problèmes aujourd’hui inaccessibles et qui sont de première importance. Le réchauffement climatique, la faim dans le monde, l’éradication des maladies, la conception de nouveaux matériaux figurent parmi les applications de cette révolution – le terme n’est pas galvaudé – qui se profile. Certes, il va falloir encore quelques années pour que tout ceci soit réellement opérationnel, mais les progrès enregistrés durant ces derniers mois incitent à un raisonnable optimisme. ❍