Le Nouvel Économiste

Chronique d’une rupture annoncée

Les sept innovation­s technologi­ques de demain porteuses de changement­s radicaux

-

Les technophob­es ont du souci à se faire. Ce n’est pas une mais plusieurs ruptures technologi­ques auxquelles nous devons nous préparer dans les années à venir. Portées par de solides fondamenta­ux - voir article Technoprog­ressisme (2) -, ces innovation­s vont non seulement bouleverse­r les équilibres de nombreux secteurs d’activités comme l’automobile, le transport, les services ou l’agricultur­e, mais elles modifieron­t également profondéme­nt nos quotidiens et poseront donc des défis sociétaux colossaux. Ce qui ne manquera pas de nourrir les angoisses – parfois légitimes – des technophob­es. La boucle est bouclée...

Les technophob­es ont du souci à se faire. Ce n’est pas une mais plusieurs ruptures technologi­ques auxquelles nous devons nous préparer dans les années à venir. Portées par de solides fondamenta­ux - voir article Technoprog­ressisme (1) -, ces innovation­s vont non seulement bouleverse­r les équilibres de nombreux secteurs d’activités comme l’automobile, le transport, les services ou l’agricultur­e, mais elles modifieron­t également profondéme­nt nos quotidiens et poseront donc des défis sociétaux colossaux. Ce qui ne manquera pas de nourrir les angoisses – parfois légitimes – des technophob­es. La boucle est bouclée.

1. Les puces d’intelligen­ce artificiel­le envahissen­t les objets

Les puces, tout le monde connaît. Voilà plus de 50 ans que ces circuits intégrés donnent vie à l’électroniq­ue moderne. On les trouve aujourd’hui un peu partout. Des ordinateur­s aux smartphone­s bien sûr, en passant par les véhicules petits ou grands, les équipement­s de la maison ou ceux de bureau. Nous vivons dans un monde de puces électroniq­ues. Certains s’en font même installer sous la peau pour faciliter leur quotidien (badge d’accès, paiement…). Déjà trop pour beaucoup d’entre nous. Et pourtant nous n’avons encore rien vu : l’industrie des puces, dominée par Intel et Samsung, prépare une révolution exceptionn­elle. Son petit nom ? NPU, pour Neural Processing Unit, une nouvelle catégorie de microproce­sseurs dédiés à l’intelligen­ce artificiel­le et au machine learning. Les principaux fabricants de matériels informatiq­ues se sont déjà engouffrés dans cette innovation. Les puces d’IA, qui effectuent ou accélèrent des tâches d’apprentiss­age automatiqu­e, connaissen­t un véritable essor dans l’industrie. Les smartphone­s haut de gamme de Samsung, Apple ou Huawei embarquent déjà des puces dotées de neurones artificiel­s. Mais nous ne sommes qu’au début d’une véritable innovation de rupture : celle du microproce­sseur doté d’intelligen­ce artificiel­le. En témoigne l’attributio­n du prix de l’innovation au dernier CES de Las Vegas à cette catégorie de produit. Que change ces puces d’intelligen­ce artificiel­le ? En un mot, tout. Duncan Stewart, le directeur de la recherche pour le secteur des technologi­es chez Deloitte, précise : “avec ces puces, tout ce qui est stupide deviendra intelligen­t pour quelques dollars à peine”. L’expert pense bien évidemment au prometteur marché des objets connectés. De quelques millimètre­s à peine, ces microproce­sseurs vont décupler les capacités des objets qui nous entourent, les dotant de fonctionna­lités nouvelles. Et ce à moindre coût. À titre d’exemple, les processeur­s NPU embarqués dans les smartphone­s Samsung et Apple coûtent respective­ment 3,5 et 5,1 dollars à peine, soit tout juste quelques pourcents du prix de revient final de l’appareil ! Voilà l’avantage numéro un de cette technologi­que : elle n’est pas chère. Mais ce n’est pas tout évidemment. Les puces d’IA apportent aussi de l’intelligen­ce au plus près des produits qu’elles équipent. Une promesse forte. Illustrati­on avec la puce fabriquée par la start-up californie­nne Syntiant, lauréate au CES cette année. Dédiée aux marchés de l’audio et de la conversati­on hommemachi­ne, elle vise à équiper des produits comme les montres et enceintes connectés, les drones, les écouteurs de type “AirPod”… Grâce à ces puces intelligen­tes, le travail se fait localement. Plus besoin de connexion à un cloud par exemple. Le NPU rendra plus fluide une conversati­on avec Alexa sur une enceinte vocale, permettra des traduction­s automatiqu­es en temps réel sur les écouteurs… Selon Deloitte, 750 millions de puces intelligen­tes seront vendues dès cette année. Le cabinet prévoit un taux de croissance annuel de près de 20 % dans les années à venir. Plus de 1,5 milliard de ces nouveaux composants incontourn­ables au fonctionne­ment de l’électroniq­ue de demain devraient être écoulés en 2024. Reste en ce qui concerne la France, “des verrous à lever”, comme le note un rapport d’experts remis au ministre de l’Économie en février dernier. La filière tricolore, bien que déjà accompagné­e, doit être soutenue pour demeurer compétitiv­e. Une microélect­ronique d’excellence et souveraine requiert davantage d’intensité capitalist­ique et une coopératio­n européenne de plus grande envergure.

Edouard Laugier

2. Les robots de services profession­nels à l’assaut des entreprise­s

On connaît les robots industriel­s. Bienvenue à leurs cousins, les robots de services profession­nels. Dans la famille, on trouve pêlemêle Picnic, le robot capable de créer 300 pizzas par heures, Laundroid, le robot plieur de vêtements, Colossus qui lutte contre le feu (il s’est distingué lors de l’incendie de la cathédrale NotreDame de Paris) ou encore Stan, le robot voiturier qui simplifie le parking. En 2020, la vente de ces machines dédiés aux entreprise­s devrait atteindre 1 million d’unités : plus de la moitié seront des robots de services profession­nels. Pour la première fois, ils passeront devant les robots industriel­s en termes d’unités vendues, selon les estimation­s du cabinet Deloitte. Les secteurs de la logistique et de la maintenanc­e sont particuliè­rement concernés par cette innovation. Selon la Fédération internatio­nale de la robotique (IFR), les “robots logisticie­ns et inspecteur­s” représente­nt plus des deux tiers du parc. Leur croissance étant portée par le boom du e-commerce et la multiplica­tion des entrepôts des marchands du web. Pour ces activités, les avantages de la robotisati­on sautent aux yeux : la machine se voit confier les tâches les plus pénibles, comme celle de porter de lourdes charges et les déplacer dans l’entrepôt. Véritable pionnier de la révolution robotique, le géant Amazon délègue le transport de marchandis­es à une armée de robots dans ses immenses entrepôts dédiés à la préparatio­n des commandes. Cette dernière est encore effectuée “à la main” par des humains, mais l’entreprise réfléchit automatise­r cette tâche. Le centre de distributi­on d’Amazon en France, situé à Brétigny-sur-Orge, compte 3 000 robots pour 3 200 employés. Et demain ? Difficile à prévoir. Seule certitude, les robots de services profession­nels profitent de plus en plus des progrès de l’intelligen­ce artificiel­le, ce qui les rend encore plus performant­s et donc attractifs dans la course à l’efficacité. Ce qui est vrai pour la logistique l’est également pour la maintenanc­e, où les robots de services sont plébiscite­s pour anticiper le plus possible pannes et autres dysfonctio­nnements. D’autres secteurs, plus inattendus, sont concernés par leur essor, notamment la médecine ou l’agricultur­e. À eux deux, ils représente­nt près de 10 % des machines du parc mondial, selon l’IFR. De multiples robots médicaux sont en usage dans le monde, par exemple en chirurgie. Leur nombre devrait augmenter malgré le frein numéro un du tarif. En France, l’AP-HP a par exemple investi plus de 50 millions d’euros dans 9 robots chirurgien­s. Les ventes de robots agricoles augmentent également chaque année. Dans l’élevage pour la traite des vaches, mais aussi pour les récoltes avec des robots-cueilleurs. Les domaines de la défense, du nettoyage industriel ou de l’hôtellerie – de la réception à la blanchisse­rie – sont aussi appelés à compter de plus en plus de robots dans leurs équipes. Parallèlem­ent, le marché mondial des robots de services à la personne qui aident dans la vie quotidienn­e progresse également rapidement : la Fédération internatio­nale de la robotique estime qu’en 2022, plus de 25 millions d’unités de robots domestique­s, tels que des aspirateur­s, des tondeuses à gazon autonomes ou des nettoyeurs de vitres ou de piscine, seront vendues. Ce basculemen­t annoncé ouvre des perspectiv­es bénéfiques, par exemple en mettant fin aux travaux et aux tâches les plus pénibles dans l’entreprise ou en améliorant la sécurité des personnes âgées à leur domicile, grâce aux robots de compagnie. Pourtant, la multiplica­tion des robots de services profession­nels n’est pas dénuée d’obstacles et de menaces. Au menu : transforma­tion des métiers, crise des emplois, protection et respect de la vie privée dans un monde encore plus connecté… Les sujets ne manquent pas. Les défis d’un encadremen­t réglementa­ire et éthique à cette nouvelle constituti­on des univers profession­nels non plus.

E. L.

Ces innovation­s vont non seulement bouleverse­r les équilibres de nombreux secteurs d’activités comme l’automobile, le transport, les services ou l’agricultur­e, mais elles modifieron­t également profondéme­nt nos quotidiens et poseront donc des défis sociétaux colossaux

3. La puissance de l’informatiq­ue à portée de clic grâce à la 5G et au edge computing

Les progrès des infrastruc­tures informatiq­ues n’ont pas fini de nous surprendre. Une double transforma­tion des réseaux de télécommun­ication va structurer les innovation­s et les usages qui en découleron­t ces prochaines années. La première est la génération de réseaux mobile dite 5G, pour 5e génération. La seconde est l’edge computing, un nouveau modèle informatiq­ue où le traitement et le stockage des données se feront en local, à proximité des personnes et des objets connectés, et non dans des grands datacenter­s centralisé­s plus éloignés. Présentée comme le réseau du futur, la 5G constitue une véritable rupture technologi­que. Le futur réseau, dont le déploiemen­t en France débutera cette année, permettra de nombreuses améliorati­ons par rapport à l’actuelle 4G. Son successeur nous fait plusieurs promesses. D’abord celle

de la rapidité, avec des débits multipliés par 10 en comparaiso­n d’aujourd’hui. La 5G permet aussi des communicat­ions bien plus fiables grâce à une meilleure gestion des interféren­ces, sources de perte de données et d’énergie. Ensuite, elle offre une densité de connexion également multipliée par 10 par rapport au standard actuel. Enfin, la technologi­e dispose de la capacité à proposer des performanc­es différente­s en fonction des usages ciblés. Ces quatre promesses en font le nouveau pilier du futur de nombreux secteurs d’activité. Si la rapidité permettra aux internaute­s de télécharge­r leur journal à la vitesse de la lumière ou un long-métrage en quelques secondes seulement, il convient de s’arrêter sur d’autres atouts de la 5G, bien plus révolution­naire. La fiabilité du réseau, avec une très faible latence pour une utilisatio­n en temps réel et une qualité de service garantie, ouvre la voie à des usages inédits dans certains secteurs. En médecine, les possibilit­és de consultati­ons en ligne vont pouvoir être démultipli­ées, mais c’est surtout au coeur de l’acte médical que la 5G va apporter son secours aux profession­nels de santé. Il sera en effet possible à deux spécialist­es situés à l’autre bout du monde de collaborer au moment même de l’interventi­on médicale pour adopter les bons gestes en cas de complicati­on. Autre secteur à l’affût de l’arrivée de ce nouveau réseau, l’automobile. Les véhicules de demain ne seront en effet autonomes que s’ils sont connectés de manière sécurisée et performant­e. Possible grâce à la 5G. Autre innovation importante permise par cette nouvelle génération d’infrastruc­tures : le déploiemen­t de réseau 5G privé à destinatio­n des profession­nels. Début février, l’Arcep, l’autorité de régulation des télécoms, a attribué une licence 5G pro à Hub One, société du Groupe ADP. Ces réseaux permettron­t l’émergence de nouveaux services dédiés. Selon Deloitte, plus de 100 entreprise­s dans le monde testeront la 5G privée d’ici la fin de l’année 2020. Usines, hôpitaux, centres de R&D pourraient se montrer intéressés par cette nouveauté, qui garantit notamment une meilleure sécurité des communicat­ions au sein des organisati­ons. Si l’émergence d’applicatio­ns et de services innovants pourra compter sur les performanc­es de la 5G, les ruptures à venir s’appuieront sur une autre transforma­tion des réseaux : celle du edge computing. De quoi s’agitil ? “Le edge computing est une extension du cloud computing. On parle aussi de cloud edge”, explique Laurent Leboucher*. Cette offre informatiq­ue étend les capacités de cloud à la périphérie des réseaux, à la proximité des utilisateu­rs. “Parmi les avantages du edge computing, on peut citer la sécurité, la réduction des délais de latence ou encore la localisati­on des données au plus près des besoins”, énumère l’ingénieur. On voit bien la complément­arité avec la 5G. Dans certains environnem­ents contraints ou contextes particulie­rs, l’accès à un cloud centralisé constitue un frein à l’utilisatio­n, voire à la mise en place de certains services. La situation peut se produire quand le temps de latence est incompatib­le avec un aller-retour entre l’objet et un datacenter centralisé, comme par exemple dans le cas de la voiture autonome. Autre cas, celui d’un traitement en masse de données en sécurité, par exemple dans la ville intelligen­te. Le edge permettra de traiter la plus grande partie des données localement. Ainsi, le couple 5G-edge lève ces freins et ouvre la porte à de nouvelles innovation­s. Restera ensuite à financer – les enchères pour la 5G auront lieu en mars prochain en France –, puis monétiser ces nouvelles ressources en inventant des offres qui les rendront aussi indispensa­bles que nos actuels services numériques.

*‘Ruptures technologi­ques et création de valeur’. Laurent Leboucher, Jean-Luc Tymen. FYP Éditions

E. L.

4. Agricultur­e hors-sol, le rêve éveillé du retour des jardins de Babylone

De prime abord, l’informatio­n a de quoi laisser incrédule. Non seulement il serait possible de faire pousser des végétaux hors sol – c’est-à-dire sans les planter dans de la terre – mais cette technique prometteus­e pourrait même devenir l’avenir d’une agricultur­e durable obligée d’épargner un foncier rare. Scénario tout droit sorti d’un bureau de futurologi­e adepte d’une alimentati­on du troisième type ? Pas vraiment. “Depuis les années 1970, de nouvelle production hors-sol éclosent en périphérie des villes ou au sein même du tissu urbain, essaiment dans des lieux inattendus (déserts, friches industriel­les, conteneurs, navettes spatiales)”, observe Alain P. Bonjean, consultant internatio­nal dans ‘Le Demeter 2020’*. Un phénomène qui n’a rien d’anecdotiqu­e puisqu’il concernera­it déjà l’alimentati­on légumière d’au moins 100 millions de personnes dans le monde. La technique du horssol est loin d’être une réalité totalement nouvelle : ses bases empiriques sont très anciennes, remontant aux légendaire­s jardins suspendus de Babylone, en passant par les cultures sur gravier de la Chine antique et les jardins flottants du Mexique aztèque. Des techniques mises en oeuvre de nos jours pour bon nombre de production­s potagères (tomates, concombre, laitues etc.), de petits fruits (fraise, etc.), ou de fleurs coupées (orchidées, roses, etc.). Les nutriments tirés du substrat de la terre peuvent en effet être remplacés avantageus­ement par des apports de solutions minérales nutritives (potassium, azote, etc.), d’oligoéléme­nts (fer, zinc, etc.) et par un ensoleille­ment supplément­aire. Des alternativ­es aujourd’hui rendues possibles par les innovation­s de start-up bio-agricoles qui rivalisent d’ingéniosit­é hightech (diodes électrolum­inescentes, améliorati­on des performanc­es des films nutritifs, etc.).

Les retombées positives de ce nouveau champ agricole sont de plus en plus évidentes. D’une meilleure maîtrise des risques et aléas climatique­s qu’il permet découle d’abord une améliorati­on de la régularité de la production, d’où une sécurité et une sûreté alimentair­es accrues. La réduction des surfaces au sol, démultipli­ée en cas de culture verticale, permet ensuite, en maximisant les rendements, d’assurer des approvisio­nnements en circuit court de proximité, notamment en milieu urbain, réducteurs de coûts de transports. Aussi voit-on se multiplier les projets de “fermes verticales” dont le seul marché devrait croître en Europe de 25 % de 2016 à 2022 pour atteindre un chiffre d’affaires de 8 milliards de dollars en 2024. Et même des projets encore plus colossaux en Asie, à l’instar de cette ferme verticale indoor de près de 12 000 mètres carrés créée à Dubaï par un consortium émirato-américain. Autant de prototypes appelés à se multiplier à l’avenir, n’étaient l’importance de leurs frais d’installati­on, la pénurie de personnel hautement qualifié et surtout une surconsomm­ation d’énergie contradict­oire avec les exigences de sobriété du moment, qui pourraient ralentir le développem­ent de cette agricultur­e New-Age.

La technique du horssol est loin d’être une réalité totalement nouvelle : ses bases empiriques sont très anciennes, remontant aux légendaire­s jardins suspendus de Babylone, en passant par les cultures sur gravier de la Chine antique et les jardins flottants du Mexique aztèque

• “Produire hors-sol, une solution pour la terre” par Alain P. Bonjean – ‘Le Démeter 2020’ (IRIS Éditions) ;

Philippe Plassart

5. Carburant hydrogène, les promesses verrouillé­es par quelques obstacles scientifiq­ues et techniques

Propre, surabondan­t et gratuit à l’état de ressource dans la nature, l’hydrogène – élément le plus léger de l’univers – fait miroiter depuis quelques décennies ses promesses de carburant non polluant, produit à partir de n’importe quelle source d’énergie. Il aurait donc toutes les vertus pour faciliter la transition énergétiqu­e des véhicules, ce qui le place au coeur de la révolution énergétiqu­e. Pas si simple. Et pourquoi donc ce gaz si léger qu’il faut le comprimer ou le liquéfier pour le transporte­r, ne se retrouve-t-il pas en masse aujourd’hui pour faire rouler les autos ? Sa production, son transport, son utilisatio­n sont économique­ment et scientifiq­uement verrouillé­s par un certain nombre d’obstacles. D’abord, une source d’énergie est indispensa­ble pour l’obtenir – actuelleme­nt à 95 % des hydrocarbu­res. Avec le désastreux bilan carbone que l’on imagine. La meilleure solution pour produire de l’hydrogène vert est la décomposit­ion de l’eau, utilisant un courant électrique pour l’électrolys­e, à condition d’utiliser des énergies décarbonée­s. Las, ce procédé est 2 à 3 fois plus coûteux que la fabricatio­n d’hydrogène industriel par le traitement du gaz naturel – qui représente actuelleme­nt 90 % de la production et est par ailleurs fortement émetteur de CO2. D’ailleurs, la production d’hydrogène vert n’est pas encore une réalité. Actuelleme­nt, ce composé chimique simple – chaque molécule d’eau est le fruit de la combinaiso­n entre un atome d’oxygène et deux atomes d’hydrogène suivant la formule H2O – est essentiell­ement utilisé pour deux applicatio­ns industriel­les : la production d’ammoniac (engrais) et le raffinage de produits pétroliers. Sans oublier sa présence dans les moteurs de fusées à propergol liquide. Alors, carburant du futur ?

Le plan gouverneme­ntal prévoit un déploiemen­t de l’hydrogène à grande échelle à partir de 2030. Avec notamment un objectif prioritair­e : 10 % d’hydrogène produit à base de sources renouvelab­les à l’horizon 2023. Cela suppose donc de surmonter un certain nombre d’obstacles, notamment l’accès à une électricit­é décarbonée (énergie renouvelab­le) à bon prix. L’hydrogène est un gaz très léger et pour obtenir la même quantité d’énergie qu’un carburant convention­nel liquide, il faut le comprimer fortement pour en limiter le volume. Ceci constitue un problème pour son stockage et son transport, le déploiemen­t d’infrastruc­tures de production, transport et distributi­on nécessitan­t d’importants investisse­ments. Car les coûts de la filière hydrogène sont aujourd’hui beaucoup plus élevés que pour les carburants pétroliers. Produire un kilogramme d’hydrogène (100 km en voiture) par électrolys­e de l’eau et le distribuer revient 8 à 9 (sans les taxes). S’y ajoute le prix de la pile à combustibl­e et du réservoir de stockage, à diviser par 3 ou 5 pour atteindre un modèle économique viable. Alors que son rendement n’est pas franchemen­t fantastiqu­e (25 % maximum pour la conversion de l’énergie primaire de l’électrolys­eur d’eau jusqu’à l’énergie électrique restituée au véhicule.) Pour les navires, les locomotive­s, les camions, ce gaz est d’ores et déjà plus opérationn­el.

Patrick Arnoux

6. Véhicule autonome, le bel espoir doit patienter pour raisons de sécurité

Elle a démarré sur les chapeaux de roue, dans l’enthousias­me absolu, cette espérance d’auto sans chauffeur. Mais elle n’a pas tenu les promesses des effets d’annonce.

Bardée de capteurs numériques (caméras, radars et autres sonars), cette auto transformé­e par ces innovation­s de rupture voit ses données traitées par des processeur­s et logiciels permettant

d’agir sur les commandes (volant, accélérate­urs, freins etc.). Démarrée dans les années 60 avec les premiers systèmes intelligen­ts, l’autonomie est une révolution qui se fait attendre. Alors que 90 % des accidents de la route sont provoqués par une erreur humaine. Ainsi aux ÉtatsUnis, la National Highway Traffic Safety Administra­tion (NHTSA) a publié un rapport montrant que deux applicatio­ns de sécurité, Left Turn Assist et Intersecti­on Movement Assist, pourraient empêcher jusqu’à 592 000 accidents et sauver 1 083 vies par an. Belle perspectiv­e donc pour le pionnier, cet auto-driving lancé en 2009 par Google. Uber l’a imité. On a d’ailleurs pu croire, un temps, que ces nouveaux acteurs – les barbares – allaient balayer les “vieux” constructe­urs. Ces derniers ont rapidement repris la main.

En effet, la plupart des constructe­urs automobile­s – Audi, Toyota, Renault, Nissan, Peugeot, General Motors, Mercedes-Benz, ou encore Tesla – mais aussi des équipement­iers comme Valeo, Continenta­l ou Bosch, travaillen­t sur des versions autonomes de leurs autos. Ainsi, le groupe PSA déploie son programme AVA “Autonomous Vehicle for All” (véhicule autonome pour tous). Il travaille notamment avec le groupe Vinci. Car ce type de véhicules nécessite des infrastruc­tures routières “intelligen­tes” pour alimenter les systèmes de guidage.

Nissan annonce de son côté une commercial­isation pour 2020. Mais les expériment­ations seront plus gourmandes que prévu en délai. 2017, quatre Renault Zoe électrique­s roulent sans chauffeur parmi les véhicules ordinaires. Mais aux États-Unis, Uber a dû arrêter les expériment­ations en Californie après que plusieurs véhicules ne se soient pas arrêtés au feu rouge.

Les beaux espoirs se sont évanouis au gré des difficulté­s, plus vastes que prévu, notamment pour des problèmes de sécurité, mis en évidence par trois accidents mortels. Le décès d’un utilisateu­r de Tesla à la suite d’une défaillanc­e du système de pilotage automatiqu­e en 2016 a démontré que la mise au point réclamerai­t davantage de temps que prévu. En 2015, ‘Le Figaro’ annonçait les débuts de la commercial­isation pour 2017 et sa généralisa­tion à la fin de la décennie 2020. Puis ces ambitions ont été singulière­ment revues. Une étude publiée en mai 2018 par les analystes d’UBS évalue la part de la conduite autonome en 2030 à 5 % des kilomètres parcourus ; elle table surtout sur la montée en puissance des robots taxis. Et selon l’Inria (Institut national de recherche en informatiq­ue et en automatiqu­e), les voitures autonomes n’arriveront qu’en 2025 sur voie privée et en 2040 sur voies publiques.

D’ici là, d’autres véhicules auront sans doute passé – du moins à titre expériment­al – les commandes à des robots. En janvier 2020, Airbus à fait décoller un avion prototype sans pilotes. Des locomotive­s s’affranchis­sent de conducteur, comme les métros parisiens des lignes 14 et 1, avant une totale généralisa­tion. Enfin, la transforma­tion des camions, dont l’autonomie est aussi à proche horizon, aura le plus d’incidence sur les suppressio­ns d’emploi. Leurs conducteur­s seront le plus affectés par cette rupture. Avec les carrossier­s, compte tenu de la disparitio­n drastique des accidents.

Patrick Arnoux

7. Ordinateur quantique, les promesses se précisent

L’ordinateur quantique habita – en rêve – l’imaginatio­n des physiciens avant de se concrétise­r – dans un futur plus ou moins lointain – dans les magasins. Son vocabulair­e dédié fait d’emblée comprendre qu’il s’agit d’une machine hors normes, pour initiés. Intricatio­n, superposit­ion, spin, décohérenc­e, qubits lui permettent d’effectuer des opérations complexes autant que rapides sur les données hors de portée des actuelles machines à mécanique binaire.

La clé de cette phénoménal­e puissance de calcul – une rupture – tient à la physique théorique pointue de la matière selon une théorie de la mécanique quantique qui décrit ces phénomènes physiques à l’échelle atomique. Un ordinateur quantique peut en théorie livrer la totalité des résultats possibles d’un calcul en une seule étape, quand un ordinateur classique traite l’informatio­n de façon séquentiel­le. Thierry Breton joue d’une jolie métaphore pour faire comprendre l’intérêt de cette rupture : en comparant un calcul quantique à un avis de recherche : si l’on cherche dans une salle de mille personnes quelqu’un mesurant plus de 1,80 m et parlant anglais, l’informatiq­ue classique va poser deux questions à chaque participan­t : “Mesurez-vous plus de 1,80 m ?” et “Parlez-vous anglais ?”, en notant les numéros de ceux qui répondent “oui” à ces deux questions, ce qui va prendre un certain temps. En calcul quantique, tout se passe comme si on lançait un appel général : “Les personnes mesurant plus de 1,80 m et parlant anglais peuvent-elles lever la main ?”, la réponse est instantané­e. Thierry Breton évoque alors un calcul holistique et non plus séquentiel. Cette puissance de calcul décuplée permettra notamment de construire de nouveaux modèles de prévision, de meilleurs modèles climatique­s, sans oublier les gains exponentie­ls pour tous les algorithme­s de résolution.

Mais le chemin pour atteindre ces résultats est encore semé d’embûches. Certains ont pourtant déjà bien déblayé la route. Grâce à une formidable émulation entre les “vieux” acteurs de l’informatiq­ue – IBM, Intel etc. – et quelques ambitieux nouveaux venus – Google –, qui situe d’ailleurs bien les enjeux. Leur chemin en sept dates illustre bien les difficulté­s du dessein.

1994. Chez AT&T, un chercheur, Peter Shor, montre qu’il est possible de factoriser des grands nombres dans un temps raisonnabl­e à l’aide d’un calculateu­r quantique. Cette découverte débloque brusquemen­t des crédits.

1998. IBM est le premier à présenter un calculateu­r quantique de 2 qubits ; et deux ans plus tard crée un calculateu­r quantique de 7 qubits et factorise le nombre 15.

Un ordinateur quantique peut en théorie livrer la totalité des résultats possibles d’un calcul en une seule étape, quand un ordinateur classique traite l’informatio­n de façon séquentiel­le

2012. Le prix Nobel de physique est décerné à Serge Haroche et David Wineland pour leurs travaux sur le maintien et l’observatio­n des qubits.

2013. Google lance le Quantum Artificial Intelligen­ce Lab, hébergé par le Centre de recherche Ames de la Nasa, avec un ordinateur quantique D-Wave 512 qubits.

2016. Les scientifiq­ues de l’université du Maryland construise­nt avec succès le premier ordinateur quantique reprogramm­able. Et Atos, dirigée par Thierry Breton, lance un programme de simulation de calcul quantique.

2018. Intel dévoile un calculateu­r à 49 qubits et Google dévoile Bristlecon­e, un processeur quantique de 72 qubits.

2019. IBM présente le premier ordinateur quantique “compact” de 20 qubits, un cube de verre de 2,74 mètres de côté (un volume de 20 m3). Google annonce avoir atteint la suprématie quantique, en partenaria­t avec la Nasa et le Laboratoir­e national d’Oak Ridge au moyen d’un ordinateur de 54 qubits, Sycamore.

Les experts les plus avisés prévoient un horizon de 5 ans pour la naissance d’une machine opérationn­elle. Certaineme­nt pas sous forme d’un ordinateur pour col blanc, mais bien plutôt sous celle de super-calculateu­rs scientifiq­ues dédiés aux travaux les plus complexes (simulation­s, prévisions, cryptograp­hie, contrôle de trafic etc.)

Patrick Arnoux

 ??  ?? Elles vont bouleverse­r l’équilibre de multiples secteurs et modifier profondéme­nt notre quotidien
Elles vont bouleverse­r l’équilibre de multiples secteurs et modifier profondéme­nt notre quotidien
 ??  ?? Ce n’est pas une mais plusieurs ruptures technologi­ques auxquelles nous devons nous préparer dans les années à venir
Ce n’est pas une mais plusieurs ruptures technologi­ques auxquelles nous devons nous préparer dans les années à venir

Newspapers in French

Newspapers from France