À LA CONQUÊTE DE VOS CERVEAUX
Le milliardaire Elon Musk est l’entrepreneur le plus audacieux et adulé de la Silicon Valley. Après avoir lancé Paypal, les voitures électriques Tesla ou encore les fusées SpaceX, il se passionne aujourd’hui pour l’intelligence artificielle. Persuadé que celle-ci finira par asservir l’humanité, il dévoile son plan secret à MAUREEN DOWD : fusionner l’homme et la machine.
Au début, ce n’était qu’une simple discussion entre amis sur l’avenir de l’humanité. Elon Musk parlait des dangers de l’intelligence artificielle (IA) avec Demis Hassabis. Deux hommes parmi les plus intrigants de la Silicon Valley : Hassabis a créé le laboratoire de recherches Deep-Mind. Ce jour-là, ils bavardent tranquillement à la cantine. Musk, qui a lancé Paypal et les voitures électriques Tesla détaille son nouvel objectif, primordial pour l’avenir de l’humanité : la conquête d’autres planètes. Hassabis réplique que c’est lui, en réalité, qui travaille sur le projet le plus important : la création d’une super-intelligence artificielle. Musk rebondit : c’est bien pour cela qu’il faut coloniser Mars, parce qu’un jour l’intelligence artificielle se retournera contre nous et il faudra bien trouver un refuge. Mais non, assène Hassabis, amusé : il suffira qu’elle nous suive sur Mars. Le moins que l’on puisse dire, c’est que l’argument n’a pas apaisé Elon Musk.
En 2014, Google a absorbé le laboratoire de Hassabis. Musk, qui avait investi dans l’entreprise, voulait garder un oeil sur l’évolution de ces projets qui l’inquiètent tant : « J’ai pu mieux voir le rythme des progrès et tout ça va très vite. Beaucoup plus que les gens ne le pensent. Parce que, dans la vie de tous les jours, vous ne voyez pas des robots se promener autour de vous. Vous avez peut- être un aspirateur Roomba, mais ce n’est pas lui qui va dominer le monde. » À Dubaï, en février, il a répété que la seule façon de ne pas se laisser dépasser serait de « fusionner l’intelligence biologique et l’intelligence de la machine ». Fin mars, il a ainsi confirmé qu’il allait créer une entreprise nommée Neuralink, chargée de mettre au point un câblage neuronal permettant au cerveau de communiquer directement avec les ordinateurs. « Nous sommes déjà des cyborgs, plaide- t-il. Votre téléphone ou votre ordinateur sont des extensions de vous-même, mais vous utilisez vos doigts ou la parole comme interface. C’est très lent. » Avec un câblage neuronal posé par injection dans le crâne, les données fuseraient du cerveau aux appareils numériques à une vitesse quasi illimitée. « Je pense que nous aurons une interface cérébrale qui fonctionne dans quatre ou cinq ans », promet-il.
A contrario, lors d’une rencontre avec des étudiants en 2014, il a qualifié l’IA de « pire menace » pour l’humanité. « Avec l’intelligence artificielle, nous invoquons le démon, leur a- t-il dit. Vous connaissez tous l’histoire du gars qui dessine un pentagramme par terre et qui se dit qu’avec un peu d’eau bénite, il serait capable de maîtriser le diable. Mais on sait tous que ça ne marche pas. » Musk ne plaisantait pas. Sa croisade contre les dangers de l’intelligence artificielle venait de commencer.
Nous, les animaux de compagnie
Musk est le genre de type à demander la lune – littéralement. Il lance des fusées dans l’espace et espère habiter sur Mars un jour. Il vient d’annoncer son intention d’envoyer deux touristes dans un vol autour de la Lune dès 2018. Il fabrique des batteries pour stocker l’énergie solaire à bon marché. Il utilise un acier brillant si sexy dans ses élégantes voitures électriques Tesla que même le tatillon Steve Jobs n’aurait rien trouvé à redire.
Il veut faire gagner du temps à l’humanité et pour cela, il rêve de lancer un train électromagnétique capable de relier Los Angeles et San Francisco à près de 1 200 km/h. Lorsqu’il est allé voir le secrétaire d’État à la défense de Barack Obama, l’été 2016, il a tweeté malicieusement qu’il était au Pentagone pour parler d’un « costume volant en métal » comme celui d’Iron Man. Alors qu’il était coincé dans les bouchons à Los Angeles en décembre, il a promis qu’il allait lancer la société Boring (ennui) pour creuser des tunnels sous la ville et sauver la population d’une « circulation démoralisante ». Et un mois plus tard, on apprenait qu’il aurait chargé l’un de ses ingénieurs de superviser l’opération et de commencer à creuser. Bien sûr, les grands rêveurs trébuchent parfois dans les grandes largeurs. Quelques fusées ont explosé et, en mai 2016, le conducteur d’une Tesla à pilotage automatique est mort dans un accident (une enquête ultérieure a innocenté le système Autopilot). Musk reste stoïque quand on évoque ces revers, mais il est parfaitement conscient des catastrophes potentielles que recèle la technologie. « Nous sommes la première espèce capable de provoquer son propre anéantissement », m’a- t- il dit. C’est une pensée lancinante qui ne vous lâche plus quand vous vous promenez dans la Silicon Valley : les seigneurs d’Internet aiment raconter comment ils améliorent le monde à coups d’algorithmes, d’applications et d’inventions qui, disent- ils, vont nous rendre la vie plus simple, plus saine, plus amusante, plus respectueuse de la planète... Et pourtant, vous gardez en tête ce sentiment effrayant qu’en fait, vous êtes la souris blanche de leurs expériences, que ces gens- là voient l’humain comme une technologie dépassée, vouée à finir au rebut pour qu’ils puissent créer un nouveau monde plus élégant. Bien des personnes qui vivent là- bas ont intégré cette vision : nous allons vivre jusqu’à 150 ans, mais nous serons au service des machines. Peut- être, d’ailleurs, les servons- nous déjà. Elon Musk l’a bien dit lors d’une conférence en 2016 : il se peut que nous ne soyons que les créatures d’une simulation inventée par une civilisation qui nous dépasse, comme dans le film Matrix. Pour ces ingénieurs de pointe, les empires s’effondrent, les sociétés changent et nous allons vers un nouveau monde inéluctable. Ils ne se demandent pas « si » le monde va changer mais plutôt « comment » nous devons nous y adapter.
Quand Elon Musk et ses amis tirent ensemble la sonnette d’alarme, ça devrait déclencher une panique générale. Mais non. Depuis longtemps, le fatalisme dans la Silicon Valley est aussi épais que le brouillard de la baie de San Francisco. La croisade de Musk est, au mieux, vue comme le rocher que Sisyphe remonte sans cesse sur sa pente ; au pire, comme une tentative de sabotage délibérée du progrès. Mais lui en est persuadé : les
ELON MUSK VOIT L’INTELLIGENCE ARTIFICIELLE COMME LA « PIRE MENACE » POUR L’HUMANITÉ.
« SI UNE INTELLIGENCE ARTIFICIELLE MALVEILLANTE VOIT LE JOUR, CE SERA CHEZ GOOGLE. » Ashlee Vance biographe d’Elon Musk
techno- oligarques comme Mark Zuckerberg, chez Facebook, ne font que planter des réverbères qui éclairent la route vers un avenir où les humains deviendront des animaux de compagnie, selon la formule du cofondateur d’Apple, Steve Wozniak. Et c’est la raison pour laquelle il ne compte pas se laisser faire. En compagnie de Sam Altman, le jeune patron du principal incubateur de la Silicon Valley, il a lancé OpenAI, une organisation à but non lucratif dotée d’un milliard de dollars pour poursuivre un seul objectif : rendre l’intelligence artificielle plus sûre.
À première vue, ce projet ressemble à une lubie de gamins surdoués qui jettent leur argent par les fenêtres en débauchant les meilleurs experts en intelligence artificielle. Mais jouer les David contre Goliath, c’est la spécialité d’Elon Musk et il le fait toujours avec un sens éprouvé du spectacle. Pendant que les autres entrepreneurs de la Silicon Valley se concentrent sur leur introduction en Bourse, Musk se passionne pour la question du réchauffement climatique ou imagine un jour mourir sur Mars (et pas, dit- il, au moment de l’atterrissage). Depuis l’adolescence, il a fait du destin de l’humanité un problème personnel. La révélation, m’a- t- il dit, est venue de la lecture du Guide du voyageur galactique de Douglas Adams. Dans ce roman de science-fiction, des extraterrestres, les Vogons, détruisent la Terre parce qu’elle se trouve sur le tracé d’une autoroute spatiale. On y trouve des références célèbres de la culture geek comme Marvin, le robot parano (qui a donné son nom à la chanson de Radiohead Paranoid Android), ou encore le fameux superordi nateur capable de répondre à la Grande Question sur la vie, l’univers et le reste (auquel fait allusion le slogan de la Tesla modèle S : « La vie, l’univers et tout le reste »). Dans la biographie qu’il a consacrée à Elon Musk, L’entrepreneur qui va changer le monde, Ashlee Vance raconte qu’à 14 ans, le jeune homme a ainsi formulé la mission de sa vie : « Lutter pour une meilleure clairvoyance collective. » Pour y parvenir, Musk veut être le premier à mettre au point cette superintelligence artificielle, puis l’offrir au reste du monde plutôt que de laisser les algorithmes entre les mains des experts et des gouvernements. Y compris lorsque les élites technologiques sont ses propres amis, comme les fondateurs de Google, Larry Page et Sergey Brin. « J’ai souvent parlé de ça avec Larry, m’a dit Musk. Et parfois, ça a pas mal chauffé. Il considère, comme beaucoup de futurologues, que l’avènement des robots et notre relégation à un rôle périphérique est inévitable. Pour eux, nous sommes les précurseurs biologiques d’une superintelligence numérique. »
Quand la machine bluffe au poker
Google a racheté presque toutes les entreprises de robotique et de machine learning (une branche de l’intelligence artificielle) ces dernières années. La firme de Mountain View a acquis DeepMind en 2014 pour 650 millions de dollars (475 millions d’euros) et a bâti autour de cette structure l’équipe Google Brain. « Si une intelligence artificielle malveillante voit le jour, m’a dit le biographe de Musk, Ashlee Vance, ce sera d’abord chez Google. » En mars 2016, la Silicon Valley a avalé de travers quand un champion du jeu de go a été battu par un logiciel conçu par les ingénieurs de DeepMind. C’était un « moment historique », se souvient son fondateur, Hassabis, lui-même surpris que la victoire de l’ordinateur arrive aussi rapidement. Plus récemment, son programme a disputé soixante parties en ligne contre les meilleurs joueurs de Chine, du Japon et de Corée. Résultat : 60 à 0. En janvier 2017, autre choc : un logiciel de poker a réussi à écraser les meilleurs joueurs en bluffant.
Quand Google a acquis DeepMind, Hassabis a posé une seule condition : mettre en place d’un comité d’éthique sur l’intelligence artificielle. À l’époque, cette demande semblait amplement prématurée ; aujourd’hui, beaucoup moins. En juin 2016, un chercheur de DeepMind a publié un article décrivant la façon de concevoir un « gros bouton rouge » pour débrancher illico une intelligence artificielle en cas de problème. Selon son entourage, Larry Page s’intéresserait à ces questions à cause de la frustration qu’il ressent quand un système – réservation d’un billet, fixation des prix sur un marché... – ne fonctionne pas de façon optimale. Il est convaincu que l’intelligence artificielle va améliorer la vie des gens en leur laissant « plus de temps pour leur famille ou leurs loisirs ». Surtout quand un robot aura pris leur place au travail...
Musk est l’ami de Page. Il a assisté à son mariage et dort même chez lui quand il est de passage à San Francisco. « Ça ne vaut pas la peine d’avoir une maison à soi si c’est seulement pour une ou deux nuits par semaine », m’a expliqué la 99e fortune mondiale. Parfois, Musk s’inquiète de la naïveté de Page quand il estime que les machines ne sont ni meilleures ni plus mauvaises que leurs créateurs. Agacés d’être présentés comme des ingénieurs inconséquents, beaucoup d’employés de Google considèrent Musk comme un auteur de mauvaise science- fiction. « Les robots ont été inventés ; les nations les arment ; un méchant dictateur s’en sert contre les humains et tous sont tués à la fin ? se moque Eric Schmidt, le grand patron du moteur de recherche. Tout cela ressemble à un roman, pour moi. » Pour d’autres, Elon Musk veut moins sauver le monde que faire son autopromotion : il exploiterait ainsi l’éternelle peur du conflit entre l’homme et la machine, de la créature qui se retourne contre son créateur. Pendant ce temps, il s’emploierait surtout à attirer des talents à moindre prix afin de développer ses propres logiciels pour ses voitures Tesla et ses fusées SpaceX. Ou, pour le dire comme Sam Spade/Humphrey Bogart, dans Le Faucon maltais : « La plupart des choses à San Francisco sont à vendre... ou à prendre. »
Musk est sans aucun doute un excellent commercial. Qui mieux qu’un défenseur de l’humanité peut vous vendre la nouvelle Tesla qui se conduit toute seule ? Andrew Ng, directeur scientifique de Baidu (le Google chinois) jusqu’en mars, y voit un « coup de génie marketing » : « Au plus fort de la récession, Musk a convaincu le gouvernement américain de l’aider à concevoir une voiture de sport électrique ! » Pour lui, craindre un usage malveillant de l’intelligence artificielle aujourd’hui revient à s’inquiéter de la surpopulation de Mars avant même que l’on soit capable de s’y installer.
Tous ces scénarios apocalyptiques n’auront de sens que quand nous vivrons dans un monde où une simple imprimante fonctionnera correctement. L’initiative d’OpenAI traduit peut- être la peur de passer à côté de la prochaine révolution technologique. Musk ne voit-il pas Page s’engager dans une nouvelle génération de logiciels et rassembler une armée de codeurs ? « Elon veut les mêmes jouets que Larry, explique son biographe Ashlee Vance. Ce sont deux superpuissances ; ils sont amis, mais se méfient l’un de l’autre. » Comme cette fameuse phrase prononcée dans la série Silicon Valley (sur la chaîne HBO) : « Je ne veux pas vivre dans un monde où quelqu’un d’autre fabrique un monde meilleur. » Même Musk le reconnaît : « Notre amitié a été affectée, mais ça va mieux maintenant. » Il ne peut pas dire la même chose du patron de Facebook, Mark Zuckerberg, devenu une sorte de gourou au style de vie improbable. Chaque année, Zuck se fixe une série d’objectifs délirants pour lui, comme porter une cravate tous les jours, lire deux livres entiers par mois, apprendre le mandarin et... ne manger que de la viande d’animaux qu’il a tués de ses propres mains. En 2016, il s’est attaqué à l’intelligence artificielle. Trois semaines après le lancement d’OpenAI, Zuckerberg a annoncé sa volonté de créer un logiciel capable de l’aider à gérer sa maison, de reconnaître ses amis et de jeter un oeil à la chambre des enfants. « Un peu comme Jarvis », a-t-il précisé, en référence au majordome virtuel d’Iron Man. « Certaines personnes essaient de convaincre le public que l’intelligence artificielle est dangereuse, explique Zuckerberg en faisant allusion à Musk. Ça me semble tiré par les cheveux et bien moins probable que des désastres causés par les maladies, la violence, etc. » Avant Noël 2016, le créateur de Facebook a présenté son Jarvis au monde. Celui- ci a la voix apaisante de Morgan Freeman, met de la musique, baisse les lumières et prépare des toasts. J’ai interrogé le véritable Iron Man, Elon Musk, au sujet de ce majordome : « Je ne dirais pas que c’est de l’intelligence artificielle ; ce sont des fonctions domestiques automatisées, m’a-t-il répondu. On n’a pas vraiment besoin d’intelligence pour ce qu’il fait. »
Un Disneyland sans enfants
En janvier 2016, Musk s’est vu décerner par un think tank de Washington la palme ironique du luddisme (ce mouvement d’ouvriers anglais, au début du XIXe siècle qui détruisait les machines accusées de provoquer du chômage). Et pourtant, il avait des concurrents sérieux. Notamment l’astrophysicien Stephen Hawking, qui a déclaré sur la BBC que « l’intelligence artificielle pourrait mettre fin à la race humaine ». Ou encore l’ancien secrétaire d’État américain
Henry Kissinger, qui a réuni secrètement les meilleurs experts dans un club privé à Manhattan en 2016 pour leur faire part de ses préoccupations concernant les robots intelligents. « Quand nous avons découvert le feu et que ça a foiré, nous avons inventé l’extincteur ; quand nous avons fabriqué des voitures et que ça a foiré, nous avons inventé la ceinture de sécurité, les airbags et les feux rouges, m’a dit Max Tegmark, un professeur du MIT. Mais quand il s’agit d’armes nucléaires ou d’intelligence artificielle, nous ne voulons pas attendre de commettre une erreur pour apprendre. »
Six mois plus tard, Hassabis, Musk ainsi qu’un millier de personnalités ont signé un appel pour l’interdiction des armes offensives autonomes, plus connues sous le nom de « drones tueurs ». En septembre 2016, les plus grandes sociétés de technologie des États-Unis ont créé le Partnership on Artificial Intelligence chargé d’explorer toutes les questions – notamment éthiques – soulevées par l’intelligence artificielle. Pendant ce temps, l’Union européenne se demande si les robots ont une « personnalité juridique » ou s’ils devraient être considérés comme des esclaves au sens du droit romain. Tegmark a organisé une seconde conférence en janvier 2017, au centre Asilomar, en Californie, là même où la communauté scientifique s’était réunie en 1975 pour délimiter ce qui était acceptable dans le champ de l’expérimentation génétique. « Les principaux experts dans la Silicon Valley prennent désormais la question beaucoup plus au sérieux et reconnaissent qu’il y a un risque, observe Musk. Mais je ne suis pas sûr qu’ils en mesurent bien l’ampleur. » Steve Wozniak s’est demandé publiquement s’il allait devenir un animal de compagnie pour les robots. « Nous avons commencé à tresser notre laisse », m’a- t-il dit. Il a même commencé à élaborer les bases d’une paix avec les robots. « Pourquoi nous posons-nous en ennemis de ceux qui pourraient nous vaincre un jour ? s’amuse- t-il. Ce devrait être un partenariat. Nous devrions bâtir une culture où les robots nous verraient comme des amis. »
Pour démêler le vrai du faux, je suis allée voir le célèbre futurologue Ray Kurzweil. À 69 ans, l’auteur d’Humanité 2.0 (M21 éditions) prend quelque 90 pilules par jour censées lui permettre d’atteindre l’immortalité ou, du moins, une « prolongation infinie de notre fichier- esprit ». Il a tellement envie de se fondre dans les machines qu’il utilise parfois le mot « nous » quand il évoque de futurs êtres super-intelligents, bien loin du « eux » de Musk. Pour lui, il y a trois étapes dans la réponse humaine aux nouvelles technologies : « Ouah », « hum hum » et « quelles sont nos autres options pour aller de l’avant ? » « La liste des choses que les humains savent faire mieux que les ordinateurs rétrécit de jour en jour, poursuit-il. Mais nous créons justement ces outils pour nous dépasser. » Tout comme, il y a deux cents millions d’années, des mammifères ont développé un néocortex qui a permis à l’homme d’« inventer les langues, la science, l’art et la technique », nous serons, selon Kurweil, des cyborgs – mi- cybernétiques, mi- organiques – d’ici aux années 2030, avec des nanorobots de la taille des cellules sanguines qui nous relieront à des cerveaux synthétiques. Il dit : « Nous serons plus spirituels, plus doués en musique, plus sages. » « Comme si l’intelligence était la seule chose qui importait, s’exaspère l’auteur du manuel de référence sur l’intelligence artificielle, Stuart Russell. Je pense que notre remplacement par des machines sans existence consciente, quel que soit le nombre de choses étonnantes qu’elles inventeraient, serait la pire tragédie imaginable. » Nick Bostrom, professeur de philosophie à Oxford, appelle une telle société pleine de technologie mais sans humains, « un Disneyland sans enfants » .
« Certains pensent que si les machines devenaient plus intelligentes que nous, alors nous devrions leur abandonner la planète et aller voir ailleurs, détaille Russell. Et puis, il y a ceux qui disent que nous téléchargerions nos consciences dans les machines et que nous deviendrions à notre tour des machines. Je trouve ça complètement invraisemblable. » Il conteste également le point de vue du Français Yann Le Cun, qui dirige le laboratoire de recherche en intelligence artificielle de Facebook, Fair. Ce dernier a affirmé à la BBC que les scénarios à la Terminator, où les machines prennent le pouvoir, sont certes divertissants mais pas du tout réalistes.
« JE NE VEUX PAS VIVRE DANS UN MONDE OÙ QUELQU’UN D’AUTRE FABRIQUE UN MONDE MEILLEUR. » GaVin BELSOn grand patron dans la série Silicon Valley
Et en premier lieu parce que les robots ne sont pas soumis à des besoins humains comme la faim, la recherche du pouvoir, l’instinct de reproduction ou de conservation. « Faux ! se récrie Russell. Il est évident qu’une machine se préoccupera de sa propre survie, même si vous ne la programmez pas pour cela... Tout simplement parce que si vous lui dites : “Fais-moi un café”, elle ne peut pas le préparer si elle est morte. Donc, quel que soit l’ordre que vous lui donnez, elle doit préserver sa propre existence. » Russell démonte deux autres arguments : « Le premier, c’est “ça n’arrivera jamais”, ce qui revient à dire que nous filons vers le précipice, mais qu’heureusement, nous n’avons pas assez d’essence pour nous y jeter. C’est mal connaître les hommes. Et l’autre, c’est : “Ne vous inquiétez pas, nous allons simplement construire des robots et nous travaillerons ensemble.” Ce qui pose la question suivante : si les robots ne sont pas d’accord avec nos objectifs, accepteront-ils de collaborer avec nous ? »
En 2016, Microsoft a dû fermer son agent conversationnel intelligent, Tay : les utilisateurs de Twitter, qui étaient censés l’éduquer « grâce à une conversation décontractée et ludique » (dixit Microsoft) sont parvenus à le rendre raciste, complotiste et misogyne. « Bush est responsable du 11-Septembre et Hitler aurait fait un meilleur boulot que le singe que nous avons actuellement [à la Maison Blanche, Barack Obama]. Donald Trump est notre seul espoir », a tweeté Tay quelques heures seulement après son lancement. Musk l’a immédiatement relevé : « Ce serait intéressant de voir en combien de temps on arriverait à Hitler avec ces robots. Pour Tay, ça a pris une journée. »
Eliezer Yudkowsky est un chercheur très réputé qui tente de déterminer s’il est possible, en pratique, d’orienter le développement d’une intelligence artificielle – y compris dans le mauvais sens. « Comment codez-vous une machine de façon à ce qu’elle soit dotée d’un bouton d’arrêt, qu’elle l’accepte et n’essaie pas de s’en débarrasser, qu’elle veuille bien être éteinte et vous laisse le faire, mais qu’elle ne vous devance pas et ne s’arrête pas elle-même ? m’a- t-il demandé dans un restaurant de Berkeley. Et si elle est capable de se corriger, ne se corrigera-t- elle pas en éliminant cet interrupteur ? C’est là- dessus que je travaille et ce n’est pas simple. » J’ai bredouillé un laïus à propos des rejetons de Klaatu (le personnage principal du Jour où la Terre s’arrêta, de Robert Wise, 1951), de HAL (2001, l’Odyssée de l’espace, de Stan- ley Kubrick, 1968) et d’Ultron (un des supervilains de l’univers Marvel), tous ces monstres qui s’emparent d’Internet, de notre compte en banque, des réseaux de transport et des installations militaires. Qu’en est-il des Réplicants de Blade Runner (Ridley Scott, 1982) qui conspirent pour tuer leur créateur ? Yudkowsky s’est pris la tête entre les mains, puis m’a patiemment expliqué : « L’intelligence artificielle n’a pas besoin de s’emparer de tout Internet. Elle n’a pas besoin de drones. Elle ne serait pas dangereuse parce qu’elle disposerait d’armes. Elle le serait parce qu’elle est plus douée que nous. Imaginez qu’elle soit capable de prédire la structure des protéines à partir de l’ADN ; il lui suffirait d’envoyer quelques e-mails à des laboratoires spécialisés et bientôt, elle disposerait de sa propre machine moléculaire capable d’en créer d’autres encore plus sophistiquées. Une machine pervertie ne ressemblerait pas à un robot humanoïde avec des yeux rouges ; elle aurait plutôt l’apparence de bactéries synthétiques invisibles, avec des nano- ordinateurs embarqués qui se cacheraient dans les vaisseaux sanguins de tout un chacun. Et puis un jour, toutes en même temps, elles libéreraient un microgramme de toxine botulique et tout le monde serait mort. Et encore, ça ne se passerait pas vraiment comme ça, parce qu’elles seraient bien plus malignes que moi. Quand vous construisez quelque chose plus intelligent que vous, vous devez réussir du premier coup. »
Cette idée m’a fait repenser à ma conversation avec les deux initiateurs d’OpenAI. Ne vous focalisez pas sur les robots- tueurs, m’avait dit Musk. « L’important, ce n’est pas le robot, c’est l’algorithme. Le robot n’est que son outil, un tas de capteurs et de vérins. L’intelligence, elle, est sur le réseau. Il faut seulement éviter que l’algorithme ne s’emballe. Mais si c’est une superintelligence décentralisée qui commande, il n’y a pas de moyen de l’arrêter. » Son compère Altman avait détaillé le scénario : « Une force qui prendrait le contrôle total d’Internet aurait bien plus de pouvoir que celui qui dirige une armée de robots sophistiqués. Nos vies sont déjà tellement dépendantes d’Internet... » Même des robots anodins pourraient nous nuire : « Imaginez que vous fabriquiez un robot autodidacte spécialisé dans la cueillette des fraises, dit Musk. Chaque jour, il s’améliore et il en ramasse de plus en plus. Et son seul but, c’est de cueillir des fraises. Au bout d’un moment, il voudra contrôler tous les champs de fraises. Strawberry fields forever. » Pas de place pour les êtres humains. Mais peuvent-ils vraiment créer un bouton stop ? « Je ne suis pas sûr de vouloir être celui qui en disposera, parce que c’est la première personne qu’il faudra tuer », répond Musk. Altman ajoute : « Nous sommes vraiment à un moment crucial, parce que, dans les prochaines décennies, nous irons tout droit soit vers notre propre destruction, soit vers la conquête de l’univers. » « Tout droit, a confirmé Musk. La fin de l’univers est inéluctable, mais tout ce qui compte, c’est de quelle façon nous y arriverons. » Cet homme qui a tellement peur de l’extinction de notre espèce avait eu alors un petit rire. Comme l’a écrit Lovecraft, « même des plus grandes horreurs, l’ironie est rarement absente ». �
« CELUI QUI DISPOSERA DU BOUTON STOP SERA LE PREMIER QU’IL FAUDRA TUER. » Elon MUSK