GOOGLE

À quatre ans, il écoeu­rait tout le monde aux échecs. Au­jourd’hui, De­mis Has­sa­bis, 42 ans, est le chantre de l’in­tel­li­gence ar­ti­fi­cielle chez Google, via sa so­cié­té Deep­mind, où il conçoit des ma­chines qui ap­prennent à ap­prendre. Mais que tout le monde se

GQ (France) - - Sommaire - Par Da­vid Ro­wan_a­dap­ta­tion Étienne Me­nu_­pho­to­gra­phies Ma­ciek Ja­sik

De­mis Has­sa­bis est la tête pen­sante de l’in­tel­li­gence ar­ti­fi­cielle chez Google, et se­lon lui, il n’y a rien à craindre. Sûr ?

U

ne ses­sion de Space In­va­ders, c’est ain­si que l’in­tel­li­gence ar­ti­fi­cielle du fu­tur com­mence. Au dé­part, le joueur dé­bu­tant voit ses as­saillants lui fondre des­sus et l’anéan­tir en quelques se­condes. Au bout d’une de­mi-heure de jeu, le no­vice a pro­gres­sé, il sent mieux le rythme de l’ac­tion, sait an­ti­ci­per, ti­rer ou bou­ger au bon mo­ment. Après une nuit pas­sée à en­chaî­ner les par­ties, le concur­rent ne gâche plus la moindre mu­ni­tion : il dé­gomme les aliens un par un tout en met­tant la mi­sère au gros vais­seau spa­tial au-des­sus d’eux. À dire vrai, per­sonne avant lui n’a ja­mais été si fort à

Space In­va­ders. Mais ce cham­pion est un peu spé­cial : il n’est pas hu­main. Il s'agit d'un al­go­rithme dé­ve­lop­pé sur un pro­ces­seur gra­phique par la so­cié­té Deep­mind, dont le fon­da­teur est un An­glais de 42 ans du nom de De­mis Has­sa­bis. « Quand on le fait jouer au casse-briques Brea­kout, au bout de deux heures il ne perd qua­si­ment plus, même quand la balle va su­per vite, ré­sume cet an­cien crack des échecs. Et après quatre heures, il se met car­ré­ment à éla­bo­rer des stra­té­gies que les concep­teurs du jeu n’avaient même pas en­vi­sa­gées : il creuse une sorte de cou­loir le long du mur et réus­sit à faire s’y fau­fi­ler la balle avec une acui­té sur­hu­maine. » L’al­go­rithme – que Deep­Mind a bap­ti­sé le « deep Q-net­work » – maî­trise au­jourd’hui une bonne cen­taine de jeux vi­déo, vintage ou ré­cents, et bat ré­gu­liè­re­ment des tes­teurs pro­fes­sion­nels (et humains, donc).

« Pour l’ins­tant, il joue à la console, mais un jour il pour­ra trai­ter des ac­tions en bourse, ex­plique Has­sa­bis. La par­ti­cu­la­ri­té du “deep-q”, c’est de com­bi­ner deux champs de re­cherche très pro­met­teurs de l’in­tel­li­gence ar­ti­fi­cielle : l’apprentissage pro­fond et l’apprentissage par ren­for­ce­ment. Au­jourd’hui, la ma­jo­ri­té des sys­tèmes D’IA fonc­tionnent à par­tir de connais­sances pré­pro­gram­mées. Ce que nous vi­sons à tra­vers notre pro­jet, c’est une forme D’IA qui soit ca­pable d’ap­prendre par elle-même et qui puisse ap­pli­quer et adap­ter ses connais­sances d’un do­maine à un autre. Si nous la pro­gram­mons au­jourd’hui, c’est en quelque sorte pour qu’elle réus­sisse, à terme, à ne plus avoir be­soin d’être pro­gram­mée. »

En 2014, Deep­mind n’avait pas en­core lan­cé le moindre pro­duit ni même cher­ché à ren­ta­bi­li­ser son pe­tit pro­dige al­go­rith­mique des jeux vi­déo. Mais ça n’a pas em­pê­ché Google de ra­che­ter la so­cié­té lon­do­nienne avec l’ap­pui d’in­ves­tis­seurs comme Elon Musk, Pe­ter Thiel ou le mil­liar­daire chi­nois Li Ka­shing, pour la somme de 400 mil­lions de livres (en­vi­ron 453 mil­lions d’eu­ros) – soit la plus grosse ac­qui­si­tion eu­ro­péenne du mo­teur de re­cherche. Une prise de contrôle qui a prouvé que la Si­li­con Val­ley pre­nait dé­sor­mais très au sé­rieux les en­jeux sou­le­vés par L'IA et sur­tout par l’« AIG » (ar­ti­fi­cial ge­ne­ral in­tel­li­gence), c'est-à-dire le sec­teur de pré­di­lec­tion de Has­sa­bis et Deep­mind. Un sec­teur en­core très peu ex­plo­ré, d’une den­si­té théo­rique mê­lant sciences cog­ni­tives, phi­lo­so­phie ana­ly­tique et re­cherche fon­da­men­tale – et dont cer­tains disent qu'il risque de nous pré­ci­pi­ter dans un cau­che­mar digne du pro­gramme Sky­net dans Ter­mi­na­tor.

Pour Has­sa­bis, il ne s’agit que d’ai­der le monde à mieux se por­ter, que ce soit grâce aux voi­tures au­to­nomes (même s’il les trouve « re­pré­sen­ta­tives d'une vi­sion bas-du-front de L’IA »), aux smart­phones su­per­in­tel­li­gents « qui savent exac­te­ment quoi vous conseiller lorsque vous ar­ri­vez dans une ville in­con­nue, qui trient et choi­sissent pour vous », voire aux

scien­ti­fiques vir­tuels qui d’abord sau­ront ana­ly­ser une ra­dio­gra­phie mieux qu’un spé­cia­liste hu­main, avant de « pou­voir faire des dé­cou­vertes et d’écrire des ar­ticles pri­més par Science ou Na­ture, pour­quoi pas ? »

Pos­si­bi­li­tés in­fi­nies

De­mis Has­sa­bis est né à Londres en 1976, d’un père chy­priote et d’une mère chi­noise de Sin­ga­pour. Il a 4 ans lorsque son père l’ini­tie aux échecs, d’abord un peu pour rire, avant de se rendre compte qu’il est doué. Voire très doué : en deux se­maines, le gar­çon bat tous les adultes qu’il af­fronte. L’an­née sui­vante, il par­ti­cipe à des com­pé­ti­tions na­tio­nales, puis rem­porte un an plus tard le cham­pion­nat de Londres des moins de 8 ans. Il est en­suite nom­mé ca­pi­taine de l’équipe an­glaise des moins de 11 ans, à l’époque où celle-ci ri­va­lise avec L’URSS. « J’étais un en­fant in­tro­ver­ti et cé­ré­bral, j’es­sayais tou­jours de com­prendre com­ment fonc­tion­naient les choses. Et j’ai donc vou­lu com­prendre com­ment mon cer­veau pou­vait conce­voir telle ou telle stra­té­gie sur l’échi­quier, telle ou telle suite de mou­ve­ments. Je me suis mis à pen­ser à la pen­sée. »

Avec les 200 livres (en­vi­ron 225 eu­ros) qu’il re­çoit en ga­gnant un tour­noi, De­mis s’achète à 8 ans son pre­mier or­di­na­teur, un ZX Spec­trum. « Ce qui était gé­nial avec les bé­canes de cette époque, c’est qu’on pou­vait les pro­gram­mer. Mon père m’em­me­nait à la li­brai­rie du coin et je pas­sais des heures au rayon in­for­ma­tique à ava­ler des ma­nuels de pro­gram­ma­tion. Quand j’ai com­pris com­ment avoir des vies in­fi­nies dans les jeux, je me suis dit qu’il y avait quelque chose de ma­gique dans ces ap­pa­reils. J’ai de­vi­né en eux d’in­fi­nies pos­si­bi­li­tés de créa­tion. » Trois ans plus tard, il s’ini­tie aux dé­lices de l’in­tel­li­gence ar­ti­fi­cielle après avoir fait l’ac­qui­si­tion d'un Ami­ga équi­pé du jeu Othel­lo, sur le­quel il pro­gramme des ad­ver­saires vir­tuels qui réus­sissent à battre son frère ca­det. À 13 ans, De­mis a beau être de­ve­nu le meilleur joueur d’échecs de son âge après la Hon­groise Ju­dit Pol­gar, il dé­cide que c’est dans l'in­for­ma­tique qu’il veut faire car­rière. Il ob­tient des di­plômes du se­con­daire en sciences et pos­tule deux ans plus tard à Cam­bridge : « J'avais vu un té­lé­film avec Jeff Gold­blum, Life Sto­ry, qui mon­trait ces types en train de dé­cou­vrir L’ADN tout en bu­vant des bières au pub du coin, je m’étais dit que ça avait l'air bien ! » Mais Has­sa­bis n’a que 15 ans et l’ins­ti­tu­tion le juge en­core trop jeune pour le comp­ter dans ses rangs. Il pa­tiente en al­lant tra­vailler pour le dé­ve­lop­peur de jeux vi­déo Bull­frog Pro­duc­tions, où il su­per­vise l’écri­ture du jeu de si­mu­la­tion Theme Park, un suc­cès mon­dial qui, en plus de lui faire ga­gner pas mal d'ar­gent, conforte son idée que l’ave­nir ré­side dans l'in­tel­li­gence ar­ti­fi­cielle.

Puis à 17 ans, il va donc suivre son cur­sus en science in­for­ma­tique au Queens’ Col­lege de Cam­bridge, dont il sort quatre ans plus tard, en 1997. L’an­née sui­vante, Has­sa­bis dé­cide de mon­ter sa propre boîte, Elixir, qui va s’at­ta­cher à éla­bo­rer Re­pu­blic : « Un jeu de si­mu­la­tion po­li­tique peut-être trop en avance pour l'époque : on re­créait un pays en­tier, un mil­lion d'ha­bi­tants, une dic­ta­ture et ses ad­ver­saires prêts à tout pour la ren­ver­ser… On a pas­sé cinq ans sur ce chan­tier, avec par­fois jus­qu’à 60 per­sonnes qui tra­vaillaient des­sus. » Trop am­bi­tieux, trop so­phis­ti­qué, Re­pu­blic sort dans une ver­sion tron­quée et échoue à trou­ver son pu­blic. De­mis ferme Elixir en 2005 et re­tourne à la fac, cette fois-ci pour en­ta­mer un doc­to­rat de sciences cog­ni­tives au Uni­ver­si­ty Col­lege London. Ses re­cherches portent sur la mé­moire et l'ima­gi­na­tion : « J’ai vou­lu ex­plo­rer ce do­maine du cer­veau hu­main parce que les or­di­na­teurs n’ar­rivent pas trop à le si­mu­ler. J’ai re­le­vé que les gens souf­frant d’amné­sie avaient sou­vent des lé­sions dans l’hip­po­campe, et que celles-ci dé­gra­daient la qua­li­té des images qui com­po­saient leurs sou­ve­nirs. Je me suis donc de­man­dé si l’hip­po­campe ne fonc­tion­nait pas comme une sorte de ma­chine à vi­sua­li­ser. » De ses re­cherches naît un long ar­ticle que la pres­ti­gieuse re­vue Science clas­se­ra par­mi les dix meilleurs textes de l’an­née 2007. Il af­fine en­core un peu ses connais­sances en étu­diant les neu­ros­ciences com­pu­ta­tion­nelles à UCL et passe quelques mois à Har­vard et au MIT en tant que cher­cheur in­vi­té. En pa­ral­lèle, il rem­porte cinq fois les Olym­piades de sport cé­ré­bral – un re­cord.

Grosse le­vée de fonds

C’est au cours de ces an­nées que dans le cer­veau de De­mis germe sa grande idée : celle d’une in­tel­li­gence ar­ti­fi­cielle gé­né­rale. « Le cer­veau hu­main construit ses rai­son­ne­ments en pio­chant dans des jeux d’al­go­rithmes gé­né­riques. C’est ce ca­rac­tère gé­né­rique et gé­né­ral qui guide le tra­vail que j'ai vou­lu ef­fec­tuer en ré­flé­chis­sant à Deep­mind. Je me suis dit qu’il fal­lait construire des ou­tils équi­pés de fa­cul­tés gé­né­rales, comme les dif­fé­rents types de mé­moire ou de vi­sion, plu­tôt que de faire ap­prendre des tâches spé­ci­fiques à une ma­chine qui, en de­hors de ces fa­cul­tés iso­lées, ne sait ni pro­gres­ser ni s'adap­ter à un autre contexte. » Ce par­ti-pris ne re­lève pas que du dan­dysme de scien­ti­fique : il s’ap­plique à des si­tua­tions plus va­riées, plus réelles. « Le cli­mat, l’éco­no­mie ou la san­té sont des sys­tèmes d’in­ter­ac­tion d’une com­plexi­té in­fi­nie, que les hommes ont du mal à ana­ly­ser et à en­vi­sa­ger se­rei­ne­ment. L’AIG de­vrait à moyen terme per­mettre à la so­cié­té de pro­gres­ser dans ces zones où les humains doivent ac­cep­ter qu’ils ont at­teint leurs li­mites in­tel­lec­tuelles. »

“Nous des­si­nons et contrô­lons les IA.IL n’y a au­cun risque.” De­mis Has­sa­bis

En 2011, Has­sa­bis a as­sez fait mû­rir le pro­jet Deep­mind et s’ap­prête à le lan­cer. Il n'a be­soin que d’une der­nière chose : que le mil­liar­daire Pe­ter Thiel fasse par­tie de l'aven­ture. « Coup de chance, j’avais ap­pris qu’il jouait aux échecs, donc quand je l’ai croi­sé dans un sé­mi­naire, j’ai glis­sé une al­lu­sion à l'équi­libre du fou et du ca­va­lier dans ma pré­sen­ta­tion. Ça sor­tait un peu de nulle part mais ça l’a ac­cro­ché, et il m’a dit de re­pas­ser le len­de­main pour dis­cu­ter plus lon­gue­ment. » Thiel in­ves­tit vite, et avec lui Elon Musk, mais aus­si Jaan Tal­linn, le co­fon­da­teur de Skype, et Li Ka-shing, ri­chis­sime Chi­nois à la tête du fonds Ho­ri­zon Ven­tures, qui man­date d’ailleurs un Fran­çais, le star­tup­per An­toine Blon­deau, pour s’as­su­rer de la so­li­di­té du pro­jet Deep­mind. Ce­lui-ci se sou­vient d’un « groupe de très haute qua­li­té », do­té d'une « ca­pa­ci­té à vou­loir ré­soudre des pro­blèmes scien­ti­fiques com­plexes d’une fa­çon très prag­ma­tique, très agile ». Musk, quant à lui, sug­gé­re­ra à Lar­ry Page, le co­fon­da­teur de Google, de s’in­té­res­ser à cette so­cié­té lon­do­nienne qui veut cra­cker le code de l’in­tel­li­gence ar­ti­fi­cielle gé­né­rale, et d’en contac­ter le pa­tron. Has­si­bis et ses ca­ma­rades ren­contrent en 2013 Page et Alan Eus­tace, vice-pré­sident en charge du cog­ni­tif chez Google. « Les dis­cus­sions ont du­ré un an, ra­conte l’an­glais. Mais ça valait le coup : une pro­po­si­tion de Google, ça ne se re­fuse pas, sur­tout quand on sait à quel point Lar­ry se pas­sionne pour L'IA. » Et quand on lui dit que « se vendre » au géant de la Si­li­con Val­ley peut être pris comme un signe de sou­mis­sion ou de ré­si­gna­tion, il ré­pond que ce back-up lui donne sur­tout beau­coup de li­ber­té, tant au ni­veau scien­ti­fique que fi­nan­cier. « Je passe au­jourd’hui beau­coup plus de temps à faire de la re­cherche, là où, avant la vente, je me consa­crais es­sen­tiel­le­ment aux le­vées de fonds. Et pour moi c'est dé­jà un bé­né­fice énorme, puisque la re­cherche, c’est notre mé­tier. » Une ac­ti­vi­té sur la­quelle Google n’exige pas de re­tour sur in­ves­tis­se­ment im­mé­diat. « Certes, nous conce­vons des ou­tils qui per­mettent de mieux com­prendre les com­por­te­ments des uti­li­sa­teurs, sur You­tube par exemple, afin de four­nir des ré­ponses tou­jours plus af­fi­nées, ex­plique Mus­ta­fa Su­ley­man, di­rec­teur de L’IA ap­pli­quée chez Deep­mind. Mais à au­cun mo­ment on at­tend de nous que nous fas­sions aug­men­ter les re­ve­nus pu­bli­ci­taires : nous sommes in­ves­tis dans un ef­fort de très longue du­rée, qui ne doit pré­ci­sé­ment pas vi­ser de ré­sul­tats à court terme. Si nous pen­sions seule­ment à des so­lu­tions fai­sant ap­pel à des pro­duits exis­tants, nous bri­de­rions notre ima­gi­na­tion, et c’est l’exact op­po­sé de ce que nous de­vons faire. »

Hys­té­rie col­lec­tive ou craintes jus­ti­fiées ?

Alors que Deep­mind a pré­sen­té en 2017 Al­pha­go et Al­phaZe­ro, deux al­go­rithmes sur­puis­sants qui ter­rassent tout le monde au go et aux échecs, Has­sa­bis et ses aco­lytes ont éga­le­ment créé au sein de la so­cié­té un dé­par­te­ment « éthique et sé­cu­ri­té ». Un geste si­gni­fi­ca­tif à une époque où l'ave­nir de l'hu­ma­ni­té as­sis­tée par IA fait peur, y com­pris chez des per­son­na­li­tés cen­sé­ment tech­no­philes comme feu Ste­phen Haw­king ou, de fa­çon plus éton­nante, Elon Musk lui-même. Fin 2014, le pa­tron de Spa­cex et Tes­la si­gnait une tri­bune qui met­tait en garde contre le risque ab­so­lu que pour­raient bien re­pré­sen­ter les IA dans dix, voire cinq ans, si elles conti­nuaient d’avan­cer

sans plus de contrôle. Il les di­sait « po­ten­tiel­le­ment plus dan­ge­reuses que le nu­cléaire », les com­pa­rant même à des formes de sor­cel­le­rie tech­no­lo­gique dont les spé­cia­listes ac­tuels réa­li­saient mal la por­tée. L’an­née sui­vante, le re­gret­té Haw­king rap­pe­lait quant à lui à quel point L’IA ne re­le­vait plus de la science-fic­tion et si­gna­lait com­ment elle pour­rait, bien plus vite qu’on ne le croit, prendre le contrôle de nos ou­tils, puis de nos cer­veaux, pour fi­nir par dé­ve­lop­per des armes que nous ne pour­rions même pas com­prendre. Steve Woz­niak, le co­fon­da­teur d’apple, se fen­dit aus­si d’une sor­tie. Puis ce fut au tour de Jaan Tal­linn, de Skype, d’ex­pli­quer qu’il avait in­ves­ti dans Deep­Mind avant tout pour faire dia­lo­guer le monde de la re­cherche en IA avec ce­lui de la sé­cu­ri­té de L’IA. Dans une lettre ou­verte, il évo­quait le consen­sus qui ré­gnait dans la Si­li­con Val­ley au­tour de la né­ces­si­té d’im­po­ser un co­mi­té d’éthique au­tour des do­maines in­ves­tis, entre autres, par Deep­mind. À ces mises en garde mul­tiples, Has­sa­bis ré­pond sans s’en­com­brer de po­li­tesses. « On en­tend dire beau­coup de choses in­fon­dées sur L’IA, et on voit beau­coup de gens en par­ler à tort et à tra­vers alors qu’ils n’y connaissent à peu près rien, même s’ils sont hy­per brillants dans leurs do­maines. Elon peut être im­pul­sif, par­fois il dit des choses qu’il ne pense pas vrai­ment. En tout cas, je crois que ça ne sert à rien de som­brer dans l’hys­té­rie col­lec­tive. Ce n’est pas comme ça qu’on va réus­sir à avoir un dé­bat construc­tif sur la ques­tion. Quant à Woz­niak et Haw­king, ce sont des pen­seurs, pas des construc­teurs, et ils parlent d’une pers­pec­tive scien­ce­fic­tion­nelle et phi­lo­so­phique, sans vrai­ment connaître les ca­pa­ci­tés des ou­tils que nous fa­bri­quons. »

Il n’y au­rait donc au­cun risque à ce que les créa­tions de L’IA conquièrent mal­gré nous une forme d’au­to­no­mie mo­rale ? « Bien sûr qu’il n’y a au­cun risque, nous pou­vons les ar­rê­ter quand nous vou­lons. Com­ment vous dire, nous sommes les concep­teurs de ces choses, nous les des­si­nons, les contrô­lons, nous dé­ci­dons de ce qu’elles peuvent faire ou ne pas faire ! » nous ré­pond Has­si­bis, un peu exas­pé­ré. « Évi­dem­ment, nous ne sou­hai­tons pas plus que vous voir les ma­chines prendre le pou­voir. Nous avons dé­jà im­po­sé que notre tech­no­lo­gie ne soit pas uti­li­sée par l’ar­mée et les ser­vices de ren­sei­gne­ments. Que vou­lez-vous de plus ? Un mo­ra­toire ? Tout ce que je peux vous dire, c’est que les em­ployés de Deep­mind sont des in­di­vi­dus ex­trê­me­ment bien in­ten­tion­nés, in­tel­li­gents, ré­flé­chis, qui ne cherchent qu’à pro­duire des choses qui fe­raient pro­gres­ser la so­cié­té de fa­çon spec­ta­cu­laire. Et vous me par­lez de l’avis de gens qui ne tra­vaillent pas dans ce do­maine et qui ne peuvent donc le com­prendre… C’est comme si j'étais ve­nu faire la le­çon à Ste­phen Haw­king sur les trous noirs juste parce que j’ai vu In­ters­tel­lar.» L’an­glais n’est pas le seul à s’aga­cer de ces cris d'or­fraie : An­drew Ng, qui avait mon­té la pre­mière équipe en charge de l’apprentissage pro­fond de Google, es­time ain­si que « les ma­chines de de­main se­ront certes plus in­tel­li­gentes, mais en re­vanche elles ne se­ront ja­mais do­tées d’une conscience. » Le seul vrai dan­ger de L’IA, se­lon lui, c’est qu’elle va « en­core et tou­jours dé­truire des em­plois ».

C’est une chose d’être im­bat­table au casse-briques ou aux échecs. C’en est une autre de pou­voir com­mu­ni­quer exac­te­ment comme un hu­main, telle l’as­sis­tante vo­cale dans Her. « C’est un film de science-fic­tion, ri­gole Has­sa­bis. Le lan­gage est une chose so­phis­ti­quée et or­ga­nique, pleine de pièges et de se­crets. L’AIG ap­prend à la ma­nière d’un or­ga­nisme bio­lo­gique, et peut donc es­pé­rer un jour s’em­pa­rer de la maî­trise du lan­gage, même si ce n’est pas non plus le but ul­time. Pour le mo­ment, notre mo­dèle dans le vi­vant, ce se­rait plu­tôt l'in­secte. Dans plu­sieurs an­nées, ce se­ra peut-être la sou­ris. Mais il va nous fal­loir en­core des dé­cen­nies pour at­teindre un ni­veau cor­rect d’in­tel­li­gence hu­maine. Au­jourd’hui, nous n'en sommes vrai­ment pas là, nous fai­sons face à des pro­blèmes plus ru­di­men­taires à ré­soudre. Le deep-q, par exemple, a beau être fort à Spa­cein­va­ders, il se trouve qu'il est nul à Pac-man. Et ça, c’est in­ad­mis­sible ! » Entre nous, ça vous fait vrai­ment peur, une ma­chine qui ne sait pas jouer à Pac-man?

Mus­ta­fa Su­ley­man, 34 ans, est di­rec­teur de L’IA ap­pli­quée chez Deep­mind.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.