Faut-il avoir peur des ma­chines ?

Jean-Ga­briel Ga­nas­cia est pro­fes­seur d’in­for­ma­tique, spé­cia­li­sé en in­tel­li­gence ar­ti­fi­cielle. Mark Ali­zart est phi­lo­sophe et se pas­sionne pour la tech­no­lo­gie. Ils viennent de pu­blier deux es­sais qui in­ter­rogent nos vies avec les ro­bots. Ren­contre

L'Obs - - Sommaire - Pro­pos re­cueillis par XAVIER DE LA PORTE

Un en­tre­tien avec Jean-Ga­briel Ga­nas­cia et Mark Ali­zart

Ce qui vous réunit, cu­rieu­se­ment, c’est une vi­sion apai­sée de notre ave­nir tech­no­lo­gique. Pour­tant, des or­di­na­teurs nous battent au jeu de go ou au po­ker, ils peuvent écrire des ar­ticles de presse, et on peut lé­gi­ti­me­ment se de­man­der si un jour, nous n’al­lons pas être dé­pas­sés. Jean-Ga­briel Ga­nas­cia Ce sont de fausses peurs. Quand on exa­mine scien­ti­fi­que­ment les théo­ries qui pré­disent un dé­ve­lop­pe­ment ra­pide et ex­po­nen­tiel de l’in­tel­li­gence ar­ti­fi­cielle, elles re­posent pour la plu­part sur une in­ter­pré­ta­tion tron­quée des lois de la ma­thé­ma­tique et de l’in­for­ma­tique. Et, bien sou­vent, elles servent de dis­cours mar­ke­ting à des en­tre­prises qui pour­suivent des in­té­rêts éco­no­miques avant tout. Bien sûr, l’in­for­ma­tique pose des ques­tions sé­rieuses, mais les an­goisses liées à une do­mi­na­tion de l’homme par la ma­chine sont in­fon­dées. Mark Ali­zart Pour­quoi avoir peur de ce qui nous consti­tue ? L’in­for­ma­tique, ce n’est pas seule­ment les or­di­na­teurs, ce sont tous les pro­grammes et cal­culs qui existent dans la na­ture elle-même. De­puis les an­nées 1960, on connaît l’im­por­tance des pro­grammes gé­né­tiques dans la cons­ti­tu­tion du vi­vant. Et, de­puis les an­nées 1990, grâce à la

phy­sique numérique, on sait que même les par­ti­cules élé­men­taires font des cal­culs. L’in­for­ma­tique n’est pas fa­bri­quée par l’homme, c’est d’abord elle qui nous fa­brique. Avoir peur de l’in­for­ma­tique, ce se­rait un peu comme avoir peur de son ombre. Pour vous, il y a une autre rai­son de ne pas ver­ser dans la pa­ra­noïa, c’est que la ma­chine est li­mi­tée. M. Ali­zart C’est ce que les in­for­ma­ti­ciens ap­pellent « le pro­blème de l’ar­rêt » : il est im­pos­sible de fa­bri­quer une ma­chine qui soit ca­pable de dire de n’im­porte quel pro­gramme s’il va se ter­mi­ner, ou s’il va se pro­lon­ger in­dé­fi­ni­ment. C’est ins­crit dans les lois ma­thé­ma­tiques qui ré­gissent l’in­for­ma­tique. Pour le dire au­tre­ment, même s’il était tout-puis­sant, om­ni­scient, pen­sant, il y a une chose qu’un or­di­na­teur ne sau­rait pas, c’est ce qu’il est lui-même. J.-G. Ga­nas­cia L’in­tel­li­gence ar­ti­fi­cielle n’est pas in­fi­nie. Alan Tu­ring l’a vu tout de suite en po­sant les prin­cipes de l’in­for­ma­tique. Dans les deux ar­ticles de 1947 et 1950 où il ex­plore les ob­jec­tions qui sont faites à l’idée qu’une ma­chine puisse pen­ser, il re­lève cette in­ca­pa­ci­té ori­gi­nelle. Mais, pour lui, ça n’est pas grave. Ça n’em­pêche pas les or­di­na­teurs de pen­ser. Après tout, les êtres hu­mains sont, eux aus­si, sou­mis à toutes sortes de li­mi­ta­tions, et ils pensent. M. Ali­zart Par ailleurs, ces ma­chines sont aus­si fra­giles que les ailes d’un pa­pillon. Elles sup­posent une telle com­plexi­té que la moindre per­tur­ba­tion les fait bug­ger. Le bug est in­hé­rent à la ma­chine. Au­cune ma­chine n’est ca­pable uni­ver­sel­le­ment de dé­bus­quer l’er­reur dans le pro­gramme d’une autre ma­chine. Ce­la de­vrait suf­fire à apai­ser notre rap­port aux or­di­na­teurs. Un dic­ton dit : « Si vous vou­lez faire planter un pro­jet, confiez-le à un hu­main. Mais si vous vou­lez que tout plante, lais­sez faire la ma­chine. » Et c’est sans comp­ter les vi­rus. En même temps que les or­di­na­teurs se rap­prochent de nous, ils sont ame­nés à por­ter le même far­deau que le vi­vant : la ma­la­die, et même la mort. L’or­di­na­teur est on­to­lo­gi­que­ment et ma­té­riel­le­ment fi­ni. J.-G. Ga­nas­cia Mal­gré tous nos ef­forts pour créer des sys­tèmes so­lides, la mé­moire reste fra­gile. D’un cô­té, la mé­moire in­for­ma­tique est hy­per­tro­phique – tous les deux jours, Twit­ter pro­duit à peu près la quan­ti­té de don­nées ras­sem­blée dans tous les ou­vrages de la Bi­blio­thèque na­tio­nale de France – et de l’autre, un CD-rom ne dure pas plus de cin­quante ans, et on ne sait pas comment on va lé­guer cette mé­moire in­for­ma­tique aux gé­né­ra­tions qui viennent. Plu­tôt que de pos­tu­ler une dif­fé­rence fon­da­men­tale entre l’homme et la ma­chine, vous in­sis­tez sur des proxi­mi­tés. L’in­for­ma­tique nous obli­ge­rait-elle à nous re­dé­fi­nir en tant qu’hu­mains? J.-G. Ga­nas­cia Tout à fait, mais comme l’avait fait la mé­ca­nique à l’âge mo­derne. Le meilleur exemple, c’est Des­cartes. D’une confron­ta­tion avec les tech­niques de son époque, il a ti­ré son fa­meux dua­lisme, l’idée que tout n’était pas ré­duc­tible à la mé­ca­nique. On doit se po­ser les mêmes ques­tions au­jourd’hui. Par exemple : notre cer­veau est-il mo­dé­li­sable dans un or­di­na­teur, ou le dua­lisme car­té­sien est-il en­core va­lable? Je penche pour la deuxième so­lu­tion. M. Ali­zart La ré­vo­lu­tion in­for­ma­tique oc­cupe dans l’his­toire de l’hu­ma­ni­té la même place que les dé­cou­vertes de Co­per­nic, de Dar­win ou de Freud, les trois grandes bles­sures nar­cis­siques de notre es­pèce. Co­per­nic montre que l’homme n’est pas au centre de l’Uni­vers. Dar­win montre que l’homme n’est pas la des­ti­née de l’évo­lu­tion, qui est un phé­no­mène ar­bi­traire. Freud montre que l’homme n’est même pas maître de ses propres dé­si­rs. L’in­for­ma­tique pro­duit le même type d’ef­fet. Si la pen­sée n’est pas une pro­prié­té de l’homme, ce­la veut dire qu’en­core une fois l’homme est dé­pouillé de quelque chose. Mais en même temps qu’il est dé­pouillé, il est res­ti­tué à la to­ta­li­té de l’Uni­vers. Car il n’est plus seul avec la pen­sée, il n’est plus seul dans un em­pire, pro­té­geant son tré­sor et se sé­pa­rant du reste de l’Uni­vers. D’ac­cord, mais l’in­for­ma­tique, ce n’est pas seule­ment une idée, c’est aus­si un monde do­mi­né par des en­tre­prises pri­vées, qui im­posent leur agen­da et leur tech­no­lo­gie. N’est-ce pas un sou­ci ma­jeur? M. Ali­zart Il ne s’agit pas de mi­no­rer les in­quié­tudes qu’on peut avoir vis-à-vis du monde numérique et de ce qu’il pour­rait de­ve­nir. C’est une ques­tion émi­nem­ment po­li­tique, dont nos di­ri­geants ne s’em­parent pas. Il faut que les hommes po­li­tiques cessent d’être tech­no­phobes et s’ap­pro­prient le dé­bat in­tel­lec­tuel et les ou­tils nu­mé­riques pour trans­for­mer la so­cié­té. On va très vite de­voir tran­cher une ques­tion : laisse-t-on des per­sonnes pri­vées et des en­tre­prises gé­rer nos don­nées per­son­nelles, faire de la sur­veillance, etc., ou dé­cide-t-on de se ré­ap­pro­prier col­lec­ti­ve­ment ce des­tin en re­lan­çant de vieilles uto­pies ? Pour­quoi ne pas vi­ser une sorte de com­mu­nisme 2.0 où nos don­nées nous ap­par­tien­draient et où l’on re­dis­tri­bue­rait les biens pro­duits en abondance par les ma­chines ? Cette di­men­sion uni­ver­selle de l’in­for­ma­tique se ré­per­cute sur une di­men­sion uni­ver­selle du po­li­tique. Le choix n’est pas entre tech­no­lo­gie et ab­sence de tech­no­lo­gie. Le choix est entre une tech­no­lo­gie pri­vée et une tech­no­lo­gie de­ve­nue un bien com­mun. J.-G. Ga­nas­cia Les tech­no­lo­gies de l’in­for­ma­tion, dans la me­sure où elles af­fectent la com­mu­ni­ca­tion, ont des ef­fets sur l’or­ga­ni­sa­tion so­ciale. On n’en a pas pris la me­sure alors même que l’his­toire nous a en­sei­gné que les tech­no­lo­gies ont tou­jours eu cet ef­fet : l’élec­tri­ci­té a chan­gé l’or­ga­ni­sa­tion des em­pires, par exemple. Ce­la peut-il nous ame­ner à d’autres formes d’éga­li­té ou au contraire à d’autres formes de pou­voir au­to­ri­taire? Notre dif­fi­cul­té au­jourd’hui est d’ap­pré­hen­der les consé­quences po­li­tiques de cette

pré­émi­nence des flux de l’in­for­ma­tion. La no­tion d’Etat, le lien entre le ter­ri­toire et l’Etat dé­pen­daient d’un type de com­mu­ni­ca­tion. A par­tir du mo­ment où l’Etat peut être dis­so­cié du ter­ri­toire – le cas par exemple de mi­grants qui, ins­tal­lés dans un pays, res­tent en con­tact per­ma­nent avec leur fa­mille, dé­jeunent avec elle par écrans in­ter­po­sés, etc. –, naissent des formes de vie dif­fé­rentes. Tout ce­la trans­forme le monde. Est-ce la fin des or­ga­ni­sa­tions éta­tiques, de la sou­ve­rai­ne­té na­tio­nale ? Est-ce la dis­pa­ri­tion to­tale des ca­té­go­ries po­li­tiques qui étaient au fon­de­ment des ré­gimes dé­mo­cra­tiques ? Ce sont des ques­tions ou­vertes. M. Ali­zart On a le de­voir de sor­tir de la peur. Consi­dé­rer l’in­for­ma­tique avec une cu­rio­si­té in­for­mée est un bon dé­but. Pre­nons l’exemple de la re­con­nais­sance fa­ciale. C’est très an­gois­sant, car elle met fin à l’ano­ny­mat qui est de­ve­nu sy­no­nyme de li­ber­té dans nos so­cié­tés contem­po­raines. Mais pro­je­tez-vous deux cents ans en ar­rière. Il n’y avait pas un vil­lage en France dans le­quel on ne connais­sait pas tous les ha­bi­tants, et c’était un fac­teur de grande sé­cu­ri­té. Les gens qui, au mo­ment des exodes ru­raux, par­taient de leur vil­lage pour la grande ville, étaient ter­ri­fiés de se re­trou­ver ano­nymes, et par tous ces ano­nymes qu’ils croi­saient par­tout. Evi­dem­ment que, mise dans les mains d’un Etat sé­cu­ri­taire, la sur­veillance gé­né­ra­li­sée est un gros pro­blème. Mais les mêmes tech­niques dans les mains d’un Etat dé­mo­cra­tique, ce­la peut don­ner Bi­son fu­té – exemple ex­tra­or­di­naire d’usage d’une tech­no­lo­gie qui sait quelle voi­ture est à quel en­droit pour ré­gu­ler le tra­fic. Dit comme ce­la, ça pa­raît naïf, mais c’est une ques­tion d’ap­pro­pria­tion col­lec­tive. Vous par­lez là de ma­chines re­la­ti­ve­ment maî­tri­sables. Mais au­jourd’hui on peut construire des ma­chines qui prennent des dé­ci­sions au­to­nomes. C’est autre chose… J.-G. Ga­nas­cia Il y a un mal­en­ten­du au­tour de la ques­tion de l’au­to­no­mie des ma­chines. On laisse en­tendre que celle-ci doit être éva­luée se­lon des cri­tères phi­lo­so­phiques. Or l’au­to­no­mie tech­nique est bien dé­fi­nie : c’est une chaîne de cau­sa­li­tés qui va de la prise de dé­ci­sion à l’ac­tion. L’idée d’au­to­no­mie telle qu’elle ap­pa­raît en phi­lo­so­phie à par­tir du xviiie siècle est très dif­fé­rente : c’est la ca­pa­ci­té à se don­ner sa propre loi, à maî­tri­ser ses buts. Les ma­chines ne font pas ça. Même un ro­bot tueur. Ce sont ceux qui le pro­gramment qui édictent ses lois : qu’est-ce qu’un en­ne­mi ? A quoi le re­con­naître ? L’au­to­no­mie des ma­chines est par dé­fi­ni­tion re­la­tive. M. Ali­zart La ques­tion de­vient celle de la per­son­na­li­té ju­ri­dique des ro­bots. Si leur au­to­no­mie est re­la­tive, ce­la si­gni­fie qu’on doit en ti­rer les consé­quences légales, et exi­ger la connais­sance du code in­for­ma­tique qui pro­gramme les actes se­mi-au­to­nomes de la ma­chine. Quand on au­ra des voi­tures sans conduc­teur, il fau­dra qu’elles choi­sissent, dans des cas de fi­gure ex­trêmes, si elles tuent plu­tôt leurs pas­sa­gers ou ceux de la voi­ture d’en face. Il fau­dra donc que le code em­bar­qué soit

connu du lé­gis­la­teur. Tout ça est un champ ra­di­ca­le­ment nou­veau à ex­plo­rer.

Au-de­là des ques­tions ju­ri­diques, comment en­vi­sa­ger notre co­ha­bi­ta­tion avec ces autres êtres pen­sants?

M. Ali­zart Elle se fe­ra pro­gres­si­ve­ment et d’une ma­nière plus douce qu’on l’ima­gine. Le ro­bot n’est pas d’abord l’être an­droïde à la Isaac Asi­mov, qui me­nace notre iden­ti­té parce qu’il nous res­semble phy­si­que­ment. Les ro­bots sont les té­lé­phones por­tables qui sont dans nos poches et qui sont nos dou­dous. C’est Ai­bo le ro­bot chien. C’est Alexa, l’as­sis­tant do­mes­tique d’Ama­zon qui trône dans le salon, com­mande des piz­zas et choi­sit la mu­sique. Tous ces ob­jets ne sont pas des ro­bots au sens an­thro­poïde du terme, mais des as­sis­tants de vie. Et puis ces êtres se­ront de plus en plus en nous aus­si. Ce se­ront des pro­thèses, des lu­nettes et des len­tilles connec­tées. Faut-il craindre cette co­ha­bi­ta­tion alors même que des mo­di­fi­ca­tions de l’ADN per­mettent dé­jà de gué­rir cer­taines ma­la­dies? Que de­vient-on après s’être fait ré­in­jec­ter son ADN mo­di­fié? Bien des seuils ont dé­jà été fran­chis.

Jus­te­ment, que de­vient-on alors?

M. Ali­zart On est tou­jours un homme, parce qu’un homme est un hy­bride. Un hy­bride d’es­prit et de ma­tière. Un homme s’est consti­tué quand un ani­mal a pris un ou­til. C’était dé­jà une hybridation ex­terne. Quand il s’hy­bride de ma­nière in­terne, l’homme est en­core cet être étrange, un pont entre le vi­vant et le spi­ri­tuel. Et il évo­lue­ra au mi­lieu d’autres êtres pen­sants, dans un monde qui au­ra quelque chose d’ani­miste.

C’est drôle d’ima­gi­ner un de­ve­nir qui soit à la fois ul­tra-tech­no­lo­gi­sé et ani­miste…

M. Ali­zart L’in­for­ma­tique porte en elle une double di­men­sion. Elle est à la fois uni­ver­selle, en tant qu’elle ré­ta­blit une forme d’éga­li­té entre tous les êtres – ani­més et in­ani­més – parce que tous sont le fruit d’une com­pu­ta­tion, de cal­culs et de pro­grammes. Il y a au­tant de com­pu­ta­tion dans une vo­lute de fu­mée de ci­ga­rette ou dans une tasse à thé que dans une pen­sée. C’est mys­té­rieux. Mais l’in­for­ma­tique a aus­si un ca­rac­tère uni­taire, comme l’uni­té du mo­no­théisme, une uni­té trouée, in­com­plète, un peu mys­té­rieuse aus­si. Ce­lui qui, au xxe siècle, a sans doute été le plus proche de pen­ser cette fu­sion du pas­sé et du fu­tur, c’est Teil­hard de Char­din. No­vice à 18 ans, prêtre à 30, jé­suite mais pas­sion­né par l’évo­lu­tion­nisme,

“UN HOMME EST UN HY­BRIDE D’ES­PRIT ET DE MA­TIÈRE. UN HOMME S’EST CONSTI­TUÉ QUAND UN ANI­MAL A PRIS UN OU­TIL. C’ÉTAIT DÉ­JÀ UNE HYBRIDATION EX­TERNE.” Mark Ali­zart

il a, au lieu de la perdre, for­ti­fié sa foi dans une fu­sion qu’il ré­sume par un concept : la noo­sphère. L’idée étant que si Dieu n’est pas à l’al­pha – au com­men­ce­ment du monde – il est peut-être à l’omé­ga, dans la conver­gence que l’es­prit per­met d’im­po­ser à l’Uni­vers. Les jé­suites se sont aper­çus que cette doc­trine n’était pas com­pa­tible avec le chris­tia­nisme. Ils lui ont donc in­ter­dit de pu­blier, ce qu’il a ac­cep­té. C’est le drame de la vie de Teil­hard. Des lettres et des co­pies ont cir­cu­lé, mais ce n’est qu’à sa mort, en 1955, que ses textes sont de­ve­nus cé­lèbres. Pour lui, si la bio­sphère est verte, la noo­sphère se­ra comme un man­teau de lu­mière qui en­tou­re­ra la terre – une idée qu’il énonce bien avant qu’un sa­tel­lite ait don­né la moindre image de la terre vue du ciel la nuit, avec ses ner­vures de lu­mière –, man­teau dans le­quel il voit ce­lui du Ch­rist. Et sa ré­flexion se fait aus­si po­li­tique car cette conver­gence spi­ri­tuelle vers l’omé­ga ne pour­ra avoir lieu que quand chaque per­sonne s’est ou se se­ra sin­gu­la­ri­sée au maxi­mum. C’est dans le sin­gu­lier que s’opère l’uni­ver­sel de la noo­sphère. Or cette ten­sion entre sin­gu­la­ri­té et uni­ver­sa­li­té, c’est in­ter­net. Ce qui nous ar­rive au­jourd’hui a, d’une cer­taine ma­nière, dé­jà été pen­sé.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.