Pas d’in­tel­li­gence ar­ti­fi­cielle éthique sans hu­mains éthiques

La Tribune Hebdomadaire - - IDÉES -

L’IDÉE

Da­vos 2019, la réunion an­nuelle du Fo­rum éco­no­mique mon­dial, a eu lieu en jan­vier der­nier dans la ville suisse du même nom. Comme on pou­vait s’y at­tendre, l’in­tel­li­gence ar­ti­fi­cielle (IA) s’est im­po­sée comme l’un des prin­ci­paux su­jets de dis­cus­sion (pas moins de 40 ses­sions lui ont été consa­crées, ce qui la pla­çait au deuxième rang, juste derrière le com­merce entre les États-Unis et la Chine). Ce­pen­dant, la ma­jeure par­tie des dé­bats ont por­té sur la struc­tu­ra­tion de prin­cipes abs­traits concer­nant l’im­por­tance de l’éthique en ma­tière d’IA ou, au mieux, sur la né­ces­si­té d’une col­la­bo­ra­tion et de re­cherches dans ce domaine.

Il me semble pri­mor­dial d’in­sis­ter sur l’im­por­tance de for­mu­ler les pro­blèmes aux­quels, se­lon toute vrai­sem­blance, nous se­rons confron­tés à me­sure que l’in­tel­li­gence ar­ti­fi­cielle pren­dra de l’am­pleur, tant en termes de per­for­mances que de por­tée. Tôt ou tard, l’IA au­ra une in­ci­dence sur le monde, et pas seule­ment sur In­ter­net. Nous avons at­teint un stade où il est né­ces­saire d’agir, et non de res­ter as­sis à dis­cu­ter.

Mul­ti­plier les grandes en­vo­lées phi­lo­so­phiques sans pro­po­ser de pro­cé­dures concrètes de mise en oeuvre ou d’ap­pli­ca­tion de ces idées est un moyen pour les en­tre­prises de ne s’at­ta­quer qu’à la sur­face du pro­blème, tout en évi­tant de faire quoi que ce soit qui pour­rait avoir un im­pact né­ga­tif sur leurs bé­né­fices. L’éthique, tout comme la sé­cu­ri­té, doit être bien plus qu’un simple res­sort pu­bli­ci­taire.

Cer­tains des points sou­le­vés à Da­vos font écho aux sen­ti­ments que j’ai ex­pri­més par le pas­sé. Ils sont in­té­res­sants dans la me­sure où ils font of­fice de diag­nos­tic de l’im­pact que l’IA pour­rait avoir sur les en­tre­prises et sur la so­cié­té en gé­né­ral. L’un des points de vue que je par­tage de­puis des an­nées, au re­gard d’un sen­ti­ment de plus en plus mé­fiant vis-à-vis de la tech­no­lo­gie qui est per­çue sous un jour dys­to­pique, est que l’in­tel­li­gence ar­ti­fi­cielle est ag­nos­tique. J’ai été heu­reux d’en­tendre Marc Be­nioff, PDG de Sa­les­force, le sou­li­gner. La ques­tion de sa­voir de quelle fa­çon nous al­lons in­té­grer cette tech­no­lo­gie dans notre monde est d’au­tant plus cru­ciale lorsque nous pre­nons toute la me­sure de cette ca­rac­té­ris­tique fon­da­men­tale.

L’ÉTHIQUE NE FONC­TIONNE PAS COMME LES ÉCHECS

L’in­tel­li­gence ar­ti­fi­cielle nous don­ne­ra un im­mense pou­voir, pour le pire ou pour le meilleur, de la même fa­çon que la fis­sion d’un atome peut gé­né­rer une éner­gie qui nous est utile ou créer une bombe dé­vas­ta­trice. Lors des dé­bats théo­riques te­nus à Da­vos, les par­ti­ci­pants ont don­né l’im­pres­sion qu’il était pos­sible de créer une IA qui se­rait in­trin­sè­que­ment bonne, ou, à tout le moins, in­ca­pable de faire le mal. C’est un peu comme croire que nous pou­vons éle­ver un en­fant de cette fa­çon : il s’agit là d’une er­reur de rai­son­ne­ment évi­dente.

Bien sûr, les êtres hu­mains ont leur libre ar­bitre, alors que l’in­tel­li­gence ar­ti­fi­cielle n’en montre au­cun signe, peu importe l’au­to­no­mie que nous lui ac­cor­dons$; mais l’éthique ne fonc­tionne pas comme les échecs. Il nous est im­pos­sible de sim­ple­ment conce­voir des ma­chines qui se­raient plus éthiques que nous – con­trai­re­ment à un in­for­ma­ti­cien qui pour­rait créer un pro­gramme d’échecs qui y joue­rait bien mieux que de vrais joueurs. L’une des clés est d’uti­li­ser ces ma­chines pour mettre à jour nos pré­ju­gés d’êtres hu­mains afin que nous puis­sions nous amé­lio­rer et rendre notre so­cié­té meilleure grâce à un cercle ver­tueux.

Mais re­con­naître nos pré­ju­gés n’est que le pre­mier pas. Les chefs d’en­tre­prise et les char­gés de stra­té­gie se doivent d’adap­ter leurs pra­tiques – et d’en­ga­ger un conseiller en éthique et dé­on­to­lo­gie, comme l’a fait ré­cem­ment Sa­les­force dont je sa­lue le geste. Idéa­le­ment, le com­por­te­ment éthique est éga­le­ment ren­table, mais, si ce n’est pas le cas, il doit être im­po­sé – au sens même de la loi – et c’est ce­la que les en­tre­prises ap­pré­hendent. L’im­por­tance que re­vêt la co­opé­ra­tion des êtres hu­mains avec l’in­tel­li­gence ar­ti­fi­cielle re­pré­sente un autre thème abor­dé à plu­sieurs re­prises lors du Fo­rum éco­no­mique mon­dial. Comme je l’ai lon­gue­ment ex­pli­qué dans mon livre, Deep Thin­king (non tra­duit), la tech­no­lo­gie fonc­tionne mieux lorsque les êtres hu­mains y sont as­so­ciés. Jus­qu’ici, l’in­tel­li­gence ar­ti­fi­cielle n’a pas mon­tré qu’elle était en me­sure de les sur­pas­ser en ma­tière de créa­ti­vi­té ou de dis­cer­ne­ment. Ses points forts sont l’as­si­mi­la­tion de grandes quan­ti­tés de don­nées, le sui­vi des ten­dances et l’éta­blis­se­ment de pré­vi­sions, et non la ca­pa­ci­té à iden­ti­fier ses propres pré­con­cep­tions ou l’in­ter­pré­ta­tion de contextes so­ciaux nuan­cés.

NOUS DEVONS RES­TER AM­BI­TIEUX DANS NOS OB­JEC­TIFS

Les en­tre­prises l’ont bien com­pris. C’est pour cette rai­son que les ré­seaux so­ciaux em­ploient des êtres hu­mains dont la tâche consiste à s’as­su­rer que les al­go­rithmes de fil­trage de l’in­for­ma­tion fonctionne­nt comme pré­vu. De même, les pro­fes­sion­nels de la santé, grâce à leur connais­sance plus di­recte du dos­sier de leurs pa­tients, de­vront tou­jours confir­mer les re­com­man­da­tions for­mu­lées par les sys­tèmes d’in­tel­li­gence ar­ti­fi­cielle. Un sys­tème de ser­vices au­to­ma­ti­sés ne rem­pla­ce­ra pas au­tant le tra­vail des êtres hu­mains qu’il leur per­met­tra de dis­po­ser de plus de temps pour ré­soudre des pro­blèmes qui échappent à l’IA. Et la por­tée de cette der­nière ne fait que grandir – nous for­mons nos rem­pla­çants dans les règles de l’art – et nous devons donc res­ter am­bi­tieux dans nos ob­jec­tifs afin de conti­nuer d’être à la pointe du pro­grès. Dès lors, comment les chefs d’en­tre­prise et les dé­ci­sion­naires peuvent-ils ap­pli­quer ces en­sei­gne­ments$? Je doute que les stra­té­gies mises en place par la ma­jo­ri­té de l’in­dus­trie tech­no­lo­gique soient suf­fi­santes pour sus­ci­ter un chan­ge­ment si­gni­fi­ca­tif. Se­lon ce mo­dèle, les or­ga­ni­sa­tions, si elles ne font l’ob­jet d’au­cun contrôle, de­vront prendre des me­sures de leur propre chef pour mi­ni­mi­ser les in­con­vé­nients ain­si que les dan­gers po­ten­tiels de l’IA. Cer­taines de ces ac­tions né­ces­saires au­ront sans doute des con­sé­quences né­ga­tives sur les bé­né­fices de ces en­tre­prises, et nous avons trop sou­vent vu les géants de la Si­li­con Val­ley don­ner la prio­ri­té aux in­té­rêts de leurs ac­tion­naires. Voi­ci le der­nier exemple en date : même après des an­nées d’exa­men mi­nu­tieux de ses pra­tiques, Fa­ce­book a ad­mis avoir payé des ado­les­cents 20 dol­lars par mois pour l’ins­tal­la­tion d’une « ap­pli­ca­tion de re­cherche » des­ti­née à té­lé­char­ger l’en­semble du conte­nu de leur té­lé­phone ain­si que de leur ac­ti­vi­té sur In­ter­net. Il est dif­fi­cile d’avoir foi en des en­ti­tés de ce genre qui tra­hissent si ré­gu­liè­re­ment la confiance du grand pu­blic. Je sus­pecte que, dans le monde de l’IA aus­si, on ne puisse es­pé­rer rien de mieux que des me­sures tièdes qui re­lè­ve­ront du coup mé­dia­tique mais qui ne condui­ront à au­cun chan­ge­ment si­gni­fi­ca­tif en termes de com­por­te­ment. Ce­la si­gni­fie que les au­to­ri­tés pu­bliques au­ront, tôt ou tard, un rôle à jouer dans ce domaine, dans la limite du rai­son­nable. On peut com­pa­rer – sans risque d’exa­gé­rer, il me semble – la si­tua­tion ac­tuelle à celle du xixe siècle qui a vu émer­ger le règne des rois du rail et des ti­tans de la fi­nance. À cette époque-là aus­si, les in­té­rêts en jeu étaient tout sim­ple­ment trop écra­sants et in­com­pa­tibles avec le bien com­mun$; l’ini­tia­tive de Theo­dore Roo­se­velt de mor­ce­ler les com­pa­gnies fi­du­ciaires a été une ré­ponse ap­pro­priée.

Bien que je sois loin d’être par­ti­san d’un mo­dèle de gou­ver­nance trop puis­sant – j’ai été le té­moin des pires abus du genre en tant que ci­toyen so­vié­tique – il y a des si­tua­tions dans les­quelles il est né­ces­saire de lé­gi­fé­rer et de su­per­vi­ser. L’OCDE a dé­jà commencé à or­ga­ni­ser des confé­rences sur l’in­tel­li­gence ar­ti­fi­cielle afin de réunir autour de la même table les ac­teurs de l’in­dus­trie, du monde aca­dé­mique et des gou­ver­ne­ments.

La no­tion d’« in­tel­li­gence » dans l’ex­pres­sion « in­tel­li­gence ar­ti­fi­cielle » ne suffit pas à la rendre plus éthique que les autres tech­no­lo­gies. Il n’a ja­mais été ques­tion de « ma­chine à va­peur éthique » ou de « ra­dio éthique » ; il ne peut être ques­tion que d’une uti­li­sa­tion éthique des tech­no­lo­gies, ce qui exige la mise en place de normes et de ré­gle­men­ta­tions. Nous sommes en­core bien en re­tard en ce qui concerne un « In­ter­net éthique », du fait de vio­la­tions qui dé­passent et de­vancent les normes et les lé­gis­la­tions. Ce­la ne si­gni­fie pas pour au­tant que nous devons bais­ser les bras$; seule­ment que nous devons consen­tir plus d’ef­forts et ac­com­plir un meilleur tra­vail.

« La no­tion d’“in­tel­li­gence” dans l’ex­pres­sion “in­tel­li­gence ar­ti­fi­cielle” ne suffit pas à la rendre plus éthique que les autres tech­no­lo­gies »

[ISTOCK]

UNE ÉTHIQUE VO­LON­TAIRE OU FORCÉE"? Se­lon Ga­ry Kasparov, « le com­por­te­ment éthique en ma­tière d’IA est ren­table, mais, si ce n’est pas le cas, il doit être im­po­sé, au sens même de la loi ».

GARRY KASPAROV AM­BAS­SA­DEUR SÉ­CU­RI­TÉ D’AVAST, PRÉ­SIDENT DE HU­MAN RIGHTS FOUN­DA­TION, AN­CIEN CHAM­PION DU MONDE D’ÉCHECS

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.