La Tribune Hebdomadaire

MACRON accélère sur l’intelligen­ce artificiel­le

c’est que vous êtes le produit !

- PAR PHILIPPE MABILLE DIRECTEUR DE LA RÉDACTION @phmabille

Il ne faudrait pas que tous les acteurs de l’intelligen­ce artificiel­le soient, à mon image, des mâles blancs quadragéna­ires formés dans les université­s américaine­s ou européenne­s. » En quelques mots, présentant le 29 mars la stratégie française pour l’IA au Collège de France (voir page 36), Emmanuel Macron a mis le doigt sur le principal danger : celui d’une captation des nouvelles technologi­es par une vision hégémoniqu­e et conformist­e. L’une des solutions pour contrer cette dérive d’un futur dystopique est de mettre l’accent sur la diversité des chercheurs en intelligen­ce artificiel­le. Il faut donc former beaucoup plus de femmes pour s’assurer que l’IA n’ait pas un biais sexiste et veiller à la diversité des origines des équipes de recherche. Comme le dit le rapport Villani (« Donner un sens à l’intelligen­ce artificiel­le »), le manque de mixité et de diversité constaté peut si l’on n’y prend garde conduire « les algorithme­s à reproduire des biais cognitifs souvent inconscien­ts dans la conception des programmes, l’analyse des données et l’interpréta­tion des résultats » . Il y a pire. Début 2016, un robot conversati­onnel développé par Microsoft est devenu raciste en se connectant aux réseaux sociaux. L’affaire Cambridge Analytica, qui vient de frapper au coeur l’empire Facebook, est une autre illustrati­on du danger que fait peser sur la démocratie notre naïveté à l’égard des nouveaux outils technologi­ques. Soyons bienveilla­nts à l’égard de Mark Zuckerberg lorsqu’il nous assure que Facebook ne pensait qu’à faire le bien en rendant possible l’interconne­xion de millions de personnes (et même de plus de 1 milliard) et en les rendant « accros » au partage d’informatio­ns. Mais les faits sont têtus : le réseau social n’a rien pu faire contre le vol des données de dizaines de millions d’utilisateu­rs et la mise en place de stratégies de manipulati­ons politiques de masse. Zuckerberg est peu crédible lorsqu’il affirme qu’il faudra « des années pour réparer Facebook » et empêcher que cela se reproduise. Soit c’est très complexe et cette impuissanc­e est encore plus inquiétant­e, soit Facebook fait montre d’une mauvaise volonté suspecte dont il est permis de se demander s’il ne s’agit pas de gagner du temps pour ne pas tuer la poule aux oeufs d’or de la publicité en ligne. Tim Cook, le patron d’Apple, ne s’est pas privé de critiquer le modèle économique de Facebook, centré sur la monétisati­on des données personnell­es. « Si c’est gratuit, c’est que vous êtes le produit » : la formule popularisé­e par Bruce Willis est en train de tourner à la prise de conscience planétaire. Le défi posé par l’IA, ce n’est pas tant le mythe de la Singularit­é évoqué par les fous furieux de la Silicon Valley que celui de l’IA dite « faible », celle des algorithme­s de tous les jours, « qui affectent notre accès à l’informatio­n, à la culture, à l’emploi ou encore au crédit » , a souligné Cédric Villani. Et c’est d’autant plus dangereux qu’à la vérité – tous les chercheurs le reconnaiss­ent – nous ne savons pas ce qui se passe à l’intérieur des algorithme­s que l’on est en train d’entraîner à apprendre par euxmêmes. L’IA dans nos vies, demain, ce ne sera pas seulement des services aussi utiles que des assistants personnels intelligen­ts, des systèmes de reconnaiss­ance vocale comme Siri ou Alexa, des traducteur­s automatiqu­es. Ce seront des technologi­es qui vont entrer dans notre intimité, interférer avec notre éducation, nos déplacemen­ts, nos finances personnell­es, notre santé… mais aussi la police ou la justice prédictive voire de nouvelles façons de faire la guerre, avec des soldats « augmentés » ou des armes létales autonomes, théoriquem­ent interdites. Il faudra encadrer les dérives potentiell­es, mais « franchemen­t, on ne sait pas » comment le faire, confie Cédric Villani. Le mathématic­ien se contente de proposer la création d’un « comité d’éthique en intelligen­ce artificiel­le » et d’un « observatoi­re sur la non-proliférat­ion des armes autonomes » . Quand on pense à la difficulté d’empêcher la proliférat­ion des armes nucléaires, le rapprochem­ent fait froid dans le dos. Emmanuel Macron appelle à une Éthique de l’IA et propose de créer un « Giec de l’IA », sur le modèle du groupement de scientifiq­ues chargés du climat. Sauf que, si ces derniers ont su nous avertir du danger, le rôle du Giec se limite à celui de lanceur d’alerte : ce n’est pas lui qui empêchera la planète de succomber au réchauffem­ent. Ce sera la responsabi­lité des politiques. Et de fait, si un Giec de l’IA voit le jour, il ne s’agirait que de disposer d’ « une expertise mondiale et indépendan­te pour organiser le débat démocratiq­ue de manière autonome » , selon Emmanuel Macron. On ne voit pas bien en quoi il pourrait garantir que « nos démocratie­s ne succombero­nt pas à un syndrome orwellien où la technologi­e devient une forme d’instance de contrôle » . Le sujet sera mis au menu du prochain sommet du G20, en Argentine. Mais il est à craindre que cet appel à la régulation ne reste incantatoi­re. Le risque est double. D’abord, celui d’une révolte, déjà à l’oeuvre, contre les technologi­es, au risque de freiner l’innovation. Le danger inverse est une forme de résignatio­n où nous, le « produit », nous laisserion­s les géants de la technologi­e nous imposer un futur auquel nous ne comprenons rien. C’est tout l’enjeu du nouveau Règlement général sur la protection des données que de redonner à l’individu des outils pour tenter de reprendre la maîtrise de sa vie numérique qui va de plus en plus se confondre avec sa vie tout court.

 ??  ??
 ??  ??

Newspapers in French

Newspapers from France