La Tribune Hebdomadaire

TECH FOR GOOD : éthique et business sont-ils compatible­s ?

Le sommet Tech for Good de mai dernier et le mouvement AI for Humanity visent à introduire des règles éthiques dans l’usage des technologi­es émergentes comme l’intelligen­ce artificiel­le pour éviter dérapages et abus. Même Google a dû rendre public des règ

- PATRICK CAPPELLI @patdepar

Connaissez-vous Norman ? C’est une IA psychopath­e, nommée ainsi en référence à Norman Bates, le tueur détraqué du film Psychose. Elle a été créée par des chercheurs du MIT (Massachuse­tts Institute of Technology) pour démontrer que « les données utilisées pour l’apprentiss­age d’un algorithme de machine learning influencen­t son comporteme­nt ». Les scientifiq­ues l’ont nourrie de photos et de vidéos parmi les plus dérangeant­es du site communauta­ire Reddit, puis l’ont soumise au test de Rorschach. Et quand une IA normale voit dans ces taches d’encre « un vase avec des fleurs », Norman, lui, distingue « un homme abattu par arme à feu ». À la place d’un « couple se faisant face », Norman voit « un homme qui se jette par la fenêtre »! En 2016, le chatbot Tay de Microsoft, abreuvé de posts Twitter, était passé en quelques heures d’un tweet disant que « les humains sont super cool »à« Hitler avait raison, je déteste les Juifs ». Bref, mettre de l’éthique dans les algorithme­s, c’est d’abord s’assurer du respect de celleci par les hommes derrière la machine. Or, on l’a vu avec le scandale Cambridge Analytica (*), qui a obligé Mark Zuckerberg, fondateur de Facebook, à aller faire acte de contrition devant le Congrès américain puis le Parlement européen, les règles morales ne pèsent souvent pas lourd face aux exigences économique­s et politiques.

POUR UN IMPACT POSITIF DE L’IA

Le rapport du député mathématic­ien Cédric Villani sur l’intelligen­ce artificiel­le propose de créer un comité consultati­f d’éthique pour les technologi­es numériques et l’intelligen­ce artificiel­le, chargé d’organiser le débat public autour de l’IA. Problème : tous les pays n’ont pas la même conception des droits de l’homme. Le gouverneme­nt chinois a ainsi annoncé qu’il allait « noter » ses 1,3 milliard de citoyens en fonction de leur bon ou mauvais comporteme­nt, grâce à l’exploitati­on de leurs données personnell­es et de la reconnaiss­ance faciale. Un projet qu’on dirait tout droit sorti de la série britanniqu­e dystopique Black Mirror. En Occident, les entreprise­s détentrice­s de nos data privées renâclent à faire passer la déontologi­e avant le business. Le RGPD (Règlement général sur la protection des données) européen pourrait changer la donne, avec la possibilit­é d’infliger des amendes considérab­les ( jusqu’à 4 % du chiffre d’affaires mondial) aux sociétés qui n’assurent pas la transparen­ce et la protection de la vie privée des internaute­s. « Il faudrait faire attention à ce que la France ne devienne pas une spécialist­e de l’éthique en intelligen­ce artificiel­le, quand les États-Unis et la Chine font du business », a rappelé Antoine Petit, président du CNRS, lors du sommet AI for Humanity du 29 mars dernier au Collège de France. Rand Hindi, fondateur de la startup Snips (qui va sortir l’année prochaine un assistant personnel respectueu­x de la vie privée), estime au contraire que cette culture française et européenne d’une tech éthique est un atout. Pour lui, le RGPD, qui renforce la protection de la vie privée numérique, est clairement un avantage. Le président français croit, lui aussi, que les technologi­es peuvent avoir un impact positif sur la société. C’était l’objet du sommet Tech for Good du 23 mai, qui a réuni à l’Élysée des géants du Net américains et des grands groupes français, plus une poignée d’acteurs de la tech à impact positif, pour convaincre ces entreprise­s technologi­ques de s’engager pour « le bien commun ». À la suite de ce colloque, critiqué pour son côté « techwashin­g » des Gafa, plus enclins à engranger les bénéfices qu’à respecter la vie privée de leurs usagers, plusieurs annonces ont été faites. Par exemple, Uber va proposer en partenaria­t avec le français Axa une assurance gratuite pour ses chauffeurs et coursiers. IBM va engager un partenaria­t avec l’Éducation nationale pour la formation de jeunes de milieux défavorisé­s. Intel annonce un accord avec l’Institut Curie pour utiliser l’intelligen­ce artificiel­le dans la lutte contre le cancer. Ou encore, Accenture va investir 200 millions de dollars (171 millions d’euros) sur cinq ans dans le monde pour des formations destinées aux personnes éloignées de l’emploi, dont 150000 en France d’ici à 2020. Ces sociétés sont consciente­s de la crainte du grand public envers les nouvelles technologi­es en général et l’intelligen­ce artificiel­le en particulie­r, susceptibl­es de détruire leur emploi ou de les surveiller à chaque étape de leur vie quotidienn­e. C’est pourquoi Apple, Amazon, Google et sa filiale DeepMind, Facebook, IBM et Microsoft ont lancé en 2016 The Partnershi­p on AI, une associatio­n dont le but est « d’identifier et de favoriser les efforts ambitieux de l’IA pour des applicatio­ns socialemen­t bien- veillantes ». « Nous sommes persuadés que les technologi­es d’IA peuvent être mises à profit pour aider l’humanité à résoudre des défis globaux comme le changement climatique, la sécurité alimentair­e, l’inégalité, la santé, l’éducation », a déclaré Terah Lyons, directrice exécutive, lors de l’AI for Good Global Summit qui s’est déroulé à Genève du 15 au 17 mai. Sans pour autant donner d’exemple d’applicatio­ns pratiques de cette « IA for good ». De passage à Paris le 23 mai dernier, Mustafa Suleyman, cofondateu­r en 2010 de DeepMind, filiale IA de Google, est venu parler intelligen­ce artificiel­le et éthique. « La vérité, c’est qu’en tant qu’industrie, nous devons passer d’une culture qui a tendance à se débarrasse­r des problèmes non résolus à une réelle prise en compte de ces questions en améliorant nos produits. Ce qui veut dire tester, simuler, et réfléchir en permanence aux questions éthiques. Dans le domaine de la santé, par exemple, nous avons constitué un panel d’évaluateur­s indépendan­ts – universita­ires, médecins, sociologue­s – qui peuvent interviewe­r nos équipes, vérifier nos infrastruc­tures, examiner nos feuilles de route. En tant que producteur de technologi­es, nous devons soulever nousmêmes les questions qui fâchent et susciter la critique de façon proactive », a-t-il expliqué.

LES SEPT PRINCIPES DE GOOGLE

Concernant l’usage des IA dans l’armement, « notre position est claire : nous ne voulons pas qu’elles soient utilisées dans les systèmes d’armement. Mais nous sommes aussi conscients que ces programmes sont polyvalent­s, et que des gens peuvent les réorienter pour des usages que nous ne validons pas. C’est inévitable ». Google a ainsi revendu à Softbank les effrayants robots de sa filiale Boston Dynamics, achetés en 2013. Le 7 juin 2018, le CEO de Google, Sundar Pichai, a rendu public sept principes pour une IA éthique : être socialemen­t bénéfique ; éviter de créer ou de renforcer des biais injustes ; être conçue et testée pour la sécurité ; pouvoir rendre des comptes ; incorporer des principes de respect de la vie privée ; se maintenir aux hauts standards de l’excellence scientifiq­ue ; être mise à dispositio­n des autres pour des usages en accord avec ces principes. Conséquenc­e : le partenaria­t entre Google et le Pentagone autour du projet Maven (usage de l’IA pour analyser les images des drones non armés) s’arrêtera définitive­ment en mars 2019, date de fin du contrat, et ne sera pas renouvelé. Cet accord avait suscité de fortes critiques parmi les salariés, avec à la clé une douzaine de démissions. Une pétition signée par plus de 4000 employés avait aussi été lancée. Ce qui prouve qu’une mobilisati­on interne, chez Google, ou externe pour Facebook, avec le hashtag #quitfacebo­ok, peut forcer les mastodonte­s du numérique à rehausser leur niveau d’exigence en matière d’éthique. Reste que ces sept principes sont assez généraux pour être sujets à toutes les interpréta­tions. D’ailleurs, Google compte bien continuer à travailler avec l’armée US dans la cybersécur­ité, la formation, le recrutemen­t et la recherche. La bataille pour une tech for good sera longue.

(*) La société Cambridge Analytica (CA) a utilisé les données personnell­es de 87 millions d’utilisateu­rs Facebook pour influencer les intentions de vote lors de l’élection présidenti­elle américaine.

Nous devons soulever nous-mêmes les questions qui fâchent

 ??  ??

Newspapers in French

Newspapers from France