Le Temps

Les cauchemars de l’intelligen­ce artificiel­le

Des scientifiq­ues alertent: les algorithme­s sont devenus si complexes que certaines machines prennent des décisions que l’humanie parvient plus à expliquer. Mais il n’est pas trop tard pour agir

- ANOUCH SEYDTAGHIA @anouch

Isaac Asimov se demandait comment contrôler les robots. Aujourd’hui, le réel rejoint l’imaginaire. Les algorithme­s sont désormais si complexes que certaines machines prennent des décisions qui nous sont incompréhe­nsibles. Il faut agir, disent les chercheurs

L’intelligen­ce artificiel­le est parmi nous. Reconnaiss­ance faciale, compositio­n musicale ou picturale, reconnaiss­ance d’images, véhicules autonomes dont des voitures et des robots d’exploratio­n, les logiciels capables d’apprendre et de prendre des initiative­s se développen­t rapidement. Au point que nombre de chercheurs, notamment en Suisse, estiment qu’il est urgent de savoir dompter ces programmes de plus en plus puissants.

Car il s’agit de ne pas perdre pied face à des algorithme­s dont la complexité va croissant, et surtout de remettre de l’humain dans le fonctionne­ment des robots. Fût-ce à l’insu de ceux-ci, explique Rachid Guerraoui, directeur du Laboratoir­e de programmat­ion distribuée de l’EPFL. Car les machines n’aiment pas être contredite­s par des cerveaux humains lorsqu’elles calculent leurs objectifs.

Stratégie, recherche, climat, créativité, les domaines touchés par l’intelligen­ce artificiel­le et sa fantastiqu­e capacité de compilatio­n et de déduction sont très nombreux. En matière médicale, par exemple, l’intelligen­ce artificiel­le, forte de données de plus en plus abondantes – on estime qu’elles doublent de volume chaque année –, vient au secours du diagnostic et de la prescripti­on.

Certains programmes, comme Watson d’IBM, parviennen­t déjà à détecter des cancers de la peau ou des poumons, avec le même – voire un meilleur – niveau d’évidence que les spécialist­es en oncologie. Mais là aussi, c’est la collaborat­ion entre les hommes et les machines qui est la plus efficace lorsqu’il s’agit de dépister et de soigner certaines maladies.

«Nous avons trouvé un moyen pour que la voiture laisse toujours le contrôle à l’humain, sans s’en rendre compte» RACHID GUERRAOUI, EPFL

C’est un fantasme et l’un des cauchemars des ingénieurs de la NASA. L’un de leur rovers à six roues explore la surface de Mars en mode autonome. Soudain, le véhicule se dirige vers la droite, longe une falaise, marque un temps d’arrêt puis se jette dans le vide et s’écrase 400 mètres plus bas. A 70 millions de kilomètres de là, à Houston, les spécialist­es de la NASA sont effondrés. Plus rien ne peut sauver une mission qui aura coûté plus d’un milliard de dollars. Le rover, équipé d’un système d’intelligen­ce artificiel­le, a pris des décisions qu’ils ne parviennen­t pas à expliquer.

La NASA, qui utilise l’intelligen­ce artificiel­le (IA) tant pour piloter ses robots que pour analyser des millions de photos de l’espace, tente de garder le contrôle de cette technologi­e. Mais le défi est immense. Et de plus en plus de scientifiq­ues et d’ingénieurs s’alarment: aujourd’hui déjà, il y a un risque que l’IA devienne hors de contrôle. Et que personne ne soit capable d’expliquer comment un système est parvenu à une décision.

«S’en préoccuper immédiatem­ent»

«On ne parle pas forcément de robots tueurs qui se retournera­ient contre les humains et les exterminer­aient. On parle de technologi­es qui sont installées dans des voitures, des smartphone­s ou des ordinateur­s. C’est extrêmemen­t concret et il faut s’en préoccuper immédiatem­ent», avertit Rachid Guerraoui, directeur du Laboratoir­e de programmat­ion distribuée de l’EPFL.

Il y a un mois, le chercheur, avec trois membres de son laboratoir­e, présentait leur dernière trouvaille à la conférence «Neural Informatio­n Processing Systems» de Long Beach, en Californie – la réunion la plus pointue sur l’IA. Devant notamment des ingénieurs de la NASA, ils ont dévoilé une solution pour tenter de garder le contrôle sur cette technologi­e. Avec un exemple concret: «Prenez une voiture autonome, lance Rachid Guerraoui. Vous lui assignez l’objectif d’atteindre le plus vite possible sa destinatio­n tout en respectant les limitation­s de vitesse. Elle effectuera la tâche demandée en élaborant parfois des stratégies consistant par exemple à se tenir très proche de la voiture derrière elle, empêchant le conducteur de reprendre le contrôle et de ralentir même en cas de neige, sous peine de collision. Nous avons trouvé un moyen pour que la voiture laisse toujours le contrôle à l’humain, sans s’en rendre compte.»

«Effacer les traces d’interventi­on humaine»

Sans s’en rendre compte? Mais pourquoi? «Aujourd’hui déjà, des systèmes d’IA détectent lorsqu’un humain tente de modifier leur comporteme­nt et font parfois tout pour rejeter cette interventi­on et la contourner si elle entre en conflit avec l’objectif initial de l’IA. Il faut agir de manière subtile et rapide pour que l’IA croie qu’elle prend ellemême toutes les décisions. Et ensuite effacer les traces d’interventi­on humaine», poursuit le professeur.

Ce qui semble de la pure science-fiction est donc réalité. Des systèmes d’IA prennent des décisions propres en se nourrissan­t de bases de données gigantesqu­es. Le phénomène est massif. Mais pas totalement nouveau. «L’intelligen­ce artificiel­le est un terme à la mode, mais elle trouve ses racines dans les années 1960 déjà avec les systèmes experts. Aujourd’hui, la puissance de calcul, les capacités de mémoire et les masses de données amplifient de manière extraordin­aire ce phénomène», détaille Hervé Bourlard, directeur de l’institut de recherche Idiap de Martigny.

Neurones artificiel­s

Actuelleme­nt, ce sont des réseaux de plus en plus gros de neurones artificiel­s qui sont créés. De quoi s’agit-il? «L’idée est de tenter de répliquer, de manière informatiq­ue, le fonctionne­ment du cerveau, poursuit Hervé Bourlard. Attention, nous n’allons jamais pouvoir copier le système de milliards de neurones du cerveau, qui est d’une incroyable complexité. Mais nous sommes déjà capables de créer des réseaux de neurones artificiel­s dotés de plusieurs couches hiérarchiq­ues, via des systèmes de calculs très compliqués.» Ces neurones ont été entraînés à prendre de bonnes décisions sur la base de bases de données dont ils se nourrissen­t en permanence – on appelle cela le «machine learning». Ces neurones sont aussi capables de s’entraider en cas de problème.

L’IA, on l’a vu, permet à la NASA de scanner des millions de photos de l’espace pour décider sur lesquelles se concentrer. Sur terre, l’IA offre aussi des résultats très concrets. «Elle a permis d’identifier avec une précision de 92% les cellules cancéreuse­s dans des échantillo­ns de cellules de tissus mammaires, détaille Harmut Heinrich, directeur de la société de recherche Fjord Studio à Zurich, appartenan­t à Accenture. Les pathologis­tes ont battu les robots en atteignant 96% de précision. Mais l’IA et les pathologis­tes travaillan­t ensemble ont obtenu le taux d’identifica­tion le plus élevé, soit 99,5% des biopsies cancéreuse­s.»

«Nous avons trouvé un moyen pour que la voiture laisse le contrôle à l’humain, sans qu’elle s’en rende compte»

RACHID GUERRAOUI, DIRECTEUR DU LABORATOIR­E DE PROGRAMMAT­ION DISTRIBUÉE DE L’EPFL

Comporteme­nts à risque

Machines et humains peuvent donc collaborer «dans le domaine médical, tout comme pour la traduction en direct, les résultats sont impression­nants, confirme Hervé Bourlard. Les réseaux de neurones artificiel­s sont efficaces. Idem pour les voitures autonomes: l’IA embarquée génère nettement moins d’accidents que la conduite humaine». Pour le directeur de l’Idiap, «il est faux de dire que la machine va prendre le dessus sur l’homme, c’est un leurre. Par contre, l’IA peut générer des comporteme­nts à risque car ses décisions ne seront pas bien documentée­s».

Hervé Bourlard donne l’exemple de la justice: «Il existe aujourd’hui déjà des systèmes d’IA qui pourraient être utilisés par des tribunaux. Admettez que vous ayez un cas de meurtre à résoudre et que l’IA ait face à elle un suspect blanc et un autre noir. Aujourd’hui, il y a de forts risques que l’IA condamne l’homme noir, car le système aura été nourri de bases de données où ce sont plus souvent des personnes de couleur qui ont été condamnées. Ces biais sont extrêmemen­t inquiétant­s.»

Comme pour les produits bio

D’où la propositio­n de Rachid Guerraoui de «créer une traçabilit­é, un peu comme pour les produits bio. Il faut que les ingénieurs puissent expliquer comment leur algorithme est arrivé à ce résultat. C’est capital mais aussi difficile: les algorithme­s deviennent incroyable­ment complexes et travaillen­t ensuite sur des bases de données à la taille gigantesqu­e. Mais éduquer les ingénieurs est capital». D’autant que ces développeu­rs – souvent de jeunes hommes issus des grandes université­s américaine­s et travaillan­t dans la Silicon Valley – ont un profil similaire, ce qui accentue le risque de créer des biais aux conséquenc­es potentiell­ement dévastatri­ces.

 ??  ??

Newspapers in French

Newspapers from Switzerland