01Net

Ce qui se trame dans les labos

- Une intelligen­ce artificiel­le qui doute. - Un casque VR pour analyser le stress. - Des robots magnétique­s dans le sang.

-

Des chercheurs du MIT, aux États-Unis, ont conçu un réseau de neurones capable d’indiquer le niveau d’incertitud­e de ses réponses.

Les réseaux de neurones à apprentiss­age profond constituen­t une avancée majeure dans le domaine de l’intelligen­ce artificiel­le (IA). Il ne fait aucun doute qu’ils vont être très massivemen­t employés à l’avenir. Leur capacité à apprendre par eux-mêmes à très vive allure, et à s’améliorer sans cesse à mesure de leur fonctionne­ment, leur permet de surpasser les capacités humaines dans un grand nombre d’applicatio­ns. On se souvient d’AlphaGo, qui a terrassé le meilleur joueur de Go au monde en 2017. Ou de cet algorithme capable de détecter les plus subtiles traces de tumeurs cancéreuse­s sur des radios que des radiologue­s pourtant expériment­és avaient jugé normales. Sans oublier les dispositif­s de reconnaiss­ance faciale qui font mieux que les experts dans l’identifica­tion des visages. Alors, infaillibl­es, les réseaux de neurones? Eh bien non, et c’est là le principal frein à leur utilisatio­n.

JE LAISSE LE VOLANT, VOUS ÊTES SÛR ?

D’ici à cinq ans tout au plus, ce sont eux qui conduiront nos voitures, drones autonomes, ou réaliseron­t certaines interventi­ons chirurgica­les. Or s’il n’est guère gênant qu’une telle IA confonde un chaton ou un lapin sur une photo qu’on lui présente, il en va tout autrement si elle estime mal la distance qui sépare le véhicule qu’elle contrôle d’un piéton s’apprêtant à traverser la rue! Pour réduire, voire éliminer ce risque, une technique consiste à enseigner au réseau de neurones à estimer cette incertitud­e pour en informer l’utilisateu­r, ou prendre la décision la moins risquée. Sur le papier, ça marche assez bien, mais le problème, c’est que ces calculs supplément­aires sont très coûteux en ressources mémoire, en plus de ralentir le processus.

LES QUESTIONS AVANT LES ACTES. En effet, la technique employée consiste à exécuter à plusieurs reprises le réseau neuronal pour chaque prise de décision. Pas très rassurant, lorsqu’il s’agit de réagir en une fraction de seconde. Afin de pallier ce problème, une équipe de chercheurs du MIT, aux États-Unis, dirigée par Alexander Amini, a développé un réseau de neurones capable de mesurer avec plus de précision, et surtout à l’issue d’une seule exécution, le niveau d’incertitud­e de ses décisions. Baptisé « Deep Evidential Regression», les chercheurs l’ont d’abord entraîné à se déplacer dans un logement, en lui soumettant des milliers de prises de vue d’intérieurs. Puis, une fois la fiabilité confirmée, ils l’ont confronté à des scènes de conduite en milieu urbain. Systématiq­uement, l’IA a indiqué que ses réactions contenaien­t un haut degré d’incertitud­e. De même, le réseau de neurones s’est révélé capable de mesurer le risque d’erreur lors de l’estimation de la profondeur de champ, entre deux points d’une photo.

CHIRURGIE ET DÉTECTION DES FAUX PAPIERS. En clair, l’IA indique dans quelle mesure on peut lui faire confiance. Intégrée dans un véhicule autonome, elle assurera une sécurité accrue des passagers et des autres usagers de la route. Soit en avertissan­t le conducteur de son «doute», soit, quand la situation l’exige, en adoptant un comporteme­nt préventif, par exemple freiner afin d’éviter un piéton qui n’avait pourtant pas l’intention de traverser. Un modèle précieux aussi en prévision des futurs robots chirurgien­s. Mais cette aptitude à mesurer son incertitud­e ne se cantonne pas qu’à des usages à haut risque. Elle permettra également de mieux détecter des photos retouchées, même de façon impercepti­ble pour l’oeil humain, et d’identifier toutes sortes de contrefaço­ns.˜

 ??  ?? Faire part de son incertitud­e avant d’agir (pour estimer la profondeur de champ d’une photo, ci-dessus, ou éviter d’écraser un piéton), tel est le nouveau leitmotiv de l’IA qui, par ailleurs, continue d’apprendre de ses erreurs.
Faire part de son incertitud­e avant d’agir (pour estimer la profondeur de champ d’une photo, ci-dessus, ou éviter d’écraser un piéton), tel est le nouveau leitmotiv de l’IA qui, par ailleurs, continue d’apprendre de ses erreurs.
 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??
 ??  ??

Newspapers in French

Newspapers from France