POURQUOI L'INTELLIGENCE ARTIFICIELLE RISQUE DE CONTINUER A TUER
Attention à l’utilisation aveugle de l’intelligence artificielle : utilisée comme une « baguette magique », par exemple dans une voiture autonome, elle présente des risques. Par Martial Mermillod, Université Grenoble Alpes Des neurones artificiels pour des machines profondément intelligentes. C'est la nouvelle révolution de l'IA offerte, depuis 2012, par Geoffrey Hinton et son équipe. Cet expert en sciences cognitives de l'université de Toronto, et chercheur chez Google Brain a annoncé cette année-là des résultats exceptionnels d'un réseau de neurones artificiels à couches profondes ( Deep Neural Network, DNN) dans une tâche de classification d'images. Suite à ces performances impressionnantes dans ce domaine prometteur et passionnant qu'est l'intelligence artificielle (IA), des investissements massifs ont été réalisés par les universités mais aussi par les plus grands groupes internationaux pour développer ce nouveau potentiel. Néanmoins, malgré l'efficacité impressionnante des DNN dans de nombreux domaines d'applications (reconnaissance visuelle ou vocale, traduction, imagerie médicale, etc.) des questions se posent sur les limites du deep learning dans d'autres domaines tels que le pilotage de véhicules autonomes par exemple. Pour comprendre les limites de l'IA actuelle, il faut comprendre d'où viennent les DNN et surtout de quelles zones du cerveau humain ils en constituent l'analogue formel, ce qui est souvent très mal connu dans l'ingénierie industrielle mais aussi dans certains centres de recherche. Depuis cette nouvelle révolution, ils utilisent le Deep learning comme une « baguette magique » sans en connaître ni l'origine, ni les limites. Sur ce point, le titre du rapport Villani - « Donner un sens à l'intelligence artificielle » - est révélateur de ce malaise profond.