LES HAUTS ET LES BAS DES RÉSEAUX DE NEURONES
En 1957, Franck Rosenblatt, de l’université Cornell, aux États-Unis invente le perceptron, un neurone artificiel capable d’ajuster la valeur de ses poids synaptiques grâce à une règle d’apprentissage simple. En 1969, Marvin Minsky, pionnier de l’intelligence artificielle, critique l’approche de Rosenblatt et expose dans un ouvrage les limites des réseaux de neurones, en particulier leur incapacité à traiter des problèmes non linéaires. S’ensuit une période noire pour les réseaux neuronaux. Dans les années 1990, ils font leur grand retour grâce à l’invention d’un algorithme d’apprentissage baptisé « error back-propagation », mis au point par le Français Yann LeCun, actuel directeur du laboratoire d’intelligence artificielle de Facebook. En 1994, il utilise cette méthode sur un réseau de neurones baptisé LeNet, capable de reconnaître automatiquement des caractères manuscrits. Ses travaux donnent lieu à une technologie de lecture automatique des chèques utilisée dans de nombreuses banques américaines. Mais, pour nombre de problèmes d’intelligence artificielle, d’autres approches se révèlent beaucoup plus efficaces. À la fin des années 1990, les réseaux de neurones entrent donc dans une période d’hibernation. Dix ans plus tard, les capacités de calculs parallèles des ordinateurs explosent, notamment grâce à l’apparition des processeurs graphiques (GPU). En parallèle, le nombre de données produites chaque jour augmente exponentiellement. Le potentiel des réseaux de neurones s’exprime alors. En 2012, l’équipe de Geoffrey Hinton, de l’université de Toronto, au Canada, fait forte impression lors d’une compétition annuelle de tests d’algorithmes pour la reconnaissance des images. Son système, AlexNet, surclasse tous les autres, et il est le seul à utiliser des réseaux de neurones profonds. Depuis, ces algorithmes sont partout (reconnaissance de la parole, des images, traduction automatique) et font l’objet d’investissements massifs.