« L’intelligence artificielle peut détecter ce qu’un médecin ne verrait pas »
Le scientifique évoque le futur de l’intelligence artificielle
Après Zurich, Google a choisi Paris pour installer son deuxième laboratoire européen sur l’intelligence artificielle (IA). Olivier Bousquet, responsable de la recherche en machine learning du laboratoire suisse, est chargé de monter le projet dans la nouvelle place forte pour l’IA, qui accueille déjà Facebook AI Research.
Quelles applications de l’IA devrait-on voir arriver très vite ?
L’IA va avoir un gros impact sur la santé. Il y a beaucoup de notes écrites à la main par les médecins qui ne sont pas traitées, comme la réaction qu’un patient a pu faire à un médicament il y a des années. Si on arrive à structurer ces données, à les mettre dans un ordinateur, on va pouvoir faire des recherches très rapidement, et éviter certaines erreurs. Mais l’une des applications les plus immédiates concerne tout ce qui est à base d’images, typiquement celles du fond de la rétine. On a pris des photos de la rétine de milliers de gens et elles ont été classifiées par un système d’IA. La machine peut détecter des signes qu’un médecin ne pourrait pas voir à l’oeil nu, comme ceux de la cécité chez un diabétique.
L’IA sera-t-elle capable un jour de parler comme un humain ?
Dans l’histoire de l’IA, on a eu beaucoup de déconvenues, en particulier sur la capacité des ordinateurs à converser avec les humains. Mais ça reste envisageable dans la mesure où l’on peut déjà avoir des ordinateurs qui comprennent, de façon très limitée et très superficielle, le langage naturel. La compréhension actuelle consiste à repérer des motifs dans les phrases. Comparons les phrases “Je pose cette bouteille sur la table” et “Je pose cette bouteille sur le ciel”. La machine va repérer qu’après “posé sur”, on n’utilise pas le ciel, mais la table. Cela ne veut pas dire qu’elle a une représentation de ce qu’est une table. Pour converser de façon naturelle, il faut développer une technologie qui a accès à plus d’informations que des motifs statistiques dans du texte.
Comment fait-on ?
Les enfants, on leur parle et, en même temps, ils évoluent dans le monde, ils interagissent. C’est ce qu’il faudrait reproduire pour arriver à une machine capable de faire le lien entre le texte et le sens de ce texte. On n’a pas fait des avions en imitant les oiseaux. Même si l’on utilise des réseaux de neurones, quand on fait du machine learning, on fait de l’identification plutôt que de l’apprentissage au sens biologique.
Que répondez-vous à Elon Musk et Stephen Hawking qui mettent en garde contre les dangers de l’IA ?
A court terme, il faut voir l’IA comme un outil dont on a le contrôle, plutôt que comme une entité autonome. L’IA soulève un tas de problèmes beaucoup plus concrets que celui des robots-tueurs. Ces technologies s’appuient sur des données. Si les données sont biaisées, le résultat va être biaisé. ■