La re­con­nais­sance fa­ciale montre un vi­sage in­quié­tant

La re­con­nais­sance fa­ciale, en pro­grès constant, pour­rait bien­tôt pré­dire nos com­por­te­ments

20 Minutes (Toulouse) - - LA UNE - Laure Beau­don­net

A re­gar­der la Chine, on a un bon aper­çu de la tête que pour­rait avoir le monde de de­main. Avec le « cré­dit so­cial » qui re­pose sur la re­con­nais­sance fa­ciale, des mu­ni­ci­pa­li­tés chi­noises dis­tri­buent les bons et les mau­vais points aux ha­bi­tants en fonc­tion de leur com­por­te­ment. De leur cô­té, les Ga­fa [Google, Apple, Fa­ce­book, Ama­zon] se sont lan­cés dans la course, ai­dés par les pro­grès de l’in­tel­li­gence ar­ti­fi­cielle et des bases de don­nées gi­gan­tesques. En France, la ré­gion Pa­ca veut ex­pé­ri­men­ter la re­con­nais­sance au­to­ma­tique des vi­sages des élèves par bio­mé­trie à l’en­trée de deux ly­cées à Nice et à Mar­seille. Ne vous af­fo­lez pas tout de suite. Si la tech­no­lo­gie a fait des pro­grès, elle reste im­par­faite et il est en­core dif­fi­cile d’éva­luer son ef­fi­ca­ci­té. «Il n’existe pas de taux de per­for­mances gé­né­ral, in­siste Lau­rence De­vil­lers, pro­fes­seure en in­tel­li­gence ar­ti­fi­cielle au LIM­SICNRS. Quand on prend des per­sonnes blanches qui sont en plan américain de­vant une ca­mé­ra, on a un bon taux.» Mais des biais per­sistent. Avec des per­sonnes ri­dées ou non blanches, ce n’est dé­jà plus la même his­toire. On ne sait pas en­core com­ment éva­luer de fa­çon ro­buste ces sys­tèmes.

Un usage sé­cu­ri­taire

La re­con­nais­sance fa­ciale s’est amé­lio­rée grâce aux pro­grès des cap­teurs de l’in­tel­li­gence ar­ti­fi­cielle, et grâce à la dis­po­ni­bi­li­té de bases de don­nées pour en­traî­ner les al­go­rithmes. La Chine a l’avan­tage des don­nées et moins de res­tric­tions pour les ex­ploi­ter. Les Ga­fa dis­posent des plus grandes bases pour en­traî­ner leurs al­go­rithmes. Au­jourd’hui, même lorsque les condi­tions sont dif­fi­ciles (éclai­rage, angle, vi­sage ca­ché), les dis­po­si­tifs font de moins en moins d’er­reurs. « Dans cer­tains cas, les ma­chines com­mencent même à dé­pas­ser les ca­pa­ci­tés hu­maines, pointe Jeanluc Du­ge­lay, pro­fes­seur à Eu­re­com So­phia-an­ti­po­lis. Par exemple, on a mon­tré que L’IA es­ti­mait mieux l’âge d’une per­sonne qu’un hu­main.» En 2018, Gé­rard Col­lomb, alors mi­nistre de l’in­té­rieur, a pro­po­sé d’uti­li­ser des ca­mé­ras in­tel­li­gentes – qui re­posent sur des tech­niques de re­con­nais­sance d’images – pour re­pé­rer des gens sus­cep­tibles de com­mettre des dé­lits. « En tant qu’hu­main, on peut dé­fi­nir si une per­sonne est sou­riante ou de mau­vaise hu­meur. Les ma­chines peuvent faire la même chose grâce aux bases an­no­tées», pour­suit le cher­cheur. En gros, on montre à l’in­tel­li­gence ar­ti­fi­cielle un très grand nombre de pho­tos ou d’ex­traits vi­déo et, à chaque fois, on lui in­dique de quelle émo­tion il s’agit. Elle de­vient alors ca­pable d’iden­ti­fier cette émo­tion.

La Chine est le pré­cur­seur. « Il y a des dé­rives évi­dentes, pour­suit Lau­rence De­vil­lers, comme l’in­ter­dic­tion à des per­sonnes de prendre l’avion ou à des en­fants de faire des études… » Mais la re­con­nais­sance fa­ciale peut éga­le­ment diag­nos­ti­quer des ma­la­dies graves. Tout dé­pend de l’usage qui en est fait, donc.

Les dis­po­si­tifs de re­con­nais­sance font de moins en moins d’er­reurs.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.