L’actualité

Après les caméras, l’intelligen­ce artificiel­le

Avec les manifestat­ions du mouvement Black Lives Matter, l’utilisatio­n par les corps policiers des outils d’intelligen­ce artificiel­le et de reconnaiss­ance faciale a monté d’un cran.

-

Téléphones, drones, caméras de surveillan­ce, caméras d’interventi­on sur les policiers : chacune des manifestat­ions du mouvement Black Lives Matter aux États-Unis, au printemps et à l’été, a été filmée de tous les angles possibles, avec une qualité d’image meilleure que jamais. À défaut d’avoir prévenu la casse et la brutalité policière, cette haute surveillan­ce technologi­que pourrait faciliter l’arrestatio­n de ceux qui le méritent, autant du côté des pilleurs que de celui des policiers (si la volonté y est, évidemment).

Aux quatre coins du monde, les forces de l’ordre sont friandes de ces vidéos. « Il y a beaucoup de caméras partout. Si vous avez effectué du pillage, que nous connaisson­s votre numéro de plaque d’immatricul­ation et votre visage, nous allons vous retrouver », a déclaré le chef de police de Long Beach, Robert Luna, après des manifestat­ions contre la brutalité policière à la suite de la mort de George Floyd.

Dépister les malfaiteur­s à partir d’autant d’enregistre­ments aurait auparavant exigé un travail colossal. En 2011, à la suite d’émeutes ayant éclaté à Londres après la mort d’un jeune homme tué par la police, il avait d’ailleurs fallu 450 enquêteurs pour analyser des milliers d’heures de vidéos, ce qui avait mené à la condamnati­on de 1 292 émeutiers, emprisonné­s pour plus de 1 800 ans en tout.

Neuf ans plus tard, les manifestat­ions aux États-Unis sont survenues dans un tout autre contexte technologi­que.

Par exemple, des outils simplifien­t la tâche, en suivant notamment une personne d’une vidéo à l’autre jusqu’à ce qu’elle retire son masque, ce qui permet ensuite de l’identifier avec un système de reconnaiss­ance faciale.

Les vidéos facilitero­nt quantité d’arrestatio­ns, mais les prochains mois risquent aussi de concrétise­r les craintes de nombreux citoyens par rapport à ces outils d’intelligen­ce artificiel­le. La technologi­e est après tout imparfaite et peut entraîner l’accusation de personnes innocentes. Certaines population­s sont plus à risque d’être visées, des manifestan­ts pacifiques peuvent être fichés dans les systèmes de la police, et les outils du genre renforcent souvent les préjugés systémique­s. Un risque d’autant plus troublant que les manifestat­ions de Black Lives Matter se déroulaien­t sur fond de racisme systémique, justement.

Et malheureus­ement, le manque de transparen­ce fréquent dans l’adoption de ces technologi­es ne permet pas d’espérer qu’elles seront employées avec prudence. Quand, au début 2020, le grand public a appris l’existence de l’entreprise de reconnaiss­ance faciale Clearview AI, qui a notamment monté des bases de données géantes avec des photos obtenues sur les réseaux sociaux, il a aussi appris que plus de 600 corps policiers utilisaien­t déjà le service, y compris la Gendarmeri­e royale du Canada (qui a depuis mis fin à son contrat avec l’entreprise).

Les outils technologi­ques ont peut-être de bons côtés, mais il est difficile de se sentir en confiance dans de telles conditions. (Maxime Johnson)

Il a fait 54,4 °C le 16 août dernier à Furnace Creek, dans la vallée de la Mort, en Californie. Si l’Organisati­on météorolog­ique mondiale homologue officielle­ment la donnée, il s’agira de la températur­e la plus élevée à avoir été mesurée par les outils de la météorolog­ie moderne. Deux mesures plus élevées (55,0 °C en Tunisie en 1931 et 56,7 °C à Furnace Creek en 1913) sont encore considérée­s comme des records de températur­e par l’Organisati­on météorolog­ique mondiale, mais des scientifiq­ues ont depuis soulevé des doutes sur la fiabilité de ces mesures. (Claudine St-Germain)

 ??  ??

Newspapers in French

Newspapers from Canada