Quand les mé­ga­don­nées aident la po­lice

Des al­go­rithmes très pous­sés per­mettent à des corps po­li­ciers de maxi­mi­ser le tra­vail des ef­fec­tifs en pré­voyant les en­droits où des crimes ont le plus de risques de se pro­duire dans une ville. Le Qué­bec tarde à adop­ter cette tech­no­lo­gie. Mais ce n’est pe

L’actualité - - VIE NUMÉRIQUE MAXIME JOHNSON -

Dif­fé­rents sys­tèmes de pré­vi­sion po­li­cière (aus­si ap­pe­lés sys­tèmes de main­tien de l’ordre pré­dic­tifs) existent de­puis une di­zaine d’an­nées aux États-Unis. À Los An­geles, la po­lice uti­lise un lo­gi­ciel qui tient compte sur­tout du temps et de la géo­gra­phie. En ana­ly­sant les pillages de do­mi­ciles sur­ve­nus dans un sec­teur, par exemple, les al­go­rithmes peuvent aler­ter les agents sur le fait que le risque de ré­ci­dive se­ra ac­cru trois se­maines après un crime, mais uni­que­ment en soi­rée.

« C’est une tech­no­lo­gie qui met en ap­pli­ca­tion plu­sieurs concepts connus en cri­mi­no­lo­gie », ex­plique Ré­mi Boi­vin, pro­fes­seur agré­gé à l’École de cri­mi­no­lo­gie de l’Université de Mon­tréal. Comme il le ré­pète sou­vent dans ses cours, « la meilleure ma­nière de sa­voir où se­ra la criminalité l’an pro­chain est de re­gar­der où elle est cette an­née ». C’est ce que fait, d’une fa­çon sys­té­ma­tique, la pré­vi­sion po­li­cière qui re­pose sur les lieux.

Les po­li­ciers de Chi­ca­go uti­lisent quant à eux un autre sys­tème, ba­sé sur les don­nées concer­nant les per­sonnes. Près de 400 000 ré­si­dants ayant un ca­sier ju­di­ciaire sont ré­per­to­riés dans la Stra­te­gic Sub­jects List. Un al­go­rithme donne à cha­cun une note sur 500 en fonc­tion de huit cri­tères, dont le nombre d’ar­res­ta­tions, l’âge, s’ils ont eux-mêmes été vic­times d’un crime ou pas... Ceux do­tés d’une note éle­vée risquent de per­pé­trer plus de crimes, se­lon le sys­tème, et doivent donc s’at­tendre à des vi­sites de la po­lice et à un trai­te­ment dif­fé­rent lors d’une ar­res­ta­tion, par exemple.

Les mé­ga­don­nées com­mencent à être uti­li­sées par cer­tains corps po­li­ciers ca­na­diens, no­tam­ment à Ed­mon­ton et à Van­cou­ver, mais pas au Qué­bec. À la Sé­cu­ri­té pu­blique, on dit connaître cette ap­proche, mais ne pas s’être « pen­chés ex­pres­sé­ment sur la ques­tion ». Ce re­tard tech­no­lo­gique est pour l’ins­tant une bonne nou­velle.

Les mé­ga­don­nées ont le po­ten­tiel d’amé­lio­rer le tra­vail des po­li­ciers, mais elles com­portent aus­si des risques im­por­tants. La pré­vi­sion po­li­cière qui re­pose sur les per­sonnes est par­ti­cu­liè­re­ment pro­blé­ma­tique, es­time An­drew G. Fer­gu­son, pro­fes­seur de droit à l’Université du dis­trict de Co­lum­bia, à Wa­shing­ton, et au­teur du livre The Rise of Big Da­ta Po­li­cing : Sur­veillance, Race and the Fu­ture of Law En­for­ce­ment (NYU, 2017). « Si vous êtes ré­per­to­rié à Chi­ca­go, la po­lice peut ve­nir frap­per à votre porte. C’est une me­sure de contrôle so­cial et de sur­veillance », dit-il à L’ac­tua­li­té.

Les don­nées uti­li­sées par les al­go­rithmes peuvent aus­si être ten­dan­cieuses, lors­qu’une com­mu­nau­té eth­nique pré­cise est sur­veillée de près par les agents, par exemple. Ces pré­ju­gés peuvent être am­pli­fiés par les sys­tèmes in­for­ma­tiques.

À l’heure ac­tuelle, les pro­grammes de pré­vi­sion po­li­cière sont des ex­pé­riences sur le ter­rain, et ce sont les po­pu­la­tions dé­jà vic­times de pro­fi­lage qui risquent d’en faire les frais. Un tra­vail d’ana­lyse éthique et cri­mi­no­lo­gique im­por­tant de­vrait être réa­li­sé avant de dé­ployer cette tech­no­lo­gie à grande échelle.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.