Fugues

AUTREMENT DIT

- YVES LAFONTAINE yveslafont­aine@fugues.com

Dans un article polémique publié récemment dans le Michal Kosinski et Yilun Wang affirment que l’homosexual­ité peut se détecter sur le visage. Les deux chercheurs de l’Université Stanford assurent avoir conçu un programme d’intelligen­ce artificiel­le capable de déterminer si une personne est homosexuel­le ou non, avec 81% de réussite pour les hommes et 74% pour les femmes (des chiffres qui grimpent respective­ment à 91% et 83% quand cinq photos de la personne sont évaluées par le programme). Les humains ont, quant à eux, obtenu de moins bons résultats.

«Notre étude prouve qu’il y a plus d’informatio­ns sur l’orientatio­n sexuelle contenues sur le visage que ce que le cerveau humain peut percevoir et interpréte­r», considèren­t les chercheurs. «Les homosexuel­s et les lesbiennes tendent à avoir des morphologi­es, des expression­s et des apparences faciales atypiques pour leur genre.» Et les chercheurs de soutenir que les différence­s ne s’arrêtent pas à la morphologi­e du visage: «Les hommes gais sont moins barbus et les lesbiennes ont tendance à porter moins de maquillage et à porter des vêtements moins décolletés.»

Pour arriver à ces conclusion­s, cette intelligen­ce artificiel­le s’est «entraînée». La machine a, par elle-même, «appris» à distinguer les hétérosexu­els des homosexuel­s (avoués) à partir de ses propres observatio­ns, sur plus de 35 000 photos d’hommes et de femmes hétérosexu­els et homosexuel­s, issues d’un site de rencontres américain. Ce travail présente toutefois des limites importante­s. Bien que le programme réussit quand on lui présente deux personnes, dont l’une est homosexuel­le et l’autre hétérosexu­elle, les deux chercheurs reconnaiss­ent en revanche, que les résultats sont beaucoup moins concluants quand on demande au programme d’identifier les 70 à 100 personnes homosexuel­les dans un échantillo­n de 1 000 personnes. Qui plus est, l’intelligen­ce artificiel­le a été entraînée à partir d’images issues d’une population très homogène de jeunes Américains blancs. Et à partir de photos qui ne sont pas neutres. Sur un site de rencontres, les photos sont soigneusem­ent sélectionn­ées – et souvent retravaill­ées grâce à divers logiciels –, afin de renvoyer l’image souhaitée pour séduire, quitte à exagérer certaines caractéris­tiques physiques ou au contraire, les dissimuler. Comme le soulignent ses détracteur­s, l’étude ignore la bisexualit­é ou la sexualité fluide et est fondée sur une vision binaire des orientatio­ns sexuelles: soit t’es gai/lesbienne, soit tu ne l’es pas.

Journal of Personalit­y and Social Psychology,

Évidemment, l’article a provoqué beaucoup de discussion­s sur les réseaux sociaux, relançant le vieux débat sur l’homosexual­ité innée ou acquise, et s’est attiré la colère de plusieurs organisati­ons de défense des droits des LGBT qui ont dénoncé le travail de recherche à leurs yeux «biaisé et dangereux». Certaines critiques sont allées jusqu’à dire que ce travail menaçait la sécurité et la vie privée des personnes (LGBT ou non). Et, quand on s’y arrête, ils n’ont pas tort. Imaginez les conséquenc­es possibles si cette recherche était utilisée pour soutenir les efforts d’un régime ou d’un groupe dont la volonté serait d’identifier et de persécuter les gais et les lesbiennes ou n’importe quelle minorité.

Avec les progrès de la vision par ordinateur, on assiste, ces dernières années, à un retour des sciences qui proposent de connaître les hommes et les femmes par l’étude de la conformati­on de leur corps, de leur visage. Des théories qui ont permis de justifier des choses horribles par le passé, comme l’esclavage aux États-Unis, ou le génocide des juifs.

Alors que des start-ups aujourd’hui font de l’argent en se basant sur ce principe, il est inquiétant que ces théories du passé ressurgiss­ent associées aux technologi­es, au moment même où l'on assiste à un retour des autoritari­smes. Vous trouvez cela exagéré? Rappelons qu’un des axes de recherche de Michal Kosinski, qui consiste à définir la personnali­té d’un utilisateu­r de Facebook à partir de ses « like », a été utilisé pour bâtir la start-up Cambridge Analytica, qui soutient avoir réussi à influencer les électeurs américains en faveur de Donald Trump en tenant compte de 5 000 points de référence sur 230 millions d’Américains. La technologi­e du Big Data ne serait-elle pas plus utile pour la lutte contre les discrimina­tions? Sans doute estce utopique...

Tom Cruise dans le film Minority Report, de Steven Spielberg, avait le pouvoir de «prévenir» les crimes avant qu’ils ne soient commis. Ce qui n’est pas mauvais en théorie... Jusqu’à ce que le personnage de Cruise soit lui-même accusé de façon préventive contre un crime qu’il allait supposémen­t commettre. En fait, il s’agissait d’un piège monté par son supérieur pour cacher son propre crime.

Les auteurs de l’étude ont tout de même réagi aux critiques, expliquant avoir été eux-mêmes «vraiment troublés» par les résultats de leurs recherches. «Très franchemen­t, nous serions ravis si nos résultats étaient faux. L’humanité aurait un problème de moins» disent-il, en assurant avoir «passé beaucoup de temps à réfléchir» avant de décider s’il fallait ou non publier les résultats de l’étude. «Nous pensons qu’il y a urgence à ce que nos législateu­rs et les communauté­s LGBTQ soient mis au courant des risques auxquels elles font face. Les entreprise­s techno et les gouverneme­nts sont tout à fait conscients du potentiel des outils de vision par ordinateur, mais pas toujours des dérives possibles. Nous pensons que les gens doivent connaître ces risques afin qu’ils puissent prendre des mesures préventive­s.»

Quand la technologi­e risque d’être utilisée comme une manière de contrôler ses minorités ou d’imposer une idéologie, il faut s’inquiéter… Vigilants, il est plus que jamais essentiel que nous le soyons.

 ??  ??

Newspapers in French

Newspapers from Canada