Les tests de per­son­na­li­té sont de piètres pré­dic­teurs de la per­for­mance au tra­vail.

Books - - 22 FAITS & IDÉES À GLANER DANS CE NUMÉRO -

ja­mais en­ten­du par­ler d’Edge ni de Puf­fy AmiYu­mi, et, comme je suis at­teinte de la ma­la­die coe­liaque, mon état de santé ne me per­met pas d’ai­mer la pâte à bis­cuit. En re­vanche, j’ai « ai­mé » la page de la boxeuse Cla­res­sa Shields, qui est sur­nom­mée T-Rex. C’est le seul point d’ac­cord avec ce que Fa­ce­book pré­tend que J’aime.

C’est plu­tôt étrange, car s’il y a bien une chose que Fa­ce­book sait de moi de fa­çon cer­taine, ce sont les pages Fa­ce­book que j’ai ef­fec­ti­ve­ment « ai­mées ». Mais peut-être ai-je plus de va­leur pour Fa­ce­book si je suis pré­sen­tée comme quel­qu’un qui aime Puf­fy AmiYu­mi, avec ses di­zaines de mil­liers de fans, plu­tôt qu’un groupe lo­cal nom­mé Dug­way, qui en a moins de 1 000. Je ne le sau­rai ja­mais, car les al­go­rithmes de Fa­ce­book, comme ceux de Google, sont un se­cret soi­gneu­se­ment gar­dé.

Si Fa­ce­book se fait des idées fausses sur moi et gagne de l’ar­gent avec, ce n’est pas la seule en­tre­prise à uti­li­ser des don­nées brutes pour ar­ri­ver à des conclu­sions étranges et to­ta­le­ment er­ro­nées. Des cher­cheurs du Centre de psy­cho­mé­trie de l’uni­ver­si­té de Cam­bridge ont mis au point ce qu’ils ap­pellent un « mo­teur pré­dic­tif », ali­men­té par des al­go­rithmes ex­ploi­tant un jeu par­tiel de « J’aime » d’un uti­li­sa­teur de Fa­ce­book et ca­pable de « pré­voir une sé­rie de va­riables par­mi les­quelles le bien-être, l’in­tel­li­gence et l’orien­ta­tion po­li­tique, et de gé­né­rer un pro­fil de per­son­na­li­té fon­dé sur cinq traits, les big five ». Ces cinq traits sont l’ou­ver­ture, la conscience, l’ex­tra­ver­sion, l’agréa­bi­li­té et le né­vro­sisme. Acro­nyme : Ocean. Les big five servent cou­ram­ment à éva­luer les can­di­dats à un em­ploi. « Nous nous pro­je­tons tou­jours au-de­là des simples clics ou “J’aime” d’un in­di­vi­du pour prendre en compte les ca­rac­té­ris­tiques qui dictent réel­le­ment son com­por­te­ment », af­firment ces cher­cheurs. Ils vendent leurs ser­vices à des en­tre­prises, avec la pro­messe de leur four­nir « une ana­lyse psy­cho­lo­gique ins­tan­ta­née de vos usa­gers fon­dée sur leur com­por­te­ment en ligne, pour vous per­mettre d’of­frir un re­tour et des re­com­man­da­tions en temps réel et va­lo­ri­ser plei­ne­ment votre marque ».

Et voi­là ce que leur mo­teur pré­dic­tif a conclu sur moi : je suis pro­ba­ble­ment un homme, bien que le fait d’« ai­mer » la page de The New York Re­view of Books me donne une touche de « fé­mi­ni­té »; je suis plu­tôt de droite que de gauche – et ce mal­gré l’af­fec­tion pour Ber­nie San­ders que j’af­fiche sur Fa­ce­book; je suis du genre contem­pla­tif plu­tôt qu’im­pli­quée dans la vie pu­blique – et ce alors que j’ai « ai­mé » nombre de groupes po­li­tiques et de mi­li­tants ; et je suis plus re­lax que 62 % de la po­pu­la­tion (j’en doute).

Et voi­ci en­core ce que j’ai trou­vé sur moi. Non seule­ment je suis un homme, mais « six hommes sur dix qui par­tagent les mêmes “J’aime” sont gays », ce qui me donne une « pro­ba­bi­li­té moyenne » d’être non seule­ment un homme, mais un homme ho­mo­sexuel. Les « J’aime » qui me font sem­bler « moins gay » sont le ma­ga­zine de dé­fense des con­som­ma­teurs Con­su­mer Re­ports, le blog d’ac­tua­li­té tech­no­lo­gique Giz­mo­do et un site ap­pe­lé Li­fe­ha­cker. Les « J’aime » qui me font ap­pa­raître « plus gay » sont The New York Times et le groupe éco­lo­giste 350.org. En même temps, les « J’aime » qui me font « ap­pa­raître peu in­té­res­sée par la po­li­tique » sont ces mêmes New York Times et 350.org. Il y a mieux. Se­lon l’al­go­rithme du Centre de psy­cho­mé­trie, « vos “J’aime” in­diquent que vous êtes cé­li­ba­taire ». Pour­quoi ? Parce que j’ai ai­mé la page de 350.org, une as­so­cia­tion fon­dée par l’homme dont je par­tage la vie de­puis trente ans !

Ce­la a beau être amu­sant, ce­la montre aus­si à quel point il est fa­cile de se mé­prendre sur les don­nées et de mal les in­ter­pré­ter. Nous vi­vons à une époque où des très puis­sants cal­cu­la­teurs peuvent ana­ly­ser et trier d’énormes jeux de don­nées dis­pa­rates. Ce­la peut ai­der à re­pé­rer des ten­dances qu’on n’au­rait pas pu voir au­pa­ra­vant, ce qui s’est ré­vé­lé utile dans la re­cherche phar­ma­ceu­tique par exemple et, ap­pa­rem­ment, pour sa­voir où des en­gins ex­plo­sifs im­pro­vi­sés avaient le plus de chances d’être pla­cés en Af­gha­nis­tan. Mais ce­la peut aus­si nous ame­ner à croire que l’ana­lyse des don­nées va nous li­vrer une vé­ri­té dé­nuée de biais et de sco­ries.

En réa­li­té, la « da­ta­fi­ca­tion » de toute chose a un ef­fet ré­duc­teur. Pour com­men­cer, elle laisse de cô­té tout ce qui ne peut être quan­ti­fié. Comme le sou­ligne Ca­thy O’Neil dans son livre pé­né­trant et dé­ran­geant, la da­ta­fi­ca­tion re­pose sou­vent sur des in­di­ca­teurs in­di­rects quan­ti­fiables qui ont peu ou pas de rap­port avec les réa­li­tés qu’ils sont cen­sés ap­pré­hen­der : la cote de sol­va­bi­li­té pour la pro­ba­bi­li­té

1 d’être un bon sa­la­rié, par exemple, ou les tests de per­son­na­li­té fon­dés sur les

big five qu’uti­lise le Centre de psy­cho­mé­trie de Cam­bridge alors même, comme le rap­porte O’Neil, que « la re­cherche scien­ti­fique montre que les tests de per­son­na­li­té sont de piètres pré­dic­teurs de la per­for­mance au tra­vail ».

On a ten­dance à pen­ser que les don­nées sont neutres, qu’elles ne re­flètent pas de biais in­trin­sèques. La plu­part des gens pensent par exemple que Fa­ce­book n’in­ter­vient pas dans ce qui s’af­fiche sur leur « fil d’ac­tua­li­té », alors que c’est exac­te­ment ce que fait son al­go­rithme pro­prié­taire. Une per­sonne ou un groupe de per­sonnes dé­cident quel type d’in­for­ma­tions doit être in­clus dans l’al­go­rithme, et com­ment le pon­dé­rer, de même qu’une per­sonne ou un groupe de per­sonnes dé­cident de ce qu’il faut in­clure dans un en­semble de don­nées, ou quel en­semble de don­nées doit être in­té­gré à une ana­lyse. Cette per­sonne ou ce groupe de per­sonnes abordent leur tâche avec tous les biais et les a prio­ri cultu­rels qui font de nous ce que nous sommes. Quel­qu’un au Centre de psy­cho­mé­trie de Cam­bridge a dé­ci­dé que les lec­teurs de The New York Re­view of Books sont des femmes et que ceux des blogs de tech­no­lo­gie sont des hommes. Ce n’est pas de la science, c’est de la pré­somp­tion. Et c’est gra­vé dans l’al­go­rithme.

Il nous faut ad­mettre que la failli­bi­li­té de l’être hu­main est ins­crite dans les al­go­rithmes que les hu­mains écrivent. Ce­la pa­raît évident quand on re­garde le ré­sul­tat des ana­lyses du Centre de psy­cho­mé­trie de Cam­bridge, mais ça l’est moins quand il s’agit d’al­go­rithmes qui « pré­disent » qui va com­mettre un crime

dans l’ave­nir, par exemple – al­go­rithmes qui sont dé­sor­mais uti­li­sés par cer­tains tri­bu­naux pour prendre les dé­ci­sions de condam­na­tion ou de li­bé­ra­tion condi­tion­nelle. Ou des al­go­rithmes qui jugent un can­di­dat à l’em­bauche un peu trop cu­rieux et donc moins sus­cep­tible d’être un sa­la­rié loyal. Ou des al­go­rithmes qui éva­luent la cote de sol­va­bi­li­té, la­quelle, on l’a vu, sert à bien plus qu’à dé­ter­mi­ner la sol­va­bi­li­té. Fa­ce­book dé­ve­loppe d’ailleurs son propre al­go­rithme de no­ta­tion, fon­dé sur le pro­fil des amis que nous avons sur le ré­seau. Ce­la peut fa­vo­ri­ser des per­sonnes pauvres dont les « amis » tra­vaillent dans la fi­nance et pé­na­li­ser ceux dont les amis sont désar­gen­tés.

À l’au­tomne 2016, un groupe de pro­gram­meurs a or­ga­ni­sé un con­cours de beau­té mon­dial en ligne, ju­gé par un sys­tème d’in­tel­li­gence ar­ti­fi­cielle. L’idée était que l’or­di­na­teur se­rait ca­pable d’ana­ly­ser les pho­tos en­voyées par des mil­liers de par­ti­ci­pantes du monde en­tier et d’iden­ti­fier se­lon des cri­tères ob­jec­tifs les femmes re­pré­sen­tant la beau­té idéale. Est-ce sur­pre­nant que, à une per­sonne près, le ro­bot n’ait choi­si que des reines de beau­té blanches ? Les cher­cheurs avaient « en­traî­né » la ma­chine à par­tir d’une base d’images prin­ci­pa­le­ment consti­tuée de pho­tos de femmes à la peau claire. « Bien que l’équipe n’ait pas construit l’al­go­rithme pour qu’il traite la peau blanche comme un signe de beau­té, écrit Sam Le­vin dans The Guar­dian, les pa­ra­mètres ont ame­né les ro­bots-juges à ti­rer cette conclu­sion. »

Quand La­ta­nya Swee­ney, pro­fes­seure à l’uni­ver­si­té Har­vard, a ta­pé son nom dans Google, elle a vu ap­pa­raître une pu­bli­ci­té for­mu­lée en ces termes : « La­ta­nya Swee­ney, ca­sier ju­di­ciaire ? 1) En­trer le nom et l’État ; 2) Ac­cé­der au ca­sier ju­di­ciaire. Vé­ri­fi­ca­tion ins­tan­ta­née sur www.ins­tant­che­ck­mate.com. » Elle a payé ce que l’an­non­ceur de­man­dait et consta­té… que son ca­sier était vierge. Or La­ta­nya est plu­tôt un pré­nom de femme noire. Elle a tes­té l’al­go­rithme en en­trant sur deux sites dif­fé­rents (dont ce­lui du quo­ti­dien The Chi­ca­go Tri­bune) 2 184 pré­noms évo­quant dif­fé­rentes cou­leurs de peau. Cette pub ap­pa­rais­sait à une fré­quence 25 % plus grande pour les pré­noms à conno­ta­tion noire.

Il y a aus­si l’exemple de la fraternité afro-amé­ri­caine Ome­ga Psi Phi, qui avait créé un site In­ter­net pour cé­lé­brer son cen­tième an­ni­ver­saire. Comme le re­latent Ariel Ez­ra­chi et Mau­rice Stucke dans un livre : « Par­mi les pubs gé­né­rées par al­go­rithme sur le site fi­gu­raient des an­nonces pour des cartes de

cré­dit dé­li­vrées par des éta­blis­se­ments fi­nan­ciers dou­teux et d’autres in­vi­tant tel ou tel membre de la fraternité à vé­ri­fier son ca­sier ju­di­ciaire » 2.

Des pubs sur­gissent sur notre na­vi­ga­teur, notre page Fa­ce­book ou notre compte Gmail, et nous avons ten­dance à pen­ser qu’elles sont là parce qu’une en­tre­prise cherche à nous vendre un pro­duit dont elle pense que nous pour­rions avoir en­vie au vu de notre his­to­rique de na­vi­ga­tion, de ce que nous avons pu écrire dans un cour­riel ou re­cher­cher sur Google. Nous ne pen­sons pro­ba­ble­ment pas qu’elles sont là parce que nous ha­bi­tons dans tel quar­tier, que nous fré­quen­tons tel type de per­sonnes ou que nous avons été re­pé­rés par des voies obs­cures grâce à une re­pré­sen­ta­tion poin­tilliste de notre vie. Et nous n’ima­gi­nons cer­tai­ne­ment pas que nous voyons ces pubs parce qu’un al­go­rithme a éta­bli que nous sommes un lo­ser, une proie fa­cile ou que nous ap­par­te­nons à tel ou tel groupe eth­nique.

Comme le sou­ligne O’Neil, pré­fé­rences, ha­bi­tudes, code pos­tal et pu­bli­ca­tions sont aus­si ex­ploi­tés pour gé­né­rer des an­nonces pré­da­trices, « des pu­bli­ci­tés qui re­pèrent des per­sonnes vul­né­rables et leur vendent des pro­messes fausses ou hors de prix ». Des per­sonnes peu sol­vables se voient pro­po­ser des prêts sur sa­laire ; des per­sonnes ayant un em­ploi sans ave­nir se voient pro­po­ser des for­ma­tions oné­reuses dans des uni­ver­si­tés pri­vées. L’idée, écrit O’Neil, est de re­pé­rer les gens les plus vul­né­rables et puis d’ex­ploi­ter leurs don­nées pri­vées à leur dé­tri­ment. L’ob­jec­tif est d’iden­ti­fier ce qui les tour­mente le plus, ce qu’on ap­pelle « le point de dou­leur ».

Nous sa­vons de­puis long­temps que des sites mar­chands comme Ama­zon et des agences de voyages en ligne comme Or­bitz ou Ex­pe­dia mo­dulent leurs prix en fonc­tion de ce qu’ils pensent sa­voir de nous – notre lieu de ré­si­dence, nos re­ve­nus, nos achats pré­cé­dents. Et sou­vent, pa­ra­doxa­le­ment, les riches paient moins. Ou bien ils paient plus, comme les ly­céens d’ori­gine asia­tique qui s’ins­crivent aux cours de pré­pa­ra­tion aux exa­mens d’en­trée à l’uni­ver­si­té de l’en­tre­prise Prin­ce­ton Re­view ou les clients d’Or­bitz qui se connectent à par­tir d’un Mac. Cette ta­ri­fi­ca­tion dy­na­mique de­vient de plus en plus com­plexe et opaque. Une en­seigne bri­tan­nique, par exemple, teste des éti­quettes de prix élec­tro­niques qui changent se­lon le client, client qu’elle iden­ti­fie grâce à son té­lé­phone por­table et dont elle connaît les ha­bi­tudes de consommation. Fa­ce­book dis­pose peu­têtre de 98 types de don­nées sur chaque uti­li­sa­teur, mais le courtier Acxiom en pos­sède 1500 et elles sont toutes à vendre pour être agré­gées et in­té­grées au pe­tit bon­heur la chance dans des for­mules qui nous échappent [lire « Caveat emptor», p. 22].

Nous cé­dons nos don­nées. Nous les cé­dons par pe­tits bouts, sans pen­ser que des cour­tiers vont les col­lec­ter et les vendre, en­core moins qu’elles pour­ront être uti­li­sées contre nous. Il existe au­jourd’hui des banques de don­nées d’ADN pri­vées et non ré­gle­men­tées, consti­tuées entre autres à par­tir d’échan­tillons d’ADN que les gens four­nissent à des sites gé­néa­lo­giques pour connaître leurs an­cêtres. Ces échan­tillons dis­po­nibles en ligne peuvent être com­pa­rés à de l’ADN pré­le­vé sur les scènes de crime sans qu’une dé­ci­sion de jus­tice l’ait au­to­ri­sé. La police consti­tue aus­si ses propres bases de don­nées d’ADN en fai­sant des pré­lè­ve­ments buc­caux lors de contrôles de rou­tine. Se­lon l’Elec­tro­nic Fron­tier Foun­da­tion (EFF), une ONG de pro­tec­tion des li­ber­tés sur In­ter­net, ce­la ac­croît le risque de voir des per­sonnes mises en cause pour des crimes ou des dé­lits qu’elles n’ont pas com­mis.

Et voyez les don­nées de coachs élec­tro­niques comme Fit­bit. Comme on peut le lire dans un ar­ticle du site The In­ter­cept, « en 2013, lors d’un dé­bat d’ex­perts sur la santé et le fit­ness connec­tés, Scott Pep­pet, pro­fes­seur de droit à l’uni­ver­si­té du Co­lo­ra­do, as­su­rait : “Je peux bros­ser un por­trait de vous in­croya­ble­ment riche et dé­taillé à par­tir de vos don­nées sur Fit­bit.” Et il ajou­tait : “Ces don­nées sont de si bonne qua­li­té que je pour­rais fixer le prix de primes d’as­su­rance ou éva­luer avec pré­ci­sion votre cote de sol­va­bi­li­té.” »

Pen­sez aus­si que, si vous faites l’un des tests de per­son­na­li­té qui ap­pa­raissent

La plu­part des gens pensent que Fa­ce­book n’in­ter­vient pas dans ce qui s’af­fiche sur leur fil d’ac­tua­li­té, alors que c’est exac­te­ment ce que fait son al­go­rithme pro­prié­taire.

Pour le pa­tron de Fa­ce­book, Mark Zu­cker­berg, la vie pri­vée n’est plus une norme so­ciale. Mais à quel mo­ment cesse-t-elle aus­si d’être une norme po­li­tique ?

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.