Les éboueurs du Web

Ils sont des di­zaines de mil­liers à net­toyer In­ter­net de ses images de viols d’en­fants et de dé­ca­pi­ta­tion. Mais à bos­ser dans les pou­belles de Google, Facebook ou YouTube, plu­sieurs en viennent à souf­frir de chocs post-trau­ma­tiques ou de ma­la­die men­tale.

L’actualité - - SOMMAIRE - PAR CA­SEY NEW­TON ILLUS­TRA­TIONS DE COREY BRICKLEY

Ils sont des di­zaines de mil­liers à net­toyer In­ter­net de ses images de viols d’en­fants et de dé­ca­pi­ta­tion. Mais à bos­ser dans les pou­belles de Google, Facebook ou YouTube, plu­sieurs en viennent à souf­frir de chocs post-trau­ma­tiques ou de ma­la­die men­tale. Com­ment les pro­té­ger ?

GGoogle et YouTube abordent la mo­dé­ra­tion de conte­nu comme le font tous les autres poids lourds de l’in­dus­trie des réseaux so­ciaux : en sous-traitant la ma­jeure par­tie du tra­vail.

L’un de ces sous-trai­tants, la so­cié­té amé­ri­caine Ac­cen­ture, gère le plus grand centre de mo­dé­ra­tion de conte­nu aux États-Unis, à Aus­tin, au Texas. Des cen­taines de mo­dé­ra­teurs tra­vaillent dans ce centre, 24 heures sur 24, pour net­toyer YouTube de ses conte­nus in­ap­pro­priés.

Pe­ter est un de ces mo­dé­ra­teurs. YouTube ef­fec­tue pour lui et ses col­lègues un pre­mier tri de conte­nus pro­blé­ma­tiques. Ces conte­nus sont pla­cés dans di­verses «files d’at­tente» nu­mé­riques, clas­sées par thèmes, aux­quelles les mo­dé­ra­teurs ont ac­cès. YouTube es­time qu’en se concen­trant sur un thème, les mo­dé­ra­teurs ac­quièrent une ex­per­tise par­ti­cu­lière. Il y a donc une file d’at­tente pour les ques­tions de droits d’au­teur, une autre pour les ap­pels à la haine et le har­cè­le­ment, une autre en­core dite « adulte » pour la por­no­gra­phie.

Celle sur la­quelle Pe­ter tra­vaille est la pire : la file d’at­tente EV, pour ex­tré­misme violent. Elle ren­ferme le conte­nu le plus hor­rible qui doit être re­ti­ré des pla­te­formes de Google.

Comme tous les em­plois de mo­dé­ra­teur de conte­nu qui im­pliquent une ex­po­si­tion quo­ti­dienne à des sé­vices et à de la vio­lence, ce job a eu des consé­quences sé­rieuses et du­rables sur les per­sonnes qui font le même bou­lot que Pe­ter.

Au cours de la der­nière an­née, il a vu un de ses col­lèges s’ef­fon­drer, tel­le­ment af­fli­gé par le conte­nu des vi­déos qu’il avait vi­sion­nées qu’il a dû s’ab­sen­ter pen­dant deux mois sans sa­laire.

Un autre col­lègue, mi­né par l’an­xié­té et la dé­pres­sion cau­sées par son tra­vail, né­gli­geait tel­le­ment son ali­men­ta­tion qu’il a fal­lu l’hos­pi­ta­li­ser à cause d’une ca­rence ai­guë en vi­ta­mines.

Pe­ter s’in­quiète pour sa san­té men­tale à long terme. De­puis qu’il tra­vaille pour la file d’at­tente EV, il a per­du des che­veux et pris du poids. Il est de­ve­nu plus sus­cep­tible et s’énerve fa­ci­le­ment. Lors­qu’il roule en voi­ture près de son bu­reau, même les jours de congé, son coeur se met à pal­pi­ter.

« Chaque jour, vous voyez une dé­ca­pi­ta­tion ou un gars qui tire sur sa pe­tite amie, ra­conte-t-il. Après, vous vous dites : wow, le monde est vrai­ment fou ! Vous vous sen­tez mal. Vous per­dez votre rai­son de vivre. Vous vous de­man­dez : pour­quoi les hu­mains se font-ils au­tant de mal entre eux ? »

Pe­ter fait ce tra­vail de­puis près de deux ans, et sa fa­mille lui de­mande ré­gu­liè­re­ment de dé­mis­sion­ner. Mais il craint de ne pas trou­ver un em­ploi aus­si bien ré­mu­né­ré: 18,50 dol­lars amé­ri­cains l’heure, soit en­vi­ron 37 000 dol­lars amé­ri­cains par an­née.

Tout comme bon nombre de ses col­lègues de la file d’at­tente EV, Pe­ter est un im­mi­grant. Ac­cen­ture re­crute des di­zaines d’ara­bo­phones comme lui. Beau­coup ont gran­di au Moyen-Orient, et l’en­tre­prise a be­soin de leurs ap­ti­tudes lin­guis­tiques. Pe­ter, par exemple, parle sept dia­lectes arabes, un atout pour dé­ter­mi­ner avec pré­ci­sion ce qui consti­tue des pro­pos hai­neux et de la pro­pa­gande ter­ro­riste sur YouTube.

Plu­sieurs tra­vailleurs à qui j’ai par­lé rêvent de de­ve­nir des ci­toyens amé­ri­cains, un ex­ploit de­ve­nu plus ar­du sous l’ad­mi­nis­tra­tion Trump. Ils craignent de com­pli­quer en­core plus leur dé­marche d’im­mi­gra­tion s’ils se confient à un jour­na­liste ou s’ils cri­tiquent leurs condi­tions de tra­vail au­près d’un su­per­vi­seur. (Pour cette rai­son, la plu­part des em­ployés qui té­moignent dans ce re­por­tage le font sous un pseu­do­nyme.)

Pe­ter et les autres mo­dé­ra­teurs d’Aus­tin rêvent d’ob­te­nir un jour les mêmes condi­tions de tra­vail que celles dont jouissent les em­ployés à temps plein de Google qui vi­sitent par­fois leur bu­reau : un sa­laire plus éle­vé, une meilleure as­su­rance ma­la­die, et des ges­tion­naires plus em­pa­thiques pour al­lé­ger un peu le far­deau de leur tra­vail. « Nous voyons com­ment les em­ployés de Google se com­portent quand ils viennent ici : ils se sentent plus libres que nous », me dit Pe­ter.

Pen­dant plu­sieurs mois, alors que je pré­pa­rais ce re­por­tage, j’ai pen­sé comme lui. Si Google ces­sait de faire af­faire avec des sous-trai­tants comme Ac­cen­ture, si les mo­dé­ra­teurs étaient des em­ployés à temps plein de Google, s’ils tou­chaient le même sa­laire qu’un po­li­cier ou un pom­pier, peut-être que le lourd tri­but psy­cho­lo­gique qu’ils doivent payer à la suite de cette ex­po­si­tion constante à des scènes de vio­lence pour­rait être at­té­nué.

C’est alors que j’ai ren­con­tré une an­cienne mo­dé­ra­trice de conte­nu de Google. Dai­sy So­der­berg-Riv­kin ga­gnait un très bon sa­laire et bé­né­fi­ciait d’ex­cel­lents avan­tages so­ciaux. Mais au­cun de ces pri­vi­lèges ne l’a pro­té­gée des dom­mages que le conte­nu dé­ran­geant au­quel elle était ex­po­sée chaque jour al­lait lui cau­ser.

Dai­sy a consacré une an­née à ex­tir­per des pla­te­formes de Google des images de ter­ro­risme et de sé­vices sur des

en­fants. Elle souffre au­jourd’hui d’an­xié­té et de fré­quentes at­taques de pa­nique. Elle peine à in­ter­agir avec des en­fants sans fondre en larmes.

Se­lon le psy­chiatre qui la soigne, elle est vic­time d’un syn­drome de stress post-trau­ma­tique.

DDai­sy So­der­berg-Riv­kin

tra­vaillait comme as­sis­tante ju­ri­dique, en 2015, lors­qu’elle a pris connais­sance d’une offre d’em­ploi de Google. Le li­bel­lé du titre d’em­ploi uti­li­sait un eu­phé­misme opaque : le­gal re­mo­vals as­so­ciate (as­so­cié aux re­traits ju­ri­diques). De tels eu­phé­mismes sont une pratique as­sez cou­rante pour tous les af­fi­chages de poste de mo­dé­ra­teur de conte­nu.

Dai­sy a gran­di avec les ser­vices de Google. Le seul nom de l’en­tre­prise évoque pour elle un genre d’Éden, avec tous ces pe­tits avan­tages très mé­dia­ti­sés of­ferts aux em­ployés : ca­fés et cui­si­nettes, mas­sages et net­toyage à sec gra­tuits. L’em­ploi pro­po­sé est au siège so­cial de la so­cié­té, à Moun­tain View, en Ca­li­for­nie. L’équipe dé­mé­na­ge­ra un peu plus tard vers un bu­reau-sa­tel­lite si­tué non loin de là, à Sun­ny­vale. Le poste, à temps plein, offre la gamme com­plète des avan­tages so­ciaux. La ré­mu­né­ra­tion de base est de 75 000 dol­lars amé­ri­cains par an­née, à la­quelle s’ajoutent des ac­tions de Google, ce qui porte le tout à un to­tal de près de 90 000 dol­lars. « Je n’ob­tien­drai ja­mais ce job », se dit-elle. Elle pos­tule quand même.

L’offre d’em­ploi di­sait que le tra­vail consis­tait à trai­ter des de­mandes ju­ri­diques vi­sant à re­ti­rer des liens des re­cherches Google pour cause de vio­la­tions de droits d’au­teur, de dif­fa­ma­tion ou de tout autre conte­nu in­ap­pro­prié.

Se­lon l’offre d’em­ploi, les as­so­ciés (comme Google les ap­pelle) de­vaient aus­si exa­mi­ner des liens conte­nant des images de sé­vices com­mis sur des en­fants. « Je me sou­viens très bien que, entre pa­ren­thèses, il était dit que ce type de conte­nu se­rait li­mi­té à une ou deux heures par se­maine », ra­conte Dai­sy.

Net­toyer les pla­te­formes de Google re­quiert la col­la­bo­ra­tion de plu­sieurs équipes au sein de l’en­tre­prise. Pour la plu­part, les vi­déos si­gna­lées comme conte­nant des images de ter­ro­risme ou d’ex­ploi­ta­tion d’en­fants sont vi­sion­nées par des sous-trai­tants comme ceux d’Aus­tin. Mais Google em­bauche aus­si des em­ployés à temps plein pour trai­ter des de­mandes ju­ri­diques pro­ve­nant d’or­ga­nismes pu­blics ou d’or­ga­ni­sa­tions gou­ver­ne­men­tales et, lorsque c’est né­ces­saire, re­ti­rer des ré­sul­tats de re­cherche Web, des images, des vi­déos ou des liens.

Quelques mois après avoir pos­tu­lé, Dai­sy est contac­tée par un re­cru­teur. Au terme de huit sé­ries d’entrevues, Google lui fait mi­roi­ter l’ef­fet po­si­tif que son tra­vail au­ra sur le monde. « Vous al­lez sou­te­nir la li­ber­té d’ex­pres­sion en ligne, lui dit-on. Vous contri­bue­rez à faire d’In­ter­net un lieu plus sé­cu­ri­taire. »

«J’ai eu l’im­pres­sion que tra­vailler chez Google, c’était mettre une cape de dé­fen­seur des li­ber­tés, un verre de kom­bu­cha gra­tuit à la main, entre deux siestes dans des cap­sules de re­pos, dit-elle. De temps à autre, j’au­rais à voir des conte­nus pro­blé­ma­tiques. Est-ce que ça pou­vait vrai­ment être si dif­fi­cile ? »

Elle a té­lé­pho­né à sa mère pour lui dire qu’elle ac­cep­tait le bou­lot. Elle avait 23 ans.

Dai­sy n’avait au­cun his­to­rique de pro­blèmes de san­té men­tale et n’a pas son­gé aux consé­quences que ce nou­veau tra­vail pour­rait avoir sur son état psy­cho­lo­gique. Pas plus que Google ne l’a fait, semble-t-il. Au cours de son in­té­gra­tion en em­ploi, l’en­tre­prise ne lui a don­né au­cune for­ma­tion en lien avec ce que les tra­vailleurs de ce do­maine ap­pellent la « ré­si­lience », c’est-à-dire l’uti­li­sa­tion d’ou­tils psy­cho­lo­giques pour sup­por­ter l’ex­po­si­tion à un vo­lume éle­vé de textes, d’images et de vi­déos ex­pli­cites et dé­ran­geants.

« Chaque jour, vous voyez une dé­ca­pi­ta­tion ou un gars qui tire sur sa pe­tite amie, ra­conte Pe­ter. Après, vous vous dites : wow, le monde est vrai­ment fou ! Vous vous sen­tez mal. Vous per­dez votre rai­son de vivre. »

Comme elle parle cou­ram­ment fran­çais, Dai­sy est af­fec­tée aux re­quêtes ve­nant de France. Ra­pi­de­ment, elle de­vient la chef du pro­gramme ter­ro­risme de Google pour le mar­ché fran­çais. Chaque jour, elle trie les si­gna­le­ments de sa file d’at­tente et dé­cide si Google est contrainte — par la loi ou par ses propres condi­tions gé­né­rales d’uti­li­sa­tion — d’éli­mi­ner ces liens.

À son grand éton­ne­ment, sa file d’at­tente com­mence à dé­bor­der de vio­lence. Le 13 no­vembre 2015, des ter­ro­ristes ayant prê­té al­lé­geance au groupe ar­mé État is­la­mique (EI) tuent 130 per­sonnes et en blessent 413 autres à Pa­ris et dans sa ban­lieue de Saint-De­nis. La ma­jo­ri­té des vic­times sont fau­chées lors d’une fu­sillade de masse au beau mi­lieu d’un concert au Ba­ta­clan. « Tu passes alors ta jour­née en­tière à re­gar­der des images de ca­davres et de bles­sés al­lon­gés sur le plan­cher d’une salle de spectacle. Tes neu­rones ne fonc­tionnent plus comme ils de­vraient. Tout est au ra­len­ti. »

Quelques mois plus tard, le 14 juillet 2016, un at­ten­tat au ca­mion-bélier (re­ven­di­qué par l’EI) fait 86 morts et 458 bles­sés sur la pro­me­nade des An­glais, à Nice. Des liens vers des photos et des vi­déos de cet at­ten­tat s’em­pilent dans la file d’at­tente de Dai­sy. Ses su­per­vi­seurs lui mettent la pres­sion pour qu’elle traite ra­pi­de­ment cette ac­cu­mu­la­tion de re­quêtes. La jeune femme craint une mau­vaise note à son dos­sier si elle n’ob­tem­père

pas. Elle tente donc de tra­vailler plus ra­pi­de­ment, mais peine à la tâche. « Tout ce que tu vois, c’est le nombre qui monte dans ta file d’at­tente. »

GGoogle offre une grande

va­rié­té de ser­vices In­ter­net, dont cer­tains at­tirent des mil­liards d’usa­gers. Consé­quence : l’en­tre­prise a be­soin d’une vé­ri­table ar­mée de mo­dé­ra­teurs.

Les conte­nus pour les­quels des usa­gers de­mandent un exa­men sont en ma­jo­ri­té bé­nins et même as­sez en­nuyeux. Des an­nonces in­dé­si­rables doivent être en­le­vées de la pla­te­forme pu­bli­ci­taire Google Ads, par exemple, ou de fausses adresses pro­fes­sion­nelles doivent être re­ti­rées de Google Maps.

Mais des conte­nus dé­ran­geants peuvent se re­trou­ver partout où les po­li­tiques de Google per­mettent à des usa­gers de les té­lé­ver­ser. En oc­tobre 2019, l’en­tre­prise a dé­cla­ré avoir re­ti­ré en 2018 quelque 160 000 conte­nus d’ex­tré­misme violent de pla­te­formes comme Blog­ger, Google Photos et Google Drive. Soit en­vi­ron 438 par jour !

Même sur YouTube, une grande par­tie des conte­nus sou­mis par les usa­gers pour exa­men sont ano­dins. Lors­qu’au­cune vi­déo n’est en at­tente dans leur file, les mo­dé­ra­teurs se tournent les pouces.

En oc­tobre 2019, Google a dé­cla­ré avoir re­ti­ré en 2018 quelque 160 000 conte­nus d’ex­tré­misme violent de pla­te­formes comme Blog­ger, Google Photos et Google Drive. Soit en­vi­ron 438 par jour !

Une mo­dé­ra­trice d’ori­gine fin­lan­daise (af­fec­tée aux conte­nus en fin­lan­dais) m’a ra­con­té avoir pas­sé deux mois à ne rien faire du­rant toutes ses jour­nées de tra­vail. Par­fois, elle exa­mi­nait une ou deux vi­déos pen­dant un quart de tra­vail de huit heures. Elle pas­sait ses jour­nées à flâ­ner sur In­ter­net, m’a-t-elle dit, avant de dé­mis­sion­ner le mois der­nier pour cause d’en­nui.

L’ex­pé­rience d’autres mo­dé­ra­teurs va­rie beau­coup se­lon la tâche qui leur est as­si­gnée, l’en­droit où ils sont ba­sés et l’em­pa­thie de leurs su­per­vi­seurs. Plu­sieurs m’ont dit ap­pré­cier leur tra­vail, parce que les tâches sont simples et leur laissent beau­coup de temps dans la jour­née pour se dé­tendre et re­gar­der des vi­déos. D’autres trouvent gra­ti­fiante l’idée qu’ils contri­buent à net­toyer YouTube et Google de leurs vi­déos vio­lentes et pro­blé­ma­tiques.

« Glo­ba­le­ment, les em­ployés es­timent que c’est un tra­vail très fa­cile et qu’ils n’ont au­cune rai­son de s’en plaindre », m’a dit par cour­riel un mo­dé­ra­teur de YouTube en Inde qui gagne 850 dol­lars amé­ri­cains par mois. « Nous pas­sons notre temps de bien-être à jouer aux chaises mu­si­cales, à Pic­tio­na­ry, aux cha­rades. Nous avons du plai­sir ! »

« Plai­sir » n’est pas un mot em­ployé par les mo­dé­ra­teurs af­fec­tés à la file d’at­tente du ter­ro­risme que j’ai pu in­ter­vie­wer.

Ils ont plu­tôt par­lé de crampes mus­cu­laires, de com­pul­sions ali­men­taires et d’une pau­vre­té crois­sante (les loyers aug­mentent à Aus­tin). Ils ont dé­crit des su­per­vi­seurs qui leur re­fu­saient leur temps de pause, les congé­diaient pour des pré­textes fu­tiles et mo­di­fiaient leurs heures de tra­vail sans aver­tis­se­ment.

Les mo­dé­ra­teurs les plus af­fec­tés par la vio­lence ont ex­pri­mé une an­xié­té gran­dis­sante concer­nant les consé­quences d’être té­moins quo­ti­dien­ne­ment de di­zaines de scènes de meurtre.

« Je men­ti­rais si je di­sais que ça ne m’af­fecte pas », dit Ta­riq, qui tra­vaille de­puis 18 mois pour la file d’at­tente EV. « Ce qu’on voit chaque jour, ça nous change in­évi­ta­ble­ment. »

QQuand son quart de tra­vail

se ter­mine, Pe­ter es­saie de se dé­tendre. Avec le temps, c’est de­ve­nu de plus en plus dif­fi­cile. Les films d’ac­tion qu’il ap­pré­ciait dans le pas­sé lui semblent de moins en moins fic­tifs. Chaque coup de feu, chaque mort, il les res­sent dé­sor­mais comme s’ils étaient réels. « Même si je sais que c’est de la fic­tion », ex­plique-t-il.

Cer­tains de ses col­lègues s’en sortent en consom­mant des drogues. Sur­tout du can­na­bis.

De­puis que Google s’est as­so­ciée avec Ac­cen­ture pour ac­cé­lé­rer le trai­te­ment des vi­déos de vio­lence ex­trême au Texas, Pe­ter a vu ses col­lègues de­ve­nir de plus en plus dis­tants. «Au dé­but, tout le monde se sa­luait avec des “Sa­lut, ça va ?”, se sou­vient-il. Tout le monde était ami­cal.

Main­te­nant, per­sonne n’a en­vie de par­ler aux autres. »

Pe­ter a re­joint le pro­gramme en 2017, l’an­née de sa créa­tion. À cette époque, YouTube su­bis­sait beau­coup de pres­sion pu­blique pour net­toyer sa pla­te­forme. Des jour­na­listes et des uni­ver­si­taires en­quê­taient sur le ser­vice. Ils y avaient trou­vé quan­ti­té de vi­déos conte­nant des dis­cours hai­neux, du har­cè­le­ment, de la dés­in­for­ma­tion sur des tue­ries de masse et des élé­ments dom­ma­geables pour les en­fants. (Nombre de ces vi­déos ont même été trou­vées sur YouTube Kids, une ap­pli­ca­tion que l’en­tre­prise avait lan­cée dans le but d’orien­ter les en­fants vers des conte­nus plus sé­cu­ri­taires.)

Dans la fou­lée de ces en­quêtes, la chef de la di­rec­tion de YouTube, Su­san Wo­j­ci­cki, a an­non­cé que sa so­cié­té haus­se­rait à 10 000 le nombre de ses mo­dé­ra­teurs. Ce qui a été fait. Une par­tie d’entre eux — Google a re­fu­sé de dire com­bien — ont été em­bau­chés aux États-Unis, le plus grand groupe étant éta­bli à Aus­tin.

Les mo­dé­ra­teurs de conte­nu qui tra­vaillent pour des sous-trai­tants gagnent tout juste le sa­laire mi­ni­mum aux États-Unis. En com­pa­rai­son, les mo­dé­ra­teurs à temps plein chez Google em­pochent plus de 90 000 dol­lars amé­ri­cains par an­née, et ce­la n’in­clut pas les primes et les op­tions d’achat. Les tra­vailleurs tem­po­raires, les contrac­tuels et les em­ployés de four­nis­seurs de ser­vices forment au­jourd’hui 54 % de la maind’oeuvre de l’en­tre­prise.

Kris­tie Ca­ne­gal­lo, vice-pré­si­dente à la confiance et à la sé­cu­ri­té chez Google, su­per­vise des mil­liers de mo­dé­ra­teurs de conte­nu. Se­lon elle, tra­vailler avec des en­tre­prises comme Ac­cen­ture aide Google à ajus­ter plus ef­fi­ca­ce­ment ses ni­veaux d’ef­fec­tifs. Si Google met au point un nou­vel ou­til pour re­pé­rer les mau­vaises vi­déos, elle au­ra ini­tia­le­ment be­soin de plus de mo­dé­ra­teurs pour ro­der le sys­tème. Mais par la suite, moins de mo­dé­ra­teurs se­ront né­ces­saires.

« Faire af­faire avec des four­nis­seurs ex­ternes nous aide vrai­ment à avoir plus de flexi­bi­li­té pour nous ajus­ter à la de­mande chan­geante », dit Kris­tie Ca­ne­gal­lo, qui a re­joint Google en 2018, après avoir ser­vi comme chef de ca­bi­net ad­jointe du pré­sident amé­ri­cain Ba­rack Oba­ma.

Le tra­vail ac­com­pli par les sous-trai­tants (comme Ac­cen­ture, à Aus­tin) est es­sen­tiel — cru­cial même — pour l’exis­tence de YouTube. De nom­breux pays ont en ef­fet adop­té des lois qui forcent l’en­tre­prise à re­ti­rer de sa pla­te­forme les vi­déos conte­nant des images à ca­rac­tère ter­ro­riste, et ce, dans un dé­lai par­fois aus­si court que 24 heures après la ré­cep­tion d’une dé­non­cia­tion.

DDai­sy a été trou­blée

par les images de ter­ro­risme, mais en­core plus per­tur­bée par ce que Google ap­pelle child sexual abuse ima­ge­ry (images de sé­vices sexuels sur des en­fants). L’offre d’em­ploi pré­ci­sait qu’elle ne se­rait ex­po­sée à de tels conte­nus qu’une ou deux heures par se­maine. Dans les faits, ce type de conte­nus re­pré­sen­tait une part beau­coup plus im­por­tante de son tra­vail.

Vi­sion­ner de telles images est illé­gal dans la plu­part des cas. Alors Google a créé ce que les mo­dé­ra­teurs ont sur­nom­mé le « war room », une pièce sé­cu­ri­sée où ils peuvent re­gar­der ces images sans ris­quer que des col­lègues les voient par in­ad­ver­tance.

Au dé­part, l’en­tre­prise pré­voyait une ro­ta­tion du per­son­nel. Dai­sy, par exemple, pou­vait être af­fec­tée à ce type de conte­nus pen­dant six se­maines, puis re­tour­ner pen­dant six se­maines à son tra­vail ha­bi­tuel. Mais des pé­nu­ries chro­niques de per­son­nel, dou­blées d’un taux de rou­le­ment éle­vé chez les mo­dé­ra­teurs, ont fait qu’elle a dû voir toutes les se­maines des images de sé­vices sexuels sur des en­fants.

« Nous avons com­men­cé à com­prendre que notre pro­blème n’était pas une prio­ri­té pour l’en­tre­prise, ra­conte-t-elle. Lorsque nous leur fai­sions part de nos pré­oc­cu­pa­tions, on nous ré­pon­dait : “Écou­tez, nous n’avons sim­ple­ment pas le bud­get.” Le mot “bud­get” re­ve­nait sou­vent. » (Google a dé­cla­ré des re­ve­nus de 110 mil­liards de dol­lars amé­ri­cains en 2018.)

Après un an de ce ré­gime, l’amou­reux de Dai­sy lui fait re­mar­quer que sa per­son­na­li­té a chan­gé. « Tu es très ner­veuse, tu sur­sautes fa­ci­le­ment, lui dit-il. Tu parles dans ton som­meil. Par­fois, tu cries. »

Les cau­che­mars de Dai­sy em­pirent. Elle est tou­jours fa­ti­guée. Un jour, un co­lo­ca­taire ar­ri­vé der­rière elle la pousse gen­ti­ment du doigt. Elle se re­tourne ins­tinc­ti­ve­ment et le frappe. « C’était un ré­flexe, ra­conte-t-elle. J’ai pen­sé : cette per­sonne veut me faire du mal. J’as­so­ciais tout ce qui m’ar­ri­vait avec ce que je voyais dans les vi­déos. »

Un autre jour, Dai­sy marche dans les rues de San Fran­cis­co avec des amis quand elle voit un groupe de bam­bins d’âge pré­sco­laire. Ac­com­pa­gnés d’une édu­ca­trice, ils dé­am­bulent en file in­dienne en te­nant une corde, de ma­nière à ne pas s’éloi­gner du groupe.

« J’ai cli­gné des yeux, et tout à coup, cer­taines des images que j’avais vues au tra­vail me sont re­ve­nues en tête : des en­fants at­ta­chés, des en­fants de cet âge — pas plus de trois ans — qui se fai­saient vio­ler. J’ai vu la corde, et mon es­prit l’a as­so­ciée avec les images que j’avais vues d’en­fants et de cordes. Et sou­dai­ne­ment, tout s’est ar­rê­té. J’ai dû m’as­seoir et j’ai écla­té en san­glots. »

C’était sa pre­mière crise de pa­nique.

Au cours des se­maines sui­vantes, Dai­sy prend ses dis­tances avec ses amis et ses co­lo­ca­taires. Elle ne veut pas leur par­ler de son tra­vail, de peur de les ac­ca­bler. Ce­lui-ci consiste à re­ti­rer ces images d’In­ter­net, jus­te­ment pour évi­ter qu’elles ne tour­mentent d’autres per­sonnes. En par­ler lui semble une tra­hi­son de sa mis­sion.

À cette époque, une thé­ra­peute em­ployée par Google est à la dis­po­si­tion des mo­dé­ra­teurs ex­po­sés à des conte­nus illé­gaux. Tou­te­fois, elle n’est dis­po­nible qu’à des in­ter­valles ir­ré­gu­liers, et son ca­len­drier se rem­plit ra­pi­de­ment. Dai­sy consi­dère cette thé­ra­peute comme cha­leu­reuse et sym­pa­thique, mais il est dif­fi­cile de prendre ren­dez-vous avec elle.

« On re­ce­vait un cour­riel di­sant : “La thé­ra­peute se­ra ici tel jour”, et il fal­lait ré­pondre très ra­pi­de­ment, car son ho­raire se rem­plis­sait im­mé­dia­te­ment. Tout le monde avait des pro­blèmes. » Lorsque Dai­sy dé­croche fi­na­le­ment un ren­dez-vous, la thé­ra­peute lui conseille de consul­ter un psy­cho­logue en pri­vé.

Dai­sy de­vient de plus en plus ir­ri­table. Elle de­mande à ses proches d’évi­ter de la tou­cher. In­vi­tée à l’an­ni­ver­saire d’un en­fant de trois ans, elle quitte ra­pi­de­ment la fête. Elle ne sup­porte plus d’être en pré­sence de bam­bins. Chaque fois qu’elle les re­garde, elle ima­gine des gens qui leur font du mal.

À me­sure que sa san­té men­tale dé­cline, Dai­sy peine da­van­tage à ré­pondre aux exi­gences de son em­ploi. Elle pleure de plus en plus au tra­vail, par­fois aux toi­lettes, par­fois de­vant le bâ­ti­ment. Quel­que­fois, elle s’en­dort à son bu­reau.

Au terme de sa pre­mière an­née, son su­per­vi­seur de­mande à la voir. Ils se ren­contrent dans une salle de confé­rences. « Tu ne vides pas as­sez ra­pi­de­ment ta file d’at­tente, lui dit-il. Nous avons be­soin que tu aug­mentes ta pro­duc­ti­vi­té. »

Dai­sy est fa­ti­guée ce jour-là — elle l’est en per­ma­nence —, et ces re­proches la mettent en co­lère. « J’ai ex­plo­sé », se sou­vient-elle. Elle lance à son su­per­vi­seur: «Com­ment vou­lez-vous que j’aug­mente ma pro­duc­ti­vi­té ? Avez-vous une idée de ce à quoi mon cer­veau res­semble en ce mo­ment ? Com­pre­nez-vous ce que nous de­vons re­gar­der ? Nous ne sommes pas des ma­chines. Nous sommes des hu­mains. Nous avons des émo­tions. Et ces émo­tions sont sé­rieu­se­ment mar­quées par le fait de re­gar­der des en­fants se faire vio­ler et des gens se faire dé­ca­pi­ter. »

Par­fois, quand Dai­sy pen­sait à son tra­vail, elle se voyait avan­cer dans une sombre al­lée bor­dée des atro­ci­tés qu’elle avait vi­sion­nées. Les pires vio­lences, les pires sé­vices dont elle avait été té­moin sem­blaient prendre forme phy­sique et l’at­ta­quer. « J’avais le sen­ti­ment que tout le mal de l’hu­ma­ni­té se dé­ver­sait sur moi, dit-elle. Et il n’y avait au­cune ma­nière d’y échap­per. Et là, quel­qu’un me di­sait : “Al­lez, tu dois re­tour­ner dans cette al­lée sombre. Conti­nue !” »

Quelques jours après cette ren­contre, Dai­sy an­nonce à son su­per­vi­seur qu’elle prend un congé de ma­la­die pour soi­gner les trau­ma­tismes psy­cho­lo­giques dus à son tra­vail. Plu­sieurs autres membres de son équipe ont pris le même che­min ré­cem­ment. Elle pense s’ab­sen­ter quelques se­maines, peu­têtre quatre. Elle ne re­tour­ne­ra pas chez Google avant six mois.

L

Les images de mas­sacres entrent plus vite dans les bu­reaux d’Aus­tin que ce que l’équipe peut trai­ter. Même avec des cen­taines de mo­dé­ra­teurs se re­layant sur trois quarts de tra­vail, Ac­cen­ture peine à trai­ter toutes les vi­déos de bru­ta­li­té que les in­ter­nautes si­gnalent. La file d’at­tente EV est do­mi­née par les vi­déos is­sues du Moyen-Orient. De­puis 2017, Ac­cen­ture a re­cru­té des di­zaines de mo­dé­ra­teurs ara­bo­phones pour les trai­ter.

Nombre de ces em­ployés sont de ré­cents im­mi­grants qui tra­vaillaient au­pa­ra­vant comme gardes de sé­cu­ri­té ou conduc­teurs de ca­mion de li­vrai­son. Sou­vent, c’est par un ami qu’ils ont dé­cou­vert le tra­vail de mo­dé­ra­teur.

« Nos di­plômes n’ont pas été re­con­nus lorsque nous avons émi­gré aux États-Unis, ra­conte Mi­chael, em­ployé du centre d’Aus­tin de­puis deux ans. Alors nous avons pris n’im­porte quel tra­vail. Nous avions be­soin de ga­gner notre vie. »

Ces em­ployés sont re­con­nais­sants, au dé­part, de tra­vailler pour une grande so­cié­té tech­no­lo­gique comme Google — même si, dans les faits, ils bossent pour un sous-traitant. (Google floute les lignes d’ap­par­te­nance de ces mo­dé­ra­teurs. Même s’ils tra­vaillent pour Ac­cen­ture, ils ont des adresses cour­riel se ter­mi­nant par @google.com.)

«J’étais content de tra­vailler en­fin dans un bu­reau, ra­conte Pe­ter. J’ima­gi­nais ma fu­ture car­rière et toutes les pers­pec­tives que ce tra­vail al­lait m’of­frir. »

Jus­qu’à leur in­té­gra­tion, la na­ture exacte de leur tra­vail dans la file d’at­tente EV de­meure opaque pour les nou­veaux em­ployés. « Je n’avais au­cune idée de ce que ça pou­vait re­pré­sen­ter, se sou­vient Pe­ter. On ne vous le dit pas. »

Chez Ac­cen­ture, les mo­dé­ra­teurs doivent trai­ter 120 vi­déos par jour, en cinq heures de tra­vail. La so­cié­té leur ac­corde quo­ti­dien­ne­ment deux heures ré­mu­né­rées de temps dit de bien-être et une heure de re­pas non ré­mu­né­rée le mi­di. (Su­san Wo­j­ci­cki, de YouTube, a pro­mis en 2018 de ré­duire ce far­deau à quatre heures de tra­vail, mais la pro­messe ne s’est pas concré­ti­sée. Ac­cen­ture, de son cô­té, nie im­po­ser des quo­tas de pro­duc­ti­vi­té à ses em­ployés.)

Les heures de bien-être doivent per­mettre aux em­ployés de dé­com­pres­ser : ba­lade à pied à l’ex­té­rieur, ren­contre avec un thé­ra­peute de ser­vice au bu­reau, ac­ti­vi­tés lu­diques avec des col­lègues. « Au dé­but, ces me­sures étaient vrai­ment très bien, se sou­vient Mi­chael. Si on voyait une vi­déo atroce, on pou­vait faire une pause, fer­mer notre écran, al­ler faire une marche... »

Google offre à ses mo­dé­ra­teurs beau­coup plus de temps de re­pos que ne le fait Facebook, où les mo­dé­ra­teurs n’ont que des pauses de 15 mi­nutes, un dî­ner de 30 mi­nutes et 9 mi­nutes de temps de bien-être. (Facebook es­time qu’en pre­nant en compte le temps consacré à la for­ma­tion et au dé­ve­lop­pe­ment pro­fes­sion­nel, ses mo­dé­ra­teurs vi­sionnent des vi­déos six heures par jour.)

« Nous ré­vi­sons constam­ment nos pro­grammes de bien-être, de ma­nière à créer un en­vi­ron­ne­ment qui sou­tient les em­ployés, dé­clare-t-on chez Ac­cen­ture. À Aus­tin, nos em­ployés ont un ac­cès illi­mi­té aux pro­grammes de sou­tien, ce qui in­clut l’ac­cès à un thé­ra­peute sur de­mande et des ren­contres de pré­ven­tion. Les em­ployés sont en­cou­ra­gés à sou­le­ver toute in­quié­tude concer­nant leur tra­vail par l’en­tre­mise de ces pro­grammes. »

Par­fois, quand Dai­sy pen­sait à son tra­vail, elle se voyait avan­cer dans une sombre al­lée bor­dée des atro­ci­tés qu’elle avait vi­sion­nées. Les pires vio­lences, les pires sé­vices dont elle avait été té­moin sem­blaient prendre forme phy­sique et l’at­ta­quer.

Or, si deux heures de temps de bien-être sont l’idéal, à Aus­tin ce n’est pas la norme. Quatre em­ployés m’ont dit qu’on leur avait re­fu­sé leur temps de pause lorsque la file d’at­tente était par­ti­cu­liè­re­ment longue. Il y a six mois, ils ont aus­si dû né­gli­ger leur temps de pause pour at­teindre leur uti­li­za­tion score, une me­sure ser­vant à cal­cu­ler com­bien de temps ils passent ac­ti­ve­ment à vi­sion­ner des vi­déos. Des lo­gi­ciels de sur­veillance ins­tal­lés sur leur or­di­na­teur en­re­gistrent chaque mi­nute de vi­déo qu’ils re­gardent, avec un ob­jec­tif de cinq heures par jour. Le temps consacré à d’autres tâches — comme lire ou ré­pondre à des cour­riels, par­ti­ci­per à des ren­contres d’équipe — ne compte pas dans ce cal­cul. Cette nou­velle me­sure force sou­vent des em­ployés à ro­gner sur leur temps de pause pour at­teindre l’ob­jec­tif de cinq heures de vi­sion­ne­ment.

La fausse pro­messe de pauses plus longues est co­hé­rente avec l’image d’en­semble de leurs condi­tions de tra­vail que peignent les mo­dé­ra­teurs de conte­nu tra­vaillant dans des centres si­mi­laires dans dif­fé­rents coins du monde.

Lorsque de nou­veaux centres entrent en ser­vice, les su­per­vi­seurs com­mencent par ral­lier les nou­veaux em­ployés au­tour de leur noble mis­sion : rendre In­ter­net plus sé­cu­ri­taire pour tous. Au dé­but, les mo­dé­ra­teurs jouissent des mêmes li­ber­tés que celles que les em­ployés de Facebook ou de Google tiennent pour ac­quises : la li­ber­té d’al­ler aux toi­lettes sans de­man­der la per­mis­sion, celle de man­ger à leur poste de tra­vail, celle de dé­ter­mi­ner quand prendre des va­cances.

Plus le temps passe, plus des sous-trai­tants comme Ac­cen­ture et Co­gni­zant re­tirent aux em­ployés ces quelques li­ber­tés, sou­vent sans ex­pli­ca­tion. Au centre d’Aus­tin, man­ger à son bu­reau a été in­ter­dit. Des su­per­vi­seurs ont com­men­cé à de­man­der aux em­ployés pour­quoi ils pas­saient au­tant de temps aux toi­lettes (alors qu’ils ne s’étaient ab­sen­tés que six ou sept mi­nutes). Les té­lé­phones cel­lu­laires — que les em­ployés pou­vaient conser­ver à leur poste de tra­vail — ont à leur tour été in­ter­dits, ap­pa­rem­ment pour des rai­sons de confi­den­tia­li­té.

L’in­ter­dic­tion des cel­lu­laires a gé­né­ré des si­tua­tions tra­gi-co­miques au bu­reau d’Aus­tin. Cer­tains lo­gi­ciels d’Ac­cen­ture exigent en ef­fet que les em­ployés se connectent avec une au­then­ti­fi­ca­tion à deux fac­teurs. Cette iden­ti­fi­ca­tion ex­pire dans un cer­tain dé­lai si l’em­ployé n’in­tro­duit pas un code qui lui est envoyé... sur son cel­lu­laire per­son­nel. Les em­ployés doivent donc cou­rir vers leur ca­sier (où leur cel­lu­laire est ran­gé pour cause d’in­ter­dic­tion dans la zone de tra­vail), déverrouil­ler la porte, ou­vrir leur cel­lu­laire, no­ter le code et re­par­tir à la course vers leur poste de tra­vail pour en­trer le code avant que le dé­lai n’ex­pire.

Pa­pier et crayons étant aus­si in­ter­dits dans la zone de tra­vail, les em­ployés qui craignent d’ou­blier le nu­mé­ro de code dans leur course folle le grif­fonnent sur la paume de leur main avant de re­fer­mer le cel­lu­laire, de ver­rouiller le ca­sier et de re­par­tir en cou­rant.

Deux em­ployés d’Aus­tin m’ont dit qu’on leur avait re­fu­sé des va­cances à cause de trop longues files d’at­tente pour les vi­déos de ter­ro­risme. D’autres ont été trans­fé­rés vers des quarts de tra­vail dif­fé­rents sans au­cune ex­pli­ca­tion. Les mo­dé­ra­teurs de YouTube n’ont pas re­çu d’aug­men­ta­tion de sa­laire de­puis deux ans, même si les loyers à Aus­tin sont par­mi ceux qui ont connu les hausses les plus im­por

Si deux heures de temps de bien-être par jour sont l’idéal, à Aus­tin ce n’est pas la norme. Quatre em­ployés m’ont dit qu’on leur avait re­fu­sé leur temps de pause lorsque la file d’at­tente était par­ti­cu­liè­re­ment longue.

tantes au pays. (Se­lon Ac­cen­ture, la vaste ma­jo­ri­té des em­ployés re­çoivent des hausses sa­la­riales an­nuelles.) Pe­ter m’a dit qu’il dé­pen­sait 50 % de son sa­laire pour payer le loyer. La vie à Aus­tin est de plus en plus chère. Et son sa­laire ne suit pas.

« Ils nous traitent très mal, dit Mi­chael. Ils ont tel­le­ment de ma­nières de nous bri­mer si nous n’obéis­sons pas. »

L

Lors­qu’elle a quit­té Google pour par­tir en congé de ma­la­die, Dai­sy a été vue par un psy­chiatre et un thé­ra­peute. Diag­nos­tic ? Syn­drome de stress post-trau­ma­tique et an­xié­té chro­nique. Elle a com­men­cé à prendre des an­ti­dé­pres­seurs.

En thé­ra­pie, Dai­sy a dé­cou­vert que sa baisse de pro­duc­ti­vi­té, qui frus­trait tant ses su­per­vi­seurs, n’était pas de sa faute. Son thé­ra­peute — qui avait trai­té d’autres an­ciens mo­dé­ra­teurs de conte­nu — lui a ex­pli­qué que chaque per­sonne ré­agit dif­fé­rem­ment à une ex­po­si­tion ré­pé­tée à des images émo­ti­ve­ment dé­ran­geantes. Cer­tains mangent de plus en plus et prennent du poids. Cer­tains se mettent à faire de l’exer­cice de ma­nière com­pul­sive. D’autres, comme Dai­sy, res­sentent de la fa­tigue et de l’épui­se­ment.

Dai­sy se sou­vient que le thé­ra­peute lui a dit : « Ce n’est pas votre pro­blème, mais le pro­blème de votre em­ployeur. C’est lui le res­pon­sable. Il a créé ce bou­lot. Il doit in­ves­tir les res­sources né­ces­saires pour at­té­nuer ses ef­fets in­dé­si­rables. »

Le thé­ra­peute a sug­gé­ré à Dai­sy de s’of­frir un chien. Elle a adop­té une chienne de ber­ger à la SPCA et l’a nom­mée Stel­la.

Stel­la et Dai­sy ont sui­vi en­semble une for­ma­tion qui a per­mis à la chienne d’of­frir du sou­tien émo­tion­nel à sa maî­tresse. Stel­la a ap­pris à re­con­naître les signes d’une at­taque de pa­nique chez Dai­sy et à adop­ter des com­por­te­ments sus­cep­tibles de l’ai­der.

Dai­sy a com­men­cé à em­me­ner Stel­la à l’hô­pi­tal Be­nioff pour al­ler vi­si­ter des en­fants ma­lades. Avec le temps, elle a réus­si à in­ter­agir avec les en­fants sans qu’une at­taque de pa­nique se dé­clenche. «Voir des en­fants ca­res­ser mon chien a eu une in­fluence pro­fonde sur ma ca­pa­ci­té à al­ler de l’avant dans ma re­la­tion avec eux », dit-elle.

Dai­sy est re­con­nais­sante d’avoir ob­te­nu un congé payé pour se soi­gner (alors que cer­tains sous-trai­tants n’en offrent pas). « J’ai eu des mois pour ré­flé­chir à mes choix, en­vi­sa­ger des ma­nières de m’en sor­tir, sans su­bir en plus le stress du chô­mage et la pres­sion de me de­man­der com­ment j’al­lais payer mon loyer. »

Six mois après le dé­but de son congé, Dai­sy est re­tour­née au tra­vail. À sa grande cons­ter­na­tion, rien dans l’at­ti­tude des su­per­vi­seurs n’avait chan­gé.

« Ils s’in­for­maient, bien sûr. Ils me di­saient : “Com­ment ça va ? Com­ment te sens-tu ? On va y al­ler dou­ce­ment pour ton re­tour.” Mais au fi­nal, l’ob­jec­tif était le même : c’était que j’at­teigne le ni­veau de pro­duc­ti­vi­té re­quis. »

Une se­maine après son re­tour, elle prend la dé­ci­sion de pour­suivre des études de 2e cycle. Elle est ac­cep­tée à l’École de droit et de di­plo­ma­tie Flet­cher, de l’Uni­ver­si­té Tufts, près de Bos­ton, où elle a ré­cem­ment dé­cro­ché son di­plôme de maî­trise.

Au­jourd’hui, elle est cher­cheuse as­so­ciée à l’Ins­ti­tut R Street, un groupe de ré­flexion ba­sé à Wa­shing­ton. Son tra­vail porte sur­tout sur les en­fants et la tech­no­lo­gie. Elle puise dans son ex­pé­rience de tra­vail chez Google pour sen­si­bi­li­ser les lé­gis­la­teurs aux pro­blé­ma­tiques de mo­dé­ra­tion de conte­nu, d’ex­ploi­ta­tion des en­fants et de droit des en­fants à la vie pri­vée. « Ce qui m’est ar­ri­vé nour­rit mon dé­sir de sus­ci­ter des chan­ge­ments », dit-elle.

P

Pen­dant ce temps, à Aus­tin, Ac­cen­ture a mis en place une sé­rie de nou­velles me­sures, et des em­ployés disent pour bla­guer qu’ils sont des su­jets d’ex­pé­ri­men­ta­tion. « Nous ne sommes que des rats de la­bo­ra­toire pour eux, dit Pe­ter. Ils es­saient dif­fé­rentes choses avec nous. »

Et c’est tout à fait vrai, du moins en ce qui concerne un pe­tit groupe de four­nis­seurs de ser­vices.

Dé­but 2019, Google a pré­sen­té un rap­port de re­cherche à la Con­fe­rence on Hu­man Com­pu­ta­tion and Crowd­sour­cing. In­ti­tu­lé Tes­ting Sty­lis­tic In­ter­ven­tions to Re­duce Emo­tio­nal Im­pact of Content Mo­de­ra­tion Wor­kers (mise à l’es­sai d’in­ter­ven­tions sty­lis­tiques pour ré­duire les consé­quences émo­tion­nelles chez les mo­dé­ra­teurs de conte­nu), ce rap­port dé­cri­vait deux ex­pé­riences me­nées par l’en­tre­prise sur ses mo­dé­ra­teurs.

Dans le cadre de la pre­mière ex­pé­rience, les vi­déos au conte­nu dé­ran­geant vi­sion­nées par les em­ployés leur sont pré­sen­tées en noir et blanc au lieu d’être en cou­leur. Dans la se­conde ex­pé­rience, les images vi­déos sont flou­tées. Ma­ni­pu­ler ain­si les images en ré­duit-il les ré­per­cus­sions psy­cho­lo­giques sur les mo­dé­ra­teurs ? se de­mandent les cher­cheurs.

« Notre res­pon­sa­bi­li­té et notre en­ga­ge­ment au­près des membres de nos équipes qui vi­sionnent ce conte­nu sont de leur of­frir le meilleur sou­tien pos­sible pour qu’ils puissent ac­com­plir leur tra­vail, m’a ex­pli­qué Kris­tie Ca­ne­gal­lo. Ce que

Google dé­cou­vri­ra pour amé­lio­rer les condi­tions de tra­vail, elle compte bien le com­mu­ni­quer à toute l’in­dus­trie. »

L’ou­til nu­mé­rique trans­for­mant les images en noir et blanc est à la dis­po­si­tion des mo­dé­ra­teurs (des vo­lon­taires qui ont choi­si de par­ti­ci­per à cette étude). Les par­ti­ci­pants vi­sionnent pen­dant deux se­maines les images en cou­leur et ré­pondent en­suite à un ques­tion­naire concer­nant leur hu­meur. Les deux se­maines sui­vantes, ils re­gardent des images en noir et blanc — en uti­li­sant l’ou­til nu­mé­rique à cette fin — et ré­pondent en­core à un ques­tion­naire.

L’étude dé­montre que lorsque les mo­dé­ra­teurs re­gardent des images en noir et blanc, leur hu­meur est meilleure. Du moins, cette se­maine-là.

Il faut re­mar­quer ce que l’en­tre­prise ne teste pas : quelle est la li­mite du vo­lume de conte­nu dé­ran­geant au­quel chaque mo­dé­ra­teur peut être ex­po­sé du­rant une vie ? De­vrait-on en­vi­sa­ger des congés de ma­la­die payés pour les mo­dé­ra­teurs vic­times du syn­drome de stress post­trau­ma­tique ? Ou en­core, pour­quoi ne pas of­frir du sou­tien à long terme aux an­ciens em­ployés qui conti­nuent de souf­frir de pro­blèmes de san­té men­tale bien après avoir quit­té leurs fonc­tions ?

Au lieu de ce­la, Google fait ce que les en­tre­prises de tech­no­lo­gie font sou­vent : elle cherche à ré­soudre le pro­blème en ap­pli­quant des solutions tech­no­lo­giques.

L’en­tre­prise met no­tam­ment au point des sys­tèmes d’ap­pren­tis­sage au­to­ma­tique qui, es­pè­ret-elle, pour­ront un jour trai­ter le gros du conte­nu dé­ran­geant.

D’ici là, Google a sug­gé­ré que des études fu­tures s’in­té­ressent aux ef­fets psy­cho­lo­giques que pour­rait avoir un chan­ge­ment de la cou­leur du sang, du rouge vers le vert. D’autres « chan­ge­ments es­thé­tiques » et plus de flou­tage d’images — les vi­sages, par exemple — sont aus­si en­vi­sa­gés. (Facebook pro­pose dé­jà l’op­tion des images en noir et blanc à tous ses mo­dé­ra­teurs, en plus de l’op­tion de vi­sion­ne­ment en mode si­len­cieux.)

Les en­tre­prises savent de­puis long­temps que les em­ployés prennent des congés de ma­la­die pour gé­rer des trau­ma­tismes liés à leur em­ploi. Il est frap­pant qu’une so­cié­té dis­po­sant de vastes res­sources comme Google com­mence à peine à cher­cher, presque en di­let­tante, des solutions tech­no­lo­giques mi­neures à des pro­blèmes aus­si graves que des diag­nos­tics de syn­drome de stress post-trau­ma­tique, des an­nées après que les em­ployés ont com­men­cé à les si­gna­ler à leurs ges­tion­naires.

L

L’in­dus­trie de la mo­dé­ra­tion de conte­nu est en crois­sance ra­pide de­puis deux ans. Comme des gou­ver­ne­ments un peu partout exigent que les géants des réseaux so­ciaux ré­gissent mieux leurs ser­vices, le be­soin de mo­dé­ra­teurs semble croître de ma­nière ex­po­nen­tielle. Des di­zaines de mil­liers de per­sonnes tra­vaillent ac­tuel­le­ment dans ce sec­teur.

Or, nous igno­rons en­core com­ment les as­pects les plus dif­fi­ciles de ce tra­vail — vi­sion­ner des conte­nus dé­ran­geants pour les re­ti­rer d’In­ter­net — af­fectent ceux qui le font. Nous sa­vons qu’un sous-groupe de per­sonnes, celles qui tra­vaillent à re­ti­rer des vi­déos d’ex­tré­misme violent de YouTube ou à des tâches si­mi­laires ailleurs dans le monde, vont souf­frir de syn­drome de stress post-trau­ma­tique ou de pro­blèmes de san­té men­tale re­liés à ce tra­vail. Nous ne sa­vons pas ce que pour­rait être un ni­veau d’ex­po­si­tion sé­cu­ri­taire. Ni même si un tel seuil existe.

Les di­ri­geants des so­cié­tés concer­nées ont ten­dance à dé­crire le pro­blème comme une ques­tion de re­cru­te­ment. À leurs yeux, il existe des per­sonnes qui sont ré­si­lientes face à de telles images de vio­lences et de sé­vices, et d’autres qui ne le sont pas. Il suf­fi­rait donc d’em­bau­cher celles qui sont plus ré­sis­tantes.

Tou­te­fois, lors de mes conver­sa­tions avec plus d’une cen­taine de mo­dé­ra­teurs, tra­vaillant dans des so­cié­tés de toutes les tailles, il m’a sem­blé clair que la sé­cu­ri­té des mo­dé­ra­teurs n’est pas une ques­tion aus­si simple. Cer­tains em­ployés pré­sentent des symp­tômes pré­coces de stress post-trau­ma­tique dès leurs pre­mières se­maines de tra­vail. D’autres ne les voient émer­ger qu’après des an­nées.

Je ne peux pas le dire plus clai­re­ment que les cher­cheurs de Google : « Il y a une prise de conscience et une re­con­nais­sance crois­santes du fait qu’au-de­là du simple désa­gré­ment, le vi­sion­ne­ment à long terme ou in­ten­sif de tels conte­nus

dé­ran­geants peut avoir des consé­quences consi­dé­rables sur la san­té des per­sonnes en­ga­gées dans cette tâche. »

Chez Facebook et Google, les di­ri­geants conti­nuent de dis­sua­der les mo­dé­ra­teurs de conte­nu de par­ler des consé­quences de leur tra­vail. On leur rap­pelle qu’ils peuvent être fa­ci­le­ment rem­pla­cés et qu’ils ont si­gné des en­tentes de confi­den­tia­li­té. Ceux d’entre eux qui s’en­foncent dans l’an­xié­té et la dé­pres­sion vont re­ce­voir des soins très dif­fé­rents se­lon qu’ils tra­vaillent pour des sous-trai­tants ou sont des em­ployés per­ma­nents de l’un ou l’autre des géants tech­no­lo­giques.

Quelques rares chan­ceux, comme Dai­sy, au­ront droit à des mois de congé payé. D’autres, comme l’un de mes in­ter­viewés d’Aus­tin, conti­nue­ront à tra­vailler jus­qu’à ce qu’ils soient hos­pi­ta­li­sés. Un fait de­meure in­dis­cu­table : peu im­porte votre ni­veau sa­la­rial ou la qua­li­té des avan­tages so­ciaux dont vous jouis­sez, ce tra­vail de mo­dé­ra­tion vous chan­ge­ra à ja­mais.

De­puis dé­cembre 2019, Ac­cen­ture or­donne d’ailleurs à ses em­ployés mo­dé­rant des conte­nus pour YouTube de si­gner une dé­cla­ra­tion qui re­con­naît que leur tra­vail peut en­gen­drer un syn­drome de stress post-trau­ma­tique. Des ex­perts en droit du tra­vail y voient une ma­noeuvre de l’en­tre­prise pour se pro­té­ger contre d’éven­tuels re­cours lé­gaux.

Ré­cem­ment, un em­ployé d’une grande so­cié­té tech­no­lo­gique m’a ex­pli­qué le concept ju­ri­dique de « dé­lit toxique ». Aux États-Unis, des lois per­mettent aux gens d’at­ta­quer en justice des em­ployeurs et des construc­teurs im­mo­bi­liers qui les ont ex­po­sés à des ni­veaux dan­ge­reux d’un pro­duit chi­mique.

Si de telles lois peuvent être ap­pli­quées, c’est parce que la science nous a ré­vé­lé com­ment cer­tains pro­duits chi­miques af­fectent le corps hu­main. Nous sa­vons que l’ex­po­si­tion à de la pein­ture à base de plomb, par exemple, peut cau­ser des dom­mages au cer­veau, par­ti­cu­liè­re­ment chez les en­fants. Nous sa­vons aus­si que l’ex­po­si­tion à l’amiante peut cau­ser le cancer du pou­mon. Nous avons éta­bli des ni­veaux sé­cu­ri­taires d’ex­po­si­tion et nous ten­tons de for­cer les em­ployeurs et les construc­teurs à res­pec­ter ces ni­veaux.

Peut-être ne pour­rons-nous ja­mais dé­ter­mi­ner avec une telle pré­ci­sion un ni­veau sé­cu­ri­taire d’ex­po­si­tion à des conte­nus dé­ran­geants. Mais il est re­mar­quable qu’au­cun des géants tech­no­lo­giques, qui re­crutent des di­zaines de mil­liers de per­sonnes pour vi­sion­ner ces conte­nus, n’es­saie de dé­ter­mi­ner un tel ni­veau sé­cu­ri­taire.

Si un tel chan­ge­ment d’ap­proche sur­vient, ce se­ra sans doute à la suite d’une com­bi­nai­son de re­cours col­lec­tifs de­vant les tri­bu­naux, d’ac­tions col­lec­tives de tra­vailleurs et de pres­sions po­pu­laires. Les em­ployés de Google sont dé­jà des lea­ders en dé­fense des droits de leurs col­lègues qui tra­vaillent pour des sous-trai­tants, et j’es­père que leurs ef­forts vont se pour­suivre.

Deux ans après avoir quit­té Google, Dai­sy doit en­core com­po­ser avec les ef­fets se­con­daires du tra­vail qu’elle y fai­sait. Elle prend des an­ti­dé­pres­seurs pour sta­bi­li­ser son hu­meur et a en­core oc­ca­sion­nel­le­ment des at­taques de pa­nique. Mais elle se consi­dère comme chan­ceuse. Elle a eu droit à un congé mé­di­cal payé pour s’oc­cu­per de sa san­té. Et pour ce­la, elle est re­con­nais­sante.

« Nous avons be­soin de gens pour faire ce tra­vail de net­toyage, dit Dai­sy. Mais nous de­vons aus­si chan­ger le sys­tème et la struc­ture d’or­ga­ni­sa­tion de ce tra­vail. Nous de­vons amé­lio­rer la fa­çon dont nous sou­te­nons ces per­sonnes et les ou­tils que nous leur don­nons pour faire face aux dif­fi­cul­tés. Si nous ne fai­sons rien, ces pro­blèmes vont em­pi­rer. » (La ver­sion ori­gi­nale de cet ar­ticle a été pu­bliée par The Verge. @Vox Me­dia)

Peut-être ne pour­rons-nous ja­mais dé­ter­mi­ner avec pré­ci­sion un ni­veau sé­cu­ri­taire d’ex­po­si­tion à des conte­nus dé­ran­geants. Mais il est re­mar­quable qu’au­cun des géants tech­no­lo­giques, qui re­crutent des di­zaines de mil­liers de per­sonnes pour vi­sion­ner ces conte­nus, n’es­saie de dé­ter­mi­ner un tel ni­veau sé­cu­ri­taire.

Newspapers in French

Newspapers from Canada

© PressReader. All rights reserved.