Dans la peau d’un net­toyeur du Web

01net - - Sommaire -

Ren­contre avec ces pe­tites mains qui se re­laient pour ex­pur­ger le Net des textes vio­lents et des images d’hor­reur.

À l’ombre des té­nors du nu­mé­rique, une ar­mée de pe­tites mains se re­laient pour ex­pur­ger le Web des textes vio­lents et autres images d’hor­reur. Ren­contre (in­time) avec ces pro­fes­sion­nels sous pres­sion, en contact di­rect avec la noir­ceur des hommes. Et qui rendent le Net fré­quen­table.

Le pire job du Web. » C’est par cette for­mule peu gra­ti­fiante que The Wall Street Jour­nal qua­li­fiait ré­cem­ment le mé­tier de « mo­dé­ra­teur » sur In­ter­net. Mis­sion­nés pour faire la chasse aux écrits et aux vi­déos por­no­gra­phiques, ra­cistes et vio­lents, ces net­toyeurs à la sauce Léon pa­taugent dans les tré­fonds du Net par­ti­ci­pa­tif. Tels des pê­cheurs en eaux troubles, ils draguent les abysses sombres et ré­pu­gnants de l’âme hu­maine tous les jours que dieu Zu­cker­berg fait. De 5000 à 10000 mes­sages ou conte­nus à exa­mi­ner quo­ti­dien­ne­ment par per­sonne, ce qui leur donne de trois à cinq se­condes en moyenne pour ana­ly­ser chaque pu­bli­ca­tion sus­pecte; des ho­raires dé­ca­lés pour une ac­ti­vi­té à ef­fec­tuer sans re­lâche, 24 h/24, 7 j/7 ; un sa­laire qui dé­marre au Smic chez un pres­ta­taire fran­çais; une faible va­lo­ri­sa­tion so­ciale du mé­tier en­traî­nant une baisse de l’es­time de soi; et un ter­rain pro­pice au dé­ve­lop­pe­ment de trau­ma­tismes psy­cho­lo­giques. « Quand on com­mence la jour­née par des images pé­do­por­no­gra­phiques ou l’égor­ge­ment d’un otage, il ne fait pas de doute que le mo­ral

dé­visse », ex­plique Da­vy, 42 ans, dont la longévité dans le mé­tier – dix ans – té­moigne de l’épais­seur du cuir.

Sa­la­rié dans la même so­cié­té fran­çaise de mo­dé­ra­tion – Ne­ti­no – de­puis une dé­cen­nie, ce vé­té­ran peut être qua­li­fié de ra­re­té dans un mi­lieu où le tur­no­ver s’avère très im­por­tant. An­cien in­ter­mit­tent du spec­tacle, ce théâ­treux a lais­sé tom­ber les textes de So­phocle et de Cor­neille pour su­bir des vi­déos d’égor­ge­ments au Le­vant et autres joyeu­se­tés après avoir vi­sion­né à la té­lé­vi­sion un re­por­tage sur les « éboueurs du Web ». « Au dé­but, ce n’était qu’un job ali­men­taire, di­til. Au­jourd’hui, je le trouve gratifiant car, à mon ni­veau, je veille à ce que n’im­porte qui puisse s’ex­pri­mer li­bre­ment sur la Toile. »

AU SER­VICE DE L’ÉLYSÉE. S’il fait fi­gure d’ex­cep­tion en termes de longévité, Da­vy ne dé­pa­reille pas dans son mi­lieu pro­fes­sion­nel, qui at­tire à lui des pro­fils très va­riés. Chez Google monde, on trouve d’an­ciens jour­na­listes, des so­cio­logues, des cher­cheurs et les membres de cer­taines ONG (or­ga­ni­sa­tions non gou­ver­ne­men­tales), cen­sés, par exemple, gar­der un oeil sur la bonne te­nue des chaînes de sa fi­liale YouTube. Au­cun centre n’est lo­ca­li­sé en France; le géant du Net em­ploie des per­son­nels fran­co­phones ins­tal­lés à l’étran­ger. Chez At­chik, so­cié­té fran­çaise char­gée de mo­dé­rer, entre autres, le compte Fa­ce­book de l’Élysée, un an­cien spor­tif de haut ni­veau et un écri­vain de « livres dont vous êtes le hé­ros » mettent leur sa­ga­ci­té au pro­fit du pré­sident Ma­cron. Tous les deux bossent avec des ho­raires amé­na­gés, qui leur per­mettent de pour­suivre leur ac­ti­vi­té prin­ci­pale.

« Cette plu­ra­li­té de pro­fils, nous la re­cher­chons pour sa­tis­faire des clients très dif­fé­rents », avance Steve Bo­net, di­rec­teur de la com­mu­ni­ca­tion d’At­chik, pres­ta­taire si­tué à Tou­louse. Cha­cun d’eux met à dis­po­si­tion une charte mai­son à la­quelle les mo­dé­ra­teurs se ré­fèrent. Outre les ac­tions tom­bant sous le coup de la loi, elle ren­seigne sur les com­por­te­ments

au­to­ri­sés et ceux qui sont in­ter­dits. Nombre d’entre eux pros­crivent le style SMS et la vul­ga­ri­té, d’autres, comme ce site spé­cia­li­sé dans les loi­sirs, l’ex­pres­sion d’opi­nions po­li­tiques. Les en­tre­prises de veille re­crutent à l’aide de tests de culture gé­né­rale, et dé­livrent aux im­pé­trants une for­ma­tion en in­terne. Pour ne pas les lais­ser dans le pé­trin, elles in­sistent sur les cas pro­blé­ma­tiques.

EN PRE­MIÈRE LIGNE. En ef­fet, il ar­rive que cer­tains conte­nus se si­tuent en « zone grise ». Pas tou­jours évident de faire la dif­fé­rence entre une vi­déo de pro­pa­gande d’une em­bus­cade de Daesh contre l’ar­mée amé­ri­caine avec, en bande-son, un chant dji­ha­diste, et celle d’un combattant de l’or­ga­ni­sa­tion ter­ro­riste tué lors d’une rixe pu­bliée par un or­gane de presse. « Quelle source ? » « Quel sup­port? » « Le conte­nu a-t-il une vo­ca­tion édu­ca­tive? » Le mo­dé­ra­teur doit se po­ser ces ques­tions et agir vite. Même ra­pi­di­té lors de sui­cides en di­rect ou d’at­ten­tats. « Nous avons l’obli­ga­tion lé­gale de men­tion­ner ces actes au res­pon­sable édi­to­rial du fo­rum ou du ré­seau so­cial dont nous avons la charge. Ce der­nier est te­nu de contac­ter la pla­te­forme Pha­ros, où po­li­ciers et gen­darmes re­çoivent les si­gna­le­ments de conte­nus illégaux sur In­ter­net », ex­plique Bo­ris, 31 ans, dont quatre chez At­chik. Ce qui n’em­pêche pas, par­fois, de mo­dé­rer au doigt mouillé, et de s’en re­mettre à son ins­tinct. « Lors­qu’un mes­sage ou une vi­déo me ti­tille, je me dé­ter­mine sur la base de l’évi­dence et du bon sens », ex­plique Da­vy.

En plus d’avoir les mains dans le cam­bouis et de se dé­pa­touiller comme ils

peuvent, les mo­dé­ra­teurs du Web se re­trouvent en pre­mière ligne en cas d’er­reur de ju­ge­ment ou de len­teur dans l’exé­cu­tion d’un re­trait. Tels des ar­bitres de foot­ball, ils ne font par­ler d’eux que lors­qu’ils com­mettent des fautes. L’opi­nion pu­blique ne leur par­donne rien. Ni lorsque l’un des leurs cen­sure une mam­mo­gra­phie, pre­nant une cam­pagne de

pré­ven­tion contre le can­cer du sein pour une at­teinte à la pu­deur. Ni lorsque les images de l’as­sas­si­nat de 51 per­sonnes par un su­pré­ma­ciste dans des mos­quées né­ces­sitent dix-sept mi­nutes avant d’être sup­pri­mées, comme lors de la tue­rie de Ch­rist­church, en Nou­velle-Zé­lande, à la fin de l’hi­ver der­nier. Pris en étau, Da­vy et ses col­lègues se re­trouvent dans la même po­si­tion qu’un gui­che­tier, tou­jours les pre­miers à se faire en­gueu­ler. Pour­tant, leur rôle est es­sen­tiel. C’est grâce à ces anges gar­diens que l’on peut sur­fer tran­quille­ment sur un Web ex­pur­gé de cer­taines hor­reurs. Phi­lippe Coen, fon­da­teur de Res­pect Zone, une as­so­cia­tion qui mi­lite pour la di­gni­té et la po­li­tesse sur In­ter­net, les as­si­mile à des en­sei­gnants, mon­tés au front pour désa­mor­cer la haine sur les ré­seaux. Eva, ayant dé­si­ré l’ano­ny­mat, se voit comme une ar­bitre ; Bo­ris, lui, se com­pare à un po­li­cier de proxi­mi­té.

« Le risque, pour les mo­dé­ra­teurs, c’est de tom­ber dans le dé­goût ou le déni. Ne voir que le cô­té sombre de l’hu­ma­ni­té ou ne plus rien per­ce­voir du tout », pré­vient Catherine Ver­dier, psy­cho­logue s’in­té­res­sant à leurs cas. Pour évi­ter l’un de ces écueils, Da­vy, l’an­cien in­ter­mit­tent du spec­tacle, cherche à « res­ter dans la neu­tra­li­té face à la vio­lence vir­tuelle », afin de ne pas ju­ger sur le coup de l’émo­tion; à ne pas prendre pour lui les com­men­taires né­ga­tifs, sur­tout ceux qui l’as­si­milent à un cen­seur; à lais­ser « les gens s’ex­pri­mer au­tant que pos­sible », et même à ex­pli­quer di­rec­te­ment par écrit ses choix aux in­ter­nautes concer­nés. Au final, il es­time oeu­vrer pour la liberté d’ex­pres­sion, et non pas pour le ra­mas­sage des or­dures.

LA CHASSE AUX MOTS SEN­SIBLES. Aux prises avec un vo­lume de tra­vail sans cesse gran­dis­sant, l’in­tel­li­gence ar­ti­fi­cielle de­meure la meilleure al­liée des mo­dé­ra­teurs en leur fa­ci­li­tant la tâche. Elle filtre les conte­nus, sur­ligne les mots-clés sen­sibles comme « cha­ria », « is­lam » ou « na­zi », et leur at­tri­bue un pour­cen­tage de re­jet. « Un mes­sage com­por­tant le mot ‘bou­gnoule’ pos­sède 99,9 % de chance d’être re­je­té, à moins d’être com­pris dans une phrase du genre : ‘Ar­rê­tez de les trai­ter de bou­gnoules’ », dé­taille Eva.

Mais l’in­tel­li­gence ar­ti­fi­cielle pour­rait de­ve­nir aus­si le pire en­ne­mi des mo­dé­ra­teurs en ro­gnant de plus en plus sur leurs pré­ro­ga­tives. Le si­gna­le­ment de conte­nus illi­cites, au­tre­fois réa­li­sé en­tiè­re­ment par des hu­mains, est, au­jourd’hui, qua­si­ment rem­pla­cé par des al­go­rithmes d’ap­pren­tis­sage au­to­ma­tique : ain­si, 77 % des vi­déos sup­pri­mées entre janvier et mars 2019 sur YouTube l’ont été de cette fa­çon. Et si le fu­tur de leur job consis­tait de­main à dé­gou­piller les fake news et autres deep fakes, ces re­dou­tables vi­déos tru­quées ayant l’ap­pa­rence de la vé­ri­té, qu’au­cune ma­chine n’est en­core en ca­pa­ci­té de dé­tec­ter ?˜

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.