LE JOUR OÙ FA­CE­BOOK S’EST EFFONDRÉ

GQ (France) - - Sommaire - Par Ni­cho­las Thomp­son et Fred Vol­gel­stein_a­dap­ta­tion Étienne Me­nu

La pré­si­den­tielle amé­ri­caine, avec ses fake news pro-trump re­layées de fa­çon vi­rale sur le ré­seau so­cial, l’a dé­mon­tré : Fa­ce­book est un mé­dia, qui doit prendre ses res­pon­sa­bi­li­tés.

Une simple pla­te­forme d’échanges entre amis, Fa­ce­book ? Les élec­tions amé­ri­caines, avec leur lot de fake news pro-trump re­layées de fa­çon vi­rale, ont prouvé que non. Et mar­qué au fer rouge la boîte de Mark Zu­cker­berg. Le fon­da­teur lui-même a dû as­su­mer ses er­reurs et re­con­naître une vé­ri­té fon­da­men­tale : Fa­ce­book est aus­si un mé­dia, qui doit ai­gui­ser son sens des res­pon­sa­bi­li­tés...

On a par­fois ten­dance à l’ou­blier, mais jus­qu’en 2012, Fa­ce­book ser­vait da­van­tage à se par­ler entre « friends » de su­jets lé­gers qu’à re­layer des ar­ticles d’ac­tua­li­té pour en dis­cu­ter des jour­nées en­tières. Ce n’est qu’en s’in­sur­geant contre l’in­so­lente main­mise de Twit­ter sur le mar­ché des news que Mark Zu­cker­berg avait dès lors dé­ci­dé de trans­for­mer son jus­qu’alors bien mal nom­mé fil d’ac­tua­li­té (news feed) en vé­ri­table plaque tour­nante vers les sites d’in­for­ma­tion. « Pour Mark, Twit­ter consti­tuait une me­nace ma­jeure, un vrai dan­ger qu’il fal­lait éli­mi­ner », af­firme un an­cien di­ri­geant du géant de Men­lo Park. Une fois les hos­ti­li­tés lan­cées, le tra­fic des usa­gers de Fa­ce­book vers les mé­dias en ligne avait fin 2013 dou­blé par rap­port à l’an­née pré­cé­dente. Et deux ans plus tard, la pla­te­forme bleue re­layait treize fois plus de lec­teurs de news que son concur­rent.

Ar­ri­vés au som­met, Zu­cker­berg et ses équipes n’ont en re­vanche pas tou­jours sem­blé prendre conscience des en­jeux im­pli­qués par leur po­si­tion de car­re­four des mé­dias – et ce, quelle que soit la taille de ces der­niers, leur bord, leur de­gré de fia­bi­li­té ou la na­ture de leur pro­duc­tion. Le dis­cours de Fa­ce­book a tou­jours consis­té à s’abri­ter der­rière la sec­tion 230 du Com­mu­ni­ca­tions De­cen­cy Act de 1996 qui, sur le Web, dé­gage les « in­ter­mé­diaires » de toute res­pon­sa­bi­li­té à l’égard des conte­nus qu’ils per­mettent à leurs usa­gers de par­ta­ger. Fa­ce­book peut donc se conten­ter de se pré­sen­ter comme une pla­te­forme, et non comme un mé­dia, ni un « édi­teur de conte­nus », et reste par dé­fi­ni­tion neutre quant aux idées qu’elle fait cir­cu­ler. La seule ins­tance qui guide le fil d’ac­tua­li­té, ce sont le nombre de par­tages, de fans et de likes et la ren­ta­bi­li­té pu­bli­ci­taire qui en dé­coule – le tout étant ré­gi par le puis­sant al­go­rithme qui nour­rit « Tren­ding To­pics », cette es­pèce de dé­tec­teur de buzz qui fait tour­ner le feed. Le reste, ça ne re­garde stric­te­ment per­sonne à Men­lo Park.

En­fin, ce­la ne re­gar­dait per­sonne jus­qu’à la sé­rie des trois leaks sor­tis par le site Giz­mo­do entre mars et mai 2016. Le pre­mier leak montre que Mark Zu­cker­berg a en­voyé en fé­vrier un mail à tous ses em­ployés pour leur par­ler d’une af­faire in­terne. Un slo­gan « Black Lives Mat­ter » – en fran­çais « La vie des Noirs compte », du nom de ce mou­ve­ment qui de­puis quelques an­nées com­bat les vio­lences po­li­cières ra­cistes – ins­crit sur un mur de libre ex­pres­sion a été rayé et rem­pla­cé par « All Lives Mat­ter », « Toutes les vies comptent ». Pour « Zuck », il s’agit d’une in­ac­cep­table cen­sure : « Black Lives Mat­ter, ça ne veut pas dire que la vie des Noirs compte da­van­tage que celles des autres. En re­vanche, bar­rer un mot écrit par un autre, ce­la re­vient à le faire taire. » La deuxième fuite, c’est qu’un son­dage ef­fec­tué au­près des sa­la­riés met en évi­dence leur crainte de voir Trump ar­ri­ver à la tête des ÉtatsU­nis. « De quelle res­pon­sa­bi­li­té dis­po­sons- nous afin de contri­buer à em­pê­cher sa vic­toire ? » est en ef­fet l’une des ques­tions les plus po­sées au PDG en vue d’une séance de ques­tions-ré­ponses. La troi­sième ré­vé­la­tion, c’est cette fois­ci le té­moi­gnage d’une an­cienne mo­dé­ra­trice de l’al­go­rithme Tren­ding To­pics, qui ré­vèle qu’elle et ses co­équi­piers étaient som­més de « pur­ger » le fil d’un cer­tain nombre de conte­nus d’obé­dience conser­va­trice et d’y « in­jec­ter » ré­gu­liè­re­ment des ar­ticles is­sus des mé­dias dé­mo­crates.

Pro­messe d’ou­ver­ture

In­utile de dire que ces scoops conju­gués vont faire les choux gras de toute la droite amé­ri­caine : le soi-di­sant im­par­tial Fa­ce­book n’est en fait qu’un or­gane de pro­pa­gande pro­gres­siste ! Ses mo­dé­ra­teurs sont payés pour ino­cu­ler aux uti­li­sa­teurs le vi­rus gau­chiste et cen­su­rer toute pa­role ré­pu­bli­caine ! Les dan­ge­reux ra­di­caux que sont ses sa­la­riés cherchent sans se ca­cher à mi­ner la cam­pagne du can­di­dat Trump ! Le scan­dale re­monte jus­qu’au sé­na­teur ré­pu­bli­cain du Da­ko­ta du Sud, John Thune, qui par cour­rier of­fi­ciel

de­mande des explications à la di­rec­tion de la pla­te­forme. Celle-ci ré­pond, dans une longue lettre de douze pages, qu’après un exa­men mi­nu­tieux du fonc­tion­ne­ment de Tren­ding To­pics, elle peut af­fir­mer que les ac­cu­sa­tions for­mu­lées par Giz­mo­do sont pour la plu­part in­fon­dées. Une dé­lé­ga­tion de fi­gures de droite est conviée à Men­lo Park : Fa­ce­book veut faire amende ho­no­rable, voire se re­pen­tir de ses éven­tuels pé­chés, mais aus­si rap­pe­ler à quel point la neu­tra­li­té et l’ou­ver­ture sont ses va­leurs mo­trices. Et ça marche, puis­qu’on voit ain­si le po­lé­miste ultra-conser­va­teur Glenn Beck si­gner un compte ren­du élo­gieux de sa vi­site. « J’ai de­man­dé à Mark Zu­cker­berg s’il conce­vait Fa­ce­book comme un lieu de par­tage de toutes les opi­nions pos­sibles, ou plu­tôt comme un or­gane de cu­ra­tion de cer­tains conte­nus. Et il m’a ré­pon­du que sa pla­te­forme n’au­rait pas lieu d’exis­ter, ni au­jourd’hui ni de­main, si elle n’était pas en­tiè­re­ment ou­verte. » Hor­ri­fié à l’idée d’avoir pu pas­ser pour un homme de l’ombre de la cam­pagne dé­mo­crate, Zu­cker­berg va dé­sor­mais tout faire pour ne plus ja­mais avoir l’air d’in­ter­ve­nir sur le champ de ba­taille. Quitte à ce que « l’ou­ver­ture » si en­tière et si in­té­grale qu’il prône ne se trans­forme bien­tôt en une forme ex­trême de pas­si­vi­té et d’in­dif­fé­rence – et, en dé­fi­ni­tive, de com­pli­ci­té avec ceux-là mêmes qui l’ont ac­cu­sé de vou­loir les faire taire.

Pa­nique à bord

L’été 2016 ap­proche, les élec­tions pré­si­den­tielles aus­si, et sur les ré­seaux la cam­pagne prend une forme confuse, étrange, in­édite. Si Hilla­ry Clin­ton bé­né­fi­cie des conseils d’eric Sch­midt, le pa­tron de Google, c’est pour­tant bel et bien Trump et ses ad­joints au nu­mé­rique qui vont do­mi­ner les échanges – sur Twit­ter, mais aus­si et sur­tout sur Fa­ce­book. D’abord en pos­tant des sta­tuts fal­la­cieux et in­cen­diaires à tout bout de champ, et mas­si­ve­ment re­layés au­près d’un pu­blic d’élec­teurs po­ten­tiels sé­lec­tion­nés par Loo­ka­like Au­diences – un ou­til propre à la pla­te­forme qui per­met d’iden­ti­fier des pro­fils si­mi­laires à ceux dont on a dé­jà ga­gné le sou­tien. Dans le sillage de cet im­pré­vi­sible suc­cès, à mi-che­min entre pro­pa­gande et en­ter­tain­ment, on voit émer­ger une meute de pe­tits fi­lous de la toile, qui se sont aper­çus que les mèmes et autres conte­nus vi­raux fa­vo­rables à Trump gé­né­raient un tra­fic énorme, au même titre que les ar­ticles ca­lom­nieux et conspi­ra­tion­nistes au su­jet d’hilla­ry. Plus c’est gros, plus ça marche. On peut ra­con­ter que le Pape a dé­cla­ré son sou­tien à l’an­cien ma­gnat, que l’an­cienne se­cré­taire d’état a ven­du des armes à Daesh, ou af­fir­mer qu’un agent du FBI sus­pec­té d’avoir fait fui­ter les mails de Clin­ton au­rait été re­trou­vé mort : qu’im­porte, du mo­ment que ça clique, que ça like et que ça par­tage en masse.

Les au­teurs de fake news ne sont pas tous de fer­vents sup­por­ters de Trump qui cherchent à ren­ta­bi­li­ser leur mi­li­tan­tisme. Beau­coup d’entre eux tra­vaillent pour des « fermes de conte­nus » ba­sées à l’étran­ger et fa­briquent donc ces images et ces textes re­le­vant de la « post-vé­ri­té » dans le seul but de cro­quer dans le gros gâ­teau des re­ve­nus pu­bli­ci­taires. Au terme de la cam­pagne, on consta­te­ra même que les fake news ont dans leur en­semble gé­né­ré plus d’en­ga­ge­ment que les « vraies nou­velles » : pour Fa­ce­book, ces ca­lom­nies sont donc fort ju­teuses ! Mais le vrai ou le faux im­porte peu pour la pla­te­forme, qui comme an­non­cé met un point d’hon­neur à se conten­ter de par­ta­ger, de lais­ser faire et lais­ser s’ex­pri­mer, sans ja­mais orien­ter – bien qu’elle prenne tout de même soin de ré­cu­pé­rer sa part au pas­sage.

Et puis le 8 no­vembre 2016 se pro­duit l’in­ima­gi­nable : Do­nald Trump est élu pré­sident des États-unis. C’est la pa­nique à Men­lo Park : que doit-on dire ? Est-ce de notre faute ? Après deux jours de concer­ta­tion avec ses ad­joints, Zu­cker­berg formule une ré­ponse sans ap­pel : pour lui, les ré­seaux so­ciaux n’exercent pas d’in­fluence no­table sur la fa­çon dont les gens votent, et les fake news re­layées par Fa­ce­book « ne consti­tuent qu’une part né­gli­geable de l’en­semble des conte­nus qui y cir­culent ». Pen­ser que l’es­prit des uti­li­sa­teurs de Fa­ce­book

“Sommes-nous en train de bâ­tir le monde que nous vou­lons ?” Mark Zu­cker­berg, en fé­vrier 2017

a pu être re­con­fi­gu­ré par la dé­li­rante pro­pa­gande trum­piste lors­qu’ils se sont re­trou­vés dans l’iso­loir, c’est pour le PDG en hoo­die «apret­ty­cra­zyi­dea» – au­tre­ment dit, « un peu n’im­porte quoi ». À sa dé­charge, Zu­cker­berg ne ment pas lors­qu’il af­firme que les fake news ne forment qu’une faible mi­no­ri­té des conte­nus que l’on trouve sur la pla­te­forme. Sta­tis­ti­que­ment, elles sont en ef­fet peu nom­breuses com­pa­rées aux vraies in­for­ma­tions. Mais ce qu’il ne semble pas vou­loir com­prendre, c’est qu’elles sont en re­vanche re­layées en masse, et au sein des mêmes types de com­mu­nau­tés, d’où leur force d’in­fluence. En ré­su­mé, si elles n’ont pas, lors de la cam­pagne, été lues ou vues par de vastes pans de la po­pu­la­tion amé­ri­caine en âge de vo­ter, elles ont pour­tant pro­duit un im­pact énorme sur une frange stra­té­gique, car in­dé­cise, de celle-ci. Cet aveu­gle­ment va coû­ter cher au PDG. Un an­cien di­ri­geant ra­conte : « Mark a fait de gros dé­gâts en te­nant ces pro­pos et nous avons dû le faire chan­ger d’avis de gré ou de force, sans quoi nous au­rions pu vivre la même des­cente aux en­fers que celle qu’a vé­cue Uber. »

Dans les mois qui suivent, Fa­ce­book va donc tâ­cher de se rat­tra­per : oui, les fake news ont un ef­fet réel et puis­sant, et oui, la pla­te­forme as­sume une res­pon­sa­bi­li­té pas­sive dans leur dif­fu­sion. Une cel­lule bap­ti­sée « News Feed In­te­gri­ty Task Force » est créée, afin d’éra­di­quer, se­lon un de ses membres, le « fléau de la dés­in­for­ma­tion par­ti­sane qui gan­grène toute la pla­te­forme ». On an­nonce qu’au­cun re­ve­nu pu­bli­ci­taire ne se­ra ja­mais plus re­ver­sé à des fermes de conte­nus, et que le si­gna­le­ment par un usa­ger d’une fake news sup­po­sée va être sim­pli­fié. Un dé­par­te­ment de fact-che­cking – ex­ter­na­li­sé, en l’oc­cur­rence – est bien­tôt mis en place. En­fin, une an­cienne pré­sen­ta­trice de CNN, Camp­bell Brown, prend la di­rec­tion du Fa­ce­book Jour­na­lism Pro­ject, un groupe dont la mis­sion consis­te­ra à conce­voir des ou­tils prêts à l’usage pour les ré­dac­tions de de­main et à ré­flé­chir avec elles aux meilleures fa­çons de conju­guer ri­gueur et ren­ta­bi­li­té.

Ma­noeuvres russes

Il n’en reste pas moins qu’en dé­pit de ce nou­veau dis­cours d’in­té­gri­té, Fa­ce­book conti­nue d’ap­pa­raître aux yeux des mé­dias amé­ri­cains comme une sorte de par­te­naire for­cé et en­va­his­sant, et non comme un vé­ri­table et ver­tueux équi­pier. Zu­cker­berg et ses ca­ma­rades au­ront beau af­fi­cher leurs bonnes in­ten­tions, ils ne fe­ront ja­mais ou­blier aux or­ganes de presse dont ils re­laient les ar­ticles qu’ils de­meu­re­ront en­core long­temps les grands pro­prié­taires du mar­ché des news, là où les jour­naux dont ils pro­fitent ne dé­pas­se­ront ja­mais vrai­ment leur sta­tut de mé­tayers ac­cro­chés à leurs lo­pins. L’écart d’échelle est en ef­fet ver­ti­gi­neux : la va­leur en bourse de la mul­ti­na­tio­nale de Men­lo Park re­pré­sente ain­si 200 fois celle du Newyork­times. Et quand l’ex-cnn Camp­bell Brown convie les pa­trons de presse à des ren­contres « ami­cales » – no­tam­ment dans son propre ap­par­te­ment de Man­hat­tan – ac­com­pa­gnée du di­rec­teur pro­duit de Fa­ce­book, Chris Cox, elle sait bien qu’il s’agit avant tout, pour elle et son col­lègue, de lais­ser à ses an­ciens confrères la li­ber­té de leur hur­ler des­sus, eux, les bour­reaux des mé­dias. « Cox n’es­sayait même pas de dé­fendre sa boîte. Il écou­tait po­li­ment et en­cais­sait tous nos re­proches », ra­conte un di­rec­teur de pu­bli­ca­tion pré­sent lors d’une de ces séances de pé­ni­tence.

En fé­vrier 2017, Zu­cker­berg poste sur Fa­ce­book une très longue tri­bune, em­preinte d’une hu­mi­li­té qu’on ne lui connais­sait pas jus­qu’ici : « Sommes-nous en train de bâ­tir le monde que nous vou­lons ? » On de­vine les doutes et la culpa­bi­li­té de ce­lui qui a vu sa créa­tion lui échapper et en­gen­drer au­jourd’hui plus de mal que de bien. Un em­ployé que nous avons ren­con­tré va même jus­qu’à com­pa­rer le jeune pro­dige au per­son­nage de Len­nie dans Des sou­ris et des hommes de Stein­beck : « C’est un homme qui ne se rend pas compte de sa propre force. » Et qui, lors­qu’il en prend en­fin la me­sure, dé­cide de faire à peu près tout ce qu’il peut pour ré­af­fir­mer sa vo­lon­té de « construire une com­mu­nau­té glo­bale », où l’in­for­ma­tion ne se­rait pas mi­née par les fake news et le « pu­ta­clic ». Un sur­saut ci­vique ho­no­rable, mais peut-être un peu tar­dif, et sur­tout fort dé­ri­soire au vu des évé­ne­ments qui l’at­tendent.

« La Rus­sie, c’est une tout autre af­faire que les fake news », tient d’em­blée à nous dire un di­ri­geant de Fa­ce­book qui a oeu­vré sur les deux dos­siers. Cette es­pèce de ca­fouillage ag­gra­vé ayant dé­gé­né­ré en scan­dale in­ter­na­tio­nal com­plexe peut être ré­su­mé en quelques épi­sodes. D’abord, du­rant la cam­pagne pré­si­den­tielle 2016, les équipes an­ti-pi­ra­tage de Men­lo Park s’aper­çoivent que des ha­ckers russes ont in­fil­tré la pla­te­forme en créant de faux comptes cen­sés lea­ker des in­fos « confi­den­tielles ». Des fake news pu­re­ment

des­ti­nées à se­mer le chaos, en somme, mais qui sur le mo­ment ne semblent pas plus in­quié­tantes que ça pour la di­rec­tion Fa­ce­book. Puis en avril 2017, à la suite des ré­vé­la­tions d’un pos­sible sou­tien fi­nan­cier oc­culte de Mos­cou au can­di­dat Trump, le di­rec­teur de la sé­cu­ri­té de Fa­ce­book, Alex Sta­mos, pu­blie un rap­port qui dé­taille les mé­thodes de ma­ni­pu­la­tion de l’in­for­ma­tion pra­ti­quées sur Fa­ce­book. Mais pas un mot sur les ma­noeuvres russes : le texte reste gé­né­ral, froid, ex­ces­si­ve­ment pru­dent. Or voi­là qu’un mois plus tard, le ma­ga­zine Time pu­blie le té­moi­gnage ano­nyme d’un of­fi­cier du ren­sei­gne­ment amé­ri­cain : se­lon lui, des agents russes au­raient ache­té de la pu­bli­ci­té sur Fa­ce­book à des fins de pro­pa­gande sur le peuple amé­ri­cain.

Le pre­mier “mé­ta-mé­dia” ?

Pris de court, Sta­mos et son staff com­mencent alors à en­quê­ter sur ces mys­té­rieux ache­teurs d’es­paces pub. Ils re­marquent qu’un or­ga­nisme opaque ap­pe­lé In­ter­net Re­search Agency a en ef­fet, via de mul­tiples comptes ban­caires, ver­sé de l’ar­gent à la ré­gie pu­bli­ci­taire de Fa­ce­book afin d’at­ti­rer les usa­gers vers des pages conçues spé­cia­le­ment pour ma­ra­bou­ter l’opi­nion amé­ri­caine. On re­monte par exemple vers un compte du nom de Heart of Texas, qui mi­lite pour la sé­ces­sion de l’état du reste des USA. Mais aus­si vers un groupe ex­trê­me­ment fré­quen­té par la com­mu­nau­té noire, Black­ti­vist, né à la suite des vio­lences po­li­cières ra­cistes comme celles de Fer­gu­son, et sui­vi par plus d’in­ter­nautes que la page of­fi­cielle de Bla­ck­li­ves­mat­ter. Un lieu d’échanges in­di­gnés et de ré­sis­tance ra­di­cale bien connu, mais pour­tant mon­té de toutes pièces par les Russes dans le but, on pré­sume, de dé­cou­ra­ger les élec­teurs noirs d’al­ler vo­ter pour Hilla­ry Clin­ton. On condamne un peu par­tout le manque to­tal d’an­ti­ci­pa­tion de Fa­ce­book face à ces taupes. « Zu­cker­berg et ses in­gé­nieurs au­raient dû pré­voir que les Russes ten­te­raient ce genre de coups de vice, c’est im­pos­sible qu’ils n’aient pas pu ima­gi­ner ça », constate sans am­bages un membre de la com­mis­sion sé­na­to­riale sur le ren­sei­gne­ment.

Et comme si la si­tua­tion n’était pas dé­jà as­sez ca­tas­tro­phique, les ser­vices de Sta­mos vont en sep­tembre com­mettre une nou­velle er­reur fa­tale en an­non­çant les chiffres aux­quels ils ont abou­ti en exa­mi­nant l’in­fil­tra­tion russe : se­lon eux, 100 000 dol­lars d’es­paces ont été ache­tés, soit en­vi­ron 3 000 pu­bli­ci­tés dif­fu­sées pen­dant la cam­pagne de 2016. Pas de quoi crier à la pro­pa­gande de masse, fi­na­le­ment ! Mais deux se­maines plus tard, un cher­cheur spé­cia­li­sé dans le jour­na­lisme di­gi­tal, Jo­na­than Al­bright, af­firme preuves à l’ap­pui qu’il a dé­ni­ché six faux comptes de fake news fa­bri­qués par les Russes, pré­ten­du­ment sup­pri­més mais en réa­li­té tou­jours ac­ces­sibles. Et que les posts de ces pages Fa­ce­book bi­don ont de­puis leur créa­tion été par­ta­gés… 340 mil­lions de fois. Cette fois-ci, c’est of­fi­ciel, on peut crier à la pro­pa­gande de masse.

Les choses vont alors très vite. Sous l’in­fluence de trois fi­gures de la Si­li­con Val­ley (Re­née Di­res­ta, ex­perte en sé­cu- ri­té di­gi­tale, Ro­bert Mc­na­mee, homme d’af­faires qui dès 2006 fut l’un des pre­miers à croire en Zu­cker­berg, et Tristan Har­ris, an­cien­ne­ment spé­cia­liste de « l’éthique du de­si­gn » chez Google) qui de­puis dé­but 2016 s’in­quiètent de la né­gli­gence cri­mi­nelle dont fait preuve Fa­ce­book dans le trai­te­ment de l’in­for­ma­tion, le Congrès convoque ses res­pon­sables – ain­si que ceux de Google et de Twit­ter – pour les au­di­tion­ner au su­jet des agis­se­ments russes sur les ré­seaux so­ciaux pen­dant la cam­pagne pré­si­den­tielle. Leurs ré­ponses montrent une pas­si­vi­té plus qu’ac­ca­blante. Non, ils n’ont ja­mais rien mis en place, sur le plan lé­gal, pour em­pê­cher un gou­ver­ne­ment étran­ger de pi­lo­ter une cam­pagne d’in­fluence en se ser­vant de leurs pages. Non, ils n’ont ja­mais ju­gé bon d’aver­tir leurs uti­li­sa­teurs ex­po­sés aux pubs russes qu’on les avait me­nés en ba­teau. « C’est vous qui avez créé cette pla­te­forme, as­sène pour fi­nir Dianne Fein­stein, sé­na­trice de Ca­li­for­nie. Et main­te­nant que cer­tains la dé­tournent de son usage pour nuire au peuple amé­ri­cain, c’est à vous de ré­gler le pro­blème. Sans quoi nous nous en oc­cu­pe­rons nous-mêmes. »

Cette tem­pête-là, contrai­re­ment aux pré­cé­dentes, Mark Zu­cker­berg semble vrai­ment l’avoir sen­tie pas­ser. « Je pense qu’il doit éprou­ver du re­mords, qu’il dort mal », va même jus­qu’à dire une de ses em­ployées, tan­dis qu’un de ses ad­joints re­con­naît que le long dé­sastre des deux an­nées pas­sées a ren­du son PDG « an­xieux à l’idée que des gens mal in­ten­tion­nés ins­tru­men­ta­lisent Fa­ce­book » , et « beau­coup moins op­ti­miste qu’avant dans son rap­port aux tech­no­lo­gies. » Une chose est cer­taine, c’est que Zu­cker­berg a en­fin dé­ci­dé de ne plus s’abri­ter der­rière la neu­tra­li­té chère à la sec­tion 230 et d’as­su­mer son rôle de cu­ra­teur d’in­fos, ou de « mé­dias des mé­dias ». Il a ain­si an­non­cé que l’al­go­rithme boos­te­rait do­ré­na­vant les nou­velles is­sues de mé­dias à la fia­bi­li­té avé­rée et mar­gi­na­li­se­rait les édi­teurs de conte­nus bi­don. Peut-être que le jeune tren­te­naire a fi­ni par prendre conscience, au terme de cette crise sans pré­cé­dent qui lui a ren­voyé ses am­bi­guï­tés au vi­sage, que ce n’est parce que Fa­ce­book res­te­rait tou­jours par es­sence une pla­te­forme qu’elle ne pou­vait pas, en même temps, fonc­tion­ner comme une pu­bli­ca­tion de presse.

“Je pense qu’il éprouve du re­mords, qu’il dort mal.” Une em­ployée de Fa­ce­book, à pro­pos de Zu­cker­berg

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.