Les ré­seaux so­ciaux, d’abord une bé­né­dic­tion, dé­sor­mais un han­di­cap pour la dé­mo­cra­tie Un sys­tème fait pour sus­ci­ter l’at­ten­tion est fa­ci­le­ment ma­ni­pu­lable

Le Nouvel Economiste - - A La Une -

“Al­lez les gars, soyons sé­rieux. Si vous vou­lez vrai­ment faire quelque chose,, ne cli­quezq ppas jjuste ‘like’ sous ce post. Écri­vez que vous êtes prêts et que nous pou­vons ten­ter de faire

quelque chose.” Mous­ta­fa Nayem, un jour­na­liste ukrai­nien, a pu­blié ces mots sur sa page Fa­ce­book au ma­tin du 21 no­vembre 2013. En une heure, son mes­sage avait gé­né­ré 600 com­men­taires. Voyant ce­la, M. Nayem a pos­té un nou­veau mes­sage, ap­pe­lant ses abon­nés à se ras­sem­bler le jour même sur la place Mai­dan, à Kiev. Trois mois plus tard, le pré­sident de l’Ukraine Vik­tor Ia­nou­ko­vitch était des­ti­tué. À l’époque, ce­la n’avait presque rien d’éton­nant. De­puis les ma­ni­fes­ta­tions au­tour des élec­tions de 2009 en Iran, puis lors des sou­lè­ve­ments po­pu­laires sui­vants, le rôle de Fa­ce­book et de Twit­ter était connu et ap­plau­di. Ces ré­voltes Si l’on se re­tourne pour me­su­rer l’im­pact des mé­dias so­ciaux sur la po­li­tique ces deux der­nières an­nées, ce sont les sor­dides fake news du Ga­mer­gate, et non l’idéa­lisme des ac­ti­vistes d’Eu­roMai­dan, qui ont pris le des­sus. pro­pul­sées par les mé­dias so­ciaux n’ont sou­vent pas ac­com­pli grand­chose. Cinq mois avant la pu­bli­ca­tion du pre­mier mes­sage de M. Naye­my en Ukraine,, l’ar­mée avait re­pris le pou­voir en Égypte, où les mé­dias so­ciaux avaient fait tom­ber le pré­sident Mou­ba­rak en 2011. Mais l’idée était ins­tal­lée : les mé­dias so­ciaux étaient sy­no­nymes de plu­ra­li­té, de dé­mo­cra­tie et de pro­grès dans le monde en­tier. En connec­tant les simples ci­toyens et en leur don­nant une voix. Quelques mois après les ma­ni­fes­ta­tions “Eu­romai­dan” de Kiev et la chute de M. Ia­nou­ko­vitch, une in­for­ma­tion moins re­mar­quée a je­té une ombre trou­blante sur l’uti­li­sa­tion des mé­dias so­ciaux. En août 2014, Eron Gjo­ni, un cher­cheur en in­for­ma­tique vi­vant en Amé­rique, pu­blia un long post de blog sur sa re­la­tion avec Zoe Quinn, une concep­trice de jeux vi­déo, in­si­nuant qu’elle avait cou­ché avec un jour­na­liste pour ob­te­nir une bonne cri­tique de son nou­veau jeu, De­pres­sion Quest. Ce post de blog a été l’épi­centre du “Ga­mer­gate”, une cam­pagne mi­so­gyne sur les ré­seaux so­ciaux. Des hommes (blancs pour la plu­part) s’en­cou­ra­geaient mu­tuel­le­ment en ligne à at­ta­quer dans le monde du jeu vi­déo, et au-de­là, les fé­mi­nistes et autres “guer­riers de la jus­tice so­ciale”, qu’ils mé­prisent. Se­lon cer­taines es­ti­ma­tions, plus de deux mil­lions de mes­sages por­tant le ha­sh­tag #ga­mer­gate ont été pu­bliés entre sep­tembre et oc­tobre 2014. La cam­pagne a sé­vi dans tout l’éven­tail des ré­seaux so­ciaux. Des vi­déos, des ar­ticles et des do­cu­ments pu­bliés pour gê­ner “l’en­ne­mi” – une pra­tique ap­pe­lée “doxing” – ont été pos­tés sur YouTube et des blogs. Ceux qui n’étaient pas di­rec­te­ment im­pli­qués ne se sont pour la plu­part aper­çu de rien. Et sur­tout, quand les grands mé­dias ont pris conscience de la cam­pagne, ils l’ont mal in­ter­pré­tée. Ils ont cru que Ga­mer­gate était un dé­bat sé­rieux, dans le­quel les deux camps de­vaient être écou­tés, au lieu d’y voir une cam­pagne de dif­fa­ma­tion d’ex­trême droite. Si l’on se re­tourne pour me­su­rer l’im­pact des mé­dias so­ciaux sur la po­li­tique ces deux der­nières an­nées, ce sont les sor­dides fake news (fausses in­for­ma­tions) du Ga­mer­gate, et non l’idéa­lisme des ac­ti­vistes d’Eu­roMai­dan, qui ont pris le des­sus. En Al­le­magne, le par­ti d’ex­trême droite Al­ter­na­tive fur Deut­schland (AfD) a rem­por­té 12,6 % des sièges au par­le­ment grâce aux peurs et men­songes ré­pan­dus sur les ré­seaux so­ciaux, tel que par exemple l’in­for­ma­tion se­lon la­quelle les ré­fu­giés sy­riens per­ce­vraient des al­lo­ca­tions su­pé­rieures à celles des Al­le­mands. Cer­tains en sont ter­ro­ri­sés. En 2010, Wael Gho­nim, un en­tre­pre­neur égyp­tien, étu­diant à Har­vard, était l’un des ad­mi­nis­tra­teurs de la page Fa­ce­book ap­pe­lée “We are all Kha­led Saeed”. Cette page a été l’un des dé­to­na­teurs du sou­lè­ve­ment de la place Tah­rir.

“Nous vou­lions la dé­mo­cra­tie” dit-il

au­jourd’hui “mais nous avons eu la meute-ocra­tie”. Les fake news tran­si­tant par les ré­seaux so­ciaux sont l’un des “pro­blèmes po­li­tiques les plus graves pour les di­ri­geants

po­li­tiques du monde en­tier”, se­lon Jim Mes­si­na, consul­tant en stra­té­gie po­li­tique qui a tra­vaillé pour plu­sieurs pré­si­dents et Pre­miers mi­nistres. Les gou­ver­ne­ments ne savent tout sim­ple­mentp ppas comment faire face. À l’ex­cep­tion, bien sûr, de ceux qui en tirent pro­fit. Aux Phi­lip­pines, le pré­sident Ro­dri­go Du­terte a son “ar­mée de cla­viers” pour ré­pandre de fausses in­for­ma­tions. En Afrique du Sud, Ja­cob Zu­ma bé­né­fi­cie lui aus­si de la pro­tec­tion d’une ar­mée de “trolls” en ligne. Et puis, il y a la Rus­sie, source de nom­breuses dés­in­for­ma­tions, avec sa culture po­li­tique peu pré­oc­cu­pée par le concept de vé­ri­té. La Rus­sie s’est en­gouf­frée dans le cô­té obs­cur des mé­dias so­ciaux, comme le rat dans une conduite d’égout. Non seu­le­ment en Rus­sie, mais éga­le­ment lors d’opé­ra­tions à l’ex­port. Le ré­gime de Vla­di­mir Pou­tine uti­lise les ré­seaux so­ciaux pour dé­ployer des cam­pagnes se­crètes dans des pays proches, dont l’Ukraine, la France, l’Al­le­magne. Des trolls sa­la­riés font les trois-huit dans des agences of­fi­cielles russes telles que l’In­ter­net Re­search Agen­cy de SaintPé­ters­bourg. Les ha­ckers russes noient Twit­ter de mes­sages en pro­gram­mant des mil­liers de “bots”, des comptes au­to­ma­ti­sés. Tout ré­cem­ment, ils l’ont fait pour sou­te­nir l’in­dé­pen­dance de la Ca­ta­logne en Es­pagne. L’agence de presse Sput­nik et la chaîne d’in­for­ma­tion russe en conti­nu RT, toutes deux contrô­lées par le ggou­ver­ne­ment russe,, dé­bitent des “his­toires” que l’ap­pa­reil d’État russe dif­fuse par ses ca­naux of­fi­ciels. Du­rant l’élec­tion pré­si­den­tielle fran­çaise, cette an­née, Sput­nik a pu­blié des ré­sul­tats de son­dage to­ta­le­ment ima­gi­naires, qui pla­çait le can­di­dat de droite Fran­çois Fillon en tête des in­ten­tions de vote. Ces mes­sages et ces posts in­cen­diaires re­bon­dissent de ré­seau en ré­seau, dont Fa­ce­book, Ins­ta­gram (pro­prié­té de Fa­ce­book) et Twit­ter. Ils ob­tiennent sou­vent plus de clics et de lec­tures que les comptes de per­sonnes réelles et que ceux des mé­dias. Les bots ont pu­blié un mes­sage po­li­tique sur cinq dans les ré­seaux so­ciaux en Amé­rique du­rant la cam­pagne pré­si­den­tielle pour la Mai­sonB­lanche, l’an der­nier. Le think tank amé­ri­cain Rand Cor­po­ra­tion com­pare ce sys­tème in­té­gré et in­ten­tion­nel à une “lance à in­cen­die de men­songes”. Le 1er no­vembre, des re­pré­sen­tants de Fa­ce­book, Google et Twit­ter ont ré­pon­du à des ques­tions sou­vent agres­sives lors de leur au­di­tion par le Sé­nat, à Wa­shing­ton, sur le rôle qu’ils ont joué pour per­mettre à cette ‘lance à men­songes’ d’inon­der les élec­teurs amé­ri­cains. Les convo­ca­tions font suite aux ré­vé­la­tions sur l’in­gé­rence de la Rus­sie dans la cam­pagne. Des pu­bli­ci­tés et des conte­nus sur des ques­tions po­li­tiques sen­sibles ont été ache­tés pour se­mer la dis­corde. Fa­ce­book es­time que les conte­nus russes sur sa pla­te­forme, dont les posts et les pu­bli­ci­tés payées, ont tou­ché 126 mil­lions d’Amé­ri­cains, en­vi­ron 40 % de la po­pu­la­tion. Étant don­né la concen­tra­tion des pou­voirs dans ce sec­teur – Fa­ce­book et Google re­pré­sentent à eux seuls 40 % de la consom­ma­tion de conte­nus di­gi­taux, se­lon Brian Wie­ser, de l’ins­ti­tut de me­sure d’au­dience Pi­vo­tal Re­search – ces ré­vé­la­tions sont en ef­fet pré­oc­cu­pantes. Mais les in­quié­tudes sou­le­vées par les ré­seaux so­ciaux vont bien au-de­là des agis­se­ments d’agences par­ti­cu­lières ou de gou­ver­ne­ments spé­ci­fiques. Les mé­dias so­ciaux sont un mé­ca­nisme conçu pour cap­ti­ver, manipuler et consom­mer de l’at­ten­tion hu­maine, comme nul autre. Par consé­quent, avoir le pou­voir sur ces mé­dias, que ce soit ce­lui du pro­prié­taire, du ré­gu­la­teur, ou du frau­deur, a des consé­quences po­li­tiques énormes. Quelles que soient les in­ten­tions po­li­tiques sous-ja­centes, il semble que plus les gens s’in­forment via les ré­seaux so­ciaux, plus il se­ra dif­fi­cile de créer un es­pace ou­vert et par­ta­gé pour le dé­bat po­li­tique, ou même d’ima­gi­ner qu’un tel es­pace puisse exis­ter. Il y a quelques an­nées, Jür­gen Ha­ber­mas, un phi­lo­sophe al­le­mand de re­nom, avait sou­li­gné que si la connec­ti­vi­té entre hu­mains qu’offrent les ré­seaux so­ciaux pou­vait dé­sta­bi­li­ser les ré­gimes au­to­ri­taires, ils étaient tout aus­si ca­pables de com­pro­mettre la sphère pu­blique dans les dé­mo­cra­ties. James Williams, cher­cheur à Ox­ford, as­so­cié à un an­cien col­la­bo­ra­teur de Google, es­time main­te­nant que “les tech­no­lo­gies nu­mé­riques in­hibent tou­jours plus notre ca­pa­ci­té à en­tre­prendre des po­li­tiques dignes de ce nom”. Pour sau­ver la dé­mo­cra­tie, pour­suit-il, “il faut ré­for­mer notre ‘sys­tème de cap­ta­tion d’at­ten­tion’ [ndt: at­ten­tion eco­no­my ]”

Le concept d’un ”mar­ché du temps de cer­veau dis­po­nible”

n’est pas nou­veau. “Ce que l’in­for­ma­tion consomme est as­sez évident : elle consomme l’at­ten­tion de ses des­ti­na­taires”, écri­vait l’éco­no­miste

La Rus­sie s’est en­gouf­frée dans le cô­té obs­cur des mé­dias so­ciaux, comme le rat dans une conduite d’égout. Non seu­le­ment en Rus­sie, mais éga­le­ment lors d’opé­ra­tions à l’ex­port

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.