Le scé­na­rio ré­gio­nal

Le Nouvel Économiste - - Analyses -

Les ré­vé­la­tions sur l’uti­li­sa­tion du ré­seau so­cial Fa­ce­book par des agents russes pour pe­ser sur le ré­sul­tat de l’élec­tion pré­si­den­tielle amé­ri­caine touchent le coeur du mé­ca­nisme des ré­seaux so­ciaux en ligne. Ce que Fa­ce­book va dé­ci­der pè­se­ra lourd pour dé­ter­mi­ner s’il peut évi­ter le risque d’une ré­gu­la­tion gé­né­ra­li­sée, tout en pro­té­geant l’in­té­gri­té de son ser­vice. Il y a quelques jours, le pré­sident Do­nald Trump a twee­té tout le mal qu’il pen­sait de Fa­ce­book...

Les ré­vé­la­tions sur l’uti­li­sa­tion du ré­seau so­cial Fa­ce­book par des agents russes pour pe­ser sur le ré­sul­tat de l’élec­tion pré­si­den­tielle amé­ri­caine touchent le coeur du mé­ca­nisme des ré­seaux so­ciaux en ligne. Ce que Fa­ce­book va dé­ci­der pè­se­ra lourd pour dé­ter­mi­ner s’il peut évi­ter le risque d’une ré­gu­la­tion gé­né­ra­li­sée, tout en pro­té­geant l’in­té­gri­té de son ser­vice. Il y a quelques jours, le pré­sident Do­nald Trump a twee­té tout le mal qu’il pen­sait de Fa­ce­book en l’as­so­ciant im­pli­ci­te­ment au reste des mé­dias. Fa­ce­book, avec ses al­go­rithmes qui filtrent l’in­for­ma­tion pré­sen­tée à chaque uti­li­sa­teur, exerce de fait le pou­voir qui ap­par­te­nait au­tre­fois aux édi­teurs de presse. Son rôle l’ex­pose à ce genre d’at­taques po­li­tiques. Parce que Fa­ce­book est un ré­seau de com­mu­ni­ca­tion ou­vert, il s’est at­ti­ré des en­nuis du­rant l’élec­tion amé­ri­caine. La Rus­sie a ex­ploi­té pré­ci­sé­ment ce qui fait la force du ré­seau dans le but de ré­pandre de fausses in­for­ma­tions et des pu­bli­ci­tés conçues pour en­ve­ni­mer les Fa­ce­book,avec ses al­go­rithmes, qui filtrent l’in­for­ma­tion pré­sen­tée à chaque uti­li­sa­teur, exerce de fait le pou­voir qui ap­par­te­nait au­tre­fois aux édi­teurs de presse. Son rôle l’ex­pose à ce genre d’at­taques po­li­tiques que­relles par­ti­sanes : l’échange libre et souple de mes­sages, la pos­si­bi­li­té pour tous de par­ta­ger le “post” d’un autre uti­li­sa­teur afin d’am­pli­fier son au­dience par son ré­seau, et aus­si d’ac­cé­der à la pla­te­forme d’achat en libre-ser­vice de

pu­bli­ci­tés, avec op­tions de mi­cro­ci­blage, qui a fait de Fa­ce­book cet ou­til de pro­mo­tion si puis­sant. Dans sa ré­ponse à Do­nald Trump, Mark Zu­cker­berg a dé­fen­du la thèse se­lon la­quelle c’est la neu­tra­li­té de son ré­seau qui a “of­fen­sé” les deux camps. Il n’est pas très ras­su­rant de s’en­tendre dire que la ma­jeure par­tie de Fa­ce­book a bien fonc­tion­né pen­dant l’élec­tion, quand, pré­ci­sé­ment, c’est la par­tie qui n’a pas fonc­tion­né qui a eu un ef­fet dé­ci­sif sur le ré­sul­tat de l’élec­tion. Pour ce qui est de la pu­bli­ci­té politique, il faut faire plus. Fa­ce­book est main­te­nant mis en de­meure et a toutes les bonnes rai­sons de faire la chasse aux comptes sus­pects. M. Zu­cker­berg a aus­si pro­mis plus de trans­pa­rence au­tour des pu­bli­ci­tés po­li­tiques que dif­fuse Fa­ce­book. On se heurte là à des pro­blèmes struc­tu­rels. Plus de cinq mil­lions d’an­non­ceurs uti­lisent Fa­ce­book chaque mois. La na­ture de la pu­bli­ci­té sur In­ter­net, faite d’ajus­te­ments constants des mes­sages pu­bli­ci­taires pour dé­ter­mi­ner ce qui marche le mieux au­près de plu­sieurs cibles dé­mo­gra­phiques et groupes d’uti­li­sa­teurs par­ta­geant

L’en­ga­ge­ment de l’uti­li­sa­teur est l’in­dice de base et peu de chose sont ca­pables de pro­vo­quer au­tant d’en­ga­ge­ment que des in­for­ma­tions qui ali­mentent les pré­ju­gés des uti­li­sa­teurs et sti­mulent leurs pas­sions

les mêmes in­té­rêts, si­gni­fie que le même mes­sage peut prendre dif­fé­rentes formes. La taille des échan­tillons est par­fois mi­nus­cule, ce qui rend dif­fi­cile une sur­veillance com­plète. Par cer­tains as­pects, blo­quer la dif­fu­sion de la pro­pa­gande “or­ga­nique” est presque en­core plus dif­fi­cile. Dans un ar­ticle pu­blié cette an­née, Fa­ce­book éta­blis­sait une dif­fé­rence entre “les opé­ra­tions d’in­for­ma­tion” (les ten­ta­tives or­ga­ni­sées de ré­pandre la dés­in­for­ma­tion) et ce qu’il ap­pelle la com­mu­ni­ca­tion “au­then­tique” entre ses uti­li­sa­teurs. Dans un ré­seau comme Fa­ce­book, où chaque par­ti­ci­pant est un maillon ac­tif dans la chaîne de dif­fu­sion de l’in­for­ma­tion, la fron­tière n’est pas évi­dente à tra­cer. Les mes­sages in­cen­diaires peuvent sem­bler au­then­tiques, même s’ils ont été concoc­tés par des troupes cy­niques à des fins ca­chées. Par ailleurs, les “faits al­ter­na­tifs” d’une per­sonne peuvent être la réa­li­té d’une autre. Là en­core, Fa­ce­book peut faire bien plus, tra­vailler plus en pro­fon­deur pour re­mon­ter jus­qu’aux ré­seaux de comptes qui ont été ou­verts pour am­pli­fier la dés­in­for­ma­tion. Il y a deux se­maines, Fa­ce­book s’est van­té d’avoir fer­mé “des di­zaines de mil­liers” de faux comptes du­rant la cam­pagne élec­to­rale de sep­tembre en Al­le­magne. Il tente aus­si de don­ner à ses uti­li­sa­teurs et à des sites tiers plus d’op­tions pour si­gna­ler les fausses in­for­ma­tions aux mo­dé­ra­teurs et pour ra­len­tir leur dif­fu­sion dans le ré­seau. Mais ce­la met à jour un conflit fon­da­men­tal. Le par­tage ins­tan­ta­né d’une in­for­ma­tion est au coeur du mo­dèle éco­no­mique de Fa­ce­book et sa phi­lo­so­phie de dé­part, même si les cy­niques vous di­ront que le deuxième point dé­coule di­rec­te­ment du pre­mier. L’en­ga­ge­ment de l’uti­li­sa­teur est le cri­tère me­su­rable de base, et peu de choses sont ca­pables de pro­vo­quer au­tant d’en­ga­ge­ment que des in­for­ma­tions qui ali­mentent les pré­ju­gés des uti­li­sa­teurs et sti­mulent leurs pas­sions. Un es­poir pointe avec de meilleurs al­go­rithmes pour dé­tec­ter la dés­in­for­ma­tion et per­cer ces “bulles”. Mais il n’existe pas de so­lu­tion ma­gique. Plus les al­go­rithmes se­ront mo­di­fiés pour dé­tec­ter et sup­pri­mer les abus, plus les soup­çons gran­di­ront, et plus l’on di­ra que Fa­ce­book oriente sciem­ment ses conte­nus. Comme avec Google, ce­la condui­ra in­évi­ta­ble­ment à des ap­pels à la “neu­tra­li­té des al­go­rithmes”. Tout ce­la en­traî­ne­ra des coûts sup­plé­men­taires pour Fa­ce­book, pour dé­ve­lop­per et dé­ployer les lo­gi­ciels né­ces­saires pour sur­veiller le com­por­te­ment du ré­seau et sup­pri­mer ces abus. Fa­ce­book au­ra aus­si be­soin de beau­coup plus d’“hu­mains dans la boucle”. Fa­ce­book a un atout dans sa manche. Les po­li­tiques sont très dé­pen­dants de ce ré­seau quand ar­rive le mo­ment de pen­ser à une ré­élec­tion, fait que M. Zu­cker­berg a te­nu à sou­li­gner cette semaine. En der­nier lieu, ce test va mon­trer si l’in­té­rêt per­son­nel est le plus fort. Les fautes de Fa­ce­book du­rant l’élec­tion pré­si­den­tielle amé­ri­caine, et la dé­sin­vol­ture avec la­quelle M. Zu­cker­berg s’est dé­fen­du contre les cri­tiques après coup, sont là pour rap­pe­ler que l’en­jeu com­mer­cial est énorme et qu’il peut ex­pli­quer cette at­ti­tude de non-in­ter­ven­tion. Cette fois, les en­jeux sont as­sez éle­vés pour pro­vo­quer une ré­ac­tion ferme.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.