Así es co­mo Fa­ce­book con­tro­la lo que pue­des pu­bli­car

La red social creó una lis­ta de li­nea­mien­tos so­bre lo que sus 2.000 mi­llo­nes de usua­rios pue­den ex­pre­sar en la pla­ta­for­ma. Las re­glas, que se ac­tua­li­zan fre­cuen­te­men­te, son apli­ca­das por mo­de­ra­do­res

El Observador Fin de Semana - Cromo - - SÁBADO 12 DOMINGO 13 ENERO 2019 LOS MODERADORES DI - AODHAN BEIRNE New York Ti­mes New Ser­vi­ce

Ave­ces un emo­ti­cón es so­lo un emo­ti­cón. Pe­ro, a ve­ces, pue­de ser una ame­na­za. Y en so­lo unos se­gun­dos, los mo­de­ra­do­res de Fa­ce­book tie­nen que reac­cio­nar y to­mar una de­ci­sión –in­clu­so si el tex­to que acom­pa­ña a la ca­ra ama­ri­lla son­rien­te es­tá en un idio­ma que no co­no­cen bien–.

Pa­ra ayu­dar­les con esas de­ci­sio­nes, Fa­ce­book creó una lis­ta de li­nea­mien­tos so­bre lo que sus 2.000 mi­llo­nes de usua­rios pue­den de­cir. Los mo­de­ra­do­res tra­ba­jan con esas re­glas que son ac­tua­li­za­das fre­cuen­te­men­te.

Pa­ra Fa­ce­book, el ob­je­ti­vo es la cla­ri­dad. Sin em­bar­go, pa­ra los mi­les de mo­de­ra­do­res en to­do el mun­do, que en­fren­tan la ta­rea de na­ve­gar es­te bi­zan­tino la­be­rin­to de re­glas mien­tras mo­ni­to­rean a dia­rio mi­les de mi­llo­nes de pu­bli­ca­cio­nes en más de 100 idio­mas, la cla­ri­dad es di­fí­cil de lo­grar.

Fa­ce­book in­ten­ta que esos li­nea­mien­tos, y su exis­ten­cia, se man­ten­gan en se­cre­to. Sin em­bar­go, The New York Ti­mes ad­qui­rió 1.400 páginas de esas re­glas, y no so­lo de­tec­tó pro­ble­mas en la redacción, sino tam­bién en la ma­ne­ra en que se rea­li­za el pro­ce­so de mo­de­ra­ción.

En el la­be­rin­to

Ca­da dos mar­tes las re­glas se dis­cu­ten du­ran­te un desa­yuno que se ce­le­bra en una sa­la de con­fe­ren­cias en Men­lo Park, Ca­li­for­nia –le­jos de la ace­le­ra­ción del des­con­ten­to social que los crí­ti­cos sue­len acha­car­le a Fa­ce­book–.

Aun­que la com­pa­ñía no con­sul­ta a gru­pos ex­ter­nos, las re­glas son de­ter­mi­na­das en gran me­di­da por jó­ve­nes abo­ga­dos e in­ge­nie­ros, la ma­yo­ría de los cua­les no tie­nen ex­pe­rien­cia en las re­gio­nes del mun­do so­bre las que es­tán to­man­do de­ci­sio­nes.

Las re­glas que ellos crean pa­re­cen es­tar es­cri­tas pa­ra an­glo­ha­blan­tes que a ve­ces de­pen­den del tra­duc­tor de Goo­gle. Eso in­di­ca una fal­ta de mo­de­ra­do­res con ha­bi­li­da­des idio­má­ti­cas lo­ca­les que po­drían en­ten­der me­jor los con­tex­tos lo­ca­les.

Los em­plea­dos de Fa­ce­book di­cen que no han en­ten­di­do, del to­do, qué tipo de pu­bli­ca­cio­nes pue­den crear dis­tur­bios vio­len­tos o po­lí­ti­cos. Los re­gla­men­tos son de­duc­cio­nes. Al­gu­nos de los li­nea­mien­tos usa­dos por los mo­de­ra­do­res son im­pre­ci­sos, es­tán desac­tua­li­za­dos o ca­re­cen de ma­ti­ces crí­ti­cos.

Por ejem­plo, una pre­sen­ta­ción se re­fie­re al cri­mi­nal de gue­rra bos­nio Rat­ko Mla­dic co­mo un fu­gi­ti­vo, a pe­sar de que fue arres­ta­do en 2011. Otra pa­re­ce te­ner erro­res so­bre la ley in­dia por­que acon­se­ja a los mo­de­ra­do­res que ca­si cual­quier crí­ti­ca a la re­li­gión de­be ser mar­ca­da co­mo pro­ba­ble­men­te ile­gal. De he­cho, se­gún un aca­dé­mi­co es­pe­cia­li­za­do en te­mas ju­rí­di­cos, cri­ti­car a la re­li­gión so­lo es ile­gal cuan­do tie­ne la in­ten­ción de ge­ne­rar vio­len­cia.

En Bir­ma­nia, un error de pa­pe­leo per­mi­tió que un pro­mi­nen­te gru­po ex­tre­mis­ta, acu­sa­do de fo­men­tar el ge­no­ci­dio, per­ma­ne­cie­ra en la pla­ta­for­ma du­ran­te me­ses.

Fa­ce­book sub­con­tra­ta los pro­ce­sos de mo­de­ra­ción con com­pa­ñías que em­plean a mi­les de tra­ba­ja­do­res pa­ra ha­cer cum­plir las re­glas. En al­gu­nas de es­tas ofi­ci­nas, los mo­de­ra­do­res di­cen que se es­pe­ra que re­vi­sen mu­chas pu­bli­ca­cio­nes en tan so­lo en­tre ocho y 10 se­gun­dos. El tra­ba­jo pue­de ser tan exi­gen­te que mu­chas per­so­nas so­lo du­ran unos cuan­tos me­ses en ese car­go.

Los mo­de­ra­do­res di­cen que tie­nen po­cos in­cen­ti­vos pa­ra contactar a Fa­ce­book cuan­do en­cuen­tran fa­llas en el pro­ce­so. Por su par­te, Fa­ce­book per­mi­te en gran me­di­da que las com­pa­ñías que con­tra­tan a los mo­de­ra­do­res se su­per­vi­sen a sí mis­mas.

Ca­da vez, las políticas de Fa­ce­book se vuel­ven más aser­ti­vas pa­ra prohi­bir el ac­ce­so a gru­pos y per­so­nas, así co­mo a ti­pos de dis­cur­so, que –se­gún los mo­de­ra­do­res– po­drían con­du­cir a la vio­len­cia. En paí­ses don­de la lí­nea en­tre ex­tre­mis­mo y política tra­di­cio­nal es po­co cla­ra, el po­der de la red social pa­ra prohi­bir el ac­ce­so a al­gu­nos gru­pos sig­ni­fi­ca que, en esen­cia, ayu­da a de­fi­nir ga­na­do­res y per­de­do­res po­lí­ti­cos. A ve­ces eli­mi­na par­ti­dos po­lí­ti­cos, co­mo Ama­ne­cer Do­ra­do en Gre­cia, así co­mo mo­vi­mien­tos re­li­gio­sos tra­di­cio­na­les en Asia y Orien­te Me­dio. Es­to pue­de sig­ni­fi­car que Fa­ce­book im­pi­de la par­ti­ci­pa­ción de un sec­tor de la po­bla­ción en los de­ba­tes na­cio­na­les que su­ce­den en su pla­ta­for­ma, ar­gu­men­ta un ex­per­to. Al­gu­nas in­ter­ven­cio­nes son más su­ti­les. Du­ran­te las elec­cio­nes en Pa­kis­tán, la em­pre­sa le pi­dió a los mo­de­ra­do­res que apli­ca­ran un es­cru­ti­nio ex­tra a un par­ti­do, pe­ro ca­li­fi­có al otro de “be­nigno”. Y sus de­ci­sio­nes a me­nu­do son mo­di­fi­ca­das a fa­vor de los go­bier­nos, los cua­les pue­den mul­tar o re­gu­lar Fa­ce­book.

Aun­que Fa­ce­book in­ten­ta li­mi­tar el con­te­ni­do pe­li­gro­so en su pla­ta­for­ma, con­ti­núa tra­ba­jan­do pa­ra in­cre­men­tar sus usua­rios en más paí­ses. A ve­ces, esa ten­sión se ob­ser­va en los li­nea­mien­tos.

Por ejem­plo, los mo­de­ra­do­res que re­vi­san pu­bli­ca­cio­nes so­bre Pa­kis­tán re­ci­ben ad­ver­ten­cias so­bre crear un “in­cen­dio de re­la­cio­nes pú­bli­cas” al ha­cer cual­quier co­sa que po­dría “te­ner un im­pac­to ne­ga­ti­vo en la repu­tación de Fa­ce­book o in­clu­so po­ner a la com­pa­ñía en ries­go le­gal”.

Al de­pen­der de tra­ba­ja­do­res sub­con­tra­ta­dos pa­ra rea­li­zar la ma­yor par­te de la mo­de­ra­ción, Fa­ce­book pue­de man­te­ner cos­tos ba­jos in­clu­so mien­tras fi­ja re­glas pa­ra más de 2.000 mi­llo­nes de usua­rios. l

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.