La Vanguardia (Català)

Despullant FACEBOOK

Surten a la llum, per primer cop, els documents en què la xarxa social explica als seus moderadors les pautes que han de seguir per controlar els continguts polèmics que publiquen els usuaris

- ALBERT MOLINS RENTER DADO RUVIC / REUTERS

Per primera vegada s’ha tingut accés als documents que utilitza Facebook per explicar als seus moderadors quins continguts, dels que publiquen els més de 1.800 milions d’usuaris de què disposa en l’actualitat aquesta xarxa social a tot el món, cal permetre, quins cal eliminar –a Facebook l’horroritza la paraula censura –i quines accions cal prendre en cada cas. Ha estat el diari britànic The Guardian qui ha obtingut aquesta informació, fins ara desconegud­a, i l’ha publicada a la seva pàgina web aquest passat cap de setmana.

El rotatiu britànic ha vist més de 100 manuals interns de capacitaci­ó, fulls de càlcul i diagrames que donen una visió dels criteris que Facebook ha utilitzat per moderar temes com la violència, el discurs d’odi, el terrorisme, la pornografi­a, el racisme i el contingut autodestru­ctiu. Fins i tot hi ha pautes sobre el canibalism­e.

Facebook disposa d’un exèrcit de 4.500 moderadors humans i, a començamen­ts d’aquest mes, Mark Zuckerberg –el president de la companyia– va anunciar que se’n contractar­ien 3.000 més. Aquest moviment tenia lloc després de les crítiques que havia rebut l’empresa arran que la plataforma fos utilitzada per transmetre actes com l’homicidi d’una nadó a Tailàndia i un assassinat a Cleveland, en el qual un home va mostrar com li disparava a un altre aparentmen­t a l’atzar. Sense oblidar, a més, la polèmica sobre el paper que van jugar les notícies falses que es van publicar a Facebook durant la campanya sobre el resultat final de les últimes eleccions presidenci­als als Estats Units.

Segons el professor dels estudis de la Informació i la Comunicaci­ó de la UOC, Ferran Lalueza, en aquest context Facebook es veu obligada a “respectar la llibertat d’expressió de la xarxa i evitar acusacions de censura, al mateix temps que ha de fer front a les crítiques per ser poc àgil” a l’hora d’evitar els continguts inapropiat­s.

Per la seva part, Gemma Vallet, directora del programa Social Media Branding & Digital Strategy de La Salle-Universita­t Ramon Llull, creu que un dels reptes més grans a què s’enfronta Facebook és que “ha crescut a una gran velocitat i això ha acabat sent un problema per poder controlar la quantitat enorme de continguts que es publiquen al lloc web”. Per Vallet, una cosa és “controlar els continguts d’una xarxa social, i una altra els d’un mitjà editorial, que és en el que s’ha convertit Facebook. Les regles de l’una i l’altre són diferents”. En aquest sentit, Josep Lluís Micó, professor de Periodisme de la URL, diu que “Facebook no és exactament un mitjà editorial. És una altra cosa, per a la qual encara no tenim una teoria explicativ­a, i per tant no es pot regular amb les mateixes eines i esquemes que els mitjans tradiciona­ls”. A més –segons Micó– Facebook es veu obligada a “prendre decisions d’una gran envergadur­a en molt poc temps”, la qual cosa complica encara més l’escenari. De fet, “el que se li demana a Facebook és que actuï amb una finezza que no casa amb l’entorn virtual en el qual es mou”, opina aquest professor de Periodisme, i per tant és complicat que arribi a controlar tot el que es publica de forma eficaç. “Si de vegades en diaris amb circulacio­ns més modestes s’escapen coses inapropiad­es, amb el volum que té Facebook la tasca és absolutame­nt impossible”, conclou Micó.

Respecte als aspectes concrets de les polítiques de moderació que ha fet públiques The Guardian, Ferran Lalueza opina que “són pegats i que falta una política clara, més estructura­da i més coherent”. I és que sens dubte pot sorprendre que en aquestes normes d’ús es consideri –per exemple– més greu una expressió com ara ‘Que algú dispari a Trump’, perquè el president dels Estats Units pertany a una categoria de persones protegides, que una altra que explica com escanyar una dona, perquè entra dins de la categoria d’amenaces que –segons els criteris de la xarxa social– no resulten creïbles. Per Josep Lluís Micó, de l’anàlisi d’aquestes amenaces es pot desprendre que el que intenten, en general, “és ponderar si allò que es diu o es publica és només una cosa desafortun­ada –en aquest cas no s’elimina– o una cosa que realment es durà a terme”. Per Gemma Vallet, aquestes directrius segueixen “el típic protocol de la gestió de crisi, i segueixen les pautes utilitzade­s per moderar les xarxes socials, però no les destinades a controlar els continguts d’un mitjà de comunicaci­ó”.

En un dels documents filtrats –per exemple–, Facebook reconeix que “la gent utilitza el llenguatge violent per expressar la seva frustració en línia” i sent que no es girarà en contra seu i se sent indiferent

VOLUM D’INFORMACIÓ “És una plataforma que ha crescut a una gran velocitat, cosa que en dificulta el control”

DECISIONS EN TEMPS REAL

És un mitjà que ha de prendre resolucion­s importants en molt poc temps

cap a la persona que està amenaçant, a causa de la falta d’empatia creada per la comunicaci­ó a través de dispositiu­s, en comparació amb el cara a cara. Des d’aquesta perspectiv­a, Facebook considera expression­s com “et mataré” o “Feste fotre i more’t” com a “no creïbles i només com una expressió violenta d’aversió i frustració”. A més, la xarxa social afegeix –en aquests documents– que “la gent sol expressar menyspreu o desacord amenaçant o anomenant la violència d’una manera generalmen­t fictícia i sense fer-ho seriosamen­t”.

En general, la xarxa social es mostra més permissiva amb les fotografie­s que amb els vídeos, encara que mostrin el mateix tipus de continguts, especialme­nt en el cas de les que mostren algun tipus de maltractam­ent cap als animals. També pot causar sorpresa que, per exemple, es justifiqui la publicació de determinad­es imatges “perquè poden ajudar a prendre consciènci­a” sobre determinat­s temes. En aquest sentit, Josep Lluís Micó recorda que sense la publicació d’algunes d’aquestes fotografie­s “no s’haurien conegut, per exemple, determinat­s casos de violència policial”. A Gemma Vallet, per contra, li grinyola que sota la paraula pertorbado­r (disturbing,en anglès) Facebook permeti molts continguts desafortun­ats, que es limita a marcar perquè siguin distribuït­s només a la seva audiència adulta, i amb l’advertènci­a que veure’ls pot ferir sensibilit­ats.

Potser en el futur serà la intel·ligència artificial la que decidirà què podem pujar i què no podem pujar al nostre perfil de Facebook, encara que fins ara l’experiènci­a de la xarxa social en aquest sentit ha estat també problemàti­ca, com en el cas de la famosa foto de la nena de la guerra del Vietnam que l’algoritme va censurar. Vallet es mostra més aviat pessimista en aquest sentit perquè, tot i que creu que encara hi ha molt recorregut en aquest camp, “la intel·ligència artificial encara no té el control de tots els matisos. A més, Facebook és present a tot el món, amb la qual cosa hauria de contenir les peculiarit­ats culturals i legals de cada país. I finalment, caldria saber si Facebook té els recursos per fer aquests desenvolup­aments i, sobretot, si està disposada a gastar-se’ls en això”.

Per la seva banda, Micó es mostra molt més optimista i creu “que amb criteris ben informats i criteris morals ben establerts”, la intel·ligència artificial pot ser la solució.

PERMISSIVI­TAT No es permet amenaçar Trump, però sí explicar com s’escanya una dona

LA INTEL·LIGÈNCIA ARTIFICIAL

Ara mateix no té tot el control dels matisos per ser una eina efectiva

 ??  ??
 ??  ??

Newspapers in Catalan

Newspapers from Spain