La complicata opera di pulizia di Facebook
La società deve ancora mantenere la promessa di un’a.i. in grado di sorvegliare il suo social network
OLTRE A METTERE alla prova la democrazia americana, le elezioni di novembre e il successivo assalto a Capitol Hill hanno messo alla prova anche i social media. Facebook e i suoi concorrenti hanno passato anni a creare tecnologia per combattere il diffondersi della disinformazione, della retorica violenta e dell’hate speech. In qualche modo, i sistemi hanno operato meglio che mai nel filtrare centinaia di milioni di post provocatori. Ma alla fine la tecnologia ha fallito, facendosi sfuggire molti post di questo tipo. Secondo la società di analisi dei dati Crowdtangle, nei giorni precedenti le elezioni, affermazioni infondate di diffuse irregolarità nelle votazioni sono state i contenuti più condivisi su Facebook. In cima alla lista c’erano i post dell’allora presidente Donald Trump, che sostenevano falsamente che c’erano stati migliaia di voti fasulli in Nevada e che lui aveva vinto in Georgia. Al contempo, le principali notizie su Facebook prima delle elezioni provenivano da siti di informazione di estrema destra come Breitbart e Newsmax che hanno enfatizzato in modo pretestuoso le affermazioni riguardanti le frodi elettorali. Falsità che hanno preparato il terreno per l’assalto al Campidoglio. Nessuna azienda ha spinto sull’uso dell’intelligenza artificiale per supervisionare i contenuti quanto Facebook. Il Ceo Mark Zuckerberg ha ripetutamente detto, come nel 2018 nella sua testimonianza al Congresso, che “a lungo termine, la costruzione di strumenti A.I. diventerà il modo più sicuro per identificare e sradicare la maggior parte di questi contenuti dannosi”. Traduzione: il problema è così grande da rendere impossibile per gli esseri umani, da soli, sorvegliare questo servizio.
Facebook ha investito molto per cercare di tenere fede alla sua soluzione tecnocentrica. E ci sono evidenze che qualche progresso sia stato fatto. Per esempio, di tutti i contenuti legati al terrorismo che rimuove, Facebook dice che la sua A.I. aiuta a individuarne il 99,8% prima che gli utenti li segnalino. Per i contenuti grafici e violenti, il dato è del 99,5%. E per gli hate speech del 97%. Sensibilmente meglio di tre anni fa, in gran parte grazie ai miglioramenti nel machine learning. Ma il successo può essere una questione di punti di vista. Facebook, per esempio, ha una politica generalizzata contro la nudità. Eppure la società indipendente Oversight Board, una sorta di Corte d’appello per gli utenti insoddisfatti degli interventi di moderazione di Facebook, recentemente ha criticato il social network per il blocco
delle immagini nelle campagne di sensibilizzazione sul cancro al seno. I legislatori vogliono che Facebook blocchi i video terroristici che vengono utilizzati per radicalizzare le giovani reclute, ma non che fermi quegli stessi video quando vengono utilizzati nei programmi di notizie. Una distinzione che L’A.I. fa fatica a fare. Il significato del linguaggio dipende anche dal contesto. Gli studi mostrano che gli esseri umani possono riconoscere il sarcasmo solo nel 60% dei casi, quindi aspettarsi che L’A.I. faccia meglio è una forzatura, dice Sandra Wachter, professoressa di tech law presso l’internet Institute dell’università di Oxford.
Eric Goldman, professore di legge dell’università di Santa Clara, la mette in un altro modo: “Un problema che L’A.I. non può risolvere mai è il problema del contesto, che non si trova all’interno del contenuto stesso”. Non che Facebook non ci stia provando. Attualmente sta promuovendo un concorso che incoraggia gli informatici a sviluppare A.I. in grado di rilevare meme con contenuti d’odio. I meme sono complicati perché richiedono la comprensione sia delle immagini che del testo, e spesso anche di una grande quantità di informazioni culturali. “Riconosciamo che è un problema complesso, ed è per questo che abbiamo reso pubblico il data set e creato il concorso, perché abbiamo bisogno di vedere l’innovazione in tutto il settore”, dice Cornelia Carapcea, product manager che lavora sugli strumenti di moderazione di Facebook. La disinformazione - il contenuto dannoso che più preoccupa gli americani ultimamente - è una sfida per L’A.I., perché per verificare le affermazioni sono necessarie informazioni esterne. Per ora, è necessario che a effettuare la verifica siano degli umani. Ma una volta identificata la disinformazione, L’A.I. può aiutare a controllarne la diffusione. Facebook ha sviluppato sistemi
A.I. all’avanguardia che identificano quando il contenuto è essenzialmente identico a qualcosa che è già stato smentito, anche se è stato tagliato o se è stato fatto uno screenshot nel tentativo di eludere il riconoscimento. Ora riesce anche a individuare immagini simili o sinonimi che in passato potrebbero essere sfuggiti ai filtri automatizzati. Questi sistemi hanno aiutato Facebook a piazzare avvertimenti su oltre 180 milioni di contenuti negli Stati Uniti tra il primo marzo 2020, e il giorno delle elezioni. Se questo è un segno del successo dell’a.i., è anche un segnale della portata del problema. L’A.I. funziona meglio quando i dati che sta analizzando cambiano poco nel tempo. Non è il caso dell’hate speech o della disinformazione. Ciò che viene fuori è un gioco
‘al gatto col topo’ tra coloro che diffondono contenuti dannosi e i sistemi di Facebook. Alcuni incolpano Facebook di accrescere le aspettative del pubblico sui risultati che L’A.I. può raggiungere. “È nel loro interesse sopravvalutare l’efficienza della tecnologia, se questo può sviare ulteriormente la regolamentazione”, sostiene Goldman dell’università di Santa Clara. Altri sostengono che il problema sia più profondo: Facebook fa soldi mantenendo gli utenti sulla sua piattaforma così che gli inserzionisti possano proporre le loro promozioni. E i contenuti controversi determinano un maggiore coinvolgimento. Ciò significa che se i messaggi negativi sfuggono alla ‘pesca a strascico’ di Facebook, altri algoritmi della società li amplificheranno. “Il modello di business è il problema centrale”, dice Jillian York, una ricercatrice che si occupa di libertà civili presso la no profit ‘Electronic Frontier Foundation’. Nei giorni successivi alle elezioni di novembre, con le tensioni politiche alle stelle, Facebook ha modificato il suo algoritmo News Feed per de-enfatizzare le fonti che stavano diffondendo disinformazione e per incrementare le notizie dai media di qualità superiore. Ma qualche settimana dopo è tornato sui suoi passi.
Attualmente Facebook riduce il rilievo del contenuto che identifica come disinformazione, mostra avvertimenti a chi cerca di condividere informazioni errate note, e notifica agli utenti se una storia che hanno condiviso in precedenza viene successivamente confutata. Gli utenti che condividono disinformazione in maniera insistita solo raramente vengono sbattuti fuori dal social network, ma “vedranno la loro complessiva attività di diffusione ridotta e perderanno la capacità di pubblicizzare o monetizzare per un determinato periodo di tempo”, spiega la società. Cornelia Carapcea di Facebook dice che la società sta prendendo in considerazione misure simili per altri contenuti dannosi. Ma gli esseri umani continueranno a giocare un ruolo importante nel decidere quando applicarle. Dice Carapcea: “Arrivare al 100% è una buona stella polare, ma potrebbe non essere quello che alla fine succederà”.