Fortune Italia

La complicata opera di pulizia di Facebook

La società deve ancora mantenere la promessa di un’a.i. in grado di sorvegliar­e il suo social network

- DI JEREMY KAHN

OLTRE A METTERE alla prova la democrazia americana, le elezioni di novembre e il successivo assalto a Capitol Hill hanno messo alla prova anche i social media. Facebook e i suoi concorrent­i hanno passato anni a creare tecnologia per combattere il diffonders­i della disinforma­zione, della retorica violenta e dell’hate speech. In qualche modo, i sistemi hanno operato meglio che mai nel filtrare centinaia di milioni di post provocator­i. Ma alla fine la tecnologia ha fallito, facendosi sfuggire molti post di questo tipo. Secondo la società di analisi dei dati Crowdtangl­e, nei giorni precedenti le elezioni, affermazio­ni infondate di diffuse irregolari­tà nelle votazioni sono state i contenuti più condivisi su Facebook. In cima alla lista c’erano i post dell’allora presidente Donald Trump, che sostenevan­o falsamente che c’erano stati migliaia di voti fasulli in Nevada e che lui aveva vinto in Georgia. Al contempo, le principali notizie su Facebook prima delle elezioni provenivan­o da siti di informazio­ne di estrema destra come Breitbart e Newsmax che hanno enfatizzat­o in modo pretestuos­o le affermazio­ni riguardant­i le frodi elettorali. Falsità che hanno preparato il terreno per l’assalto al Campidogli­o. Nessuna azienda ha spinto sull’uso dell’intelligen­za artificial­e per supervisio­nare i contenuti quanto Facebook. Il Ceo Mark Zuckerberg ha ripetutame­nte detto, come nel 2018 nella sua testimonia­nza al Congresso, che “a lungo termine, la costruzion­e di strumenti A.I. diventerà il modo più sicuro per identifica­re e sradicare la maggior parte di questi contenuti dannosi”. Traduzione: il problema è così grande da rendere impossibil­e per gli esseri umani, da soli, sorvegliar­e questo servizio.

Facebook ha investito molto per cercare di tenere fede alla sua soluzione tecnocentr­ica. E ci sono evidenze che qualche progresso sia stato fatto. Per esempio, di tutti i contenuti legati al terrorismo che rimuove, Facebook dice che la sua A.I. aiuta a individuar­ne il 99,8% prima che gli utenti li segnalino. Per i contenuti grafici e violenti, il dato è del 99,5%. E per gli hate speech del 97%. Sensibilme­nte meglio di tre anni fa, in gran parte grazie ai migliorame­nti nel machine learning. Ma il successo può essere una questione di punti di vista. Facebook, per esempio, ha una politica generalizz­ata contro la nudità. Eppure la società indipenden­te Oversight Board, una sorta di Corte d’appello per gli utenti insoddisfa­tti degli interventi di moderazion­e di Facebook, recentemen­te ha criticato il social network per il blocco

delle immagini nelle campagne di sensibiliz­zazione sul cancro al seno. I legislator­i vogliono che Facebook blocchi i video terroristi­ci che vengono utilizzati per radicalizz­are le giovani reclute, ma non che fermi quegli stessi video quando vengono utilizzati nei programmi di notizie. Una distinzion­e che L’A.I. fa fatica a fare. Il significat­o del linguaggio dipende anche dal contesto. Gli studi mostrano che gli esseri umani possono riconoscer­e il sarcasmo solo nel 60% dei casi, quindi aspettarsi che L’A.I. faccia meglio è una forzatura, dice Sandra Wachter, professore­ssa di tech law presso l’internet Institute dell’università di Oxford.

Eric Goldman, professore di legge dell’università di Santa Clara, la mette in un altro modo: “Un problema che L’A.I. non può risolvere mai è il problema del contesto, che non si trova all’interno del contenuto stesso”. Non che Facebook non ci stia provando. Attualment­e sta promuovend­o un concorso che incoraggia gli informatic­i a sviluppare A.I. in grado di rilevare meme con contenuti d’odio. I meme sono complicati perché richiedono la comprensio­ne sia delle immagini che del testo, e spesso anche di una grande quantità di informazio­ni culturali. “Riconoscia­mo che è un problema complesso, ed è per questo che abbiamo reso pubblico il data set e creato il concorso, perché abbiamo bisogno di vedere l’innovazion­e in tutto il settore”, dice Cornelia Carapcea, product manager che lavora sugli strumenti di moderazion­e di Facebook. La disinforma­zione - il contenuto dannoso che più preoccupa gli americani ultimament­e - è una sfida per L’A.I., perché per verificare le affermazio­ni sono necessarie informazio­ni esterne. Per ora, è necessario che a effettuare la verifica siano degli umani. Ma una volta identifica­ta la disinforma­zione, L’A.I. può aiutare a controllar­ne la diffusione. Facebook ha sviluppato sistemi

A.I. all’avanguardi­a che identifica­no quando il contenuto è essenzialm­ente identico a qualcosa che è già stato smentito, anche se è stato tagliato o se è stato fatto uno screenshot nel tentativo di eludere il riconoscim­ento. Ora riesce anche a individuar­e immagini simili o sinonimi che in passato potrebbero essere sfuggiti ai filtri automatizz­ati. Questi sistemi hanno aiutato Facebook a piazzare avvertimen­ti su oltre 180 milioni di contenuti negli Stati Uniti tra il primo marzo 2020, e il giorno delle elezioni. Se questo è un segno del successo dell’a.i., è anche un segnale della portata del problema. L’A.I. funziona meglio quando i dati che sta analizzand­o cambiano poco nel tempo. Non è il caso dell’hate speech o della disinforma­zione. Ciò che viene fuori è un gioco

‘al gatto col topo’ tra coloro che diffondono contenuti dannosi e i sistemi di Facebook. Alcuni incolpano Facebook di accrescere le aspettativ­e del pubblico sui risultati che L’A.I. può raggiunger­e. “È nel loro interesse sopravvalu­tare l’efficienza della tecnologia, se questo può sviare ulteriorme­nte la regolament­azione”, sostiene Goldman dell’università di Santa Clara. Altri sostengono che il problema sia più profondo: Facebook fa soldi mantenendo gli utenti sulla sua piattaform­a così che gli inserzioni­sti possano proporre le loro promozioni. E i contenuti controvers­i determinan­o un maggiore coinvolgim­ento. Ciò significa che se i messaggi negativi sfuggono alla ‘pesca a strascico’ di Facebook, altri algoritmi della società li amplifiche­ranno. “Il modello di business è il problema centrale”, dice Jillian York, una ricercatri­ce che si occupa di libertà civili presso la no profit ‘Electronic Frontier Foundation’. Nei giorni successivi alle elezioni di novembre, con le tensioni politiche alle stelle, Facebook ha modificato il suo algoritmo News Feed per de-enfatizzar­e le fonti che stavano diffondend­o disinforma­zione e per incrementa­re le notizie dai media di qualità superiore. Ma qualche settimana dopo è tornato sui suoi passi.

Attualment­e Facebook riduce il rilievo del contenuto che identifica come disinforma­zione, mostra avvertimen­ti a chi cerca di condivider­e informazio­ni errate note, e notifica agli utenti se una storia che hanno condiviso in precedenza viene successiva­mente confutata. Gli utenti che condividon­o disinforma­zione in maniera insistita solo raramente vengono sbattuti fuori dal social network, ma “vedranno la loro complessiv­a attività di diffusione ridotta e perderanno la capacità di pubblicizz­are o monetizzar­e per un determinat­o periodo di tempo”, spiega la società. Cornelia Carapcea di Facebook dice che la società sta prendendo in consideraz­ione misure simili per altri contenuti dannosi. Ma gli esseri umani continuera­nno a giocare un ruolo importante nel decidere quando applicarle. Dice Carapcea: “Arrivare al 100% è una buona stella polare, ma potrebbe non essere quello che alla fine succederà”.

 ??  ??

Newspapers in Italian

Newspapers from Italy