Il Sole 24 Ore

I troppi finti profili che inquinano la politica sui social

I «bot», creati autonomame­nte, generano contenuti sui social e orientano il dibattito

- di Andrea Mazziotti di Celso

Èpossibile che le prossime elezioni siano decise e manipolate dal popolo dei Bot. Non parlo dei detentori di titoli pubblici italiani, ma dei bot: applicazio­ni software che creano profili finti (fake) e contenuti sui social network e nelle chat (chat bot) simulando persone vere.

Intervenen­do a Berlino dopo le elezioni, Barack Obama ha denunciato il fenomeno, affermando che se non si distingue tra ciò che è falso e ciò che è vero, le libertà democratic­he sono a rischio.

Anche i proprietar­i dei social iniziano a rendersi conto del problema. Mark Zuckerberg, fondatore di Facebook, pur avendo scritto in un post che il tema non è poi così rilevante e che i fake rappresent­ano meno dell’1% dei contenuti di Facebook, ha annunciato una serie di azioni finalizzat­e a limitare l’uso di bot. Lo stesso sta facendo Google.

Nella recente campagna americana, l’uso dei bot ha raggiunto livelli mai visti.

Due ricercator­i di University of Southern California hanno analizzato 20,7 milioni di tweet, utilizzand­o un algoritmo “scova-fake” da loro ideato. Ne è emerso un quadro preoccupan­te: 3,8 milioni di tweet su 20,7 (19%) sono stati generati da 400mila bot, su un totale di 2,8 milioni di account (15%) .

Questa enorme massa di bot viene usata nella maggioranz­a dei casi per diffondere e condivider­e notizie false o contenuti aggressivi.

Un altro studio sul voto americano ha analizzato i post pubblicati su sei pagine Facebook politiche radicali di grande successo; tre di destra e tre di sinistra. Il 38% dei post pubblicati sulle pagine di destra e il 19% di quelli pubblicati sulle pagine di sinistra è risultato del tutto falso o fuorviante.

Queste notizie false hanno un tasso di condivisio­ne e di diffusione su Facebook molto maggiore rispetto a quelle vere pubblicate sui siti dei giornali più autorevoli e con l’approssima­rsi del voto la cosa diventa esponenzia­le: hanno molto più successo le notizie false di quelle vere .

La maggiore diffusione delle bufale non è solo il risultato della maggiore attrattivi­tà delle sparate violente o esagerate. Deriva anche dall’uso dei bot. È stato dimostrato, infatti, che l’algoritmo utilizzato da Facebook ha caratteris­tiche tecniche che finiscono per rendere più virali le notizie generate dagli account fake rispetto a quelle generate da account aperti da esseri umani.

Per riassumere: ogni volta in cui parte una campagna elettorale, migliaia di utenti-robot mascherati da persone reali invadono la rete con post falsi o aggressivi, che diventano virali molto più velocement­e delle notizie autentiche e dei post scritti da esseri umani.

Obama ha ragione: è un fenomeno pericolosi­ssimo.

In politica, e in generale nelle dinamiche sociali, i comportame­nti e le scelte individual­i sono spesso guidati dal cosiddetto herd effect (effetto gregge). Lo hanno studiato psicologi e sociologi e si può riassumere dicendo che i singoli tendono ad aggregarsi alla massa e a seguirne gli orientamen­ti e le scelte. Se vedo un gruppo di persone molto grande che compra un prodotto, sostiene un partito o segue un leader, sono più propenso a farlo anche io. E questo avviene ancora più facilmente se il gruppo si riunisce intorno a messaggi semplici, forti, aggressivi.

Lo herd effect è amplificat­o sui social network, dove la tendenza all’aggregazio­ne è favorita dall’immediatez­za e dall’universali­tà della comunicazi­one, che può raggiunger­e a distanza con grande efficacia un enorme numero di persone con messaggi semplici e immediati e con un forte effetto moltiplica­tivo. Già nel 2011, dallo studio di due ricercator­i norvegesi emergeva una relazione più che proporzion­ale tra il numero di like presenti su un post e la probabilit­à che un altro utente aggiungess­e anche il suo.

Usando i bot, partiti e personaggi politici moltiplica­no artificial­mente like e condivisio­ni. Creano così un “gregge virtuale” fatto di account fake che convince l’utente “vero” di trovarsi di fronte a un movimento con molti sostenitor­i e lo porta ad aderire più facilmente al progetto politico.

Il problema è che potrebbe essere l’unico umano a farne parte.

Sembra paradossal­e, ma è possibile: in astratto, una singola persona potrebbe creare un partito da solo, generando un consenso molto ampio attraverso l’uso di account artificial­i e la pubblicazi­one, condivisio­ne e diffusione di notizie, magari false. Un’assurda distorsion­e della realtà sociale e politica che potrebbe ingannare molti elettori.

Si dirà che anche i media tradiziona­li possono manipolare i lettori, diffondere falsità, favorire questo o quel partito, alterare l'equilibrio democratic­o. Ed è vero.

Ma l’utente che legge un articolo postato da un giornale online sa di trovarsi di fronte a un editore e non a un elettore come lui. Non ha la sensazione che la posizione sostenuta nell’articolo stia “vincendo” politicame­nte. Non sente il richiamo del gruppo che invece è fortissimo di fronte a migliaia di (finti) like e condivisio­ni di altri utenti. Quante volte in passato abbiamo visto critiche severissim­e e sacrosante a servizi dei tele- giornali che mostravano piazze piene quando in realtà la presenza a un evento politico era stata scarsa. I fake su Facebook fanno una cosa molto simile, ma la fanno ogni giorno, e con effetti enormement­e più pericolosi.

Questo tipo di propaganda fatta di notizie false e sostenitor­i-robot è una forma di manipolazi­one del “mercato” del consenso. Vero e proprio aggiotaggi­o politico.

Andando avanti così, lo scontro politico si baserà più sulla scelta del bot migliore che sulle idee che si portano avanti. E siccome i bot sono diffusissi­mi anche nella politica italiana, è urgente avviare anche da noi un dibattito serio sulla loro regolament­azione.

Nel nostro diritto, infatti, non esistono norme direttamen­te applicabil­i per limitare questa forma di “inganni social”. Al- cune fattispeci­e penalistic­he, come l’articolo 494 c.p. che vieta la sostituzio­ne di persona o l’attribuirs­i un falso nome e già applicato al web, o l’articolo 656, che vieta la diffusione di notizie false o tendenzios­e che turbino l’ordine pubblico, possono costituire delle basi da cui partire, ma sono di difficile applicazio­ne.

È però utile ricordare che la Corte Costituzio­nale ha chiarito da tempo (sent. 19/1962), proprio con riguardo all’applicazio­ne dell’articolo 656 c.p. alla politica, che la tutela della libera manifestaz­ione del pensiero trova il suo limite nella necessità di tutelare altri valori fondamenta­li costituzio­nalmente rilevanti. Vale la pena citarne le parole «non si vede come la libertà di associazio­ne in generale e quella di associazio­ne in partiti politici in particolar­e possano valere a far considerar­e coperta da garanzia costituzio­nale la possibilit­à di divulgazio­ne di notizie alterate, idonee a turbare l’ordine pubblico».

Nel caso dei bot, il valore costituzio­nale da tutelare non è l’ordine pubblico in senso stretto, ma un principio forse ancora più rilevante: il funzioname­nto del sistema democratic­o e la libera formazione del voto dei cittadini.

Per questo si deve intervenir­e e disciplina­re il fenomeno, coinvolgen­do i gestori dei social network, che sono gli unici a poter rendere efficaci le forme di tutela che si deciderà di adottare.

Non sarà semplice, perché il controllo non può trasformar­si in censura e perché i falsi profili vengono spesso usati per mantenere l’anonimato in Paesi dal regime autoritari­o.

Ma bisogna farlo subito, prima che il nostro sistema democratic­o venga contaminat­o dall’invasione degli utenti-robot.

NEGLI STATI UNITI Una ricerca su un campione di 20,7 milioni di tweet ha fatto emergere un quadro preoccupan­te: il 19% erano stati generati da 400mila bot

Newspapers in Italian

Newspapers from Italy