FOTO E NOTIZIE FALSE, MISCELA «ESPLOSIVA»
Dobbiamo lasciare che le macchine inondino i canali di informazione con propaganda e falsità? Lo chiedeva Elon Musk nella lettera aperta dello scorso marzo, con cui sollecitava uno stop di sei mesi allo sviluppo dell’intelligenza artificiale. Musk però farebbe bene a porsi altre (e più sincere) domande, se avesse a cuore la lotta alle fake news e, più in generale, la tenuta della democrazia. Il caso della falsa esplosione al Pentagono è diventato un esempio perfetto di rischi già molto attuali. Nel pomeriggio di lunedì su Twitter si diffonde la notizia di un forte scoppio al Pentagono: una foto mostra una colonna di fumo nero accanto al Dipartimento della difesa Usa. La news viene presto rilanciata sui social, soprattutto (ma non solo) da account legati alla propaganda russa e alla galassia complottista. La polizia di Arlington smentisce tutto ma le condivisioni proseguono e la notizia arriva a Wall Street: l’esplosione viene percepita come reale e l’indice S&P 500 inizia a scendere, perdendo 30 punti in pochi minuti. I listini poi recuperano, ma il «flash crash» è costato centinaia di miliardi di capitalizzazione totale. I campanelli d’allarme sono due. Il primo è la capacità dei sistemi di intelligenza artificiale generativa di creare foto false ma verosimili, come nei recenti casi — capaci di ingannare milioni di utenti — di Trump in prigione o del Papa vestito con strani giubbotti. Il secondo aspetto stavolta è anche di maggior rilievo. Per scelta di Musk, la spunta blu su Twitter non accerta più che siamo di fronte a un profilo verificato (un media o un personaggio pubblico). Oggi è solo un «vanity badge», ottenuto pagando. Nel caso della fake news del Pentagono, la fonte iniziale era un account «blu», @BloombergFeed. Nessun legame con la celebre agenzia finanziaria ma abbastanza ben fatto da fare da detonatore per la fake news. Una prova di quanto possa essere micidiale la miscela tra intelligenza artificiale e la disintermediazione senza regole dell’informazione.