“Tom Tom e auto pilota, quasi quasi divento luddista”
I grandi limiti dei robot stanno nei pregiudizi di chi li programma
Cronaca vera. La macchina – intesa come automobile – mi ha corretto una curva. Ok, forse andavo forte, forse l’ho presa larga, ma sta di fatto: il volante ha dato una piccola sterzata, da solo, e mi ha rimesso in corsia. Non è uscita sul display la scritta “Coglione, stai più attento”, ma mi sono offeso lo stesso. Come si permette un ammasso di lamiera di...?
E quindi, eccomi alle prese con la Grande Sfida del Futuro, cioè, dovrei essere una specie di neoluddista contrario al “progresso”, oppure farmi dirigere da alcune decine di sensori, algoritmi, formule e chip che decidono per me?
Ah, fosse solo la curva sbagliata!
Prevengo le critiche, e anzi già mi dichiaro d’a cc or do : basta digitare su un motore di ricerca (che già di suo è un’intelligenza artificiale) le parole “intelligenza artificiale”, per capire che non solo non potremo farne a meno, ma che sarà una forma di intelligenza molto pervasiva. La medicina, la prevenzione, le diagnosi e tutto quello che richiede calcoli lunghi e complessi, sarà svolto dalle macchine. Per esempio, è grazie a un’applic azione dell’ai di Alphafold (sviluppata dalla Deepmind, un’azienda di Google) che possiamo conoscere la struttura delle proteine, sapere come si posizionano gli amminoacidi, mappare i genomi delle specie viventi: con l’intelligenza nostra, quella naturale, ci metteremmo secoli.
Molto bene: non è una cosa che serve solo a giocare a scacchi con computer.
Le macchine impareranno dalle macchine, si faranno un’esperienza, insomma, in modo da evitare errori già fatti (sì, sì, ho letto Asimov, grazie). Lo dico subito, quindi, niente luddismo, semmai un po’ di prudenza, ecco, questo sì. E anche certe domande da perditempo militante: quando abbiamo scoperto il fuoco sono stati più numerosi i grandi ustionati o quelli che sono sopravvissuti alle tigri dai denti a sciabola piazzando un falò davanti alla grotta?
Ah, saperlo.
Sì, certo, dà un po’ fastidio la retorica.
Quando un politico vuole sembrare à la page, parla di Intelligenza Artificiale (si direbbe che escluda la sua) e c’è il rischio che si finisca a spiegare tutto senza spiegare niente. Eppure ci sono anche politici preoccupati, per esempio quelli della Commissione Ue per la regolamentazione delle tecnologie digitali, che parla di rischi “inacce ttabili” e di situazioni ad “alto rischio”.
Per dirne una, il social scoring, cioè un sistema che può monitorare i cittadini e il loro grado di affidabilità, così come le indagini predittive in tema di criminalità (Dubai si vanta di sperimentazioni avanzate): cioè la polizia non arriva dopo il reato, ma sa già prima che potresti compierlo. L’algoritmo garantista, invece, non esiste ancora.
Non vorrei passare per antiquato, ecco, però l’intelligenza Artificiale che entra nel campo delle emozioni umane fa un po’ paura, diciamolo. C’è quella della Canon Information Technology di Pechino, per dire, che individua il grado di felicità (ehm…) dei dipendenti: telecamere che attraverso la lettura e l’elaborazione di gesti, espressioni, sorrisi, capisce se sei contento di lavorare oppure no. L’algoritmo Cogito (sistema americano) riconosce il grado di stress nei lavoratori (dal tono di voce, dai gesti e dalle espressioni facciali), e un altro sistema (Compass) suggerisce a quali detenuti si possono dare benefici, tipo la semilibertà, e a quali no.
Insomma, il controllo delle emozioni è il prossimo passo, dopo quello (già compiuto) del riconoscimento facciale di massa (la Cina è accusata di usarlo per riconoscere gli uiguri, minoranza oppressa).
Tranquilli, non ci verrà chiesto se fidarci o no, anche se la Ue lavora a limitazioni e controllo dei rischi (la proposta di regolamento europeo è dell’aprile 2021, qualche mese fa), sapete come vanno queste cose: se una porcata è tecnicamente possibile, la si farà, è più forte di noi. E anzi già si fa in abbondanza, basta pensare ai fattorini impiegati, pagati (e licenziati) con un’app.
Dunque, uno dei limiti dell’intelligenza Artificiale è che spesso riflette i pregiudizi di chi la progetta, e questo è un piccolo problemino. I ricercatori del Georgia Institute of Technology, per esempio, si sono concentrati sulle capacità degli algoritmi che governano le automobili a guida autonoma. Risultato: in caso di pedoni con la pelle scura l’accuratezza è stata minore del cinque per cento. Bisogna stare molto attenti, o si produrranno auto che piaceranno a Salvini e al Ku Klux Klan.
Niente di nuovo: già nel 2018 la Reut ers denunciò che l’algoritmo di recruting di alcune aziende era inquinato da un pregiudizio che discriminava le donne (vi lascio immaginare un algoritmo inventato dai talebani). Questa è la grande sfida che ci aspetta (una delle), e quindi conviene stare in campana per i prossimi, diciamo due o trecento anni, ecco.
Comunque vorrei rassicurare tutti, specie i parenti: alla fine mi sono rilassato e ho smesso di essere offeso con la macchina, intesa come automobile (soprattutto pensando a quanto l’ho pagata), ho rallentato un po’ e sono arrivato vivo. Bene, no?