L’INTELLIGENZA ARTIFICIALE È IL FUTURO MA IL PREZZO È ALTO
TENERLI A BADA È UN’ARTE ETICA
Una soluzione che porta a un prodotto lecito può essere basata su dati altrui riservati e carpiti illecitamente
Dopo gli interventi dell’intelligence inglese e dell’agenzia Usa guidata dall’ex presidente di Google è ancora più chiaro che l’intelligenza artificiale andrà gestita nella quotidianità La nutriamo noi: può migliorare la vita. Ma dobbiamo impedire che interferisca con diritti e libertà
Quando nelle redazioni dei giornali è arrivato il rapporto intitolato «The Ethics of AI» si è capito, se ancora ce ne fosse stato bisogno, che l’intelligenza artificiale stava uscendo dalle stanze degli esperti e studiosi di tecnologia, degli uffici degli amministratori delegati che la usano per accrescere i profitti delle proprie aziende, per entrare in quelli ben più affollati delle persone comuni. Quel rapporto portava la firma del Gchq, il General Communication Headquarters, l’agenzia che fornisce analisi e informazioni, intelligence e security, del governo e delle forze armate inglesi. Nello stesso giorno, il 24 febbraio scorso, il direttore generale dell’agenzia, Jeremy Fleming, scriveva un articolo sul Financial Times dal titolo emblematico: Abbiamo la possibilità di costruire un consensus attorno alle regole per l’intelligenza artificiale (Ia). Tessere cioè quelle idee, concetti, valori che permettono a una comunità di avere un’opinione e quindi una strategia su qualcosa che ormai è sempre più realtà quotidiana al punto da essere persino pervasiva. La settimana scorsa sono arrivati gli Stati Uniti. La National Security Commission on Artificial Intelligence (Nscai) è un organismo presieduto da Erich Schmidt, l’ex presidente di Google, incaricato di redigere un rapporto sul tema. Il primo marzo sono arrivate in pubblicazione oltre 700 pagine. Erano precedute da un’introduzione che oltre a delineare il campo della ricerca, si concludevano con parole che vale la pena riportare: «La competizione nel campo dell’ia è anche una competizione tra valori. L’uso domestico fatto dalla Cina è un precedente agghiacciante per chiunque nel mondo custodisce e abbia a cuore le libertà individuali. Il suo impiego come strumento di repressione e sorveglianza – sul suolo nazionale come sempre più all’estero – è in potente contrasto su come noi crediamo l’ia debba essere usata. Il suo futuro può essere democratico, ma noi abbiamo imparato abbastanza sul potere della tecnologia nel rafforzare autoritarismi e alimentare estremismi anche negli Stati Uniti, per sapere che non dobbiamo considerare come garantito il fatto che le tecnologie future rafforzeranno invece di erodere la democrazia». Emerge una preoccupazione dalla Nscai che non può essere sottovalutata.
Le cose da dire
Sulle capacità e potenzialità dell’intelligenza artificiale c’è ormai poco da dire. Ben oltre la trasformazione dei nostri cellulari in strumenti di informazione tout court, i «prodotti» dell’intelligenza artificiale già oggi recano e potranno ancor più recare benefici, anche grandissimi, alle persone e alla collettività: più avanzati strumenti diagnostici e farmaci più efficienti, assetti più razionali ed ecologici degli insediamenti collettivi -—le cosiddette smart city, per capirci —, «pacchetti» informativi per l’esercizio delle professioni (ad esempio, esaurienti data base giuridici per meglio documentare — ma senza orientare, omologando nella logica conservatrice del ‘precedente’ — la libera decisione dei giudici). E ancora, l’intelligenza artificiale potrà produrre una quantità di beni di consumo «intelligenti» — Internet delle cose, nuova rivoluzione industriale — capaci di razionalizzare i comportamenti di consumatori e utenti di prodotti, e l’erogazione di servizi ed energie, etc. In maniera ancora più evidente , è stato grazie ad essa e allo sforzo comune delle case farmaceutiche e delle Sanità di mezzo mondo se nel giro di un anno si è potuto avere il vaccino contro il Covid-19 quando la media normale era attorno ai 10 anni.
Ma è altrettanto vero che l’intelligenza artificiale può realizzare applicazioni violatrici di diritti umani sia individualmente sia collettivamente fruibili, e comunque produrre effetti socialmente indesiderabili. Si pensi a strumenti di attacchi informatici al funzionamento dei servizi pubblici, nuove armi killer robot, nuovi letali composti chimici, invasione «totalitaria» della privacy delle persone per uno scopo di sorveglianza oppressiva, la manipolazione «invisibile» di opinioni e scelte comportamentali incidenti su beni primari della persona e della collettività. Qui, occorre agire con una equilibrata regolazione che premi il grano e bandisca il loglio: così come avvenuto in passato con le Convenzioni e le leggi che hanno vietato la produzione e il commercio di certe sostanze venefiche, gas tossici, materiali pedopornografici e via dicendo. Questa regolazione, va notato per non fare confusioni, sta ‘a monte’ del problema della brevettabilità: nel senso che la separazione del grano dal loglio deve investire la realizzazione in sé di risultati (prodotti, procedimenti) contrari a diritti umani, la non brevettabilità dei quali (in quanto privi dell’essenziale requisito della «liceità») sarà un ovvio corollario. Non è dunque per caso che Mister Fleming e ancor più Schmidt si preoccupano di trovare consensus attorno a norme e regole che devono sovraintendere all’intelligenza artificiale. Evidentemente i rischi ci sono ed è necessario che se ne discuta pubblicamente affinché l’ia esprima le potenzialità di sviluppo sostenibile e non accresca le storture di un modello capitalistico che ha bisogno di essere messo a punto. È necessario, insomma, evitare i rischi di applicazioni dell’ia in contrasto con i diritti umani e la utilità sociale (il limite che la nostra Costituzione prescrive alla libertà di iniziativa economica: artivolo 41.2). Preoccupazione fondate, alla quale lo stesso papa Francesco ha dato voce, invocando una algor-etica: tema al quale la rivista dei gesuiti «La Civiltà Cattolica» ha pubblicato un’approfondita monografia (Ia, 26/6/2020).
Gli esempi
Ma il discrimen etico non si ferma al pur fondamentale spartiacque fra risultati buoni e cattivi delle invenzioni robotiche. Anche i mezzi dell’ideazione algoritmica — i criteri di impostazione dell’algoritmo, e le caratteristiche stesse dei dati immessi — possono porre problemi etici: e quindi di regolazione. Gli algoritmi vengono «nutriti» con informazioni acquisite, scelte e fornite dall’uomo al robot. E quindi, in breve, una soluzione algoritmica che porti ad un prodotto lecito, potrebbe essere basata su altrui dati riservati e illecitamente carpiti e/o comunque illecitamente utilizzati dalla persona che ha sviluppato, nutrito e istruito il robot. E inoltre, inevitabilmente, la scelta di quei dati riflette, anche se inconsapevolmente (talora), i pregiudizi (bias, è di moda dire) delle persone che li immettono nel robot. L’algoritmo siamo noi!
Quindi un programma tipologicamente del tutto lecito per selezionare il personale può portare, guarda caso, a privilegiare i bianchi rispetto ai neri. È successo in Usa. Oppure, un programma per graduare gli accessi alle università di fascia alta può, sempre guarda caso, privilegiare allievi di elitarie scuole private. È successo l’estate scorsa (2020) nel Regno Unito per un programma del ministero dell’istruzione, poi rapidamente ritirato, anche a seguito di forti proteste: al grido di Fuck the algorithm… Lo stesso è accaduto con Frank, l’algoritmo di Deliveroo, «condannato» dal Tribunale di Bologna (21/12/2020) perché nell’assegnazione dei turni favoriva i rider che facevano più consegne, senza distinguere tra i motivi delle assenze, spingendo quindi i lavoratori al massimo autosfruttamento, al fine di assicurarsi entrate dignitose. In questo caso, il Tribunale di Bologna ha condannato l’azienda Deliveroo per trattamento discriminatorio ai danni dei dipendenti.
La strada delle regole per lo sviluppo della AI è appena iniziata ma si interseca con quella della ricerca di strumenti di protezione e incentivazione dei frutti della innovazione robotica.