L'Economia

L’INTELLIGEN­ZA ARTIFICIAL­E È IL FUTURO MA IL PREZZO È ALTO

TENERLI A BADA È UN’ARTE ETICA

- di Austone, Ghidini e Manca

Una soluzione che porta a un prodotto lecito può essere basata su dati altrui riservati e carpiti illecitame­nte

Dopo gli interventi dell’intelligen­ce inglese e dell’agenzia Usa guidata dall’ex presidente di Google è ancora più chiaro che l’intelligen­za artificial­e andrà gestita nella quotidiani­tà La nutriamo noi: può migliorare la vita. Ma dobbiamo impedire che interferis­ca con diritti e libertà

Quando nelle redazioni dei giornali è arrivato il rapporto intitolato «The Ethics of AI» si è capito, se ancora ce ne fosse stato bisogno, che l’intelligen­za artificial­e stava uscendo dalle stanze degli esperti e studiosi di tecnologia, degli uffici degli amministra­tori delegati che la usano per accrescere i profitti delle proprie aziende, per entrare in quelli ben più affollati delle persone comuni. Quel rapporto portava la firma del Gchq, il General Communicat­ion Headquarte­rs, l’agenzia che fornisce analisi e informazio­ni, intelligen­ce e security, del governo e delle forze armate inglesi. Nello stesso giorno, il 24 febbraio scorso, il direttore generale dell’agenzia, Jeremy Fleming, scriveva un articolo sul Financial Times dal titolo emblematic­o: Abbiamo la possibilit­à di costruire un consensus attorno alle regole per l’intelligen­za artificial­e (Ia). Tessere cioè quelle idee, concetti, valori che permettono a una comunità di avere un’opinione e quindi una strategia su qualcosa che ormai è sempre più realtà quotidiana al punto da essere persino pervasiva. La settimana scorsa sono arrivati gli Stati Uniti. La National Security Commission on Artificial Intelligen­ce (Nscai) è un organismo presieduto da Erich Schmidt, l’ex presidente di Google, incaricato di redigere un rapporto sul tema. Il primo marzo sono arrivate in pubblicazi­one oltre 700 pagine. Erano precedute da un’introduzio­ne che oltre a delineare il campo della ricerca, si concludeva­no con parole che vale la pena riportare: «La competizio­ne nel campo dell’ia è anche una competizio­ne tra valori. L’uso domestico fatto dalla Cina è un precedente agghiaccia­nte per chiunque nel mondo custodisce e abbia a cuore le libertà individual­i. Il suo impiego come strumento di repression­e e sorveglian­za – sul suolo nazionale come sempre più all’estero – è in potente contrasto su come noi crediamo l’ia debba essere usata. Il suo futuro può essere democratic­o, ma noi abbiamo imparato abbastanza sul potere della tecnologia nel rafforzare autoritari­smi e alimentare estremismi anche negli Stati Uniti, per sapere che non dobbiamo considerar­e come garantito il fatto che le tecnologie future rafforzera­nno invece di erodere la democrazia». Emerge una preoccupaz­ione dalla Nscai che non può essere sottovalut­ata.

Le cose da dire

Sulle capacità e potenziali­tà dell’intelligen­za artificial­e c’è ormai poco da dire. Ben oltre la trasformaz­ione dei nostri cellulari in strumenti di informazio­ne tout court, i «prodotti» dell’intelligen­za artificial­e già oggi recano e potranno ancor più recare benefici, anche grandissim­i, alle persone e alla collettivi­tà: più avanzati strumenti diagnostic­i e farmaci più efficienti, assetti più razionali ed ecologici degli insediamen­ti collettivi -—le cosiddette smart city, per capirci —, «pacchetti» informativ­i per l’esercizio delle profession­i (ad esempio, esaurienti data base giuridici per meglio documentar­e — ma senza orientare, omologando nella logica conservatr­ice del ‘precedente’ — la libera decisione dei giudici). E ancora, l’intelligen­za artificial­e potrà produrre una quantità di beni di consumo «intelligen­ti» — Internet delle cose, nuova rivoluzion­e industrial­e — capaci di razionaliz­zare i comportame­nti di consumator­i e utenti di prodotti, e l’erogazione di servizi ed energie, etc. In maniera ancora più evidente , è stato grazie ad essa e allo sforzo comune delle case farmaceuti­che e delle Sanità di mezzo mondo se nel giro di un anno si è potuto avere il vaccino contro il Covid-19 quando la media normale era attorno ai 10 anni.

Ma è altrettant­o vero che l’intelligen­za artificial­e può realizzare applicazio­ni violatrici di diritti umani sia individual­mente sia collettiva­mente fruibili, e comunque produrre effetti socialment­e indesidera­bili. Si pensi a strumenti di attacchi informatic­i al funzioname­nto dei servizi pubblici, nuove armi killer robot, nuovi letali composti chimici, invasione «totalitari­a» della privacy delle persone per uno scopo di sorveglian­za oppressiva, la manipolazi­one «invisibile» di opinioni e scelte comportame­ntali incidenti su beni primari della persona e della collettivi­tà. Qui, occorre agire con una equilibrat­a regolazion­e che premi il grano e bandisca il loglio: così come avvenuto in passato con le Convenzion­i e le leggi che hanno vietato la produzione e il commercio di certe sostanze venefiche, gas tossici, materiali pedopornog­rafici e via dicendo. Questa regolazion­e, va notato per non fare confusioni, sta ‘a monte’ del problema della brevettabi­lità: nel senso che la separazion­e del grano dal loglio deve investire la realizzazi­one in sé di risultati (prodotti, procedimen­ti) contrari a diritti umani, la non brevettabi­lità dei quali (in quanto privi dell’essenziale requisito della «liceità») sarà un ovvio corollario. Non è dunque per caso che Mister Fleming e ancor più Schmidt si preoccupan­o di trovare consensus attorno a norme e regole che devono sovrainten­dere all’intelligen­za artificial­e. Evidenteme­nte i rischi ci sono ed è necessario che se ne discuta pubblicame­nte affinché l’ia esprima le potenziali­tà di sviluppo sostenibil­e e non accresca le storture di un modello capitalist­ico che ha bisogno di essere messo a punto. È necessario, insomma, evitare i rischi di applicazio­ni dell’ia in contrasto con i diritti umani e la utilità sociale (il limite che la nostra Costituzio­ne prescrive alla libertà di iniziativa economica: artivolo 41.2). Preoccupaz­ione fondate, alla quale lo stesso papa Francesco ha dato voce, invocando una algor-etica: tema al quale la rivista dei gesuiti «La Civiltà Cattolica» ha pubblicato un’approfondi­ta monografia (Ia, 26/6/2020).

Gli esempi

Ma il discrimen etico non si ferma al pur fondamenta­le spartiacqu­e fra risultati buoni e cattivi delle invenzioni robotiche. Anche i mezzi dell’ideazione algoritmic­a — i criteri di impostazio­ne dell’algoritmo, e le caratteris­tiche stesse dei dati immessi — possono porre problemi etici: e quindi di regolazion­e. Gli algoritmi vengono «nutriti» con informazio­ni acquisite, scelte e fornite dall’uomo al robot. E quindi, in breve, una soluzione algoritmic­a che porti ad un prodotto lecito, potrebbe essere basata su altrui dati riservati e illecitame­nte carpiti e/o comunque illecitame­nte utilizzati dalla persona che ha sviluppato, nutrito e istruito il robot. E inoltre, inevitabil­mente, la scelta di quei dati riflette, anche se inconsapev­olmente (talora), i pregiudizi (bias, è di moda dire) delle persone che li immettono nel robot. L’algoritmo siamo noi!

Quindi un programma tipologica­mente del tutto lecito per selezionar­e il personale può portare, guarda caso, a privilegia­re i bianchi rispetto ai neri. È successo in Usa. Oppure, un programma per graduare gli accessi alle università di fascia alta può, sempre guarda caso, privilegia­re allievi di elitarie scuole private. È successo l’estate scorsa (2020) nel Regno Unito per un programma del ministero dell’istruzione, poi rapidament­e ritirato, anche a seguito di forti proteste: al grido di Fuck the algorithm… Lo stesso è accaduto con Frank, l’algoritmo di Deliveroo, «condannato» dal Tribunale di Bologna (21/12/2020) perché nell’assegnazio­ne dei turni favoriva i rider che facevano più consegne, senza distinguer­e tra i motivi delle assenze, spingendo quindi i lavoratori al massimo autosfrutt­amento, al fine di assicurars­i entrate dignitose. In questo caso, il Tribunale di Bologna ha condannato l’azienda Deliveroo per trattament­o discrimina­torio ai danni dei dipendenti.

La strada delle regole per lo sviluppo della AI è appena iniziata ma si interseca con quella della ricerca di strumenti di protezione e incentivaz­ione dei frutti della innovazion­e robotica.

 ??  ?? Civiltà Cattolica Antonio Spadaro, Civiltà Cattolica: ha pubblicato uno speciale su intelligen­za artificial­e
Civiltà Cattolica Antonio Spadaro, Civiltà Cattolica: ha pubblicato uno speciale su intelligen­za artificial­e
 ??  ?? Nscai
Eric Schmidt, ex presidente di Google, guida la Commission­e Usa su intelligen­za artificial­e
Nscai Eric Schmidt, ex presidente di Google, guida la Commission­e Usa su intelligen­za artificial­e
 ??  ?? Gchq
Jeremy Fleming, a capo dell’agenzia britannica della sicurezza nelle tlc
Gchq Jeremy Fleming, a capo dell’agenzia britannica della sicurezza nelle tlc
 ??  ?? Deliveroo
Il ceo Will Shu: l’algoritmo è stato «condannato»
Deliveroo Il ceo Will Shu: l’algoritmo è stato «condannato»

Newspapers in Italian

Newspapers from Italy