L’etica dopo l’intelligenza
Le automobili sono ormai in grado di guidarsi da sole e gli accorgimenti tecnologici hanno permesso di aumentare la sicurezza degli occupanti e dei pedoni. Cosa succederebbe però se l’intelligenza artificiale dell’auto dovesse prendere una decisione moral
La vostra risposta sarà ‘gatto’, ma non sarà facile da dare. Perché la domanda che sta per arrivare è una di quelle difficili. Immaginate: siete seduti sulla vostra auto e avete innestato la guida autonoma quando improvvisamente vi si parano di fronte un gatto e un’anziana donna. Impossibile evitare l’impatto, per cui le tre scelte che rimangono al pilota automatico sono: investire l’anziana, investire il gatto, buttare l’auto fuori strada uccidendo così gli occupanti della vettura, compreso voi. Cosa vorreste che la vostra auto facesse? La probabilità che abbiate detto ‘gatto’ è alta. A dirlo è uno studio avviato nel 2014 dal Massachusetts Institute of Technology i cui risultati sono stati pubblicati di recente sulla rivista ‘Nature’. Un’indagine che ha preso in esame 40 milioni di decisioni simili (su casi ipotetici, ben inteso) provenienti da 233 paesi in tutto il mondo e che ha premesso di scoprire quale sia – in media – il comportamento percepito come più morale. Per riuscirci, le condizioni del test precedente sono sate fatte variare. Ad esempio, se invece del gatto vi fosse stato un bambino, cosa avreste scelto? E se la scelta fosse stata tra un gruppo di quattro persone e una sola persona? Oppure se doveste scegliere tra una donna e un uomo? O tra chi sta attraversando col verde da chi sta attraversando col rosso? Dilemmi etici che vanno risolti tra intelligenze umane e poi, in qualche modo, spiegati alle macchine che devono scegliere per noi. Il problema vero è che, come dimostra lo studio del Mit, non vi sono risposte univoche nemmeno tra gli uomini. Anzi, spesso gli accenti sulle preferenze variano a dipendenza della nazione in cui si vive. Nei paesi asiatici sembra ad esempio si sia meno inclini a dare la priorità ad una vita giovane rispetto ad una anziana. Nei paesi del sud, invece, è meno marcata la tendenza a scegliere di uccidere un animale per salvare una vita umana. Solo la (debole) predilezione a sacrificare i passeggeri per salvare i pedoni e la (moderata) preferenza nel sacrificare chi sta attraversando col rosso per salvare chi lo fa col verde sembra mettere d’accordo tutti. Esisterebbe comunque un ordine di priorità piuttosto chiaro e trasversale, molto simile a “prima le donne e i bambini”: tra i più salvati vi sono infatti i passeggini con a bordo dei neonati, i giovanissimi nonché chi è incinta. Da lì in poi le preferenze diminuiscono sempre di più fino agli ultimi tre posti riservati a cani, criminali e gatti (nell’ordine). Risultati che non facilitano certo la ricerca di linee comuni da applicare a livello globale per insegnare ai futuri algoritmi di guida come comportarsi in situazioni disperate. Il primo, e per ora solo, tentativo di dare indicazioni ufficiali sull’etica del pilota automatico è stato proposto lo scorso anno in Germania, con un documento contenente 20
indicazioni. Molte non risolvono tuttavia i dilemmi, tanto che alcune linee guida non sono state adottate all’unanimità dal comitato che le ha redatte.
Tecnologia e filosofia a braccetto
Vista la grande evoluzione dell’intelligenza artificiale cui si è assistito negli ultimi anni, quello dell’etica e della moralità anche in quel campo sta diventando rapidamente un nuovo e imperativo terreno di studio. Quest’anno, ad esempio, l’Istituto Dalle Molle della Supsi ha avviato un corso a cavallo tra tecnica e filosofia in collaborazione con la Facoltà di Teologia dell’Usi. «È un tema su cui è fondamentale chinarsi – precisa il professor Andrea Rizzoli, docente alla Supsi –. Attualmente lo stato della tecnologia non è ancora abbastanza avanzato da richiedere l’implementazione di meccanismi etici: in molti contesti è una questione che non si pone ancora, perché le scelte morali sull’uso dell’intelligenza artificiale sono ancora nelle mani dell’essere umano. Tuttavia bisogna iniziare a interrogarsi sul tema». Attualmente molte applicazioni delle reti neurali servono ‘puramente’ a scandagliare una grossa mole di dati, a trarne delle indicazioni e, eventualmente, a prendere delle decisioni sulla base di scelte programmate. «Non sono macchine con una coscienza – fa notare Rizzoli –. Quando l’avranno, allora dovremo davvero preoccuparci di inculcare loro un’etica». Etica, appunto, su cui dapprima dovrà interrogarsi l’umanità: «Come tecnico non posso arrogarmi il diritto di scegliere cosa dovrà fare l’auto di fronte a un anziano e a un bambino. La mia opinione, in questo caso, vale come quella di qualsiasi altra persona che passa per strada. Queste sono risposte che deve dare la società, facendo delle scelte. Il nostro ruolo sarà quello di trasferire quei valori, forse riassumibili nel concetto di eroismo, nell’intelligenza artificiale».