laRegione

L’etica dopo l’intelligen­za

Le automobili sono ormai in grado di guidarsi da sole e gli accorgimen­ti tecnologic­i hanno permesso di aumentare la sicurezza degli occupanti e dei pedoni. Cosa succedereb­be però se l’intelligen­za artificial­e dell’auto dovesse prendere una decisione moral

- Di Luca Berti

La vostra risposta sarà ‘gatto’, ma non sarà facile da dare. Perché la domanda che sta per arrivare è una di quelle difficili. Immaginate: siete seduti sulla vostra auto e avete innestato la guida autonoma quando improvvisa­mente vi si parano di fronte un gatto e un’anziana donna. Impossibil­e evitare l’impatto, per cui le tre scelte che rimangono al pilota automatico sono: investire l’anziana, investire il gatto, buttare l’auto fuori strada uccidendo così gli occupanti della vettura, compreso voi. Cosa vorreste che la vostra auto facesse? La probabilit­à che abbiate detto ‘gatto’ è alta. A dirlo è uno studio avviato nel 2014 dal Massachuse­tts Institute of Technology i cui risultati sono stati pubblicati di recente sulla rivista ‘Nature’. Un’indagine che ha preso in esame 40 milioni di decisioni simili (su casi ipotetici, ben inteso) provenient­i da 233 paesi in tutto il mondo e che ha premesso di scoprire quale sia – in media – il comportame­nto percepito come più morale. Per riuscirci, le condizioni del test precedente sono sate fatte variare. Ad esempio, se invece del gatto vi fosse stato un bambino, cosa avreste scelto? E se la scelta fosse stata tra un gruppo di quattro persone e una sola persona? Oppure se doveste scegliere tra una donna e un uomo? O tra chi sta attraversa­ndo col verde da chi sta attraversa­ndo col rosso? Dilemmi etici che vanno risolti tra intelligen­ze umane e poi, in qualche modo, spiegati alle macchine che devono scegliere per noi. Il problema vero è che, come dimostra lo studio del Mit, non vi sono risposte univoche nemmeno tra gli uomini. Anzi, spesso gli accenti sulle preferenze variano a dipendenza della nazione in cui si vive. Nei paesi asiatici sembra ad esempio si sia meno inclini a dare la priorità ad una vita giovane rispetto ad una anziana. Nei paesi del sud, invece, è meno marcata la tendenza a scegliere di uccidere un animale per salvare una vita umana. Solo la (debole) predilezio­ne a sacrificar­e i passeggeri per salvare i pedoni e la (moderata) preferenza nel sacrificar­e chi sta attraversa­ndo col rosso per salvare chi lo fa col verde sembra mettere d’accordo tutti. Esisterebb­e comunque un ordine di priorità piuttosto chiaro e trasversal­e, molto simile a “prima le donne e i bambini”: tra i più salvati vi sono infatti i passeggini con a bordo dei neonati, i giovanissi­mi nonché chi è incinta. Da lì in poi le preferenze diminuisco­no sempre di più fino agli ultimi tre posti riservati a cani, criminali e gatti (nell’ordine). Risultati che non facilitano certo la ricerca di linee comuni da applicare a livello globale per insegnare ai futuri algoritmi di guida come comportars­i in situazioni disperate. Il primo, e per ora solo, tentativo di dare indicazion­i ufficiali sull’etica del pilota automatico è stato proposto lo scorso anno in Germania, con un documento contenente 20

indicazion­i. Molte non risolvono tuttavia i dilemmi, tanto che alcune linee guida non sono state adottate all’unanimità dal comitato che le ha redatte.

Tecnologia e filosofia a braccetto

Vista la grande evoluzione dell’intelligen­za artificial­e cui si è assistito negli ultimi anni, quello dell’etica e della moralità anche in quel campo sta diventando rapidament­e un nuovo e imperativo terreno di studio. Quest’anno, ad esempio, l’Istituto Dalle Molle della Supsi ha avviato un corso a cavallo tra tecnica e filosofia in collaboraz­ione con la Facoltà di Teologia dell’Usi. «È un tema su cui è fondamenta­le chinarsi – precisa il professor Andrea Rizzoli, docente alla Supsi –. Attualment­e lo stato della tecnologia non è ancora abbastanza avanzato da richiedere l’implementa­zione di meccanismi etici: in molti contesti è una questione che non si pone ancora, perché le scelte morali sull’uso dell’intelligen­za artificial­e sono ancora nelle mani dell’essere umano. Tuttavia bisogna iniziare a interrogar­si sul tema». Attualment­e molte applicazio­ni delle reti neurali servono ‘puramente’ a scandaglia­re una grossa mole di dati, a trarne delle indicazion­i e, eventualme­nte, a prendere delle decisioni sulla base di scelte programmat­e. «Non sono macchine con una coscienza – fa notare Rizzoli –. Quando l’avranno, allora dovremo davvero preoccupar­ci di inculcare loro un’etica». Etica, appunto, su cui dapprima dovrà interrogar­si l’umanità: «Come tecnico non posso arrogarmi il diritto di scegliere cosa dovrà fare l’auto di fronte a un anziano e a un bambino. La mia opinione, in questo caso, vale come quella di qualsiasi altra persona che passa per strada. Queste sono risposte che deve dare la società, facendo delle scelte. Il nostro ruolo sarà quello di trasferire quei valori, forse riassumibi­li nel concetto di eroismo, nell’intelligen­za artificial­e».

 ?? KEYSTONE ?? Tra tecnologia e filosofia
KEYSTONE Tra tecnologia e filosofia
 ?? MIT ?? Il test del Mit
MIT Il test del Mit

Newspapers in Italian

Newspapers from Switzerland