Corriere della Sera - La Lettura
Robot intelligenti (ma non troppo) L’Europa vota un codice per le regole
Alla Scuola Sant’Anna di Pisa si sperimentano macchine in grado di sostituire il portiere di un condominio o un badante. Ma accanto alle soluzioni tecnologiche più sofisticate si lavora al quadro normativo ed etico nel quale collocare gli apparecchi. Non
CoRA indossa un cravattino giallo, sorveglia il viavai dell’atrio con gli occhi tondi, prende l’ascensore e consegna la posta, muovendosi sulle ruote. DoRA veste di blu, parla e propone giochi cognitivi, obbedisce ai comandi vocali, ha tre dita per afferrare gli oggetti, una maniglia per chi cammina con difficoltà e si accorge se qualcuno è caduto.
CoRa è l’acronimo di Condominium Robot Assistant («Robot assistente di condominio), DoRA di Domestic Robot Assistant («Robot assistente domestico»). Entrambi prototipi — il primo di un efficiente portinaio, il secondo di uno scrupoloso badante — messi a punto dall’azienda Co-Robotics, spin-off della Scuola Superiore Sant’Anna di Pisa. L’obiettivo è arrivare a modelli prodotti su scala industriale. Ma che cosa succederebbe se CoRA e DoRA combinassero guai? Chi ne sarebbe responsabile? È possibile testarli fuori dai laboratori, negli ambienti in cui saranno operativi? E ancora: è legittimo lasciare che un anziano si affezioni alla macchina che lo accudisce? Quest’ultima sottrarrebbe lavoro agli esseri umani?
Sviluppare intelligenze artificiali in grado di svolgere compiti complessi — si pensi all’esempio più recente e dibattuto dell’auto a guida autonoma — non è un lavoro per i soli ingegneri. Richiede una pluralità di competenze e di visione che trova nel «modello Sant’Anna» un interlocutore ideale. Grazie soprattutto allo speciale ordinamento di scuola superiore universitaria, come la vicina Normale, sempre a Pisa. Vuol dire che ogni anno, tramite un concorso pubblico, vengono ammessi al cosiddetto corso ordi- nario, che integra e non sostituisce il regolare piano di studi dell’università, una cinquantina di studenti. Divisi tra Economia, Giurisprudenza, Scienze politiche, Medicina, Ingegneria, Agraria e Biotecnologie vegetali, vivono tutti insieme nei collegi della Scuola. A loro si uniscono, ripartiti tra le diverse materie, i dottorandi. «Questo produce una spontanea interdisciplinarità, che è uno dei nostri punti di forza», osserva il rettore Pierdomenico Perata. D’accordo anche con il nuovo direttore della Normale, Vincenzo Barone, su una maggiore integrazione tra le due eccellenze.
Ecco allora che, raggiungendo l’Istituto di Biorobotica del Sant’Anna a Pontedera (30 chilometri da Pisa) — nel polo d’avanguardia sorto nei primi anni Novanta tra gli stabilimenti della Piaggio, che donò l’area —, capita di sentire scienziati parlare da umanisti. Diciassette i professori e novanta i dottorandi, tra i quali numerose ragazze (circa il 55% degli iscritti a Ingegneria biomedica sono donne). Progettano robot per la chirurgia, in grado, ad esempio, di rimuovere i tumori del colon o di vaporizzare quelli del fegato, esoscheletri per la riabilitazione, mani e gambe artificiali, umanoidi per la cura delle persone più fragili o che aiutino in situazioni ordinarie, come la raccolta dei rifiuti, e nelle emergenze, come i disastri ambientali.
Paolo Dario, 65 anni, professore di Robotica biomedica, è il direttore del centro e dell’intero polo di Pontedera («Sant’Anna Valdera», il nome ufficiale). «Noi italiani — testimonia — siamo stati tra i primi al mondo a unire la robotica e l’umano, mettendo le macchine, che prima vivevano in gabbia, tra le gente: dalla metà degli anni Ottanta le abbiamo affiancate ai disabili, agli anziani e ai chirurghi negli interventi». La sua idea non è tanto costruire un’intelligenza artificiale che superi o equipari la nostra, ma un robot-servitore. «Non lo voglio troppo intelligente — dice — ma concentrato sull’uomo e pronto ad assisterlo». Per questo, a livello di metodo, «serve la competenza sulla macchina ma anche capire chi la userà». Come nella moda, «dove la forza degli italiani negli anni Ottanta non fu solo negli abiti ma nel confezionarli in modo che andassero bene a tutti».
Il direttore è convinto che sulla robotica il nostro Paese debba puntare, sfruttando il vantaggio competitivo di trent’anni di esperienza. «Il robot — prefigura — sarà connesso come un cellulare. E probabilmente esisterà un call-center cui potrà rivolgersi, in grado a sua volta di controllarlo». Nessuna paura, inoltre, che le intelligenze artificiali tolgano lavoro a quelle umane: «Nasceranno professioni nuove, si pensi ai piloti di droni. Poi ci sarà chi i robot dovrà costruirli e garantire l’assistenza». Distante il profes- sore anche da chi, come Elon Musk o Stephen Hawking, teme che tecnologie sempre più potenti possano distruggere la specie umana: «L’autocoscienza del robot — sostiene — potrà essere regolata dall’uomo. La responsabilità sarà di chi controlla».
A questo punto arrivano in soccorso le altre discipline. Anche senza pensare, infatti, a scenari apocalittici o a teorie come quella della «singolarità» — in base alla quale l’intelligenza artificiale arriverà ad automodificarsi (ne abbiamo scritto su «la Lettura» #232 dell’8 maggio scorso) —, l’universo dei robot sembra comunque avere bisogno di regole. «Che servono non solo per limitare ma per consentire», osserva Andrea Bertolini, 33 anni, ricercatore in Diritto privato al Sant’Anna, alle spalle il corso ordinario e il dottorato nello stesso istituto, un master in Legge a Yale, oggi in prima fila nella regolamentazione delle intelligenze artificiali.
Lo incontriamo nella sede della Scuola. Per due anni, dal 2012, è stato uno dei cervelli di RoboLaw, progetto finanziato dalla Commissione europea «per comprendere le implicazioni etiche e giuridiche delle tecnologie robotiche» e «per scoprire se l’impalcatura legale esistente potesse reggere», cercando eventualmente alternative. Ora lo studioso è tra i consulenti della commissione Affari giuridici del Parlamento europeo, che ha prodotto un documento in tema di diritto privato della robotica, di cui non esiste al mondo un esempio altrettanto sistematico. Il Parlamento europeo lo approverà dopo l’estate e lo proporrà alla Commissione, che nell’Ue detiene l’iniziativa legislativa.
«Tra le nostre indicazioni — spiega Bertolini — c’è la standardizzazione tecnologica». Vale a dire costruire con criteri comuni ai vari Paesi, favorendo in questo modo sia i controlli sulla sicurezza, come accade nell’aeronautica, sia il mercato. A questo scopo viene suggerita la creazione di un’Agenzia europea per la robotica che si occupi pure di questioni giuridiche ed etiche: è giusto ad esempio — osserva il ricercatore — che la foca Paro, un robot terapeutico, sia scambiata per un animale vero dai malati di Alzheimer? «Questioni di “etica delle macchine” su cui siamo lontani da una soluzione», ammette. Simili alla domanda su come debba comportarsi un’auto a guida autonoma al bivio tra il dover sacrificare il passeggero o il pedone (o un gruppo di pedoni).
Più avanzata la riflessione sulla responsabilità civile. Il documento adotta la logica della «gestione del rischio», secondo cui per attribuire la responsabilità non si deve cercare il soggetto che ha colpa ma la legge ha già stabilito a priori chi è nella condizione migliore per minimizzare le conseguenze negative (come la durata e la complessità del contenzioso e l’entità dei danni). Quindi: si sa già che si tratta del produttore oppure di soggetti diversi (dall’utilizzatore allo Stato, nel caso ad esempio dei robot per la medicina) che abbiano sottoscritto assicurazioni o anche, insieme, un fondo d’indennizzo. In base a questo principio, nel caso del recente incidente mortale dell’auto a guida autonoma Tesla, la responsabilità potrebbe essere attribuita al produttore senza bisogno di complessi e costosi accertamenti. «Altrimenti con il diritto vigente in Europa — os- serva Bertolini — si dovrebbe discutere se la responsabilità sia del produttore della macchina per aver sbagliato nella progettazione o dell’utilizzatore che ha inserito la guida autonoma e non ha ripreso in tempo il volante». E in effetti, nota, «sarebbe ragionevole imputare la responsabilità al passeggero, sapendo che distrarsi capita pure nella guida attiva? Anche da questo punto di vista sembra preferibile attribuirla al produttore, che poteva prevederlo». «Il penale, invece — precisa il giurista — è di competenza del singolo Stato. Di solito la responsabilità si imputa solo all’individuo, perché la sanzione è la privazione della libertà personale. E ricorrente è il principio che la responsabilità ci sia solo dimostrando la colpa, quindi non potrebbe essere attribuita direttamente al produttore come nel civile».
La bozza stabilisce anche l’importanza della sperimentazione fuori dai laboratori, in ambienti urbani, derogando — se serve — alle leggi attuali (come il codice della strada che non prescinde ancora dalla figura del «guidatore»). «Introduciamo anche il concetto di “personalità elettronica”, intesa però — precisa Bertolini — allo stesso modo della personalità giuridica di una società». «Non ci sono finora argomenti, né filosofici né giuridici né tecnologici — conclude — per considerare i robot dei soggetti. Sono oggetti, macchine per migliorare la vita dell’uomo che non godono di diritti. E a dispetto di qualche fantascientifica previsione, non credo che vedrò mai intelligenze artificiali paragonabili a quella umana».