L’intelligenza artificiale come lo schiavo di Roma antica
Diritto Il volume curato da Ugo Ruffolo (Giuffrè): definire nuove responsabilità, non fare nuove norme
Un giorno, forse, sarà Hal 9000 a rispondere. Le self-driving car, le auto che si guidano da sole, in caso di impatto inevitabile dovranno sterzare verso un dirupo per salvare una scolaresca imprudente che attraversa fuori delle strisce o investirla per salvare gli occupanti? Cambio di scenario: se si potrà «dismettere» il proprio corpo, invecchiato o malmesso, e trasferire sé stessi su un supporto artificiale, quale identità giuridica avrà quell’entità? Diventerà una cosa distinta rispetto all’originale? E colui che «si è sdoppiato» sarà considerato vivo o morto agli occhi dell’ordinamento? Ancora: l’intelligenza artificiale è già capace di comporre musica, scrivere, dipingere. I diritti d’autore competono alla macchina? A qualcuno? O a nessuno?
Esisterà un mondo in cui gli algoritmi, non ancora l’Hal 9000 di 2001 Odissea nello spazio, saranno chiamati a rispondere delle loro azioni (peraltro anche l’heuristic algorithm del capolavoro di Stanley Kubrick paga il suo prezzo, ma questa è un’altra storia).
Il cammino, visto con l’occhio del giurista, è già iniziato e la responsabilità si sta spostando, pian piano, dal detentore del bene al produttore (e all’inventore dell’algoritmo). Quindi, in un crescendo futuribile (o forse solo realista), toccherà alla macchina stessa. I codici irrompono sulla scena di Isaac Asimov. Nell’attesa, appunto, che le leggi della robotica possano davvero imporre un «limite etico» alla macchina: «Un robot non può recare danno all’umanità e non può permettere che, a causa del suo mancato intervento, l’umanità riceva danno».
Per ora siamo a metà strada: «L’intelligenza artificiale è un insieme di algoritmi che nulla hanno a che fare con l’intelligenza umana» (Giorgio Metta, direttore dell’Istituto italiano di tecnologia). Anche perché, Omero dixit, la mente dell’uomo, e quella di Ulisse in particolare, è «di molti colori». Cioè basata su più dimensioni. Un caleidoscopio che riflette anche l’inconscio. Una razionalità multiforme. Può un robot essere dotato di inconscio? Ancora no, domani forse. Si sa però che una macchina a cui un uomo si affidi totalmente, senza averne più il controllo (vedi il caso non così lontano delle auto self-driving), è in grado di fare danni (e persino di maturare diritti). E se rompe, chi paga?
I Romani, che nulla potevano conoscere della robotica, ma che restano campioni imbattuti di diritto, emanarono nel III secolo avanti Cristo una legge pilastro della nostra civiltà giuridica. La lex Aquilia regolava, per dirla in termini attuali, la responsabilità civile «in conseguenza di fatto illecito, doloso o colposo, che cagioni ad altri un ingiusto danno». Così come è scritto nell’articolo 2043 del nostro Codice civile. Eccola la pietra angolare: da qui, spiega con un’abbondante messe di argomenti Ugo Ruffolo, bisogna partire anche per circoscrivere una «responsabilità dell’algoritmo».
No need to reinvent the wheel, non c’è bisogno di reinventare la ruota. Bastano gli strumenti antichi. Il professore, storico titolare della cattedra di Diritto civile all’Università di Bologna, puntella il suo ragionamento con la precisione dello studioso e la brillantezza dell’esempio spiazzante. Su questa nuova frontiera è da tempo impegnato e con altri studiosi ha curato un volume (Intelligenza artificiale. Il diritto, i diritti, l’etica, edito da Giuffrè) a metà tra il testo universitario e quello di divulgazione, seppure ben motivati.
«Il diritto romano — scrive Ruffolo — regolava commercio e uso strumentale della più alta intelligenza self-learning finora comparsa sul pianeta: quella umana e, in particolare, quella degli schiavi. In relazione ai quali furono per secoli dibattute sia la responsabilità vicaria del padrone o dell’utilizzatore, sia la possibilità di riconoscere o attribuire agli schiavi parziale personalità o autonomia patrimoniale». Insomma: lo schiavo dell’antica Roma come l’intelligenza artificiale nel terzo millennio. Un parallelo che, storicamente parlando, vale anche per il ricorso all’intelligenza animale. Non bisogna quindi scrivere nuove norme, ma individuare nuove responsabilità. Le problematiche sia etiche sia giuridiche poste dall’intelligenza artificiale possono riguardare «l’ideatore dell’algoritmo di machine learning (ossia ciò che attribuisce al computer la possibilità di autoapprendimento), chi lo utilizza, chi lo produce o incorpora in un bene, nonché chi è custode o titolare a qualsiasi titolo della macchina».
Si sposta, quindi il baricentro, in attesa che l’entità robotica intelligente possa essere dotata di una propria personalità elettronica. Ad esempio, che cosa accadrà con l’incremento dell’automazione nel settore automobilistico? Secondo Ruffolo sarà chiamato sempre più in gioco il produttore. Con rischi non indifferenti, dal punto di vista economico, per chi volesse affrontare l’impresa: «E se si volesse alleggerire la sua responsabilità oggettiva senza privare la vittima del danno di adeguata tutela, una via seriamente percorribile sarebbe l’imposizione di coperture assicurative obbligatorie non da responsabilità, ma da evento, ad esempio a favore di tutti o di alcune categorie di pedoni o altri soggetti danneggiati da auto a guida autonoma». Un modo per non impedire il progresso con costosissimi indennizzi che inibiscano i produttori, considerato anche che con vetture self-driving diminuirà il numero di vittime sulle strade.
Questa è la via. Finché Hal 9000 non pagherà di tasca sua.
Interrogativi
Se si potrà trasferire la propria mente su un supporto artificiale, che identità giuridica avrà?