Quattro scenari per costruire le norme del futuro
Intelligenza artificiale/ 2
Dopo l’approvazione dell’AI Act e mentre in Italia circolano la bozza di Ddl governativo sull’intelligenza artificiale e il ddl 1066 dei Sen. Basso, Nicita et al., ci si interroga sui prossimi passi. L’AI Act, come è noto, sarà applicabile, per la maggior parte delle disposizioni, nel 2026. Devono ancora essere emanati gli orientamenti della Commissione sull’attuazione pratica del Regolamento, gli atti delegati, gli standard e le specifiche comuni. Una complessa costruzione normativa della nuova compliance, di non facile lettura e applicazione. Inevitabile, per le imprese che vogliono utilizzare i sistemi di intelligenza artificiale, chiedersi cosa si può o si deve fare adesso.
Possiamo allora cercare di immaginare il futuro, individuando quattro scenari che fra loro si integrano.
Il primo scenario è quello globale. A livello internazionale, si cercherà una convergenza sui principi. Il tema, infatti, non si può affrontare in modo efficace se non a livello globale, anche se i tempi in cui viviamo non favoriscono certo il coordinamento internazionale. In questo ambito, il Consiglio d’Europa ha recentemente elaborato la Convenzione quadro sull’intelligenza artificiale, i diritti umani e lo Stato di diritto e si sta lavorando, a vari livelli, presso le Nazioni Unite. Nei settori verticali e in vari consessi internazionali si stanno affrontando temi di natura tecnico- giuridica, come accade ad esempio in Uncitral sui contratti conclusi dall’intelligenza artificiale. E certamente il G7 a guida italiana rappresenta una grande occasione di coordinamento internazionale su questi temi.
Il secondo è quello europeo: in attesa della piena applicabilità dell’AI Act, si lavora sulla formulazione delle regole tecniche e sugli standard. Nell’immediato, l’AI Act, nei tempi scanditi della sua entrata in vigore, produrrà innanzitutto i divieti di utilizzare alcune tipologie di sistemi di Ai, tra cui i sistemi che mediante tecniche subliminali, manipolative o ingannevoli distorcano il comportamento, i sistemi di social scoring, i sistemi di scraping di immagini facciali o i sistemi di riconoscimento delle emozioni nei luoghi di lavoro e negli istituti di istruzione.
Il terzo è quello nazionale: i Paesi dell’Unione possono, infatti, intervenire negli spazi lasciati liberi dall’AI Act. Esso, come è noto, indica le condizioni di accesso al mercato dei prodotti e servizi di intelligenza artificiale, con un approccio basato sulla compliance. Dunque, il Regolamento europeo non affronta e non può affrontare alcune questioni sostanziali, come quelle relative al diritto d’autore e alla proprietà intellettuale o quelle relative ai profili penalistici, su cui invece interviene, per esempio, la bozza di ddl governativo italiano. Quest’ultimo, anche sulla base delle proposte avanzate dalla Commissione Ai di cui faccio parte, costituita presso il Dipartimento per l’informazione e l’editoria, propone alcune modifiche e integrazioni alla legge sul diritto d’autore, per identificare i contenuti elaborati dall’Ai e le fonti su cui essa si basa, anticipando e ampliando quanto previsto nell’AI Act. Ancora, nel ddl si propongono modifiche normative alle disposizioni in materia di sanità per agevolare il trattamento dei dati particolari: il tema reclama grande attenzione e innovazioni che consentano di promuovere la ricerca scientifica, una delle grandi ricchezze del Paese. Infine, ma non per importanza, l’AI Act lascia al legislatore nazionale un importante spazio di sperimentazione normativa che sarà da valorizzare e gestire. Di questo si occupa il ddl 1066 che intende creare nuove sandbox normative.
Il quarto scenario individua lo spazio più creativo e oggi più fertile, cioè quello dell’autonomia privata, che può essere utilizzata per gestire l’introduzione dell’intelligenza artificiale nelle organizzazioni. E questo spazio va valorizzato. Dell’intelligenza artificiale non sappiamo tutto, ma non possiamo aspettare di conoscere ogni cosa e rischiare di restare indietro. Dobbiamo quindi adottare un approccio sperimentale e consapevole del valore dei dati e della necessità di un cambiamento culturale; essere pronti a gestire i rischi e andare avanti. Questo significa educazione, consapevolezza, senso critico e, dal punto di vista giuridico, adozione degli strumenti propri dell’autonomia privata: policy, linee guida, contratti, che sono, per loro natura, gli strumenti giuridici più efficaci per innovare. Dunque, non rifiutare l’innovazione, ma accettare di gestire consapevolmente anche ciò che non è ancora del tutto conosciuto.