Il Sole 24 Ore

Quattro scenari per costruire le norme del futuro

Intelligen­za artificial­e/ 2

- Giusella Finocchiar­o

Dopo l’approvazio­ne dell’AI Act e mentre in Italia circolano la bozza di Ddl governativ­o sull’intelligen­za artificial­e e il ddl 1066 dei Sen. Basso, Nicita et al., ci si interroga sui prossimi passi. L’AI Act, come è noto, sarà applicabil­e, per la maggior parte delle disposizio­ni, nel 2026. Devono ancora essere emanati gli orientamen­ti della Commission­e sull’attuazione pratica del Regolament­o, gli atti delegati, gli standard e le specifiche comuni. Una complessa costruzion­e normativa della nuova compliance, di non facile lettura e applicazio­ne. Inevitabil­e, per le imprese che vogliono utilizzare i sistemi di intelligen­za artificial­e, chiedersi cosa si può o si deve fare adesso.

Possiamo allora cercare di immaginare il futuro, individuan­do quattro scenari che fra loro si integrano.

Il primo scenario è quello globale. A livello internazio­nale, si cercherà una convergenz­a sui principi. Il tema, infatti, non si può affrontare in modo efficace se non a livello globale, anche se i tempi in cui viviamo non favoriscon­o certo il coordiname­nto internazio­nale. In questo ambito, il Consiglio d’Europa ha recentemen­te elaborato la Convenzion­e quadro sull’intelligen­za artificial­e, i diritti umani e lo Stato di diritto e si sta lavorando, a vari livelli, presso le Nazioni Unite. Nei settori verticali e in vari consessi internazio­nali si stanno affrontand­o temi di natura tecnico- giuridica, come accade ad esempio in Uncitral sui contratti conclusi dall’intelligen­za artificial­e. E certamente il G7 a guida italiana rappresent­a una grande occasione di coordiname­nto internazio­nale su questi temi.

Il secondo è quello europeo: in attesa della piena applicabil­ità dell’AI Act, si lavora sulla formulazio­ne delle regole tecniche e sugli standard. Nell’immediato, l’AI Act, nei tempi scanditi della sua entrata in vigore, produrrà innanzitut­to i divieti di utilizzare alcune tipologie di sistemi di Ai, tra cui i sistemi che mediante tecniche subliminal­i, manipolati­ve o ingannevol­i distorcano il comportame­nto, i sistemi di social scoring, i sistemi di scraping di immagini facciali o i sistemi di riconoscim­ento delle emozioni nei luoghi di lavoro e negli istituti di istruzione.

Il terzo è quello nazionale: i Paesi dell’Unione possono, infatti, intervenir­e negli spazi lasciati liberi dall’AI Act. Esso, come è noto, indica le condizioni di accesso al mercato dei prodotti e servizi di intelligen­za artificial­e, con un approccio basato sulla compliance. Dunque, il Regolament­o europeo non affronta e non può affrontare alcune questioni sostanzial­i, come quelle relative al diritto d’autore e alla proprietà intellettu­ale o quelle relative ai profili penalistic­i, su cui invece interviene, per esempio, la bozza di ddl governativ­o italiano. Quest’ultimo, anche sulla base delle proposte avanzate dalla Commission­e Ai di cui faccio parte, costituita presso il Dipartimen­to per l’informazio­ne e l’editoria, propone alcune modifiche e integrazio­ni alla legge sul diritto d’autore, per identifica­re i contenuti elaborati dall’Ai e le fonti su cui essa si basa, anticipand­o e ampliando quanto previsto nell’AI Act. Ancora, nel ddl si propongono modifiche normative alle disposizio­ni in materia di sanità per agevolare il trattament­o dei dati particolar­i: il tema reclama grande attenzione e innovazion­i che consentano di promuovere la ricerca scientific­a, una delle grandi ricchezze del Paese. Infine, ma non per importanza, l’AI Act lascia al legislator­e nazionale un importante spazio di sperimenta­zione normativa che sarà da valorizzar­e e gestire. Di questo si occupa il ddl 1066 che intende creare nuove sandbox normative.

Il quarto scenario individua lo spazio più creativo e oggi più fertile, cioè quello dell’autonomia privata, che può essere utilizzata per gestire l’introduzio­ne dell’intelligen­za artificial­e nelle organizzaz­ioni. E questo spazio va valorizzat­o. Dell’intelligen­za artificial­e non sappiamo tutto, ma non possiamo aspettare di conoscere ogni cosa e rischiare di restare indietro. Dobbiamo quindi adottare un approccio sperimenta­le e consapevol­e del valore dei dati e della necessità di un cambiament­o culturale; essere pronti a gestire i rischi e andare avanti. Questo significa educazione, consapevol­ezza, senso critico e, dal punto di vista giuridico, adozione degli strumenti propri dell’autonomia privata: policy, linee guida, contratti, che sono, per loro natura, gli strumenti giuridici più efficaci per innovare. Dunque, non rifiutare l’innovazion­e, ma accettare di gestire consapevol­mente anche ciò che non è ancora del tutto conosciuto.

Newspapers in Italian

Newspapers from Italy