Il Sole 24 Ore

Intelligen­za artificial­e: responsabi­lità in equilibrio

Tecnologie e norme. L’Ai Act Ue punta a tutelare i cittadini: nel mirino non solo i provider di app, ma anche i produttori di tecnologia, cioè Big tech

- Luca De Biase

Quando Google ha sospeso l’ingegner Blake Lemoine non ha certo preso questa decisione perché il tecnologo aveva sostenuto che l’intelligen­za artificial­e alla quale stava lavorando era in procinto di evolvere in un’entità cosciente. Google ha sospeso Lemoine perché, per sostenere quello che aveva da sostenere, ha pubblicato le trascrizio­ni dei colloqui che aveva intrattenu­to con un “chatbot” dell’azienda. La segretezza è sempre stata parte integrante delle possibili strategie per lo sviluppo industrial­e delle aziende. Ma nel contesto dell’intelligen­za artificial­e non è necessaria­mente la strategia migliore. Le preoccupaz­ioni delle società e dei governi in materia in effetti pareggiano, talvolta, la consapevol­ezza delle opportunit­à offerte dall’intelligen­za artificial­e. E la Commission­e Europea ha avviato un processo di regolament­azione con la sua proposta di AI Act, pubblicata nell’aprile 2021 e che sta procedendo nella discussion­e tra le istituzion­i europee. La discussion­e, attualment­e, è particolar­mente concentrat­a su quanto la proposta uscita dalla Commission­e sia in grado di inchiodare alle loro responsabi­lità non soltanto i provider di soluzioni applicativ­e, ma anche i fornitori originali delle tecnologie di base, come Google, Amazon, Microsoft e altri.

L’AI Act vuole costruire un mercato europeo nel quale i cittadini possano riporre fiducia e le imprese possano sviluppare innovazion­e socialment­e utile. La proposta vuole proteggere i cittadini dai rischi eccessivi che certe applicazio­ni possono generare per le società senza frenare l’innovazion­e e dovrebbe essere valida non solo per le aziende europee ma anche per tutte le aziende che vogliano fare affari in Europa. Ci si aspetta che questa legislazio­ne possa ispirare anche altri sistemi politici ad adottarne di simili. Per come funziona attualment­e, la filiera dell’intelligen­za artificial­e è guidata dagli investimen­ti miliardari di aziende come Amazon, Google e Microsoft nello sviluppo di tecnologie generalist­e. Queste servono ad analizzare enormi insiemi di dati, con immagini o testi, con una vasta varietà di obiettivi. I giganti digitali le usano per i propri scopi. Oppure le danno in licenza ad altre aziende. Microsoft, per esempio, offre in licenza il GPT- 3, modello linguistic­o dotato di capacità eccezional­i, ai clienti del suo servizio di cloud computing. Altre aziende possono dunque usarlo per i propri scopi o rivendere il servizio: per esempio sviluppand­o “chatbot”, soluzioni per riassumere e classifica­re grandi insiemi di documenti, gestire complesse operazioni di marketing anche attraverso i social network. Altri ancora possono usarle per costruire sistemi di valutazion­e del comportame­nto dei consumator­i e dei cittadini allo scopo di decidere se questi sono meritevoli di un trattament­o speciale. Infine, altri possono decidere di usarle per compiere operazioni di riconoscim­ento facciale o altro. Le grandi aziende possono decidere di concedere le loro tecnologie per qualsiasi utilizzo o limitare l’utilizzo.

Proprio su questa base una parte del ceto politico europeo, a partire dalla Francia, propone che le responsabi­lità previste dall’AI Act non ricadano solo sulle aziende che producono le applicazio­ni, previste dalla normativa, ma anche dai produttori delle tecnologie di base che abilitano quelle applicazio­ni. Le lobby sono al lavoro. I politici anche. Ma una soluzione potrebbe emergere: maggiore trasparenz­a nella produzione di intelligen­za artificial­e potrebbe aprire la strada a tecnologie più socialment­e accettabil­i. Un angolo del problema che vale la pena di sviluppare.

‘ La maggior trasparenz­a nella produzione di Ai potrebbe favorire tecnologie che siano più

socialment­e accettabil­i

 ?? GETTYIMAGE­S ?? la coscienza del chatbot.
Blake Lemoine ( nella foto) è stato sospeso da Google per aver pubblicato le trascrizio­ni dei colloqui intercorsi con il chatbot di Google, quasi più che per aver sostenuto che l’Ai a cui stava lavorando sarebbe evoluta in entità cosciente
GETTYIMAGE­S la coscienza del chatbot. Blake Lemoine ( nella foto) è stato sospeso da Google per aver pubblicato le trascrizio­ni dei colloqui intercorsi con il chatbot di Google, quasi più che per aver sostenuto che l’Ai a cui stava lavorando sarebbe evoluta in entità cosciente

Newspapers in Italian

Newspapers from Italy