Intelligenza artificiale: responsabilità in equilibrio
Tecnologie e norme. L’Ai Act Ue punta a tutelare i cittadini: nel mirino non solo i provider di app, ma anche i produttori di tecnologia, cioè Big tech
Quando Google ha sospeso l’ingegner Blake Lemoine non ha certo preso questa decisione perché il tecnologo aveva sostenuto che l’intelligenza artificiale alla quale stava lavorando era in procinto di evolvere in un’entità cosciente. Google ha sospeso Lemoine perché, per sostenere quello che aveva da sostenere, ha pubblicato le trascrizioni dei colloqui che aveva intrattenuto con un “chatbot” dell’azienda. La segretezza è sempre stata parte integrante delle possibili strategie per lo sviluppo industriale delle aziende. Ma nel contesto dell’intelligenza artificiale non è necessariamente la strategia migliore. Le preoccupazioni delle società e dei governi in materia in effetti pareggiano, talvolta, la consapevolezza delle opportunità offerte dall’intelligenza artificiale. E la Commissione Europea ha avviato un processo di regolamentazione con la sua proposta di AI Act, pubblicata nell’aprile 2021 e che sta procedendo nella discussione tra le istituzioni europee. La discussione, attualmente, è particolarmente concentrata su quanto la proposta uscita dalla Commissione sia in grado di inchiodare alle loro responsabilità non soltanto i provider di soluzioni applicative, ma anche i fornitori originali delle tecnologie di base, come Google, Amazon, Microsoft e altri.
L’AI Act vuole costruire un mercato europeo nel quale i cittadini possano riporre fiducia e le imprese possano sviluppare innovazione socialmente utile. La proposta vuole proteggere i cittadini dai rischi eccessivi che certe applicazioni possono generare per le società senza frenare l’innovazione e dovrebbe essere valida non solo per le aziende europee ma anche per tutte le aziende che vogliano fare affari in Europa. Ci si aspetta che questa legislazione possa ispirare anche altri sistemi politici ad adottarne di simili. Per come funziona attualmente, la filiera dell’intelligenza artificiale è guidata dagli investimenti miliardari di aziende come Amazon, Google e Microsoft nello sviluppo di tecnologie generaliste. Queste servono ad analizzare enormi insiemi di dati, con immagini o testi, con una vasta varietà di obiettivi. I giganti digitali le usano per i propri scopi. Oppure le danno in licenza ad altre aziende. Microsoft, per esempio, offre in licenza il GPT- 3, modello linguistico dotato di capacità eccezionali, ai clienti del suo servizio di cloud computing. Altre aziende possono dunque usarlo per i propri scopi o rivendere il servizio: per esempio sviluppando “chatbot”, soluzioni per riassumere e classificare grandi insiemi di documenti, gestire complesse operazioni di marketing anche attraverso i social network. Altri ancora possono usarle per costruire sistemi di valutazione del comportamento dei consumatori e dei cittadini allo scopo di decidere se questi sono meritevoli di un trattamento speciale. Infine, altri possono decidere di usarle per compiere operazioni di riconoscimento facciale o altro. Le grandi aziende possono decidere di concedere le loro tecnologie per qualsiasi utilizzo o limitare l’utilizzo.
Proprio su questa base una parte del ceto politico europeo, a partire dalla Francia, propone che le responsabilità previste dall’AI Act non ricadano solo sulle aziende che producono le applicazioni, previste dalla normativa, ma anche dai produttori delle tecnologie di base che abilitano quelle applicazioni. Le lobby sono al lavoro. I politici anche. Ma una soluzione potrebbe emergere: maggiore trasparenza nella produzione di intelligenza artificiale potrebbe aprire la strada a tecnologie più socialmente accettabili. Un angolo del problema che vale la pena di sviluppare.
‘ La maggior trasparenza nella produzione di Ai potrebbe favorire tecnologie che siano più
socialmente accettabili