‘Macchine che ragionano come umani’
I padrini dell’intelligenza artificiale sono convinti di poter creare strumenti capaci di ragionare come gli umani. ‘Ma non dobbiamo temere che prendano il sopravvento: l’importante è allineare il loro funzionamento ai nostri valori’.
A dirlo è uno dei massimi esperti del settore, l’italiana Francesca Rossi, che ha presieduto la recente AAAI-20 di New York, la più importante conferenza internazionale sul tema.
Dal palco Yoshua Bengio, Geoffrey Hinton e Yann LeCun – vincitori nel 2018 del premio Turing (il Nobel dell’informatica), soprannominati i ‘padrini dell’IA’ – hanno illustrato le frontiere della ricerca: spingere ancora più in là il deep learning delle macchine, che oggi imparano a risolvere problemi e prendere decisioni sulla base di un’enorme mole di dati ed esempi, senza però capire che cosa fanno. ‘Ispirandosi al modo in cui noi umani ragioniamo e prendiamo decisioni, la ricerca è sempre più collegata alla neuroscienza e alla psicologia’, spiega Rossi, 57 anni, nata ad Ancona.
Regole e pregiudizi
Se oggi la discussione è arrivata a questo livello, lo si deve al lavoro di scienziati come Rossi, che si occupa di intelligenza artificiale fin da quando studiava informatica a Pisa, appassionandosi poi alle questioni dell’impatto dell’IA sulle società durante un anno sabbatico al Radcliffe institute di Harvard, nel 2014, arrivato dopo vent’anni di insegnamento, prima a Pisa e poi a Padova. Ha anche fatto parte dell’advisory board dell’istituto di ricerca Future of life, finanziato in parte dal papà di Tesla, Elon Musk. Dall’ottobre 2015 Rossi lavora nello storico centro di ricerca a Yorktown Heights, nello Stato di New York, per l’Ibm, di cui è global leader sull’Etica dell’intelligenza artificiale. In questa veste andrà venerdì in Vaticano per la pubblicazione del documento ‘Rome call for AI ethics’, promosso dalla Pontificia accademia per la vita, che vede fra i primi firmatari la stessa Ibm, oltre a Microsoft.
Quali dati ed esempi immettere nel cervello degli apparecchi
«Fino a pochi anni fa tutta l’attenzione era solo sulla quantità di dati e di esempi con cui allenare le macchine per ridurre al minimo gli errori – racconta Rossi –. Ora invece ci chiediamo quali dati ed esempi dobbiamo immettere nel cervello delle macchine: se per esempio sono scelti con dei pregiudizi il risultato sarà sbilanciato ai danni di alcune categorie di persone».
‘I robot intelligenti vanno programmati in modo imparziale, educando studenti e sviluppatori a riconoscere ed evitare i pregiudizi’
Un caso famoso in America, citato da Rossi, è l’algoritmo di IA usato per anni dai giudici per decidere se concedere la libertà provvisoria agli incriminati, sulla base di precedenti statistiche che stabilivano il rischio di ripetere il crimine. «L’algoritmo era sbilanciato, segnalava per le persone di colore un rischio di recidiva molto più alto rispetto ai bianchi, anche se la realtà era diversa – spiega la scienziata –. Ma le macchine intelligenti vanno programmate in modo imparziale, educando studenti e sviluppatori a riconoscere ed evitare i pregiudizi».
Cosa si intende per correttezza?
Non può essere una discussione solo fra addetti ai lavori, sottolinea Rossi: «La comunità deve discutere su che cosa si intende per correttezza nell’intelligenza artificiale. È ciò che facciamo nella Partnership on AI (Pai), nata dalla collaborazione tra sei aziende (Amazon, Apple, Facebook, Google, Ibm e Microsoft), oggi allargata a cento membri, compresi centri di ricerca universitari, agenzie Onu, attivisti».
Riconoscimento facciale, tema caldo
Un tema caldo è il riconoscimento facciale. Tutti i sistemi di intelligenza artificiale hanno margini di errore dovuti alla loro flessibilità, ricorda la scienziata: «Con la facial recognition ti possono riconoscere per strada anche se non sei tu (falso positivo), il che va bene se si sta cercando qualcuno scomparso, ma è grave se vieni incriminato per qualcosa che non hai fatto. Quindi i meccanismi di funzionamento delle macchine intelligenti che prendono queste decisioni devono essere trasparenti, non possono essere scatole nere».
Rubano posti di lavoro?
Gli scettici dell’IA temono che i robot umanizzati possano rubare posti di lavoro. «In Ibm abbiamo fatto uno studio su decenni di uso dell’intelligenza artificiale nelle fabbriche e negli uffici – dice Rossi –.
Ebbene, tutti i lavori sono stati trasformati dalla tecnologia. Ma gli uomini sono sempre lì. Si credeva che i radiologi sarebbero stati sostituiti dalle macchine, e invece succede che i medici, con la loro esperienza professionale e umana, sono sempre necessari per interpretare le analisi prodotte». Il futuro, dunque? «Le macchine interagiranno con le persone e noi dovremo imparare a lavorare con loro».