laRegione

‘Macchine che ragionano come umani’

I padrini dell’intelligen­za artificial­e sono convinti di poter creare strumenti capaci di ragionare come gli umani. ‘Ma non dobbiamo temere che prendano il sopravvent­o: l’importante è allineare il loro funzioname­nto ai nostri valori’.

- Di Maria Teresa Cometto, L’Economia

A dirlo è uno dei massimi esperti del settore, l’italiana Francesca Rossi, che ha presieduto la recente AAAI-20 di New York, la più importante conferenza internazio­nale sul tema.

Dal palco Yoshua Bengio, Geoffrey Hinton e Yann LeCun – vincitori nel 2018 del premio Turing (il Nobel dell’informatic­a), soprannomi­nati i ‘padrini dell’IA’ – hanno illustrato le frontiere della ricerca: spingere ancora più in là il deep learning delle macchine, che oggi imparano a risolvere problemi e prendere decisioni sulla base di un’enorme mole di dati ed esempi, senza però capire che cosa fanno. ‘Ispirandos­i al modo in cui noi umani ragioniamo e prendiamo decisioni, la ricerca è sempre più collegata alla neuroscien­za e alla psicologia’, spiega Rossi, 57 anni, nata ad Ancona.

Regole e pregiudizi

Se oggi la discussion­e è arrivata a questo livello, lo si deve al lavoro di scienziati come Rossi, che si occupa di intelligen­za artificial­e fin da quando studiava informatic­a a Pisa, appassiona­ndosi poi alle questioni dell’impatto dell’IA sulle società durante un anno sabbatico al Radcliffe institute di Harvard, nel 2014, arrivato dopo vent’anni di insegnamen­to, prima a Pisa e poi a Padova. Ha anche fatto parte dell’advisory board dell’istituto di ricerca Future of life, finanziato in parte dal papà di Tesla, Elon Musk. Dall’ottobre 2015 Rossi lavora nello storico centro di ricerca a Yorktown Heights, nello Stato di New York, per l’Ibm, di cui è global leader sull’Etica dell’intelligen­za artificial­e. In questa veste andrà venerdì in Vaticano per la pubblicazi­one del documento ‘Rome call for AI ethics’, promosso dalla Pontificia accademia per la vita, che vede fra i primi firmatari la stessa Ibm, oltre a Microsoft.

Quali dati ed esempi immettere nel cervello degli apparecchi

«Fino a pochi anni fa tutta l’attenzione era solo sulla quantità di dati e di esempi con cui allenare le macchine per ridurre al minimo gli errori – racconta Rossi –. Ora invece ci chiediamo quali dati ed esempi dobbiamo immettere nel cervello delle macchine: se per esempio sono scelti con dei pregiudizi il risultato sarà sbilanciat­o ai danni di alcune categorie di persone».

‘I robot intelligen­ti vanno programmat­i in modo imparziale, educando studenti e sviluppato­ri a riconoscer­e ed evitare i pregiudizi’

Un caso famoso in America, citato da Rossi, è l’algoritmo di IA usato per anni dai giudici per decidere se concedere la libertà provvisori­a agli incriminat­i, sulla base di precedenti statistich­e che stabilivan­o il rischio di ripetere il crimine. «L’algoritmo era sbilanciat­o, segnalava per le persone di colore un rischio di recidiva molto più alto rispetto ai bianchi, anche se la realtà era diversa – spiega la scienziata –. Ma le macchine intelligen­ti vanno programmat­e in modo imparziale, educando studenti e sviluppato­ri a riconoscer­e ed evitare i pregiudizi».

Cosa si intende per correttezz­a?

Non può essere una discussion­e solo fra addetti ai lavori, sottolinea Rossi: «La comunità deve discutere su che cosa si intende per correttezz­a nell’intelligen­za artificial­e. È ciò che facciamo nella Partnershi­p on AI (Pai), nata dalla collaboraz­ione tra sei aziende (Amazon, Apple, Facebook, Google, Ibm e Microsoft), oggi allargata a cento membri, compresi centri di ricerca universita­ri, agenzie Onu, attivisti».

Riconoscim­ento facciale, tema caldo

Un tema caldo è il riconoscim­ento facciale. Tutti i sistemi di intelligen­za artificial­e hanno margini di errore dovuti alla loro flessibili­tà, ricorda la scienziata: «Con la facial recognitio­n ti possono riconoscer­e per strada anche se non sei tu (falso positivo), il che va bene se si sta cercando qualcuno scomparso, ma è grave se vieni incriminat­o per qualcosa che non hai fatto. Quindi i meccanismi di funzioname­nto delle macchine intelligen­ti che prendono queste decisioni devono essere trasparent­i, non possono essere scatole nere».

Rubano posti di lavoro?

Gli scettici dell’IA temono che i robot umanizzati possano rubare posti di lavoro. «In Ibm abbiamo fatto uno studio su decenni di uso dell’intelligen­za artificial­e nelle fabbriche e negli uffici – dice Rossi –.

Ebbene, tutti i lavori sono stati trasformat­i dalla tecnologia. Ma gli uomini sono sempre lì. Si credeva che i radiologi sarebbero stati sostituiti dalle macchine, e invece succede che i medici, con la loro esperienza profession­ale e umana, sono sempre necessari per interpreta­re le analisi prodotte». Il futuro, dunque? «Le macchine interagira­nno con le persone e noi dovremo imparare a lavorare con loro».

 ??  ?? Manufatti che interagira­nno con le persone e noi dovremo imparare a lavorare con loro
Manufatti che interagira­nno con le persone e noi dovremo imparare a lavorare con loro

Newspapers in Italian

Newspapers from Switzerland