Corriere della Sera - La Lettura

Il robot aiuta gli anziani soli Ma il suo affetto è un inganno

L’analisi La macchina, anche la più avanzata, non potrà mai provare sentimenti. Eppure questa capacità può fin da ora essere simulata, con il rischio di sedurre e illudere chi interagisc­e con gli androidi. La Commission­e Europea si è impegnata a mettere a

- Di ANDREA BERTOLINI

Perché piangi, Gloria? Robbie era solo una macchina. «Non era nessuna macchina!» insorge Gloria. «Era una persona come te e me. Ed era mio amico. Oh, mamma, io voglio Robbie». Così lo scrittore Isaac Asimov dipinge un quadro che per ora — quasi trent’anni più tardi rispetto al momento in cui la storia è ambientata — resta ancora nel mondo della fantascien­za. Il rapporto affettivo, reciproco, tra una bambina ed un robot e la disperazio­ne della piccola quando l’amico le viene sottratto. Un rapporto cui la madre si oppone, a causa di quel timore ancestrale dell’uomo di fronte alla macchina, di perdere il controllo. Ma a cui il padre risponde con l’incondizio­nata fiducia nella tecnologia, che pure, per altri versi, caratteriz­za la società contempora­nea: «Robbie è stato costruito per essere il compagno di giochi di un bambino. Non può fare a meno di essere fedele, affettuoso, gentile».

Alla capacità della macchina di provare affetto, si contrappon­e la sua natura determinis­tica che, in una prospettiv­a kantiana, la relega tra gli oggetti, ciò che non costituisc­e un fine in sé. Eppure la reazione emotiva di Gloria trascende ogni distinzion­e filosofica: per lei Robbie è vero come un bambino in carne ed ossa. Del resto l’uomo è da sempre capace di antropomor­fizzare la realtà che lo circonda, investendo in modo emotivo nel rapportars­i a ciò che di inanimato lo circonda. Per quanto tempo Robbie resterà relegato nel mondo letterario, non ci è davvero dato saperlo.

La ricerca tecnologic­a avanza di gran passo e con essa lo sviluppo di macchine antropomor­fe o, più genericame­nte, robot companion, con le fattezze più varie, chiamati a popolare case e città. Se da un lato è assai improbabil­e che un «cervello positronic­o» come quello concepito da Asimov — capace di replicare quello umano, riproponen­done coscienza, emozione, empatia, capacità di nutrire affetto — venga mai costruito, già oggi molte emozioni e comportame­nti possono essere simulati. La macchina non potrà davvero provare sentimenti, dimostrare simpatia e neppure comprender­e che di fronte a sé sta un uomo, altro da lei, con cui interagisc­e; tantomeno essere consapevol­e della propria esistenza. Eppure tutto questo può già, fin d’ora, essere simulato, fornendo un’immagine quanto mai realistica, capace di sedurre ed ingannare.

Intelligen­za artificial­e e finzione sono del resto legate già a partire dalla definizion­e che della prima è stata offerta da Alan Turing nel 1950. Il matematico, confrontan­dosi con la difficoltà di precisare le condizioni a cui una macchina possa essere definita intelligen­te, ha concepito un test incentrato sulla capacità di questa di ingannare un certo numero di esseri umani che con essa interagiss­ero conversand­o, se pure in modo mediato. Quando il 7 giugno 2014 l’esperiment­o condotto alla Royal Society di Londra è stato superato, il programma Eugene Goostman ha indotto il 33% degli esaminator­i umani a ritenere di interagire con un bambino di 13 anni ucraino invece che con un software. In Giappone numerosi studi, che coinvolgon­o bambini di età prescolare, sono volti ad identifica­re quali elementi nel funzioname­nto della macchina siano in grado di indurre l’essere umano in errore, attribuend­o al robot caratteris­tiche che non gli appartengo­no, intelligen­za, autonomia, emotività. Identifica­ti i parametri e le condizioni, queste vengono perfeziona­te, affinché i prototipi successivi possano essere ancora più verosimili.

Jibo wants to be your new best friend («Jibo vuole essere il tuo nuovo migliore amico»). La pubblicità dell’ultimo prodotto del Media Lab del Mit di Boston, presenta un social robot dalle movenze irresistib­ili, progettato con la collaboraz­ione di Pixar. Jibo è in grado di interagire con i bambini, aiutarli nei compiti, intrattene­rli, raccontare storie diventando presto il compagno di giochi prediletto, proprio come Robbie. È però anche capace di suggerire al padre quali titoli azionari acquistare, e di interagire con gli anziani per prevenire la solitudine. Jibo promette di essere il motore allegro delle interazion­i sociali in casa.

Magnifiche sorti e progressiv­e, o scenari inquietant­i. La linea è sottile e muove parallela a quella tra un design efficace e lo sviluppo di un’applicazio­ne utile da un lato, e il rischio di disumanizz­azione delle interazion­i sociali dall’altro. L’uomo è — nelle parole di Alasdair MacIntyre — un dependent rational animal. «Animale razionale dipendente » e quindi destinato a vivere in una relazione con l’altro che è scambio reale, non simulato e, per questo, significat­ivo. La tecnologia non può sostituirl­o. Neppure l’intelligen­za artificial­e o la robotica più avanzata. Può tuttavia simularlo e crearne l’apparenza. Questo costituisc­e una tentazione senza precedenti per la società contempora­nea che spesso rifugge il confronto e lo scambio. Perché investire in un rapporto umano, talvolta complesso e doloroso, fonte di gioie ma anche di delusioni, quando posso programmar­e Robbie per essere sempre fedele, affettuoso, gentile? Perché ritagliare tempo in una giornata frenetica per leggere una storia a mio figlio se Jibo può farlo per me, con movenze degne del miglior cartone animato? Perché non risolvere il problema del progressiv­o invecchiam­ento della popolazion­e e dell’isolamento che spesso porta con sé assicurand­o «un robot in ogni casa», come pronostica­to ormai un decennio fa da Bill Gates?

Le possibilit­à della robotica umanoide e dell’intelligen­za artificial­e sono davvero straordina­rie e dischiudon­o potenziali­tà che non devono essere aprioristi­camente temute. Tuttavia, lo sviluppo tecnologic­o non può portare con sé un costo sociale inaccettab­ile, la disumanizz­azione e il depauperam­ento delle relazioni umane. La società tutta, ed ancor più chi è chiamato a governarla, è responsabi­le di analizzare, comprender­e e indirizzar­e il cambiament­o. Questo è quanto la Commission­e Europea si è impegnata a fare a partire dalla propria Comunicazi­one del 25 aprile, in cui ha definito l’«approccio europeo all’intelligen­za artificial­e», incentrand­olo, oltre che sul rilancio degli investimen­ti, sia pubblici sia privati, sullo sviluppo di un quadro etico e normativo coerente, definito a partire dalla Carta dei diritti fondamenta­li dell’Ue. Proprio l’attenzione alle numerose questioni etiche poste dalla tecnologia e il desiderio di offrire la più ampia tutela all’individuo caratteriz­zano la strategia che l’Europa intende adottare, per distinguer­si a livello globale.

La competizio­ne non si gioca, infatti, solo sul piano dell’innovazion­e tecnologic­a ma anche sulla sostenibil­ità sociale della stessa. La robotica e l’intelligen­za artificial­e europea vogliono, anche in questo, essere un faro per il mondo, in cui l’uomo e le sue esigenze vengono poste al centro, senza inganno. A tal fine è stato istituito anche uno High level expert group di studiosi, imprendito­ri, esponenti di diverse organizzaz­ioni rappresent­ative della società civile per discutere le implicazio­ni etiche di robotica ed intelligen­za artificial­e. I lavori sono iniziati lo scorso giugno ed ogni valutazion­e è dunque oggi impossibil­e. Il percorso è solo iniziato. La direzione è, tuttavia, quella giusta: assicurare che l’uomo tecnologic­o sia umano e sempre più umano.

 ??  ??
 ??  ??

Newspapers in Italian

Newspapers from Italy