QUA­SI VE­RI

Ca­pi­sco­no le no­stre emo­zio­ni e fin­go­no di aver­ne. In fu­tu­ro, i ro­bot sa­ran­no al­lea­ti o ne­mi­ci dell’uo­mo?

Focus Extra - - Su­ma­rio -

Ca­pi­sco­no le emo­zio­ni e fin­go­no di aver­ne. In fu­tu­ro i ro­bot sa­ran­no ne­mi­ci o al­lea­ti dell’uo­mo?

Non sa­rà il pri­mo ro­bot-po­li­ziot­to del mon­do, per­ché al­tri ne so­no già en­tra­ti in ser­vi­zio in Ci­na, nel 2016. Ma il Ro­bo­cop di Du­bai, di cui han­no par­la­to a mag­gio i me­dia di tut­to il mon­do, è il pri­mo uma­noi­de per la pub­bli­ca si­cu­rez­za ca­pa­ce di leg­ge­re le emo­zio­ni e gli sta­ti d’ani­mo del­le per­so­ne. In­fat­ti, ri­por­ta­no i suoi crea­to­ri, può ca­pi­re se qual­cu­no si sta com­por­tan­do in mo­do ano­ma­lo, se è pre­oc­cu­pa­to da un con­trol­lo di po­li­zia o se è agi­ta­to. E lo fa sen­za ave­re do­ti da psi­ca­na­li­sta o da in­ve­sti­ga­to­re dell’Fbi, ma gra­zie a tec­no­lo­gie di in­tel­li­gen­za ar­ti­fi­cia­le che si ba­sa­no su al­go­rit­mi in gra­do di as­so­cia­re a una va­sta gam­ma di espres­sio­ni fac­cia­li un cor­ri­spon­den­te sta­to d’ani­mo. So­no si­ste­mi in stu­dio da an­ni, che esa­mi­na­no la geo­me­tria del vi­so e, in par­ti­co­la­re, l’an­go­la­zio­ne e la cur­va­tu­ra di boc­ca e so­prac­ci­glia, per sta­bi­li­re il pro­ba­bi­le sta­to d’ani­mo di una per­so­na.

POS­SI­BI­LI SVA­RIO­NI. Ad al­go­rit­mi di que­sto ti­po la­vo­ra­no i prin­ci­pa­li grup­pi di ri­cer­ca in in­tel­li­gen­za ar­ti­fi­cia­le del mon­do, com­pre­so il Cen­ter for Brains, Minds and Ma­chi­nes del Mit di Bo­ston, di­ret­to dal ge­no­ve­se To­ma­so Pog­gio, a buon di­rit­to con­si­de­ra­to uno dei pa­dri di que­sta nuo­va scien­za. Pog­gio ha an­che av­via­to gli stu­di che han­no por­ta­to a rea­liz­za­re l’al­go­rit­mo di Goo­gle in gra­do di ef­fet­tua­re il ri­co­no­sci­men­to fac­cia­le, cioè di in­di­vi­dua­re, par­ten­do dal­la fo­to di una per­so­na, tut­te quel­le che la ri­trag­go­no tra i mi­liar­di e mi­liar­di di im­ma­gi­ni pub­bli­ca­te sul web. Ed è con­vin­to che,

per quan­to straor­di­na­ri, i si­ste­mi per l’ana­li­si del­le emo­zio­ni sia­no an­co­ra lon­ta­ni dal com­pren­de­re ve­ra­men­te le sen­sa­zio­ni che pro­va una per­so­na. «Per esem­pio – af­fer­ma – nes­sun ro­bot è an­co­ra in gra­do di ca­pi­re se due per­so­ne ab­brac­cia­te si stan­no scam­bian­do ef­fu­sio­ni op­pu­re stan­no lot­tan­do tra lo­ro». Una mag­gio­re ac­cu­ra­tez­za po­treb­be pe­rò ar­ri­va­re da ri­cer­che mol­to re­cen­ti, che pren­do­no in con­si­de­ra­zio­ne aspet­ti me­no evi­den­ti del­le espres­sio­ni emo­ti­ve. «Si sta la­vo­ran­do a tec­no­lo­gie in gra­do di per­ce­pi­re an­che l’au­men­to del bat­ti­to car­dia­co e del­la su­do­ra­zio­ne, due ma­ni­fe­sta­zio­ni fi­sio­lo­gi­che stret­ta­men­te as­so­cia­te al­le emo­zio­ni, in mo­do da ag­giun­ge­re an­che que­sti da­ti a quel­li del­la sem­pli­ce ana­li­si fac­cia­le e ar­ri­va­re a un’ap­pros­si­ma­zio­ne più fe­de­le al­la real­tà», spie­ga Fran­ce­sco No­ri, scien­zia­to dell’Isti­tu­to ita­lia­no di tec­no­lo­gia di Ge­no­va, im­pe­gna­to nel­lo svi­lup­po del ro­bot uma­noi­de iCub e di­ret­to­re del pro­get­to di ri­cer­ca eu­ro­peo An­dy, che ha lo sco­po di rea­liz­za­re ro­bot in­du­stria­li ca­pa­ci di ca­pi­re e an­ti­ci­pa­re le in­ten­zio­ni del­le per­so­ne. «Si trat­ta, co­mun­que, di si­ste­mi che fun­zio­na­no in mo­do mol­to di­ver­so dal­la per­ce­zio­ne uma­na del­le emo­zio­ni, che si ba­sa in­ve­ce sull’em­pa­tia».

MAC­CHI­NE EM­PA­TI­CHE. L’em­pa­tia è la ca­pa­ci­tà, ti­pi­ca­men­te uma­na, di met­ter­si nei pan­ni de­gli al­tri e ca­pi­re al vo­lo che co­sa pro­vi­no (ve­di ar­ti­co­lo a pag. 26). È le­ga­ta all’at­ti­vi­tà dei neu­ro­ni spec­chio, che han­no la ca­rat­te­ri­sti­ca «di at­ti­var­si sia quan­do com­pia­mo un’azio­ne sia quan­do ve­dia­mo al­tri che la com­pio­no», spie­ga No­ri. «Que­sto sem­bra sug­ge­ri­re che se non ab­bia­mo mai pro­va­to una cer­ta emo­zio­ne non sa­re­mo nean­che in gra­do di per­ce­pir­la ne­gli al­tri. Per noi in­ge­gne­ri, que­sta idea si tra­du­ce in ipo­te­si di la­vo­ro mol­to pre­ci­se». Per esem­pio, c’è chi teo­riz­za che i ro­bot po­treb­be­ro ac­qui­si­re una mag­gio­re sen­si­bi­li­tà per le emo­zio­ni uma­ne se fos­se­ro do­ta­ti di un ap­pa­ra­to sen­so­ria­le si­mi­le, per quan­to pos­si­bi­le, al no­stro. «Le emo­zio­ni non na­sco­no sol­tan­to da sti­mo­li vi­si­vi o udi­ti­vi, ma an­che dal con­tat­to con al­tre per­so­ne», di­ce No­ri. «Se qual­cu­no mi ac­ca­rez­za o mi spin­ge, ge­ne­ra in me rea­zio­ni mol­to di­ver­se. Que­sto è il mo­ti­vo per cui ab­bia­mo do­ta­to iCub di una “pel­le” ric­ca di sen­so­ri, che con­sen­to­no al ro­bot di rea­gi­re a con­tat­ti con per­so­ne e og­get­ti».

Le mac­chi­ne non pro­va­no (an­co­ra) né emo­zio­ni né sen­ti­men­ti. Ma rie­sco­no a su­sci­tar­li nel­le per­so­ne che in­te­ra­gi­sco­no con lo­ro

EMO­ZIO­NA­TI E IN­TEL­LI­GEN­TI. Ma an­che la for­ma del ro­bot è im­por­tan­te. «La con­for­ma­zio­ne del cor­po uma­no ha un ruo­lo es­sen­zia­le nel­la no­stra ca­pa­ci­tà di in­te­ra­gi­re con il mon­do e ri­ca­var­ne sti­mo­li ed

emo­zio­ni», di­ce an­co­ra No­ri. Il fat­to, quin­di, di svi­lup­pa­re ro­bot uma­noi­di ha an­che l’obiet­ti­vo di in­dur­re nel­le mac­chi­ne del­le emo­zio­ni, che so­no par­te in­te­gran­te dell’in­tel­li­gen­za. «Un’in­te­ra bran­ca del­la ro­bo­ti­ca si sta svi­lup­pan­do sul pre­sup­po­sto che non pos­sa es­ser­ci una ve­ra in­tel­li­gen­za ar­ti­fi­cia­le in as­sen­za di emo­zio­ni», pun­tua­liz­za l’esper­to.

SE IL RO­BOT CHIE­DE SCU­SA. In real­tà, nes­su­no ha an­co­ra co­strui­to mac­chi­ne ca­pa­ci di pro­va­re sen­ti­men­ti. So­no pe­rò sta­ti rea­liz­za­ti ro­bot che san­no fin­ge­re al­la per­fe­zio­ne. Uno di lo­ro è Bert 2, svi­lup­pa­to dall’Uni­ver­si­tà di Bri­stol, pro­ta­go­ni­sta nell’ago­sto 2016 di un espe­ri­men­to si­gni­fi­ca­ti­vo. Bert ave­va il com­pi­to di aiu­ta­re dei vo­lon­ta­ri a pre­pa­ra­re un’ome­let­te, por­gen­do lo­ro del­le uo­va (fin­te, in real­tà). Se ne fa­ce­va ca­de­re una, la sua espres­sio­ne era pro­gram­ma­ta per tra­mu­tar­si da fe­li­ce a tri­ste. Al­la fi­ne dell’espe­ri­men­to, il ro­bot chie­de­va ai suoi in­ter­lo­cu­to­ri uma­ni se lo avreb­be­ro as­sun­to co­me aiu­to cuo­co in un lo­ro ipo­te­ti­co ri­sto­ran­te. «In mol­ti gli han­no det­to di sì, an­che se ave­va for­ni­to una pre­sta­zio­ne pes­si­ma, pur di non fe­rir­lo», os­ser­va Ker­stin Eder, al­la gui­da del grup­po che si oc­cu­pa di ve­ri­fi­ca e va­li­da­zio­ne del­la si­cu­rez­za dei ro­bot all’Uni­ver­si­tà di Bri­stol. In al­tre pa­ro­le, gli uo­mi­ni so­no ar­ri­va­ti a men­ti­re a un ro­bot pur di non of­fen­de­re la sua su­scet­ti­bi­li­tà, sol­tan­to per­ché ave­va un aspet­to uma­no e mo­stra­va in qual­che mo­do di po­ter­si emo­zio­na­re.

CO­ME CUC­CIO­LI. La ca­pa­ci­tà dei ro­bot di su­sci­ta­re sen­ti­men­ti nel­le per­so­ne con cui in­te­ra­gi­sco­no è sfrut­ta­ta in di­ver­si con­te­sti. So­no in­fat­ti già di­ver­si i ro­bot svi­lup­pa­ti su que­sta ba­se, e uti­liz­za­ti a sco­po me­di­co o ria­bi­li­ta­ti­vo. Pa­ro, per esem­pio, ha l’aspet­to di un cuc­cio­lo di fo­ca ed è sta­to pen­sa­to per es­se­re te­nu­to sul­le gi­noc­chia e ac­ca­rez­za­to, co­sì da crea­re un sen­so di cal­ma e di re­lax nei suoi uti­liz­za­to­ri. Svi­lup­pa­to dall’azien-

da giap­po­ne­se Ai­st, è sta­to te­sta­to con suc­ces­so in va­ri ospe­da­li su pa­zien­ti sot­to for­te stress e su per­so­ne an­zia­ne, con ri­sul­ta­ti in­co­rag­gian­ti. Si­mi­le, ma più estre­mo, è il con­cet­to del te­le­noi­de, un ro­bot spe­ri­men­ta­le mes­so a pun­to all’Uni­ver­si­tà di Osa­ka dal team di Hi­ro­shi Ishi­gu­ro. Si trat­ta di un ro­bot dall’aspet­to si­mi­le a quel­lo di un neo­na­to, ri­co­per­to da una mor­bi­da pel­le bian­ca. Si tie­ne sul­le gi­noc­chia e per­met­te di co­mu­ni­ca­re con per­so­ne lon­ta­ne, co­me un te­le­fo­no. Ol­tre al­la vo­ce, pe­rò, è in gra­do di ri­pro­dur­re an­che i mo­vi­men­ti del­le brac­cia e del ca­po di chi sta par­lan­do. È sta­to pen­sa­to per per­so­ne an­zia­ne e so­le, per far sen­ti­re lo­ro an­che in mo­do fi­si­co la vi­ci­nan­za di fi­gli lon­ta­ni. Ma si è ri­ve­la­to mol­to ef­fi­ca­ce an­che con bam­bi­ni che sof­fro­no di di­stur­bi del­lo spet­tro au­ti­sti­co o con dif­fi­col­tà di in­se­ri­men­to

con i lo­ro coe­ta­nei. An­che Ka­spar, un uma­noi­de che so­mi­glia a un bam­bi­no di cir­ca tre an­ni, svi­lup­pa­to nell’uni­ver­si­tà bri­tan­ni­ca dell’Hert­ford­shi­re, si è di­mo­stra­to ef­fi­ca­ce per l’au­ti­smo. La sua ric­ca do­ta­zio­ne di sen­so­ri gli per­met­te di ri­spon­de­re al con­tat­to con i pic­co­li pa­zien­ti, in­co­rag­gian­do al­cu­ni ti­pi di in­te­ra­zio­ni fi­si­che e sco­rag­gian­do in­ve­ce quel­le non ap­pro­pria­te.

A LET­TO CON L’AN­DROI­DE. Nell’in­ter­scam­bio emo­zio­na­le tra uo­mi­ni e mac­chi­ne gio­ca un ruo­lo mol­to im­por­tan­te an­che il ba­ga­glio cul­tu­ra­le, so­cia­le e di tra­di­zio­ni che ognu­no di noi si por­ta die­tro. Lo han­no di­mo­stra­to stu­di con­dot­ti con uma­noi­di estre­ma­men­te ve­ro­si­mi­li, qua­si del­le re­pli­che dell’es­se­re uma­no, co­me i ge­mi­noi­di, crea­ti an­ch’es­si dal giap­po­ne­se Hi­ro­shi Ishi­gu­ro, o co­me Na­di­ne, idea­ta da Na­dia Thal­mann, di­ret­tri­ce dell’Isti­tu­to di in­no­va­zio­ne dei me­dia dell’Uni­ver­si­tà di Sin­ga­po­re. Sem­pli­fi­can­do mol­to, da que­sti stu­di è emer­so è che in Giap­po­ne, do­ve pre­do­mi­na una cul­tu­ra ani­mi­sta, ro­bot mol­to si­mi­li all’uo­mo so­no mol­to ap­prez­za­ti ed eser­ci­ta­no an­che una cer­ta for­ma di sen­sua­li­tà, tan­to da por­ta­re al­lo svi­lup­po di ve­ri e pro­pri “se­xy ro­bot”. In Oc­ci­den­te, in­ve­ce, gli uma­noi­di ge­ne­ra­no ti­mo­re, smar­ri­men­to e in­quie­tu­di­ne. Nel­lo svi­lup­po di mac­chi­ne so­cia­li, in gra­do di in­te­ra­gi­re con noi in mo­do co­strut­ti­vo, sa­rà quin­di fon­da­men­ta­le te­ne­re con­to del­le di­ver­si­tà cul­tu­ra­li: l’idea di un ro­bot uni­ver­sa­le, ca­pa­ce di dia­lo­ga­re con tut­ti co­me una per­so­na in car­ne e os­sa, re­ste­rà pro­ba­bil­men­te un’uto­pia. Ric­car­do Ol­da­ni

I giap­po­ne­si su­bi­sco­no il fa­sci­no e il sex ap­peal dei ro­bot uma­noi­di. Che in­ve­ce, fra gli oc­ci­den­ta­li, su­sci­ta­no ti­mo­re e dif­fi­den­za

Si­mi­li a noi nell’aspet­to, i ro­bot uma­noi­di po­treb­be­ro un gior­no pro­va­re an­che sen­ti­men­ti.

Pa­ro, la pic­co­la fo­ca mec­ca­ni­ca idea­ta in Giap­po­ne, uti­liz­za­ta per la ria­bi­li­ta­zio­ne ne­gli an­zia­ni.

Fo­to ri­cor­do con il ro­bot po­li­ziot­to in ser­vi­zio a Du­bai, pro­get­ta­to per leg­ge­re le emo­zio­ni del­le per­so­ne.

iCub, svi­lup­pa­to all’Isti­tu­to ita­lia­no di tec­no­lo­gia (Iit) di Ge­no­va. Al­to 104 cm, agi­sce co­me un bam­bi­no di 3 an­ni.

Un sel­fie con uno de­gli uma­noi­di pro­get­ta­ti dal giap­po­ne­se Hi­ro­shi Ishi­gu­ro.

Ro­bot dal­le sem­bian­ze uma­ne espo­sti al Mu­seo del­la scien­za di Lon­dra, du­ran­te una mo­stra.

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.