CHI HA PAU­RA DEL­LE INTELLIGENZE AR­TI­FI­CIA­LI?

Dal­la me­di­ci­na al­la guer­ra, le IA si stan­no svi­lup­pan­do ad una ve­lo­ci­tà ta­le che ci rie­sce dif­fi­ci­le ca­pi­re co­sa ne sa­rà di noi, co­me raz­za uma­na, nell’ar­co del pros­si­mo ven­ten­nio

Progress - - Contents - Raf­fae­le Gia­si

Ne­gli ul­ti­mi an­ni la di­scus­sio­ne sul­le intelligenze ar­ti­fi­cia­li si è par­ti­co­lar­men­te svi­lup­pa­ta. È in­ne­ga­bi­le che mol­to sia do­vu­to all’ov­vio svi­lup­po tec­no­lo­gi­co, che ha per­mes­so di pas­sa­re dal­lo svi­lup­po di me­ri pro­gram­mi di com­pu­ta­zio­ne (pen­sa­te ad esem­pio ai soft­ware scac­chi­sti­ci) a si­ste­mi di ma­chi­ne lear­ning, la cui bra­ma di in­for­ma­zio­ni per­met­te di es­se­re di sup­por­to in di­ver­si cam­pi uma­ni, in pri­mis quel­lo ana­li­ti­co. Vi­via­mo, in tal sen­so, un mo­men­to sto­ri­co in­cre­di­bi­le, e ba­sta una ri­cer­ca su Goo­gle del­le pa­ro­le “in­tel­li­gen­za ar­ti­fi­cia­le” per sco­pri­re un nu­go­lo di no­ti­zie che spa­zia­no dal­la po­li­ti­ca, al mon­do del la­vo­ro, dal ter­ro­ri­smo fi­no al­la me­di­ci­na. Quel che vie­ne da do­man­dar­si è se lo svi­lup­po del­le IA e del ma­chi­ne lear­ning pos­sa pe­rò tra­scen­de­re le re­go­le uma­ne, ov­ve­ro se una mac­chi­na do­ta­ta di in­tel­let­to pos­sa sop­pian­ta­re l’uo­mo o, in qual­che mi­su­ra, af­fian­car­ci­si fi­no ad in­fran­ge­re le fa­mo­se “leg­gi del­la ro­bo­ti­ca”. In ef­fet­ti que­sto pro­ble­ma, ov­ve­ro quel­lo re­la­ti­vo al­lo svi­lup­po del­le co­sid­det­te “su­per-intelligenze” pre­oc­cu­pa la co­mu­ni­tà scien­ti­fi­ca già da qual­che tem­po, com­pli­ce pro­prio lo svi­lup­po tec­ni­co e la ca­pa­ci­tà del­le mac­chi­ne di im­pa­ra­re. Le ap­pli­ca­zio­ni del ma­chi­ne lear­ning stan­no, ad esem­pio, im­pa­ran­do mol­tis­si­mo sui mo­ti ter­re­stri nel cam­po del­la pre­ven­zio­ne dei ter­re­mo­ti, co­sì co­me stan­no ca­pen­do co­me di­stin­gue­re i sin­to­mi vi­si­bi­li di al­cu­ne ma­lat­tie, co­me quel­le ocu­la­ri, per po­ter dia­gno­sti­ca­re (con scar­sis­si­ma per­cen­tua­le d’er­ro­re) le ma­lat­tie pri­ma che que­ste peg­gio­ri­no. Fin­tan­to che il ma­chi­ne lear­ning re­sta, in­som­ma, iso­la­to a spe­ci­fi­ci com­par­ti­men­ti tec­ni­ci, il pro­ble­ma sem­bre­reb­be ine­si­sten­te. Ep­pu­re val la pe­na chie­der­si co­sa do­ves­se ac­ca­de­re se, per ipo­te­si, un’in­tel­li­gen­za

Cre­de­re che le mac­chi­ne “fi­glie” del ma­chi­ne lear­ning non si evol­ve­ran­no mai è un pen­sie­ro utopico, per­ché è at­tra­ver­so lo svi­lup­po di quel­le IA che pos­sia­mo trar­re i mag­gio­ri van­tag­gi eco­no­mi­ci (e non) nei prin­ci­pa­li cam­pi del­lo svi­lup­po uma­no

ar­ti­fi­cia­le do­ves­se co­min­cia­re ad im­pa­ra­re con la ve­lo­ci­tà con cui si ri­pro­du­ce un vi­rus in­for­ma­ti­co. Se, par­ten­do da un pro­gram­ma, que­sto ac­qui­sti co­scien­za e co­min­ci a de­ci­de­re per sé co­me un es­se­re vi­ven­te. Le op­zio­ni sa­reb­be­ro, pro­ba­bil­men­te due: una so­sti­tu­zio­ne dell’es­se­re uma­no da par­te del­la mac­chi­na, o un af­fian­ca­men­to del­le due spe­cie. In en­tram­bi i ca­si la sin­te­si sa­reb­be, co­me im­ma­gi­na­to da Ste­phen Ha­w­king, la na­sci­ta di una nuo­va for­ma di vi­ta. La que­stio­ne del­la so­sti­tu­zio­ne è, pro­prio ne­gli ul­ti­mi me­si, uno dei te­mi cen­tra­li del mon­do del la­vo­ro. Nei prin­ci­pa­li pae­si svi­lup­pa­ti, do­ve si stan­no im­ma­gi­nan­do già le pri­me in­tro­du­zio­ni di IA, co­min­cia a sta­re a cuo­re, ad esem­pio, la sor­te del­la clas­se me­dia. Di quei la­vo­ra­to­ri che, in sin­te­si, ri­co­pro­no ruo­li de­di­ti all’abi­li­tà ma­nua­le e mo­to­ria, e non ma­na­ge­ria­le. Già ne­gli an­ni ‘80 Hans Mo­ra­vec, pio­nie­re nel­lo stu­dio del­le intelligenze ar­ti­fi­cia­li, e nell’ana­li­si del lo­ro pos­si­bi­le im­pat­to sul­la so­cie­tà, pre­sup­po­se che pro­prio il mon­do del la­vo­ro “me­dio” sa­reb­be sta­to quel­lo che avreb­be più sof­fer­to dell’ar­ri­vo del­le mac­chi­ne, poi­ché al­me­no in uno sta­dio ini­zia­le, ci si sa­reb­be ri­vol­ti a que­ste per la me­ra ma­nua­li­tà, es­sen­do in­ca­pa­ci (all’epo­ca) di ri­co­pri­re ruo­li che pre­ve­des­se­ro una ca­rat­te­ri­sti­ca fon­da­men­ta­le del pen­sie­ro uma­no: la scel­ta. Que­sto suc­ce­de­va or­mai 30 an­ni fa, no­no­stan­te al­le mac­chi­ne di al­lo­ra man­cas­se la fon­da­men­ta­le com­bi­na­zio­ne da­ta dal­la chia­ra per­ce­zio­ne del mon­do cir­co­stan­te e il re­la­ti­vo mo­vi­men­to che de­fi­ni­sce pro­pria­men­te un uo­mo adul­to. Og­gi, tut­ta­via, le co­se so­no ben di­ver­se, e le mac­chi­ne (per­si­no le IA sui vostri smart­pho­ne) han­no già un’idea più o me­no chia­ra di do­ve si tro­vi­no, di co­sa le cir­con­di, e di qua­li sia­no le lo­ro pos­si­bi­li­tà al di là di un uni­co sco­po pre­fis­sa­to. Ov­via­men­te sia­mo an­co­ra ai bor­di del­la fan­ta­scien­za, ma se pri­ma si im­ma­gi­na­va una di­stan­za tra l’uo­mo e la “sin­go­la­ri­tà” (il mo­men­to ideo­lo­gi­co in cui le mac­chi­ne pren­de­ran­no co­scien­za di sé) di al­me­no 100 o for­se 50 an­ni, fa ri­flet­te­re, e for­se pre­oc­cu­pa­re, che ora si ra­gio­ni in vir­tù di de­cen­ni, for­se un ven­ten­nio ap­pe­na. Il pro­ble­ma di­ven­te­rà quin­di: co­me pos­sia­mo re­go­la­re la di­spa­ri­tà che si cree­rà tra uo­mo e mac­chi­na? Que­sta do­man­da, ap­pa­ren­te­men­te sem­pli­ce (per­ché la ri­spo­sta po­treb­be es­se­re, per i più “po­nen­do dei li­mi­ti”) è la chia­ve dell’evo­lu­zio­ne del­le IA e del rap­por­to che sus­si­ste­rà tra que­ste e gli es­se­ri uma­ni. Cre­de­re che le mac­chi­ne fi­glie del ma­chi­ne lear­ning non si evol­ve­ran­no mai è, in so­stan­za, un pen­sie­ro utopico, per­ché è at­tra­ver­so lo svi­lup­po di quel­le IA che pos­sia­mo trar­re i mag­gio­ri van­tag­gi eco­no­mi­ci (e non) nei prin­ci­pa­li cam­pi del­lo svi­lup­po uma­no: me­di­ci­na, am­bien­te e ov­via­men­te guer­ra. Nes­su­no dei set­to­ri si ar­re­ste­rà nel­la cor­sa al­lo svi­lup­po, e poi­ché que­sto sa­rà espo­nen­zia­le (co­me lo è sta­to dal pri­mo cal­co­la­to­re ad og­gi, in pro­por­zio­ne a tut­to il pre­ce­den­te pro­gres­so scien­ti­fi­co dal fuo­co in poi), ne vie­ne da sé che la fa­mo­sa sin­go­la­ri­tà è un pro­ble­ma di “quan­do” e non di “se”. Cu­rio­so che l’uo­mo, so­lo mar­gi­nal­men­te, rie­sca in ogni aspet­to del­la sua vi­ta a in­se­gui­re quel pro­gres­so di cui è ar­te­fi­ce. L’esem­pio più lam­pan­te de­ri­va dal cam­po del­la re­go­la­men­ta­zio­ne giu­ri­di­ca del­le mac­chi­ne do­ve, tan­to per di­re, ab­bia­mo co­min­cia­to ad in­ter­ro­gar­ci so­lo lo scor­so an­no in me­ri­to al­la re­go­la­men­ta­zio­ne del­le IA. At­tra­ver­so un pro­ces­so len­to che, in pri­mis, tro­va dif­fi­col­tà nel de­fi­ni­re tan­to la ro­bo­ti­ca quan­to il con­cet­to di in­tel­li­gen­za ar­ti­fi­cia­le. Che cos’è un robot? E quan­do si par­la di IA? Fa spe­cie pen­sa­re che, giu­ri­di­ca­men­te, non esi­sta una no­zio­ne uni­vo­ca che dia spe­ci­fi­che uni­che al di­rit­to in­ter­na­zio­na­le. Il pa­ra­dos­so, di nuovo, è che tut­to que­sto con­te­rà fi­no ad un cer­to pun­to. Qua­le che sa­rà il sen­so che da­re­mo al­le mac­chi­ne, non sa­rà in­fat­ti im­por­tan­te. Per­ché sa­rà il sen­so che le mac­chi­ne da­ran­no a sé stes­se a fa­re la dif­fe­ren­za. Quan­do, cioè, avre­mo fi­ni­to per es­se­re i crea­to­ri di una raz­za che, in ul­ti­ma istan­za, po­treb­be sce­glie­re di met­ter­ci da par­te.

Newspapers in Italian

Newspapers from Italy

© PressReader. All rights reserved.