¿Có­mo pa­rar a los ro­bots?

La hu­ma­ni­dad se pre­pa­ra pa­ra una even­tual re­be­lión de las má­qui­nas. Goo­gle Dee­pMind y la Uni­ver­si­dad de Ox­ford tra­ba­jan en un pro­yec­to pa­ra des­co­nec­tar cual­quier sis­te­ma do­ta­do de in­te­li­gen­cia ar­ti­fi­cial en ca­sos ex­tre­mos.

La Voz de Galicia (A Coruña) - Internet y Redes Sociales - - Portada - TEX­TO: MA­NUEL BLAN­CO

La sa­ga Ter­mi­na­tor, Odi­sea en el Es­pa­cio, Yo Ro­bot... El ci­ne ha ins­ta­la­do en el ima­gi­na­rio co­lec­ti­vo la po­si­bi­li­dad de per­te­ne­cer a un fu­tu­ro en el que los ro­bots re­pre­sen­tan una ame­na­za pa­ra el hom­bre. Po­cas pe­lí­cu­las co­mo la in­quie­tan­te y bri­llan­te Ex Ma­chi­na (Alex Garland, 2015) han sin­te­ti­za­do con tan­ta pre­ci­sión ese mie­do a la re­be­lión de las má­qui­nas. Du­ran­te años, es­te es­ce­na­rio no pa­só de ser una fá­bu­la de cien­cia fic­ción, un re­la­to que la so­cie­dad veía en un ho­ri­zon­te más o me­nos dis­tan­te. El ca­so es que la re­vo­lu­ción en la que ya es­tán in­mer­sas las eco­no­mías avan­za­das al ca­lor de la in­for­má­ti­ca y la in- te­li­gen­cia ar­ti­fi­cial (IA) ha ac­ti­va­do un te­mor que cris­ta­li­za en una pre­gun­ta tur­ba­do­ra: ¿Y si en al­gún mo­men­to es pre­ci­so apa­gar los ro­bots?

La co­yun­tu­ra no de­be es­tar de­ma­sia­do le­jos cuan­do dos re­fe­ren­tes co­mo Goo­gle Dee­pMind (la fi­lial que li­de­ra la in­ves­ti­ga­ción en IA en la mul­ti­na­cio­nal es­ta­dou­ni­den­se) y la Uni­ver­si­dad de Ox­ford han de­ci­di­do sen­tar­se jun­tos pa­ra crear un me­ca­nis­mo que apa­gue cual­quier agen­te do­ta­do de IA en ca­so de que si­ga un com­por­ta­mien­to da­ñino pa­ra el hom­bre o sim­ple­men­te inade­cua­do. La gé­ne­sis del pro­yec­to coin­ci­dió ca­si en el tiem­po con el ma­ni­fies­to de los mil, un do­cu­men­to que aler­ta so­bre los pe­li­gros de la in­te­li­gen­cia ar­ti­fi­cial fir­ma­do por un mi­llar de cien­tí­fi­cos y ex­per­tos de to­do el pla­ne­ta, en­tre los que fi­gu­ran per­so­na­li­da­des co­mo Stephen Haw­king, Elon Musk o Ste­ve Woz­niak.

Bau­ti­za­do co­mo In­te­rrup­ti­bi­lity, Goo­gle Dee­pMind con­tó pa­ra su desa­rro­llo con la co­la­bo­ra­ción del Ins­ti­tu­to pa­ra el Fu­tu­ro de la Hu­ma­ni­dad de la Uni­ver­si­dad de Ox­ford, una he­te­ro­do­xa ins­ti­tu­ción de la que for­man par­te cien­tí­fi­cos, fi­ló­so­fos, psi­có­lo­gos... RED ha con­tac­ta­do con los res­pon­sa­bles de es­te pro­yec­to, Lau­rent Or­seau, uno de los in­ves­ti­ga­do­res cla­ve de Goo­gle Deee­pMind, y Stuart Arms­trong, in­ves­ti­ga­dor del ins­ti­tu­to de Ox­ford, pa­ra co­no­cer las cla­ves de una ini­cia­ti­va que el pro­pio Par­la­men­to eu­ro­peo de­cla­ra­ba ha­ce so­lo unos días co­mo prio­ri­ta­ria: crear un bo­tón del pá­ni­co pa­ra aque­llos ca­sos en los que el com­por­ta­mien­to de un agen­te IA sea inapro­pia­do.

El bo­tón ro­jo, en reali­dad, es un al­go­rit-

mo ins­ta­la­do en ca­da agen­te IA que im­pe­di­rá a la má­qui­na re­be­lar­se. Co­mo ex­pli­ca el doc­tor Arsm­trong, con ese me­ca­nis­mo in­cor­po­ra­do, el ro­bot «nun­ca ofre­ce­rá re­sis­ten­cia al­gu­na a ser des­co­nec­ta­do». Es­ta­rá pro­gra­ma­do, en de­fi­ni­ti­va, pa­ra asu­mir que va a ser des­en­chu­fa­do por­que por el ca­mino re­ci­bi­rá una suer­te de re­com­pen­sa.

Es es­te un con­cep­to cla­ve pa­ra en­ten­der en qué con­sis­te es­ta in­ves­ti­ga­ción. Am­pa­ro Alonso Be­tan­zos, ca­te­drá­ti­ca de Compu­tación e IA de la Uni­ver­si­da­de da Co­ru­ña y pre­si­den­ta de la So­cie­dad Es­pa­ño­la pa­ra la In­te­li­gen­cia Ar­ti­fi­cial, pre­ci­sa que es­te bo­tón del pá­ni­co co­nec­ta más con las ideas del apren­di­za­je por re­fuer­zo. «Ca­da vez que el ro­bot ha­ce al­go co­rrec­ta­men­te, te en­vío un men­sa­je que di­ce que eso es bueno. Sur­gi­ría pa­ra­le­la­men­te un men- sa­je que di­ce: ‘es­to no se pue­de per­mi­tir’. Y eso es lo que so­fis­ti­ca­da­men­te lla­ma­mos bo­tón del pá­ni­co».

A la vis­ta de la exis­ten­cia de es­ta in­ves­ti­ga­ción, la pre­gun­ta en con­se­cuen­cia es cuan cer­ca es­ta­mos de ne­ce­si­tar ese bo­tón ro­jo. Arms­trong ma­ti­za que ya hay ejem­plos de agen­tes do­ta­dos de IA que han se­gui­do com­por­ta­mien­tos ines­pe­ra­dos, pe­ro al mis­mo tiem­po re­co­no­ce que «los ries­gos hoy son de ba­ja in­ten­si­dad, por­que los sis­te­mas au­to­ma­ti­za­dos son dé­bi­les, ton­tos y no muy au­tó­no­mos». El pro­ble­ma es que, a la vuel­ta de la es­qui­na, es­tas má­qui­nas in­te­li­gen­tes pi­lo­ta­rán nues­tros co­ches, mo­ve­rán las eco­no­mías del pla­ne­ta y ma­ni­pu­la­rán a la opi­nión pública, de acuer­do con los te­mo­res del ma­ni­fies­to de los mil.

Alonso Be­tan­zos des­dra­ma­ti­za el es­ce- na­rio y po­ne en va­lor pro­yec­tos co­mo In­te­rrup­ti­bi­lity. «A mi no me pa­re­ce alar­man­te con­tar con un bo­tón del pá­ni­co, eso su­po­ne sim­ple­men­te apa­gar el ca­cha

rrín. La IA ha des­ta­pa­do una se­rie de ex­pec­ta­ti­vas que qui­zás nos asus­tan co­mo hu­ma­nos y es ló­gi­co que ten­ga­mos la ne­ce­si­dad de crear una in­te­rrup­ción. Al fin y al ca­bo, eso nos da­rá la idea de que se­gui­mos es­tan­do al man­do», re­la­ta.

En lo que sí hay cier­to con­sen­so es en có­mo de­be­rán ser esas má­qui­nas del fu­tu­ro. Sur­ge en es­te ex­tre­mo un con­cep­to qui­zás po­co or­to­do­xo al ha­blar de tec­no­lo­gía: la éti­ca. Cuál ha de ser en de­fi­ni­ti­va el com­por­ta­mien­to de un ro­bot an­te una de­ter­mi­na­da si­tua­ción. Es por ello que los gran­des cen­tros de in­ves­ti­ga­ción IA han em­pe­za­do a con­tar con ex­per­tos en Hu­ma­ni­da­des pa- ra di­se­ñar los al­go­rit­mos y, por tan­to, có­mo se com­por­tan es­tos agen­tes. So­bre los di­le­mas que sur­gen al­re­de­dor de la in­te­li­gen­cia ar­ti­fi­cial, co­mo por ejem­plo qué de­be ha­cer un co­che au­tó­no­mo a pun­to de atro­pe­llar a una mu­jer y a su be­bé, la ca­te­drá­ti­ca de Compu­tación in­sis­te en que qui­zás no se es­tá en­fo­can­do de­ma­sia­do bien el fu­tu­ro. «El pro­ble­ma —de­ta­lla— es que nos plan­tea­mos las co­sas del fu­tu­ro co­mo si na­da fue­se a cam­biar, co­mo si la pers­pec­ti­va fue­se la mis­ma de aho­ra. En el fu­tu­ro pro­ba­ble­men­te va­mos a te­ner mu­chos me­nos ac­ci­den­tes por­que los co­ches in­cor­po­ra­rán al­go­rit­mos que vi­gi­la­rán la dis­tan­cia, cá­ma­ras ca­pa­ces de pre­de­cir co­li­sio­nes, si al­guien cru­za o no... Ese ti­po de di­le­mas se van a dar mu­cho me­nos, o in­clu­so a lo me­jor ni si­quie­ra se van a dar». Es la ca­ra ama­ble de la IA.

MA­RÍA PE­DRE­DA ILUS­TRA­CIÓN:

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.