Jor­di Vall­ver­dú

FI­LO­SO­FÍA DE LA COMPUTACIÓN

La Vanguardia (1ª edición) - - SUMARIO - MAY­TE RIUS

Es­te es­pe­cia­lis­ta en fi­lo­so­fía de la computación y bio­éti­ca a la UAB ha sus­cri­to, jun­to a más de 200 ex­per­tos en in­te­li­gen­cia ar­ti­fi­cial, la car­ta a Junc­ker con­tra la pre­ten­sión de la CE de do­tar a los ro­bots de un es­ta­tus de per­so­nas.

¿PER­SO­NAS A EFEC­TOS LE­GA­LES? Los fir­man­tes ale­gan que se so­bre­va­lo­ran las ca­pa­ci­da­des rea­les de los au­tó­ma­tas

EN CA­SO DE CON­FLIC­TO La le­gis­la­ción ser­vi­rá de coar­ta­da pa­ra que los fa­bri­can­tes elu­dan sus res­pon­sa­bi­li­da­des

UNA NOR­MA COM­PLE­JA La re­gu­la­ción de la IA y la ro­bó­ti­ca de­be abor­dar­se tam­bién des­de el as­pec­to éti­co

El fu­tu­ro le­gal de los ro­bots en Eu­ro­pa se com­pli­ca an­tes de ha­ber­se re­gu­la­do. Más de 200 ex­per­tos de 14 paí­ses eu­ro­peos han di­ri­gi­do una car­ta abier­ta al pre­si­den­te de la Co­mi­sión Eu­ro­pea, Jea­nC­lau­de Junc­ker, –y al res­to de di­ri­gen­tes co­mu­ni­ta­rios con res­pon­sa­bi­li­dad en la ma­te­ria– mos­tran­do su re­cha­zo a que la di­rec­ti­va so­bre Ro­bó­ti­ca e In­te­li­gen­cia Ar­ti­fi­cial que pre­pa­ran otor­gue “per­so­na­li­dad” a las má­qui­nas, co­mo pro­pug­na la re­so­lu­ción so­bre las re­glas de de­re­cho ci­vil de ro­bó­ti­ca apro­ba­da por el Par­la­men­to Eu­ro­peo el año pa­sa­pa­rar do y que es­tá sir­vien­do de ba­se pa­ra la nue­va nor­ma­ti­va.

Los fir­man­tes –en­tre los que fi­gu­ran lí­de­res po­lí­ti­cos, in­ves­ti­ga­do­res en in­te­li­gen­cia ar­ti­fi­cial y ro­bó­ti­ca, in­dus­tria­les, ex­per­tos en sa­lud fí­si­ca y men­tal, y es­pe­cia­lis­tas en de­re­cho y éti­ca– ad­vier­ten que con­ce­der el es­ta­tus de “per­so­nas elec­tró­ni­cas” a los ro­bots su­pon­dría re­co­no­cer­les de­re­chos y res­pon­sa­bi­li­da­des, con el im­pac­to eco­nó­mi­co, le­gal, so­cial y éti­co que ello su­po­ne.

Aler­tan que la Co­mi­sión Eu­ro­pea so­bre­va­lo­ra las ca­pa­ci­da­des rea­les que hoy por hoy tie­nen los ro­bots, in­clui­dos los más avan­za­dos, y creen que ac­ce­der a con­si­de­rar­los “per­so­nas” a efec­tos le­ga­les pa­ra de es­ta for­ma po­der ase­gu­rar­los y re­cla­mar­les res­pon­sa­bi­li­da­des a tí­tu­lo in­di­vi­dual por los da­ños que oca­sio­nen só­lo bueno pa­ra los fa­bri­can­tes, que de es­ta for­ma elu­di­rían las con­se­cuen­cias de lo que pue­dan ha­cer sus má­qui­nas.

Jor­di Vall­ver­dú, es­pe­cia­lis­ta en fi­lo­so­fía de la computación y bio­éti­ca en la UAB que ha sus­cri­to la car­ta a Junc­ker, ase­gu­ra que él no es­tá en con­tra de que se re­co­noz­can de­re­chos a los ro­bots por­que pre­ci­sa­men­te su as­pi­ra­ción pro­fe­sio­nal es con­se­guir má­qui­nas con conciencia y emo­cio­nes, “pe­ro la per­so­na­li­dad le­gal que se les quie­re otor­gar aho­ra no tie­ne na­da que ver con re­gu­lar sus de­re­chos, sino que tie­ne una mo­ti­va­ción eco­nó­mi­ca y bus­ca exi­mir a los fa­bri­can­tes de res­pon­sa­bi­li­dad en los ac­tos de los ro­bots”.

Ad­vier­te, ade­más, que si la Co­mi­sión Eu­ro­pea se pre­ci­pi­ta en la y re­gu­la las res­pon­sa­bi­li­da­des y fun­cio­na­mien­to de los ro­bots an­tes de que bue­na par­te de sus ca­pa­ci­da­des in­te­li­gen­tes y su au­to­no­mía sean rea­les, la nor­ma­ti­va que ha de pro­te­ger a los ciu­da­da­nos eu­ro­peos no se­rá la ade­cua­da y sur­gi­rán con­flic­tos cuan­do ha­ya erro­res, se crea­rá un es­ta­do de opi­nión ne­ga­ti­vo y la im­ple­men­ta­ción de los ro­bots re­sul­ta­rá pro­ble­má­ti­ca en el fu­tu­ro.

El di­rec­tor del Ins­ti­tu­to de In- ves­ti­ga­ción en In­te­li­gen­cia Ar­ti­fi­cial del CSIC, Ra­mon López de Mán­ta­ras, tam­po­co en­cuen­tra nin­gún sen­ti­do a do­tar del es­ta­tus de “per­so­na elec­tró­ni­ca” a un ro­bot. “El es­ta­do de la ro­bó­ti­ca y la in­te­li­gen­cia ar­ti­fi­cial es­tá tan en pa­ña­les to­da­vía que ha­blar de ca­pa­ci­dad de au­to­apren­di­za­je o de im­pre­dic­ti­bi­li­dad por par­te del ro­bot en es­tos mo­men­tos es más pro­pio de cien­cia fic­ción que de reali­dad; y du­ran­te dé­ca­das se­gui­rá sien­do po­si­ble de­ter­mi­nar la res­pon­sa­bi­li­dad de ac­cio­nes erró­neas por par­te de una máquina, y es­ta res­pon­sa­bi­li­dad siem­pre se­rá de las per­so­nas”, de­ta­lla. Y coin­ci­de con los fir­man­tes de la mi­si­va enviada a la Co­mi­sión Eu­ro­pea en que con­ce­der aho­ra per­so­na­li­dad a los ro­bots “es es­cu­le­gis­la­ción dar­se en la máquina pa­ra que no se pue­dan exi­gir res­pon­sa­bi­li­da­des a las per­so­nas”.

El Par­la­men­to Eu­ro­peo in­tro­du­jo la idea de crear un es­ta­tus o per­so­na­li­dad ju­rí­di­ca pa­ra las má­qui­nas (pá­rra­fo 59f de su re­so­lu­ción so­bre las nor­mas de de­re­cho ci­vil de la ro­bó­ti­ca) con la idea de que “al me­nos los ro­bots au­tó­no­mos más so­fis­ti­ca­dos pue­dan es­ta­ble­cer­se co­mo per­so­nas elec­tró­ni­cas res­pon­sa­bles de re­cul­ta­rá cual­quier da­ño que pue­dan oca­sio­nar”. La pro­pues­ta no es­tu­vo exen­ta de po­lé­mi­ca tan­to du­ran­te el de­ba­te co­mo du­ran­te la vo­ta­ción de la re­so­lu­ción (285 eu­ro­par­la­men­ta­rios vo­ta­ron en con­tra de es­te pá­rra­fo), por­que la de­pu­ra­ción de res­pon­sa­bi­li­da­des es uno de los prin­ci­pa­les fre­nos pa­ra la co­mer­cia­li­za­ción de ro­bots des­ti­na­dos a com­par­tir es­pa­cio y ac­ti­vi­da­des con per­so­nas, en­tre ellos los co­ches au­tó­no­mos.

Du­ran­te los dos años de tra­ba­jo pre­vios a la re­so­lu­ción, las ase­gu­ra­do­ras in­sis­tie­ron a los eu­ro­par­la­men­ta­rios en que de­ter­mi­nar si el res­pon­sa­ble de los da­ños cau­sa­dos por un ro­bot es el fa­bri­can­te, el pro­vee­dor de soft­wa­re o el usua­rio se­rá tan com­pli­ca­do des­de el pun­to de vis­ta le­gal que di­fi­mo y alar­ga­rá el pa­go de las in­dem­ni­za­cio­nes a los afec­ta­dos. Y fue­ron mu­chos los que asu­mie­ron que la prio­ri­dad pa­ra la víc­ti­ma no es sa­ber quién tu­vo la cul­pa sino re­ci­bir una com­pen­sa­ción rá­pi­da, así que con­si­de­ra­ron que la me­jor so­lu­ción era re­gu­lar la res­pon­sa­bi­li­dad ci­vil de los ro­bots pa­ra sea la máquina quien pa­gue los pla­tos ro­tos, sin más in­ves­ti­ga­cio­nes ni di­la­cio­nes.

Pe­ro hay mu­chos ex­per­tos –coes los que aho­ra se han di­ri­gi­do a la CE– que con­si­de­ran es­ta re­gu­la­ción in­ne­ce­sa­ria des­de el pun­to de vis­ta téc­ni­co e inapro­pia­da des­de una pers­pec­ti­va éti­ca y le­gal. Ase­gu­ran que el es­ta­tus le­gal de un ro­bot no pue­de equi­pa­rar­se al de una per­so­na por­que en­ton­ces ten­dría de­re­chos hu­ma­nos, co­mo el de­re­cho a su in­te­gri­dad, ciu­da­da­nía, re­mu­ne­ra­ción, et­cé­te­ra, y ello en­tra­ría en con­tra­dic­ción con la Car­ta de los De­re­chos Fun­da­men­ta­les de la UE y la Con­ven­ción pa­ra la Pro­tec­ción de los De­re­chos Hu­ma­nos y las Li­ber­ta­des Fun­da­men­ta­les.

Pe­ro tam­po­co creen que se les pue­da apli­car el mo­de­lo de en­ti­dad ju­rí­di­ca que tie­nen las em­pre­sas, por­que és­te exi­ge que ha­ya un hu­mano de­trás pa­ra re­pre­sen­tar­las y di­ri­gir­las. Y no con­si­de­ran apli­ca­ble el mo­de­lo

de fi­dei­co­mi­so an­glo­sa­jón, por­que ade­más de ser muy com­ple­jo no re­suel­ve el pro­ble­ma de la res­pon­sa­bi­li­dad.

De ahí que pi­dan a la Co­mi­sión Eu­ro­pea cau­te­la y un tra­ba­jo “sin pri­sas ni pre­jui­cios” a la ho­ra de re­gu­lar las nor­mas de de­re­cho ci­vil que de­ben re­gu­lar la ro­bó­ti­ca y la in­te­li­gen­cia ar­ti­fi­cial en Eu­ro­pa en el fu­tu­ro. “La Unión Eu­ro­pea ne­ce­si­ta ofre­cer el mar­co apro­pia­do pa­ra re­for­zar la de­mo­cra­cia y los va­lo­res de la UE; el mar­co de la in­te­li­gen­cia ar­ti­fi­cial y la ro­bó­ti­ca de­be ex­plo­rar­se no só­lo a tra­vés de as­pec­tos eco­nó­mi­cos y le­ga­les, sino tam­bién a tra­vés de sus im­pac­tos so­cia­les, psi­co­ló­gi­cos y éti­cos”.

Vall­ver­dú ase­gu­ra que en­tre los pro­fe­sio­na­les que han ex­pre­sa­do sus re­ce­los con el pro­yec­to del equi­po de Junc­ker hay per­so­na­li­da­des y vo­ca­cio­nes muy di­fe­ren­tes: des­de quie­nes re­cha­zan que se con­ce­dan de­re­chos y res­pon­sa­bi­li­da­des a las má­qui­nas por­que de­fien­den la su­pre­ma­cía de los hu­ma­nos, has­ta quie­nes, co­mo él, tra­ba­jan pa­ra que en el fu­tu­ro exis­tan ro­bots in­te­li­gen­tes, au­tó­no­mos, que pue­dan sen­tir y te­ner su vi­sión del mun­do y a quien, lle­ga­do ese mo­men­to, sí ha­brá que pro­te­ger y con­ce­der de­re­chos, co­mo al­gu­nas le­gis­la­cio­nes ya es­tán ha­cien­do con las “per­so­nas no hu­ma­nas”. Pe­ro unos y otros coin­ci­den en que es “pre­ma­tu­ro y tram­po­so” do­tar de per­so­na­li­dad y exi­gir res­pon­sa­bi­li­da­des a los ro­bots que exis­ten aho­ra o a los que en­tre­vén que exis­ti­rán du­ran­te los pró­xi­mos diez años, por­que sus ac­tua­cio­nes es­ta­rán re­gi­das por las de­ci­sio­nes de per­so­nas.

MAR­TIN LEISSL / BLOOM­BERG

Bra­zo ro­bó­ti­co. Es­te dis­po­si­ti­vo crea­do por Ku­ka Ro­bo­tics pue­de arras­trar gran­des o pe­que­ñas car­gas mo­vién­do­se con gran ve­lo­ci­dad y pre­ci­sión

XA­VIER CERVERA

Reem. Es­te hu­ma­noi­de pue­de ser uti­li­za­do pa­ra la vi­gi­lan­cia, la asis­ten­cia per­so­nal o co­mo pla­ta­for­ma ro­bó­ti­ca de in­ves­ti­ga­ción

XA­VIER CERVERA

TIAGo. Di­se­ña­do por la em­pre­sa es­pa­ño­la Pal Ro­bo­tics, es ca­paz de asis­tir a per­so­nas ma­yo­res en ta­reas co­mo su­bir a la ca­ma o co­ger ob­je­tos

DO­NALD IAIN SMITH / GETTY

La ley. El PE apro­bó en el 2017 la re­so­lu­ción so­bre las Re­glas de De­re­cho Ci­vil de Ro­bó­ti­ca,

que sir­ve de ba­se aho­ra pa­ra la nue­va ley

ABEDIN TAHERKENAREH / EFE

Nao. Es­te ro­bot hu­ma­noi­de pro­gra­ma­ble fue desa­rro­lla­do en el 2004 pa­ra la­bo­ra­to­rios y es­cue­las con fi­nes de in­ves­ti­ga­ción y edu­ca­ción

GOO­GLE

Co­che au­tó­no­mo. Goo­gle ha desa­rro­lla­do sus pro­pios vehícu­los de con­duc­ción au­tó­no­ma a tra­vés de Way­mo, que per­te­ne­ce a su ma­triz Alp­ha­bet

XA­VIER CERVERA

Pa­ro. Co­mer­cia­li­za­do por Ade­le Ro­bots, es una fo­ca ro­bot que tie­ne co­mo ob­je­ti­vo acom­pa­ñar a per­so­nas de­pen­dien­tes o con ne­ce­si­da­des es­pe­cia­les

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.