Lí­de­res con­tra ro­bots ase­si­nos

El con­cep­to éti­co des­apa­re­ce cuan­do la muer­te de­pen­de de má­qui­nas; or­ga­nis­mos fir­man car­ta com­pro­mi­so

El Economista (México) - The Washington Post (Mexico) - - News - Pe­ter Ho­lley

La lis­ta es ex­ten­sa e in­clu­ye al­gu­nos de los nom­bres más in­flu­yen­tes en los mun­dos su­per­pues­tos de la tec­no­lo­gía, la cien­cia y la aca­de­mia.

En­tre ellos se en­cuen­tran el in­ven­tor mul­ti­mi­llo­na­rio y fun­da­dor de Ope­nAI, Elon Musk; el co­fun­da­dor de Sky­pe, Jaan Ta­llinn; el in­ves­ti­ga­dor de in­te­li­gen­cia ar­ti­fi­cial Stuart Rus­sell, así co­mo los tres fun­da­do­res de Goo­gle y su Dee­pMind, el prin­ci­pal gru­po de in­ves­ti­ga­ción de apren­di­za­je au­to­má­ti­co de la com­pa­ñía.

En to­tal, más de 160 or­ga­ni­za­cio­nes y 2,460 per­so­nas de 90 paí­ses pro­me­tie­ron es­ta se­ma­na no par­ti­ci­par ni apo­yar el desa­rro­llo y el uso de ar­mas le­ta­les au­tó­no­mas.

En teo­ría, se es­pe­ra que la in­te­li­gen­cia ar­ti­fi­cial jue­gue un pa­pel ca­da vez más im­por­tan­te en los sis­te­mas mi­li­ta­res, por lo que las voces ha­cen un lla­ma­do de ad­ver­ten­cia a los go­bier­nos pa­ra que in­tro­duz­can le­yes que re­gu­len ese ti­po de ar­mas “pa­ra crear un futuro con só­li­das nor­mas in­ter­na­cio­na­les”.

Los sis­te­mas le­ta­les de ar­mas au­tó­no­mas pue­den iden­ti­fi­car, ata­car y ma­tar sin la par­ti­ci­pa­ción hu­ma­na, de acuer­do con el Fu­tu­re of Li­fe Ins­ti­tu­te (FLI), una or­ga­ni­za­ción be­né­fi­ca con se­de en Bos­ton que bus­ca re­du­cir los ries­gos plan­tea­dos por la in­te­li­gen­cia ar­ti­fi­cial y par­ti­ci­pó en la re­dac­ción de la car­ta fir­ma­da por 160 or­ga­nis­mos.

La or­ga­ni­za­ción afir­ma que los sis­te­mas au­tó­no­mos de ar­mas no in­clu­yen dro­nes, ya que és­tos de­pen­den de las de­ci­sio­nes de hu­ma­nos pa­ra ope­rar.

Se­gún Hu­man Rights Watch , se es­tán desa­rro­llan­do sis­te­mas de ar­mas au­tó­no­mos en mu­chas na­cio­nes del mun­do, “par­ti­cu­lar­men­te en los Es­ta­dos Uni­dos, Chi­na, Is­rael, Co­rea del Sur, Ru­sia y el Reino Uni­do”.

AR­MAS PIRATAS

El FLI afir­ma que los sis­te­mas de ar­mas au­tó­no­mas es­ta­rán en ries­go de ser pi­ra­tea­dos y es pro­ba­ble que ter­mi­nen en el mer­ca­do ne­gro.

La or­ga­ni­za­ción ar­gu­men­ta que los sis­te­mas de­be­rían es­tar su­je­tos al mis­mo ti­po de prohi­bi­cio­nes in­ter­na­cio­na­les que las ar­mas bio­ló­gi­cas y quí­mi­cas.

In­clu­so, el FLI ha acu­ña­do un nom­bre pa­ra des­cri­bir a es­te ti­po de sis­te­mas de ar­mas: slaugh­ter­bots.

La fal­ta de con­trol hu­mano tam­bién plan­tea cues­tio­nes éti­cas preo­cu­pan­tes, se­gún Toby Walsh, pro­fe­sor de In­te­li­gen­cia Ar­ti­fi­cial de la Uni­ver­si­dad de Nue­va Ga­les del Sur en Syd­ney, quien co­la­bo­ró en la pre­pa­ra­ción de la car­ta com­pro­mi­so fir­ma­da por más de 2,460 per­so­nas re­co­no­ci­das.

“No po­de­mos en­tre­gar a las má­qui­nas la de­ci­sión so­bre quién vi­ve y quién mue­re”, di­jo Walsh, se­gún la de­cla­ra­ción de FLI. “Ellas no tie­nen la éti­ca pa­ra de­ter­mi­nar­lo. Los ani­mo a us­te­des y a sus or­ga­ni­za­cio­nes a com­pro­me­ter­se a ga­ran­ti­zar que la gue­rra no se con­vier­ta en al­go te­rri­ble”, ex­pre­só.

Musk, po­si­ble­men­te el nom­bre más re­co­no­ci­do en la car­ta com­pro­mi­so, se ha con­ver­ti­do en un crí­ti­co abier­to de las ar­mas au­tó­no­mas. El di­rec­tor eje­cu­ti­vo de Tes­la ha di­cho que la in­te­li­gen­cia ar­ti­fi­cial es un ries­go más pe­li­gro­so pa­ra el mun­do que Co­rea del Nor­te.

El año pa­sa­do, se unió a más de 100 ex­per­tos en ro­bó­ti­ca e in­te­li­gen­cia ar­ti­fi­cial pa­ra pe­dir a las Na­cio­nes Uni­das que prohí­ban el uso de las ar­mas au­tó­no­mas.

“Las ar­mas au­tó­no­mas le­ta­les ame­na­zan en con­ver­tir­se en la ter­ce­ra gue­rra”, ad­vir­tie­ron Musk y otros 115 per­so­na­jes, in­clui­do el ex­per­to en in­te­li­gen­cia ar­ti­fi­cial Mus­ta­fa Su­ley­man, a tra­vés de una car­ta abier­ta en agosto pa­sa­do.

“Una vez desa­rro­lla­das, per­mi­ti­rán que es­ca­len los con­flic­tos”.

No po­de­mos en­tre­gar a las má­qui­nas la de­ci­sión so­bre quién vi­ve y quién mue­re”.

Toby Walsh, pro­fe­sor de In­te­li­gen­cia Ar­ti­fi­cial.

Fo­to: ap

Elon Musk, fun­da­dor de Tes­la, ha si­do uno de los eje­cu­ti­vos que más ad­ver­ten­cias ha lan­za­do so­bre los ro­bots ase­si­nos.

Newspapers in Spanish

Newspapers from Mexico

© PressReader. All rights reserved.