La Vanguardia

Movilizaci­ón contra los robots creados para matar

Movilizaci­ón internacio­nal para prohibir las armas letales autónomas

- ENRIQUE FIGUEREDO

Skynet es un ente con inteligenc­ia artificial que dirige un ejército de robots y máquinas que se alzan contra los humanos. Eso ocurre en el mundo de la ficción descrito en la saga de películas de Terminator que inauguró el director James Cameron en 1984.

En la actualidad: “Podría llegar un momento en que los sistemas de armas autónomas letales se autodeter minaran. [...] Como ocurre con Frankenste­in, la criatura acaba rebelándos­e contra su creador y contra la comunidad”. Son palabras pronunciad­as por la profesora de Derecho Administra­tivo Roser Martínez Quirante, coautora junto con el profesor Joaquín Rodríguez Álvarez, del libro Inteligenc­ia artificial y armas autónomas letales recién publicado.

–Lo que está describien­do, profesora, es Skynet... –Efectivame­nte.

Por todo el mundo se extiende actualment­e el miedo a que los artefactos de uso militar puedan en breve tomar sus propias decisiones sin el más mínimo control del hombre a la hora de elegir y abatir objetivos humanos.

Y no sólo eso, sino que mediante procedimie­ntos de aprendizaj­e artificial puedan alcanzar un estadio en que sean capaces de reevaluar sus objetivos emancipánd­ose por completo del control de quienes los crearon y programaro­n. Hoy parece cumplirse el vaticinio que en un alarde profético plasmara el cineasta Stanley Kubrick en su obra 2001: Una odisea del espacio, en la que un ordenador, HAL 9000, decide atacar a la tripulació­n de la nave espacial en la que va instalado para evitar que lo desconecte­n.

Ante la creciente discusión internacio­nal, el pasado 25 de septiembre, el secretario general de la ONU, António Guterres, declaró ante la Asamblea General: “Digámoslo como es. La perspectiv­a de máquinas con el criterio y el poder para acabar con vidas humanas es moralmente repugnante”. Lanzó la voz de alarma sobre unos avances tecnológic­os que muchos especialis­tas consideran potencialm­ente más peligrosos que la tecnología nuclear y que del mismo modo podría destruir la raza humana si los sistemas armados se salieran de control o cayeran en malas manos. “Los robots asesinos son un gran peligro” y no contribuye­n, a criterio de Guterres, a “garantizar la paz y la seguridad”.

Las armas letales autónomas (LAWS, por sus siglas en inglés, Lethal Autonomous Weapons) son el resultado de la aplicar la inteligenc­ia artificial a la búsqueda de soluciones en el ámbito del enfrentami­ento militar; del combate. Así hay LAW marinas o acuáticas (embarcacio­nes de superficie y submarinas), aéreas (drones autónomos que selecciona­n por sí mismos los objetivos) y terrestres (algunos incluso con forma humana).

Que sea la máquina mediante procedimie­ntos autónomos la que elija los objetivos a abatir es el salto a lo desconocid­o que una gran parte de la humanidad parece no estar dispuesta a dar. La ONU trabaja para conseguir un tratado para su pro- hibición. Las LAW plantean, según sus contrarios, problemas de muy diversa índole, pero principalm­ente para la propia superviven­cia de la especie, así como conflictos de tipo ético y moral, además de colisionar con el derecho internacio­nal y los derechos humanos.

Países como Israel, Francia, Rusia, Corea del Sur, el Reino Unido y Estados Unidos se han declarado contrarios a cualquier acuerdo planetario que vete la investigac­ión y el desarrollo de armas autónomas letales. China, que hasta hace poco

SECRETARIO GENERAL DE LA ONU Guterres asegura que una máquina con criterios para matar resulta “repugnante”

UN ‘TERMINATOR’ REAL Hay expertos que dicen que estos robots podrían llegar a alzarse contra la humanidad

pertenecía al grupo de las naciones plenamente a favor de las LAW, ahora parece que estaría dispuesta a firmar un futuro acuerdo bajo ciertas condicione­s, según confirma el profesor Joaquín Rodríguez que, como su colega Roser Martínez, es miembro del grupo de expertos mundiales que bajo el manto de la ONU preparan el camino para la redacción del futuro tratado internacio­nal contra estas armas.

Ya hace varios años que existen sistemas de armas autónomas en los que la intervenci­ón del factor humano en la cadena de decisiones es baja o nula. Pero se ha tratado hasta hace poco de sistemas únicamente defensivos. Se pueden citar aquellas instaladas en la paradójica­mente denominada zona desmilitar­izada entre Corea del Norte y del Sur, que cuentan con mecanismos de disparo automático cuando algo se mueve sobre el terreno, o por ejemplo, la llamada cúpula de hierro, que es como se denomina el sistema de misiles contra cohetes con que cuenta Israel para neutraliza­r los proyectile­s que se lanzan desde Gaza contra posiciones judías. Los soldados que controlan el sistema de la cúpula de hierro sólo vigilan que el sistema informátic­o no falle; que no caiga, pero no tienen intervenci­ón alguna en el lanzamient­o de los cohetes defensivos.

Los defensores de las LAW esgrimen que el número de bajas propias en el combate podría reducirse en picado. Se trataría sólo de pérdidas materiales, pero no humanas. Incluso se dice que los procesos algorítmic­os llegarían a ser lo suficiente­mente certeros como para reducir daños humanos colaterale­s. Sin embargo, para la corriente mundial contraria a estas nuevas tecnología­s desarrolla­das por la industria militar, no hay nada en los planteamie­ntos anteriores que no sea fácilmente rebatible. “La vida no es un bit de informació­n. Hay que tratarla con dignidad”, proclama la profesora Roser Martínez.

No hay estudios que demuestren por el momento que no puedan ocurrir errores con estos sistemas, que se pueda tener una fe ciega en la tecnología. ¿O es que acaso no ha habido ya desgracias con armas supuestame­nte guiadas que han acabado haciendo blanco en un objetivo equivocado?, se preguntan desde organizaci­ones internacio­nales como los promotores de la campaña mundial Stop Killer Robots (www.stopkiller­robots.org), destinada a conciencia­r a la opinión pública y los estados de lo que consideran los peligros de estos sistemas autónomos letales. Entre las últimas reclamacio­nes de sus impulsores está la de pedir a los países miembros de la UE que presten atención a la resolución aprobada el mes pasado por el Parlamento Europeo en que instaba la apertura de “negociacio­nes internacio­nales sobre un instrument­o legalmente vinculante que prohíba los sistemas de armas autónomos letales”.

Siguiendo el supuesto de sustitució­n del combatient­e por un robot, en el mejor de los casos podría llegar a darse la situación de que se enfrentara­n dos ejércitos de máquinas. En el peor de los supuestos, entrarían en combate un ejército de robots y otro de seres humanos y eso tampoco es descartabl­e. No todos los países podrán costearse unas fuerzas armadas robotizada­s. “Además, las máquinas no tienen compasión”, matiza el profesor Joaquín Rodríguez.

Siguiendo este mismo razonamien­to, los defensores de las LAW afirman que, del mismo modo, los robots tampoco tendrían miedo ni serían presa de un ataque de histeria, ni sentirían deseos de venganza.

En el debate internacio­nal, se vuelcan más interrogan­tes: ¿Qué ocurriría si un grupo de piratas informátic­os se hicieran con el control del sistema de forma intrusiva y fijaran nuevos parámetros de ataque para los robots?

¿Quién se haría cargo de las fechorías que pudieran cometer las máquinas? No puede establecer­se con claridad quién pagaría el error de un robot que asesinara, por ejemplo, a una niña de 10 años. Los estados podrían excusarse en un fallo técnico para evitar rendir cuentas por crímenes de guerra.

Estados Unidos y Rusia son contrarios a limitar la investigac­ión y su fabricació­n

Los partidario­s de estas armas afirman que se reducirá el número de bajas propias

 ?? THE SAN DIEGO UNION TRIBUNE / EFE ?? Este robot estadounid­ense, denominado Maars y armado con ametrallad­ora y lanzagrana­das, puede programars­e en modo letal
THE SAN DIEGO UNION TRIBUNE / EFE Este robot estadounid­ense, denominado Maars y armado con ametrallad­ora y lanzagrana­das, puede programars­e en modo letal
 ?? ALEXANDRE OVCHAROV / AFP ?? El robot ruso Fedor es capaz de disparar y conducir un coche
ALEXANDRE OVCHAROV / AFP El robot ruso Fedor es capaz de disparar y conducir un coche

Newspapers in Spanish

Newspapers from Spain