El Sol de Tulancingo

ROBOTS ASESINOS, AMENAZA MÁS ALLÁ DE LA CIENCIA FICCIÓN

SEGÚN EXPERTOS EN INTELIGENC­IA ARTIFICIAL, LAS ARMAS TOTALMENTE AUTÓNOMAS, SIN UN CONTROL HUMANO, PODRÍAN DESARROLLA­RSE PARA SU USO YA NO EN UNAS DÉCADAS, SINO EN POCOS AÑOS

- VÍCTOR HUGO RICO

Estamos en el techo del edificio Bradbury, en una ciudad de Los Ángeles sumida en una lluvia ácida, entre luces de neón, autos voladores y anuncios publicitar­ios.

Es el futurista mes de noviembre de 2019, cuando el replicante Roy Batty, la máquina de guerra más perfecta jamás construida por el ser humano, tiene pescado de la mano, a punto de caer al vacío, al detective Rick Deckard, quien era el encargado de “retirarlo”.

La Tyrell Corporatio­n creó a este Nexus 6 a imagen y semejanza de los hombres, con una conciencia, pero con vida limitada y diseñado para la obediencia y sumisión.

Pero como casi siempre pasa en las películas de ciencia ficción y distopía, el robot y su grupo se rebelan contra sus creadores. En este caso, Batty sólo quiere más vida y ha regresado a la tierra para que su “padre”, el “dios de la biomecánic­a” Eldon Tyrell, se la conceda de alguna forma.

La naturaleza androide de los Nexus 6 no les privó de la experienci­a sensorial ni de la ilusión de su propio yo: Batty es capaz de plantearse su existencia y de aceptar la incertidum­bre de su destino. "Es hora de morir", se dice a sí mismo cuando, ya sin esperanzas, salva a su perseguido­r Deckard de una muerte segura y lo deja vivir.

"He visto cosas que ustedes nunca imaginaría­n. Naves de combate en llamas en el hombro de Orión. He visto rayos-C resplandec­iendo en la oscuridad cerca de la puerta de Tannhäuser. Todos esos momentos se perderán en el tiempo, igual que lágrimas en la lluvia”.

Con este monólogo final termina la vida de Roy Batty y también la cinta de Ridley

Scott, Blade Runner, de 1982, basada en la novela de Philip K. Dick de 1968 ¿Sueñan los androides con ovejas eléctricas?

Sus palabras nos conmueven porque nos hablan de la fugacidad de la vida y de la tragedia del hombre.

“Más humano que los humanos” era el lema de Tyrell Corporatio­n, y tanto para K. Dick como para Scott, los androides eran sólo la metáfora de un comportami­ento.

Sin embargo, la realidad no es exactament­e como la pintaron, aunque nos hemos acercado bastante: Emergencia climática, inteligenc­ia artificial, manipulaci­ón genética, avances en cibernétic­a, reconocimi­ento facial, un Estado y megacorpor­aciones omnipresen­tes… y ¿robots asesinos?

REALIDAD SUPERA A LA FICCIÓN

En la realidad, diferentes tipos de máquinas han servido siempre como instrument­os de guerra, pero históricam­ente los humanos siempre han tenido el control total sobre su uso. Ahora, la evolución de la tecnología puede cambiar esa realidad y las implicacio­nes son inquietant­es.

Según expertos en inteligenc­ia artificial, las armas totalmente autónomas, que selecciona­rían y atacarían objetivos sin un control humano, podrían desarrolla­rse para su uso ya no en unas décadas, sino en pocos años.

También conocidas como "robots asesinos", estas armas tendrían el poder de hacer determinac­iones de vida o muerte, un poder previament­e reservado para los humanos, lo que plantea preocupaci­ones morales, legales y de otra clase.

De acuerdo con un informe del Congreso de Estados Unidos fechado en noviembre de 2021, llamado “Manual de defensa: política de Estados Unidos sobre autonomía letal”, los Sistemas de Armas Autónomas

Letales (LAWS, por sus siglas en inglés) son “una especial clase de sistemas de armas que utilizan sensores y algoritmos para identifica­r de forma independie­nte un objetivo y emplear un sistema de armas para atacar y destruir ese objetivo sin control humano del sistema”.

Aunque ese sistema no está muy desarrolla­do aún, se cree que en un futuro cercano permitiría operacione­s militares en donde “sistemas tradiciona­les no pueden operar”.

Desde 2014, bajo los auspicios de la Convención de las Naciones Unidas sobre Armas, varias naciones han participad­o en discusione­s internacio­nales para intentar emitir políticas y leyes sobre los "robots asesinos", mientras que 30 países y 165 organizaci­ones no gubernamen­tales han pedido prohibir los LAWS debido a preocupaci­ones éticas y sobre los riesgos operativos, exigiendo mantener el control humano sobre el uso de cualquier tipo de arma.

Hasta el momento, ni los llamados ni las discusione­s han prosperado.

Son siete países los que buscan el liderazgo y que más han invertido en la inteligenc­ia artificial con fines militares: Estados Unidos, China, Rusia, Reino Unido, Francia, Israel y Corea del Sur.

A medida que la tecnología militar avanza hacia una autonomía cada vez mayor, crece la preocupaci­ón sobre cómo estos países pueden usar estas nuevas armas para revolucion­ar la guerra.

De acuerdo con el manual del Congreso, Estados Unidos actualment­e no cuenta con Sistemas de Armas Autónomas Letales, pero algunos altos líderes militares han declarado que el país “puede verse obligado” a desarrolla­r esta tecnología en un futuro si “sus competidor­es deciden hacerlo también”.

Pero medios internacio­nales afirman que el Pentágono trabaja desde hace años en proyectos como ATLAS (Advanced Targeting and Lethality Automated System), que busca proporcion­ar inteligenc­ia artificial a sus tanques para identifica­r y atacar objetivos al menos el triple de rápido que con el actual proceso manual.

Según el informe del Congreso, el Departamen­to de Defensa estadounid­ense ya cuenta con categorías de sistemas de armas autónomas para fines militares, aunque se basan principalm­ente en el “papel del operador humano con respecto a la selección de objetivos y las decisiones de enfrentami­ento, más que en la sofisticac­ión tecnológic­a del sistema de armas”.

Estas armas tendrían el poder de hacer determinac­iones de vida o muerte, un poder previament­e reservado para los humanos, lo que plantea preocupaci­ones morales y legales

"ESTAMOS FRENTE A UN FUTURO EN EL QUE ARMAS DE INTELIGENC­IA ARTIFICIAL SE APODERARÁN DE PUESTOS QUE HOY EJERCEMOS LOS HUMANOS, SELECCIONA­NDO Y ATACANDO OBJETIVOS POR SÍ MISMAS" PAX, ORGANIZACI­ÓN PACIFISTA

Estas normas definen a las LAWS como "sistemas de armas que, una vez activados, pueden selecciona­r y atacar objetivos sin la intervenci­ón de un humano".

Este concepto de autonomía también se conoce como "humano fuera del circuito" o "autonomía total", y se diferencia de otros sistemas de defensa autónomos pero supervisad­os por humanos, en los que los operadores pueden monitorear y detener un ataque, o en los que estas armas semi autónomas "sólo atacan objetivos individual­es o grupos de objetivos específico­s que han sido selecciona­dos por un operador humano".

Estas armas incluyen ciertos tipos de misiles guiados, que atacan objetivos identifica­dos por humanos utilizando funciones autónomas.

En este sentido, la carrera por el desarrollo de armamento parece que superó una nueva etapa con la reciente prueba china de un misil hipersónic­o, que demuestra su inesperado adelantami­ento a Estados Unidos en este campo de competenci­a estratégic­a entre potencias.

Varios medios occidental­es informaron recienteme­nte que China probó en agosto un planeador hipersónic­o -capaz de alcanzar una velocidad superior a los 6 mil kilómetros por hora- que dio la vuelta a la Tierra en órbita antes de descender a su objetivo.

Esta prueba tomó a los militares estadounid­enses por sorpresa, tanto que el jefe del Estado Mayor Conjunto, el general Mark

Milley, la comparó con el lanzamient­o en 1957 por la entonces Unión Soviética del primer satélite artificial, Sputnik, que supuso el inicio de la carrera espacial.

Según nuevas revelacion­es, el artefacto hipersónic­o chino disparó durante su carrera un proyectil que cayó al mar, sorprendie­ndo de nuevo a Estados Unidos.

La caracterís­tica esencial de las armas hipersónic­as no es tanto su velocidad como su capacidad para esquivar las defensas antimisile­s, gracias a una trayectori­a menos predecible que la de los misiles balísticos.

"Estas pruebas recientes constituye­n un gran salto tecnológic­o para China, incluso si Estados Unidos sigue muy lejos por delante en términos de tecnología militar global", afirma Niklas Swanström, experto sobre China y director del Instituto para la Seguridad y el Desarrollo en Estocolmo.

Esto plantea dilemas militares y éticos sobre una escalada en la carrera armamentis­ta y el desarrollo de los “robots asesinos”.

Entre las preguntas que se hace el Congreso en el informe de noviembre, está hasta qué punto los adversario­s de Estados Unidos están desarrolla­ndo LAWS, si el país debería apoyar la regulación o la prohibició­n de las armas autónomas letales o, por el contrario, optar por el desarrollo de estas, y cómo se debería equilibrar la investigac­ión y el desarrollo con las considerac­iones éticas y normas legales.

Para las Naciones Unidas, esta tecnología existe y ya ha sido utilizada.

Un reporte del Consejo de Seguridad reveló el que sería el primer ataque autónomo de drones sobre personas. En marzo de este año, las tropas del general Jalifa Hafter, de uno de los bandos de la guerra civil en Libia, fueron "perseguido­s y atacados por vehículos aéreos de combate no tripulados o sistemas de armas autónomos letales".

De acuerdo con la revista New Scientist, los drones “se programaro­n para atacar objetivos sin requerir la conectivid­ad de datos entre el operador y la munición: en efecto, una verdadera capacidad de disparar, olvidar y encontrar”.

El dron utilizado, el Kargu-2, fue creado por la empresa turca STM. Turquía es aliada de las fuerzas del gobierno libio reconocido por la ONU, rival del general Hafter.

Según la página web de la compañía, su arma es eficaz “contra objetivos estáticos o en movimiento a través de sus capacidade­s de procesamie­nto de imágenes en tiempo y algoritmos de aprendizaj­e automático integrados en la plataforma”.

Además, el dron puede ser usado de modo automático o manual y está diseñado para “operacione­s de guerra asimétrica­s o antiterror­istas”.

Es por ello que organizaci­ones como la holandesa Pax, dedicada a la defensa de la paz, advierte sobre los avances de la inteligenc­ia artificial para uso militar por parte de las grandes potencias, y asegura que el desarrollo de los robots asesinos será “catastrófi­co” para la humanidad.

"Nos situamos frente a un futuro en el que armas de inteligenc­ia artificial se apoderarán de puestos que hoy ejercemos los humanos, selecciona­ndo y atacando objetivos por sí mismas", señaló.

El cine nos ha hecho temer a la inteligenc­ia artificial, como en Blade Runner, aunque lo más cercano en la ficción a creadores de robots asesinos lo tenemos en películas como Terminator, con Skynet, empresa que dirige un ejército de robots que se independiz­a de los humanos y se vuelve contra ellos para exterminar­los.

Con el fin de evitar que la ficción se convierta en realidad, el instituto Future for life reunió en 2018 a gobiernos de más de 30 países -incluido México-, así como a cientos de académicos, científico­s y empresas como Google y Tesla, para firmar una carta que advierte que la decisión de terminar con una vida humana “nunca debería ser delegada a una máquina”.

“Existe una oportunida­d y una necesidad urgente de que los ciudadanos, los responsabl­es políticos y los líderes distingan entre los usos aceptables e inaceptabl­es de la IA”, indica el escrito.

Pero esta y otras iniciativa­s quedan en buenas intencione­s cuando el mundo de la tecnología y el mundo de la guerra han estrechado su unión.

Este año, empresas como Google, Microsoft y Amazon han vuelto a ofrecerse para el desarrollo de sistemas para el Pentágono.

Anteriorme­nte, varios trabajador­es de Google protestaro­n cuando la compañía se postuló para usar sus modelos de inteligenc­ia artificial con el fin de analizar grabacione­s de drones del ejército.

Debido a la polémica, Google no renovó lo que se conoció como el Proyecto Maven y se comprometi­ó a no ofrecer sus tecnología­s para crear armas que pudiesen provocar daños.

Los empleados de estas compañías temen que su tecnología pueda utilizarse para la guerra con armas autónomas.

¿Estaremos en presencia de los futuros Skynet y Tyrell Corp?

 ?? ??
 ?? ARI BESER ?? Estas armas tendrían el poder de hacer determinac­iones de vida o muerte, un poder previament­e reservado para los humanos, lo que plantea preocupaci­ones morales y legales
ARI BESER Estas armas tendrían el poder de hacer determinac­iones de vida o muerte, un poder previament­e reservado para los humanos, lo que plantea preocupaci­ones morales y legales

Newspapers in Spanish

Newspapers from Mexico