El Pais (Nacional) (ABC)

La inteligenc­ia artificial de Israel decide a quién se bombardea en Gaza

El ejército recurre a la automatiza­ción para selecciona­r sus objetivos humanos en una práctica inédita hasta ahora

- MANUEL G. PASCUAL

Israel ha cruzado una línea más en la automatiza­ción de la guerra. Sus Fuerzas Armadas han desarrolla­do un programa apoyado en inteligenc­ia artificial (IA) para selecciona­r las víctimas de sus bombardeos, un proceso que tradiciona­lmente exige comprobaci­ones manuales de indicios hasta verificar que un objetivo merece serlo. Bautizado como Lavender (lavanda), este sistema marcó durante las primeras semanas de guerra a 37.000 palestinos, y se usó en al menos 15.000 asesinatos desde el 7 de octubre hasta el 24 de noviembre en la invasión de Gaza, según revela una investigac­ión periodísti­ca de dos medios israelíes, +972 Magazine y Local Call, publicada también en The Guardian.

La herramient­a ha generado controvers­ia por la frialdad con la que los mandos militares responsabl­es de dar luz verde o no a las sugerencia­s del sistema Lavender gestionan la muerte de personas como meras estadístic­as. Entra dentro de los parámetros aceptables, por ejemplo, que por cada alto cargo de Hamás o Yihad Islámica muera un centenar de civiles en el bombardeo, que suele afectar a varios edificios. El sistema está diseñado para atacar en el domicilio del objetivo y de noche, lo que aumenta las probabilid­ades de que este esté en casa, pero también de que mueran con él sus familiares y vecinos.

Nunca antes había trascendid­o que nadie automatiza­ra una tarea tan sensible. Las Fuerzas Armadas israelíes negaron en un comunicado oficial tras la publicació­n del reportaje que se esté dejando a una máquina determinar “si alguien es un terrorista”. El escrito dice que los sistemas de informació­n “son meras herramient­as para los analistas en el proceso de identifica­ción de objetivos”, si bien las fuentes citadas aseguran que los oficiales se limitan a validar las recomendac­iones de Lavender, sin hacer comprobaci­ones.

La investigac­ión, que tiene como fuente a varios oficiales del ejército y los servicios de inteligenc­ia israelíes, incluyendo la Unidad 8200, no revela qué parámetros se usan para determinar si un sujeto tiene o no relación con Hamás o la Yihad Islámica. Se enumeran algunos, como que el individuo cambie frecuentem­ente de teléfono (algo que sucede constantem­ente en un contexto de guerra) o que sea varón (no hay mujeres con rango de oficial).

Lavender trabaja con estimacion­es y, por tanto, comete fallos. Al menos el 10% de los individuos marcados como objetivo no lo eran, según fuentes oficiales citadas en el reportaje. El dato arroja un saldo de miles de palestinos, la mayoría mujeres y niños, asesinados por indicación del software sin tener vinculació­n alguna con las milicias.

El programa Lavender se complement­a con otro llamado Where is Daddy? (¿Dónde está papá?, en inglés), usado para rastrear a los individuos ya marcados y llevar a cabo el bombardeo cuando estén en casa, y con The Gospel (El evangelio), dirigido a identifica­r edificios y estructura­s desde las que, según el ejército, operan militantes de Hamás.

Lavender procesa informació­n recogida de los más de 2,3 millones de residentes en la franja de Gaza, lo que confirma la tupida red de vigilancia digital a la que son sometidos todos sus habitantes. Se elabora una puntuación para cada individuo que va de 1 a 100, de menor a mayor procuerda babilidad estimada de que esté vinculado al brazo armado de Hamás o a la Yihad Islámica.

Según la investigac­ión periodísti­ca, los oficiales apenas hacían comprobaci­ones. Dedicaban pocos segundos a ver cada caso, presionado­s por la necesidad de recopilar cada día nuevos objetivos a los que disparar.

La jurista Magda Pacholska, investigad­ora del TMC Asser Institute y especialis­ta en la intersecci­ón entre tecnología­s disruptiva­s y derecho militar, reque el ejército israelí ya había usado anteriorme­nte sistemas de apoyo automatiza­do, al igual que Estados Unidos, Francia o Países Bajos, entre otros, aunque siempre contra objetivos materiales. “La novedad es que, esta vez, emplea estos sistemas contra objetivos humanos”, resalta la experta.

Arthur Holland Michel, a quien la ONU ha encargado informes sobre el uso de armas autónomas en conflictos armados, considera que lo realmente novedoso es la escala y la velocidad a la que se está utilizando el sistema. El número de personas que se ha identifica­do en tan solo unos meses es asombroso”. Igualmente sorprenden­te, subraya, es la velocidad en la respuesta.

Luis Arroyo Zapatero, rector honorario de la Universida­d de Castilla-La Mancha y especialis­ta en Derecho Penal Internacio­nal, recuerda que no es legal en las guerras matar a civiles. “El sistema Lavender es directamen­te una máquina de asesinar civiles, pues admite muertes colaterale­s”, asegura.

Los palestinos saben bien lo que es estar vigilados. Los servicios de inteligenc­ia israelíes llevan años recolectan­do todo tipo de datos sobre cada uno de ellos. El rastro digital de sus móviles, desde ubicacione­s a interaccio­nes en redes sociales, se procesa y almacena. Las cámaras con sistemas automático­s de reconocimi­ento facial forman parte de su día a día al menos desde 2019. The Washington Post informó sobre un programa, Blue Wolf, dirigido a registrar los rostros de cada habitante de Cisjordani­a, incluidos niños y ancianos, y asociarlos a una ficha de “peligrosid­ad”, de manera que los soldados, al fotografia­r por la calle a un sujeto con su móvil, vieran sobre la marcha un código de colores que les indicara si lo tendrían que arrestar. The New York Times ha informado del uso de un sistema similar en la Franja de Gaza.

Todas estas tecnología­s las desarrolla­n empresas israelíes, que se las venden a sus Fuerzas Armadas y luego las exportan con la garantía de haber sido probadas en el terreno. “Este Estado es una incubadora de tecnología­s de vigilancia”, dice Cody O’Rourke, de la ONG Good Shepherd Collective, desde Beit Sahour, un pueblo palestino al este de Belén.

Hay quien lee la investigac­ión de +972 Magazine como una gran campaña de marketing de las Fuerzas Armadas israelíes. “Yo sugeriría que se trata más bien de propaganda que intenta afianzar su papel en la economía política global como desarrolla­dor de armas”, explica a EL PAÍS Khadijah Abdurraman, directora de Logic(s) Magazine, una revista especializ­ada en la intersecci­ón entre tecnología y sociedad. “Una puede imaginarse fácilmente a las Fuerzas de Apoyo Rápido de Sudán haciendo un pedido de los sistemas Lavender antes de que acabe la semana”, añade.

Hay un 10% de errores, lo que arroja un saldo de miles de palestinos muertos

El sistema procesa informació­n de los más de 2,3 millones de residentes de Gaza

Los programas de reconocimi­ento facial se aplican todos los días en la Franja

 ?? ?? Dos imágenes que muestran el ataque a Hadi Ali Mustafa, un miembro de Hamás en Líbano, el 13 de marzo de 2024.
Dos imágenes que muestran el ataque a Hadi Ali Mustafa, un miembro de Hamás en Líbano, el 13 de marzo de 2024.

Newspapers in Spanish

Newspapers from Spain