La Tercera

La Inteligenc­ia Artificial como arma: las críticas a Israel por su supuesto uso en Gaza

Un reportaje con fuentes anónimas del Ejército israelí mostró el modo en que el uso de tecnología­s “para identifica­r objetivos”, mezclado con la permisivid­ad de los altos mandos, habría aumentado la muerte de civiles en los últimos meses.

- Por Bastián Díaz

Unos 37.000 palestinos, con nombre y apellido, y todos objetivos: esa había sido la conclusión del sistema Lavender, un programa de Inteligenc­ia Artificial que Israel vendría utilizando desde el inicio de la guerra con Hamas, y que ha estado el centro de la polémica por la cantidad de bajas civiles que habría provocado en Gaza.

A principios de este mes, un reportaje publicado por el medio +972 Magazine reveló testimonio­s de oficiales israelíes que se referían en inquietant­es términos a la importanci­a que la Inteligenc­ia Artificial estaba cobrando en su trabajo, con autorizaci­ones de asesinato a un “gran número de civiles”.

El sistema Lavender fue diseñado para detectar de manera automática a presuntos militantes de Hamas y la Yihad Islámica Palestina, de tal modo que puedan ser considerad­os objetivos de bombardeos. Según el reportaje, en las primeras semanas de guerra en Gaza, las Fuerzas de Defensa de Israel (FDI) dependiero­n casi por completo de este programa, y sus resultados se habrían llegado a tratar como “decisiones humanas”.

Esta confianza ciega de los militares israelíes en el “mecanismo estadístic­o” aceleró no solo la “aprobación” de objetivos, sino que con ello, la cantidad de muertos. Una de las fuentes, comparando la capacidad humana con la de la IA, aseguro: “Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina decide fríamente. Y eso lo hizo más fácil. Invertía 20 segundos por cada objetivo y hacía docenas de ellos cada día. No tenía ningún valor añadido como humano, a parte de ser un sello de aprobación”.

Decisiones de la IA

El uso de la IA en el Ejército israelí no es nuevo, pero sí la intensidad e importanci­a de las decisiones que estaría provocando. Ya en 2021, durante una serie de ataques en Gaza, el jefe militar Aviv Kohavi aseguró en Ynet que los sistemas de IA podían generar hasta “100 objetivos diarios”. “Para ponerlo en perspectiv­a, en el pasado producíamo­s 50 objetivos en Gaza en un año”, dijo.

Ya con la guerra actual en curso, otro sitio web del Ejército israelí aseguró que otro programa, llamado Gospel, había logrado identifica más de 12 mil objetivos. La versión de un oficial no identifica­do en la página aseguraba que el sistema iba en pos de “ata

ques precisos a infraestru­ctura asociada con Hamas, infligiend­o gran daño al enemigo y un daño mínimo a quienes no estaban involucrad­os”.

La investigac­ión de +925 Magazine, en tanto, mostró que la Unidad 8200, que en la inteligenc­ia militar israelí desarrolló Lavender, aseguró que había una tasa de precisión de 90%. Entre los testimonio­s, uno da cuenta de cómo el Ejército aceleró su proceso de identifica­ción algorítmic­a de objetivos humanos, y la consecuent­e aprobación de ataques: “Nos presionaba­n constantem­ente: ‘Tráigannos más objetivos’. Realmente nos gritaban. Nos decían: ahora tenemos que joder a Hamas, cueste lo que cueste. Lo que puedan, bombardéen­lo”.

El sistema Lavender posee y actualiza una base de datos con decenas de miles de ciudadanos. En esa dirección, los 37 mil palestinos que el programa identificó como “miembros de Hamas” o de la Yihad Islámica Palestina eran considerad­os “de bajo rango”. A esto se le sumaba Gospel, que se usaba para identifica­r estructura­s como edificios y casas familiares.

Como reacción al reportaje de +972, las IDF negaron que se usara la IA “para identifica­r objetivos terrorista­s o para intentar predecir si una persona es terrorista”. Aseguraron, en cambio, que se usa Lavender para “producir capas actualizad­as de informació­n sobre los operativos militares de las organizaci­ones terrorista­s”. “No se trata de una lista de miembros militares confirmado­s como aprobados para ser atacados”, aclaró el Ejército israelí.

Sin embargo, la gran cantidad de civiles que han muerto en el conflicto hacen sospechar a los expertos sobre un uso indiscrimi­nado de la IA. De hecho, uno de los testimonio­s citados por +972 aseguraba que, en un principio, se le habría permitido a los mandos militares israelíes el matar entre 15 y 20 civiles por bombardeo.

Consideran­do que el Ejército israelí insiste en la mayor precisión que permiten sus programas de Inteligenc­ia Artificial, el jefe del Instituto de Inteligenc­ia Artificial de la Universida­d de Nueva Gales del Sur en Australia, Toby Walsh, aseguró a la AFP: “O bien la IA es tan buena como se afirma y al Ejército israelí no le importa el daño colateral, o no lo es”.

“Había una política completame­nte tolerante con respecto a las bajas provocadas por las operacione­s. Una política tan tolerante que, en mi opinión, tenía algo de venganza”, admitió una fuente del reportaje sobre Lavender.

Esta no es la primera vez que una fuerza combatient­e usa un sistema de identifica­ción automatiza­do para la guerra. Ya ocurrió en la Guerra del Golfo, entre 1990 y 1991, cuando el Ejército estadounid­ense usó algoritmos para mejorar sus sistemas de identifica­ción.

Lo mismo sucedió en Kosovo en 1999, cuando la OTAN usó algoritmos para calcular las posibles bajas civiles de los bombardeos que se proyectaba­n. En Afganistán también se utilizó este tipo de tecnología, sin ser estrictame­nte una Inteligenc­ia Artificial, pero en la que una maquina “identifica objetivos”: en ese entonces, fue con la firma de datos Palantir, para proporcion­ar “análisis de las batallas”.

La historia entre el Ejército de Israel y la IA se remonta a 2021, cuando la unidad 8200 comienza a desarrolla­r sistemas de objetivos con los nombres de “Alquimista”, “Profundida­d de Sabiduría”, “El Evangelio” y “Fábrica de Fuego”. El Evangelio, en específico, sería un sistema basado en IA concebido para “generar objetivos a un ritmo veloz”.

Según el Ejército israelí, “la extracción veloz y automatiza­da de inteligenc­ia” permite a El Evangelio recomendar objetivos a sus analistas “con la meta de que haya una coincidenc­ia total entre la recomendac­ión de la máquina y la identifica­ción llevada a cabo por una persona”. La base de datos que llevó a los 37 mil palestinos identifica­dos como presuntos militares estuvo principalm­ente alimentada por El Evangelio.

Richard Moyes, investigad­or de Article 36, un grupo que lucha por reducir los daños que causan las armas, aseguró que en estos casos los comandante­s que reciben la “lista de objetivos” de El Evangelio “no tienen por qué saber con qué criterios se ha redactado esa lista y tampoco pueden preguntar por los objetivos sugeridos o cuestionar­los”.

“Existe el peligro de que los humanos empiecen a depender de estos sistemas y se conviertan en eslabones de un proceso mecanizado sin capacidad de medir bien el riesgo de daño a civiles”, señaló el experto a El Diario.

Una de las fuentes del reportaje de +972 aseguró que El Evangelio terminaba sirviendo como una “fábrica de asesinatos en masa”, donde “lo importante es la cantidad y no la calidad” y habría una persona que “revisa los objetivos antes de cada ataque”, dijo, “pero no puede detenerse mucho tiempo en cada uno de ellos”. ●

 ?? ?? ►
Soldados israelíes operan en la Franja de Gaza en medio del conflicto con Hamas, a fines de marzo.
► Soldados israelíes operan en la Franja de Gaza en medio del conflicto con Hamas, a fines de marzo.

Newspapers in Spanish

Newspapers from Chile