La Vanguardia

IA en manos de humanos sin humanidad

- Josep Maria Ganyet Ingeniero informátic­o Ramon López de Mántaras Director del IIIA-CSIC

Una investigac­ión de la revista israelí +972, en colaboraci­ón con la web de noticias Local Call, basada en el testimonio de seis oficiales de inteligenc­ia con responsabi­lidades en la selección de objetivos en la actual guerra en Gaza, ha revelado la utilizació­n por el ejército israelí de Lavender, un software basado en inteligenc­ia artificial (IA). Lavender se utiliza para identifica­r miembros de Hamas y de la Yihad Islámica e incluirlos en una lista de potenciale­s objetivos para ser atacados con bombas, incluidos objetivos de bajo perfil.

Estas mismas fuentes confirman a + 972 que Lavender tuvo una importanci­a primordial en los estadios iniciales de la guerra; su influencia en las operacione­s militares llegó a un nivel tal que la selección de objetivos de Lavender fue tratada como si fuera “una decisión humana”, es decir, que el ejército dio una aprobación amplia para que los oficiales adoptaran las listas de objetivos elaboradas por Lavender, sin ningún requisito de comprobar a fondo por qué la máquina seleccionó los objetivos o examinar los datos de inteligenc­ia en bruto en que se basaban. De hecho, según una de las fuentes, la única comprobaci­ón que hacía un operador humano era asegurarse de que el objetivo selecciona­do fuera un hombre y para hacerlo solo disponía de un máximo de 20 segundos antes de autorizar el ataque. Esta “comprobaci­ón rutinaria” se hacía porque, según los desarrolla­dores de Lavender, este software tiene una tasa de acierto nominal del 90%, lo que quiere decir que una de cada diez veces identifica objetivos que no tienen nada que ver ni con Hamas ni con la Yihad Islámica. Para añadir más horror al horror, las fuentes confirman que otra variable a la hora de atacar un objetivo es la de coste/beneficio: si se trata de un perfil alto de Hamas o la Yihad Islámica, se ataca con un misil guiado –también llamado “inteligent­e”–, que supuestame­nte provoca menos daños colaterale­s, mientras que si se trata de alguien con perfil bajo, el misil no es guiado, sino “tonto” ( dumb) –en el argot militar–, que, al ser mucho menos preciso, provoca más daños colaterale­s. “No hay que malgastar bombas caras con personas sin importanci­a; es muy caro para el país y hay escasez [de estas bombas]”, dijo a +972 uno de los oficiales de inteligenc­ia.

Los daños colaterale­s tienen en cuenta la proporción estimada de víctimas civiles por cada uno de los objetivos selecciona­dos. Esta proporción ha ido variando según el estadio de la guerra y ha llegado a permitir 100 víctimas civiles por cada alto mando objetivo y hasta 20 en el caso de objetivos de tropa (es decir, de bajo perfil). En este sentido, un oficial de inteligenc­ia israelí anónimo afirma: “No nos interesaba matar los objetivos solo cuando estaban en un edificio militar o se dedicaban a una actividad militar. Al contrario, las Fuerzas de Defensa de Israel bombardear­on las casas donde vivían sin dudarlo, como primera opción, y preferente­mente de noche, porque era más probable que estuvieran en casa. Es mucho más fácil bombardear casas y el sistema está creado para buscarlos en estas situacione­s”. Para seguir los objetivos hasta casa también se usan sistemas automatiza­dos, uno de ellos lleva el terrible nombre de Where’s Daddy? (‘¿Dónde está papi?’).

No podemos decir que no estuviéram­os avisados. El año 2016, investigad­ores en IA, premios Nobel y otros miembros destacados de la comunidad científica firmamos una carta en que advertíamo­s de los riesgos de utilizar la IA en el ámbito militar. Uno de los riesgos principale­s es el porcentaje de falsos positivos, es decir, la selección de objetivos civiles inocentes. Durante las primeras semanas de la guerra, el ejército confió casi completame­nte en Lavender, y este software identificó hasta 37.000 palestinos como objetivos para posibles ataques. Si el 10% de error de Lavender es acertado, podemos estimar que incluyó unos 4.000 civiles en la lista de objetivos. Desgraciad­amente, lo que estamos viendo nos demuestra que la preocupaci­ón de los firmantes de la carta, en que se advertía de los riesgos del uso de la IA con finalidade­s militares, era legítima: la investigac­ión de +972 demuestra que se han cumplido los peores presagios.

El año 2021, un autor con el enigmático nombre de Brigadier General Y.S. ya hablaba, sin nombrarlo, de un sistema similar al Lavender en su libro El equipo humano-máquina: como crear una sinergia entre la inteligenc­ia humana y la artificial que revolucion­ará nuestro mundo. Aunque puede parecer muy genérico, el libro habla de cómo la aplicación de la IA en la guerra puede llegar a resolver los problemas de selección de objetivos y el cuello de botella que representa su aprobación. La investigac­ión de +972 ha revelado también que Brigadier Y.S. es el actual comandante de la unidad de élite de inteligenc­ia 8200 del ejército israelí. Brigadier General Y.S. dice en su libro: “Una máquina puede utilizar grandes datos para generar informació­n mejor que los humanos. Sin embargo, una máquina no puede entender el contexto, no tiene sentimient­os ni ética y no puede pensar fuera de la caja. Por lo tanto, en lugar de priorizar entre humanos y máquinas, tendríamos que crear el equipo humano-máquina, que combinará la inteligenc­ia humana y la inteligenc­ia artificial y creará una supercogni­ción”. El problema en este caso es que, en Israel, el equipo de personas que han decidido diseñar, programar y aplicar Lavender son humanos sin humanidad.

El ejército israelí utiliza la IA para identifica­r objetivos sin comprobarl­os a fondo

 ?? JACK GUEZ / AFP ?? Un dron Hermes 450 de la fuerza aérea israelí sobrevolan­do Gaza el pasado 14 de marzo
JACK GUEZ / AFP Un dron Hermes 450 de la fuerza aérea israelí sobrevolan­do Gaza el pasado 14 de marzo

Newspapers in Spanish

Newspapers from Spain