Inteligencia Artificial militarizada
Mientras nos preocupamos por los chatbots y las aplicaciones usando IA para responder a textos o escribir un artículo, informe o tarea, una amenaza más sombría ha ido creciendo en los espacios oscuros e invisibles.
Hasta ahora, mi peor pesadilla eran adolescentes talentosos creando bots de IA para bombardear Facebook, Twitter, Tik Tok, Instagram, Reddit y otros con ataques a rivales, maestros o exnovias con textos, fotos y documentos dañosos que parecen auténticos, pero son falsos. Miles de veces, 24/7. Las IA nunca duermen ni descansan.
Durante más de 50 años, la ciencia ficción ha imaginado guerras entre humanos e IA. El peligro claro y presente es una guerra entre IA militares creadas por potencias nucleares como Rusia, China y EE.UU. Los mejores robots de ajedrez pueden completar en segundos un juego de nivel de gran maestro; el comienzo de un intercambio nuclear podría ocurrir igual de rápido. En teoría, solo humanos pueden dar la orden de disparar, pero ¿qué harían los líderes si su mejor IA declara que un enemigo se está preparando para lanzar y el único escape es un ataque inmediato? La combinación de máquinas que pueden calcular un millón de veces más rápido que un humano y armas nucleares un millón de veces más poderosas que las convencionales es una pesadilla que me quita el sueño. Siento que el peligro es real porque los científicos que más saben al respecto son los que están más alarmados. Un grupo internacional llamado “Stop the Killer Robots” ha propuesto una moratoria sobre la IA militar. Sus posibilidades son casi nulas. Desde laboratorios secretos, los países nucleares han reconocido que trabajan en IA.
El Ejército estadounidense ha dicho: “Si nos detenemos, nuestros enemigos seguirán avanzando. Tenemos que seguir adelante”. Los chinos se han negado a discutir una pausa o límite a la IA militar. Los políticos no han podido regular la IA civil. La mayoría de los congresistas ni siquiera entienden las redes sociales.
En 1950, Isaac Assimov, escritor ruso-estadounidense, en su libro “Yo Robot” creó sus “3 leyes de la robótica”. Primero, un robot no podría dañar a un ser humano, o por inacción permitir que un ser humano sufra daño. Segundo, un robot debe seguir las órdenes de un ser humano a menos que hacerlo viole la primera ley.
Tercero, un robot debe proteger su existencia, excepto cuando dicha protección entre en conflicto con la primera o la segunda ley. Las cosas eran mucho más simples entonces.