Amenaza existencial
Aunque faltan más de dos meses para las elecciones presidenciales, es urgente que la futura presidenta tenga una estrategia nacional para coordinar y controlar el uso de IA.
En un reporte patrocinado por el Departamento de Estado, y publicado esta semana, señala que la “Inteligencia Artificial” (IA) podría representar “una amenaza de nivel de extinción para la especie humana”. El documento fue desarrollado por una empresa de tecnología Gladstone AI, y supuestamente no representa la posición del gobierno estadounidense, pero sí es un guía para evaluar si la estrategia actual representa una estrategia para proteger los intereses nacionales e internacionales en materia de seguridad nacional ante esta nueva tecnología.
Hay que reconocer que es de terror leer algunas de las conclusiones basados en la visión de más de 200 investigadores
y expertos en ciberseguridad y armas de destrucción masiva, donde señala un documento, que refleja la visión de más de 200 expertos en ciberseguridad, que hay riesgos catastróficos, que incluyen la posibilidad de que la IA dejará de ser controlada por seres humanos.
El objetivo del documento parecería ser un llamado para que el gobierno estadounidense tome pasos contundentes para crear un paraguas jurídico y estratégico para controlar o mitigar el impacto eventual de una “amenaza existencial” que podría representar la inteligencia artificial.
Llevo mas de un año siguiendo de cerca el rápido desarrollo de la IA en entrevistas para mis espacios en medios de comunicación, foros y contenido que a diario se publican en las redes sociales. Lo que es angustiante es que entre los mismos expertos no hay consenso de la peligrosidad que representa la IA, si es una amenaza eminente, o una preocupación a largo plazo. También en los foros de expertos hay una exigencia de desarrollar marcos jurídicos que podrían detener, desacelerar o proteger los intereses de seguridad nacional y asegurar que IA se desarrolle de una manera ética, legal, dándole prioridad a los aspectos benignos de esta nueva tecnología, protegiendo derechos humanos y datos personales.
Ante la realidad de que se ha “democratizado” la tecnología de IA, esto permite que más actores buenos y malos puedan acceder a IA, con pocos recursos y capacidades. Esto debería llevarnos a evaluar si es factible controlar el desarrollo acelerado de IA, cuando esta tecnología no es de uso exclusivo de gobiernos o de empresas transnacionales.
De hecho, una de las preguntas que tampoco se ha respondido en una forma contundente es cuáles son los resultados finales del uso de IA: ¿Será el catalizador de la reducción de la desigualdad y pobreza? ¿Será el antídoto para mitigar el impacto del cambio climático? ¿Podrá la IA ser la varita mágica para mejorar dramáticamente la educación y el acceso a información? ¿Una estrategia coordinada podría ser lo que recete “el doctor” para mejorar, a corto plazo, la salud y acceso a servicio médicos de la mayoría de la población?
O, al contrario, la IA podría herir de muerte aquellas democracias que sufren de una profunda polarización, gracias a “fake news” y el uso de desinformación para ganar elecciones y eventualmente gobernar.
La desinformación en países polarizados es la “bomba nuclear” que destruye democracias.