¿YA HEMOS PASADO EL PUNTO DE NO RETORNO O ESTAMOS A TIEMPO?
LOS LIMITES NO ESTÁN CLAROS Y CALCULAR QUÉ SUCEDERÁ Y CUÁNDO ES IMPOSIBLE
LA POLÉMICA CARTA SOBRE LA INTELIGENCIA ARTIFICIAL. El pasado 22 de marzo, a través de una carta abierta firmada conjuntamente por más de 1.000 expertos en el campo de la inteligencia artificial, se hacía un llamamiento "a todos los laboratorios de IA para que pausen de inmediato durante al menos seis meses el entrenamiento de los sistemas de IA más potentes que GPT-4". "Si tal pausa no se puede promulgar rápidamente, los gobiernos deberían intervenir". Entre los firmantes, los conocidos Elon Musk, CEO de SpaceX, Tesla y Twitter, o Steve Wozniak, cofundador de Apple, o expertos de la talla de Yoshua Bengio, ganador del Premio Turing y profesor de la Universidad de Montreal –considerado uno de los padrinos de la IA–, o Gary Marcus, profesor de la Universidad de Nueva York e investigador veterano.
Publicada por el Instituto Future of Life (FLI), que coordinó esta iniciativa citando investigaciones de expertos, académicos universitarios y empleados –y extrabajadores– de OpenAI, Google y su subsidiaria DeepMind, a día de hoy suma más de 31.800 apoyos. El problema es que cuando se lanzó en marzo, carecía de protocolos de verificación de la identidad y acumuló firmas de personas que en realidad no la respaldaban, como Xi Jinping, presidente de la República Popular China, o el gurú de la inteligencia artificial de Meta Yann LeCun –ganador del Premio Turing 2018 junto a Yoshua Bengio–, quien aclaró en Twitter que no la respaldaba. La polémica estaba servida.
Entre otras preguntas, en dicha carta se planteaban: "¿Deberíamos automatizar todos los trabajos?". "¿Deberíamos desarrollar mentes no humanas que eventualmente podrían superarnos en número, ser más inteligentes y reemplazarnos?". "¿Deberíamos arriesgarnos a perder el control?". En un artículo de la revista Time del 29 de marzo, Eliezer Yudkowsky, experto y defensor de la inteligencia artificial amigable iba más allá y apuntaba: "No estamos listos". La cuestión no es la inteligencia competitiva, según Yudkowsky, es lo que viene después, "cuando sea más inteligente que la humana". Los límites no están claros y calcular qué sucederá y cuándo es imposible. ¿Nos estamos precipitando hacia una catástrofe y deberíamos pisar el freno? ¿Estamos a tiempo? Nadie lo sabe... y no hay un plan B. Quizá deberíamos empezar por ponernos de acuerdo en las implicaciones morales y en cuán peligrosa –y no sólo beneficiosa, que lo es– podría ser la IA.