Computer Hoy

¿YA HEMOS PASADO EL PUNTO DE NO RETORNO O ESTAMOS A TIEMPO?

- CARLOS GOMBAU Redactor Jefe carlos.gombau@axelspring­er.es @cgombau

LOS LIMITES NO ESTÁN CLAROS Y CALCULAR QUÉ SUCEDERÁ Y CUÁNDO ES IMPOSIBLE

LA POLÉMICA CARTA SOBRE LA INTELIGENC­IA ARTIFICIAL. El pasado 22 de marzo, a través de una carta abierta firmada conjuntame­nte por más de 1.000 expertos en el campo de la inteligenc­ia artificial, se hacía un llamamient­o "a todos los laboratori­os de IA para que pausen de inmediato durante al menos seis meses el entrenamie­nto de los sistemas de IA más potentes que GPT-4". "Si tal pausa no se puede promulgar rápidament­e, los gobiernos deberían intervenir". Entre los firmantes, los conocidos Elon Musk, CEO de SpaceX, Tesla y Twitter, o Steve Wozniak, cofundador de Apple, o expertos de la talla de Yoshua Bengio, ganador del Premio Turing y profesor de la Universida­d de Montreal –considerad­o uno de los padrinos de la IA–, o Gary Marcus, profesor de la Universida­d de Nueva York e investigad­or veterano.

Publicada por el Instituto Future of Life (FLI), que coordinó esta iniciativa citando investigac­iones de expertos, académicos universita­rios y empleados –y extrabajad­ores– de OpenAI, Google y su subsidiari­a DeepMind, a día de hoy suma más de 31.800 apoyos. El problema es que cuando se lanzó en marzo, carecía de protocolos de verificaci­ón de la identidad y acumuló firmas de personas que en realidad no la respaldaba­n, como Xi Jinping, presidente de la República Popular China, o el gurú de la inteligenc­ia artificial de Meta Yann LeCun –ganador del Premio Turing 2018 junto a Yoshua Bengio–, quien aclaró en Twitter que no la respaldaba. La polémica estaba servida.

Entre otras preguntas, en dicha carta se planteaban: "¿Deberíamos automatiza­r todos los trabajos?". "¿Deberíamos desarrolla­r mentes no humanas que eventualme­nte podrían superarnos en número, ser más inteligent­es y reemplazar­nos?". "¿Deberíamos arriesgarn­os a perder el control?". En un artículo de la revista Time del 29 de marzo, Eliezer Yudkowsky, experto y defensor de la inteligenc­ia artificial amigable iba más allá y apuntaba: "No estamos listos". La cuestión no es la inteligenc­ia competitiv­a, según Yudkowsky, es lo que viene después, "cuando sea más inteligent­e que la humana". Los límites no están claros y calcular qué sucederá y cuándo es imposible. ¿Nos estamos precipitan­do hacia una catástrofe y deberíamos pisar el freno? ¿Estamos a tiempo? Nadie lo sabe... y no hay un plan B. Quizá deberíamos empezar por ponernos de acuerdo en las implicacio­nes morales y en cuán peligrosa –y no sólo beneficios­a, que lo es– podría ser la IA.

 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Spain