La IA iba a dominar el mundo y sólo lo ha engañado
Hace 14 meses sus promotores pidieron una pausa para meditar, pero no la respetaron y se pusieron a correr como locos. Ahora que ya le hemos visto las costuras a la Inteligencia Artificial hay que pensar si merece la pena invertir todos estos recursos en ella
En marzo de 2023, hace ya más de un año, un grupo de destacados investigadores y empresarios de la Inteligencia Artificial (IA) pidió una pausa de seis meses en el desarrollo de sistemas más potentes de IA generativa y de grandes modelos de lenguaje (LLM). Lo hicieron a través de un manifiesto con palabras muy grandilocuentes y apocalípticas. «La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra y debe planificarse y gestionarse con el cuidado y los recursos correspondientes», afirmaron. «Los laboratorios de IA se han visto atrapados en una carrera descontrolada para desarrollar y aplicar mentes digitales cada vez más poderosas que nadie –ni siquiera sus creadores– puede entender, predecir o controlar de manera confiable».
En este año transcurrido no se produjo la pausa que pedían, pero hemos aprendido mucho de la IA y, sobre todo, de sus promotores. Lo suficiente como para darnos cuenta de que ese manifiesto, que hasta el viernes pasado habían suscrito 33.708 personas, tenía mucho más de marketing y de estrategia de mercado que de expresión genuina de buenas intenciones. Hoy no debatimos si la IA es tan inteligente que podría llegar a destruir el mundo, sino que lidiamos con la falta de confiabilidad de un sistema que se inventa hechos, falsifica documentación y cae en frecuentes alucinaciones (‘ hallucination’, en inglés). La IA más parece una muy acabada máquina de propaganda, tanto en el sentido de lo que divulga como de lo que dice de sí misma.
En el camino, hemos aprendido que quizá la IA no destruya los empleos que se presumía que iba a llevarse por delante. Que los trabajadores menos cualificados pueden resultar más favorecidos que los muy preparados porque la capacidad de la IA de realizar tareas como la traducción o la codificación resulta igualadora. También mejora la productividad porque es capaz de gestionar grandes volúmenes de información, extraer tendencias y analizar como el mejor experto. Pero, claro, se inventa cosas. Cita como fuente de autoridad libros que nunca se han escrito o ‘papers’ (estudios) que nadie ha hecho.
También hemos aprendido que OpenAI era una casa dividida contra sí misma, con una gobernanza prendida con alfileres. Que en noviembre, algunos miembros del consejo intentaron descabalgar a Sam Altman por supuestos escrúpulos morales que provocaron la reacción de plataformas asociadas como Microsoft o Nvidia que no querían dejar escapar un argumento de venta tan suculento y que estaban recogiendo en sus cotizaciones bursátiles. L as nuevas actualizaciones de la IA hacen más baratas y rápidas las operaciones, pero no aparece la «magia» que Altman prometía la semana pasada con el lanzamiento de ChatGPT-4o. Molly Allen White, una ingeniera de software estadounidense que es una de las principales referencias de la web debido a su actividad como editora de la Wikipedia, adquirió fama como criptoescéptica por sus
Ilya Sutskever, cofundador y científico jefe de OpenAI que participó en el fallido intento de expulsar a Sam Altman y luego se arrepintió, deja la empresa. El anuncio se produjo poco después de que OpenAI anunciara una nueva versión (ChatGPT-4o) y que sus rivales Anthropic y Alphabet (particularmente Google) revelaran actualizaciones significativas de sus propias IA. Sutskever dirigió el equipo de «superalineación» destinado a que las futuras versiones fueran seguras.
críticas a la tecnología ‘ blockchain’ cuando esta se empezó a usar de modo especulativo y ahora también es cautelosa con el giro que ha tomado la introducción de la IA.
«Creo que mis sensaciones sobre la IA son en realidad bastante similares a mis sensaciones sobre ‘ blockchain’: hacen un mal trabajo en gran parte de lo que la gente intenta hacer con ellas, no pueden hacer las cosas que sus creadores afirman que algún día podrían hacer, y muchas de las cosas para las que están bien preparadas pueden no ser tan beneficiosas», escribió
White en un artículo titulado ‘La IA no es inútil.
Pero ¿merece la pena?’.
Efectivamente, hay cosas que la IA hace muy bien. Es particularmente buena en el reconocimiento de imágenes y en la transcripción de audios. Pero algunos de sus logros han sido claramente inflados por sus promotores. OpenAI dijo que ChatGPT-4 había aprobado el examen para convertirse en abogado situándose en el percentil 90. Eric Martínez, un investigador del MIT, revisó las pruebas y encontró cuatro conjuntos de evidencias que indicaban que las estimaciones de OpenAI eran exageradas. En realidad ChatGPT no estaba en el percentil 90, sino en el 48.
Ya hay muchas personas preguntándose si merece la pena invertir ingentes recursos, no sólo capital, sino también energía eléctrica y agua, y algunas de las mentes más talentosas del planeta, en mejorar un sistema de IA que presenta resultados más que dudosos.
A esto hay que sumar el hecho de que las grandes empresas han tenido éxito a la hora de convencer a los gobiernos de que debían regular la IA con el único objetivo de crear barreras de entrada para los nuevos competidores y frenar cualquier planteamiento alternativo. Por ejemplo, la nueva Junta de Seguridad de la IA, creada por el Departamento de Seguridad Nacional de EE.UU. para proteger sus infraestructuras críticas es, según muchos analistas, la consagración de las grandes plataformas que llevan años mandando mensajes contra las aplicaciones de código abierto para favorecer sus propios programas.
Es hora de mirar críticamente lo que Altman y sus colegas están haciendo y la dirección que han impuesto al mundo de la tecnología.
Se dijo que la IA superó el examen de abogado con un notable. La verdad es que fue mediocre