ABC (Toledo / Castilla-La Mancha)
El creador de ChatGPT alerta de que la IA debe ser controlada «como un arma nuclear»
Sam Altman se reunió ayer con Pedro Sánchez y con la vicepresidenta Calviño
La inteligencia artificial (IA) es capaz de lo mejor y de lo peor. Igual consigue ayudar a agilizar el trabajo de cualquier empresa hasta límites que rozan lo increíble, como puede convertirse en un importante peligro para la sociedad y la democracia. Sam Altman, CEO de OpenAI, la empresa detrás de esa máquina parlante capaz de responder cualquier pregunta que es ChatGPT, lo sabe. Y ayer volvió a repetirlo, y bien fuerte, en Madrid. Durante una mesa redonda celebrada en la IE University, ubicada en la capital de España, el ejecutivo afirmó que la inteligencia artificial es «la tecnología más poderosa que la humanidad haya visto nunca». Sin embargo, también dejó caer que sus efectos pueden ser «catastróficos» y debe controlarse con el mismo cuidado que la bomba atómica.
«Con la IA hay que tener el mismo cuidado que con un arma nuclear», señaló, en concreto, el ejecutivo, que llamó la atención sobre la importancia de que se cree una entidad internacional, similar al Organismo Internacional de Energía Atómica de la ONU, que ayude a controlar la tecnología. Algo que ya expresó la semana pasada durante su comparecencia ante legisladores en el Senado de Estados Unidos.
La rápida irrupción de ChatGPT, herramienta que, en apenas seis meses ha conseguido superar la barrera de los cien millones de usuarios mensuales, ha provocado que estados de todo el mundo hayan comenzado a estudiar la forma de regular esta tecnología. En opinión de Sam Altman, esta regulación debe realizarse rápidamente y ser lo más uniforme posible a nivel global. En concreto, el objetivo debe ser poner bajo control «a las empresas más grandes». Y es que, como Altman reconoció, la historia de Silicon Valley demuestra que no se puede dejar toda la responsabilidad, en lo que se refiere a la creación de estándares de seguridad, a las tecnológicas.
Durante los últimos meses, OpenAI ha sido criticada con dureza por numerosos académicos y expertos en IA por haber puesto en manos del usuario corriente tecnología imperfecta que adolece de sesgos y que puede desinformar. Altman justifica el lanzamiento de ChatGPT, que, reconoce, es «imperfecto», señalando que « es importante que la gente tenga tiempo para revisar la tecnología y adaptarse» cuanto antes al cambio que trae consigo: «Esto también nos permite saber cómo los usuarios la utilizan, tanto para lo bueno como para lo malo, antes de que tengan un mayor impacto en el mundo. Aún estamos a tiempo de adaptarlo».
El ejcutivo reconoció ayer que comprende que muchas voces hayan señalado que ChatGPT puede provocar un terremoto que afecte a miles de puestos de trabajo y, especialmente, a la educación. «La gente responde igual que como lo hicieron los profesores de Matemáticas cuando se inventó la calculadora. Al final esto, simplemente, mejoró las capacidades del estudiante, y creo que con ChatGPT va a pasar lo mismo. Será una herramienta para los estudiantes y los que no la aprovechen pueden correr el riesgo de quedarse atrás » , señaló Altman.
Reunión con Sánchez
El ejecutivo de OpenAI también se reunió en la mañana de ayer en Madrid con el presidente del Gobierno, Pedro Sánchez, y la ministra de Economía, la vicepresidenta Nadia Calviño. Durante el encuentro se abordó el desarrollo reciente de la inteligencia artificial, junto a su enorme potencial y sus riesgos. Cabe recordar que España presidirá el Consejo de la UE el próximo semestre, y que la ley de IA, que pondrá límites a soluciones como ChatGPT en suelo comunitario, será aprobada antes de fin de año.