Álvarez-Pallete alerta del peligro de una IA “descontrolada”
PIDE “PARARSE Y PENSAR”/ El presidente de Telefónica califica de “riesgo existencial” los desarrollos sin control.
El presidente de Telefónica, José María Álvarez-Pallete, aconsejó ayer, en un artículo publicado en la web de la operadora, hacer una pausa en el desarrollo exponencial de las capacidades de los sistemas de inteligencia artificial generativa (AGI, por sus siglas en inglés), exponiendo, en concreto, los peligros de modelos imperfectos “pero inquietantemente poderosos como ChatGPT”.
Riesgo existencial
Sobre la AGI, Pallete explica que “no podemos dejar que campe a sus anchas. No todo lo que la tecnología es capaz de hacer es bueno o socialmente aceptable”. Para el ejecutivo “una AGI descontrolada o con afán de poder es un riesgo existencial”.
Para el ejecutivo “la velocidad de aprendizaje de los actuales modelos de inteligencia artificial ha aumentado en un factor de 100 millones de veces en los últimos 10 años, tal y como recuerda Financial Times en un reciente artículo sobre el desarrollo de la IA
We must slow down de the race to Go-like AI.
En el artículo, publicado en
FT el pasado jueves y que ha tenido un fuerte impacto en la comunidad tecnológica, Ian Hogharth, un experto en IA e inversor en proyectos relacionados con ella, traza un preocupante panorama de los peligros potenciales del actual crecimiento exponencial de capacidad de los sistemas de IA, sobre todo de los que buscan crear una inteligencia artificial con capacidades parecidas a Dios o “divinas” (God-like AI) que, en su opinión “traería riesgos significativos para el futuro de la raza humana”.
Pallete explica alguno de los riesgos potenciales de la IA señalando que “podría elaborar moléculas dañinas para el hombre o llevar los modelos de fake news o deep fakes a convertirse en una amenaza para la democracia a través de campañas masivas de desinformación sistemática e indetectable. Una inteligencia ilimitada puesta al servicio de intereses particulares puede crear armas químicas o cibernéticas”.
Además, el presidente de Telefónica y de la GSMA señala que la carrera por llegar primero por parte de los diferentes proyectos como Deepmind u Open AI provocan que no haya mecanismos de seguridad para detener su desarrollo en caso de riesgo evidente. “Las propias empresas que desarrollan AGI lo hacen sin saber cómo detener el proceso cuando la propia AGI adquiera una autonomía incontrolable”.
La IA “podría llevar los modelos de ‘deep fakes’ a convertirse en una amenaza para la democracia”