Un plan ético contra los robots malvados
“¿Cómo van a alzarse los robots contra la humanidad si todavía no son capaces de limpiarnos la cocina?”, se pregunta el que fuera presidente ejecutivo de Google, Eric Schmidt. El antiguo CEO de la compañía pertenece a esa corriente de investigadores y tecnólogos que es consciente de que a la inteligencia artificial (IA) aún le queda muchísimo camino por recorrer antes de que pueda resultar una amenaza.
Sin embargo, ninguno de ellos niega que esto pueda ocurrir. “No nos encontramos ni remotamente cerca de cualquier cosa que nos deba preocupar, pero eso no quiere decir que no lleguemos a esa situación algún día”, recuerda Demis Hassabis, que hoy dirige los programas de IA de Google.
El físico Stephen Hawking y Elon Musk, cofundador de las compañías SpaceX y Tesla Motors, también han alertado sobre los posibles riesgos que entrañaría el desarrollo de la IA. ¿Qué pasaría si una máquina se volviera tan inteligente que fuera capaz de diseñar y usar por sí sola armas de destrucción masiva? ¿Qué pasaría si una empresa decidiera crear una que fuera directamente malvada?
El pasado mayo, las autoridades estadounidenses organizaron una reunión para analizar las leyes que deberían asegurar que la IA será segura, controlable y predecible a medida que se vuelva más potente.
Por su parte, Musk, en colaboración con otros pesos pesados del mundo tecnológico, ha decidido crear OpenAI, una organización sin ánimo de lucro destinada al desarrollo de un software de este tipo que tenga por objetivo beneficiar a la humanidad. Los responsables del proyecto destinarán algo más de 900 millones de euros a generar un corpus ético y de conocimiento sobre este asunto. Musk tiene buenas razones para hacerlo, porque la conducción autónoma, un campo que está explorando, es uno de los que más problemas éticos suscita. Y es que si algún día los coches llegan a conducirse solos, puede que tengan que enfrentarse a decisiones duras, como elegir entre atropellar a un niño o que los pasajeros se estrellen.