Delata a bot ‘consciente’, pero Google lo desmiente
» Señala ingeniero que el sistema de Inteligencia Artificial es capaz de manifestar emociones como un ‘sacerdote’
Blake Lemoine, un ingeniero de software en el equipo de desarrollo de inteligencia artificial (IA) de Google, ha hecho públicas las afirmaciones de haber encontrado IA “consciente” en los servidores de la compañía después de que fue suspendido por compartir información confidencial sobre el proyecto con terceros.
La unidad de Alphabet Inc. colocó al investigador en el estatus de “baja remunerada” a principios de la semana pasada por afirmaciones de que violó la política de confidencialidad de la empresa, de acuerdo con una publicación de Medium titulada “Puede ser despedido pronto por hacer trabajo de ética de IA”.
En la publicación, establece una conexión con miembros anteriores del grupo de ética de IA de Google, como Margaret Mitchell, quienes finalmente fueron despedidos por la compañía de manera similar después de plantear inquietudes.
La turbulencia ética de la IA de Google comenzó mucho antes de que se desmoronara el público.
El Washington Post publicó el sábado una entrevista con Lemoine, en la que dijo que concluyó que la IA de Google con la que interactuó era una persona, “en su calidad de sacerdote, no de científico”.
La IA en cuestión se denomina Language Model for Dialogue Applications (LaMDA), o modelo de lenguaje para aplicaciones de diálogo, y se usa para generar bots de chat que interactúan con usuarios humanos al adoptar varios tropos de personalidad. Lemoine dijo que trató de realizar experimentos para demostrarlo, pero los altos ejecutivos de la empresa lo rechazaron cuando planteó el asunto internamente.
Explica Google cómo funciona LaMDA
“Algunos en la comunidad de IA más amplia están considerando la posibilidad a largo plazo de una IA sensible o general, pero no tiene sentido hacerlo antropomorfizando los modelos conversacionales actuales, que no son sensibles”, dijo el portavoz de Google, Brian Gabriel, en respuesta.
“Nuestro equipo, incluidos especialistas en ética y tecnólogos, ha revisado las preocupaciones de Blake según nuestros Principios de IA y le ha informado que la evidencia no respalda sus afirmaciones”, agregó.
La compañía dijo que no comenta sobre asuntos de personal cuando se le preguntó sobre la suspensión de Lemoine.
En otra publicación, Lemoine hizo públicas las conversaciones que él y un compañero investigador tuvieron con LaMDA.