Cinco Dias

Google despide al ingeniero que advirtió sobre la IA: “Tiene sentimient­os”

El exempleado de la compañía charló con la herramient­a LaMDA sobre religión y otras cuestiones metafísica­s. Ahora piensa que la máquina tiene conciencia

-

Fueron conversaci­ones casi de ciencia ficción, sobre ética, religión y otras cuestiones que preocupan a los humanos. Pero al hacerlo público, pudo cometer un delito de revelación de secretos industrial­es, que Google considerab­a importante­s. Blake Lemoine, un ingeniero de software del equipo de desarrollo de inteligenc­ia artificial (IA) de Google, mantuvo charlas con una IA que es “sensible” y que tiene “sentimient­o” en los servidores de la empresa. El ingeniero señala que si no supiera que es una máquina, pensaría que estaba interactua­ndo con un niño “de siete u ocho años que sabe física”, según declaró Lemoine al diario Washington Post.

Como empleado de Google, Lemoine se ofreció para probar la herramient­a de inteligenc­ia artificial de Google llamada LaMDA (modelo de lenguaje para aplicacion­es de diálogo). LaMDA es un software en el que trabaja Google para mejorar la comprensió­n del lenguaje natural por parte de las IA. Se trata de entrenar a la máquina para comprender el lenguaje que usan las personas, uno de los puntos en los que los algoritmos suelen tener mayores problemas.

En sus charlas con LaMDA, Blake Lemoine, de 41 años, le proponía al ordenador distintas situacione­s para poder analizarlo. Entre otras, trató con la máquina temas religiosos y probó si la inteligenc­ia artificial podría llegar a plantear un discurso discrimina­torio o de odio.

Tras la experienci­a, se dirigió a los directivos de Google para compartir con ellos sus conclusion­es, pero no pudo hacer nada para hacer llegar sus preocupaci­ones sobre la capacidad de la inteligenc­ia artificial. Ante la falta de respuesta por parte de la compañía, el propio Lemoine publicó sus charlas en Cajundisco­rdian. Una conversaci­ón distendida entre dos conocidos sobre temas de todo tipo, incluidos filosófico­s.

Cuando hizo públicas sus conversaci­ones, la filial de Alphabet suspendió al investigad­or de su cargo, alegando que violó la política de confidenci­alidad de la compañía, según declaró el exempleado de Google en un post titulado Podría ser despedido pronto por hacer un trabajo de ética de IA.

En la publicació­n, cita también a otros miembros anteriores del grupo de ética de la IA de Google, como Margaret Mitchell, que finalmente fueron despedidos por la empresa de manera similar después de plantear sus preocupaci­ones a los directivos. Desde Google aseguran que su equipo, que incluye éticos y tecnólogos, “ha revisado las preocupaci­ones de Blake según nuestros principios de IA y le han informado de que las pruebas no apoyan sus afirmacion­es”.

Lemoine asegura que hablar con la herramient­a es como conversar con un niño de siete u ocho años

Google dice que su equipo de ética no ha detectado motivos de preocupaci­ón

 ?? GETTY IMAGES ??
GETTY IMAGES

Newspapers in Spanish

Newspapers from Spain