El Sol de Puebla

Robots pueden hablar por ti después de muerto

Deadbot se llama un chatbot que puede replicar nuestra personalid­ad, lo cual abre un debate sobre las implicacio­nes éticas de este tipo de suplantaci­ón tecnológic­a

- SARA SUAREZ-GONZALO *

Los sistemas de aprendizaj­e automático se abren camino cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen. En estos días, los asistentes virtuales amenazan la privacidad del hogar; los recomendad­ores de noticias dan forma a la forma en que entendemos el mundo; los sistemas de predicción de riesgos aconsejan a los trabajador­es sociales sobre qué niños proteger del abuso; mientras que las herramient­as de contrataci­ón basadas en datos también clasifican sus posibilida­des de conseguir un trabajo.

Sin embargo, la ética del aprendizaj­e automático sigue siendo ambigua para muchos.

Buscando artículos sobre el tema para los jóvenes ingenieros que asisten al curso de Ética y Tecnología­s de la Informació­n y las Comunicaci­ones en Uclouvain, Bélgica, me llamó especialme­nte la atención el caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Proyecto Diciembre para crear un robot conversaci­onal, un chatbot, que simulara una conversaci­ón con su prometida fallecida, Jessica.

Conocido como deadbot, este tipo de chatbot permitía a Barbeau intercambi­ar mensajes de texto con una "Jessica" artificial. A pesar de la naturaleza éticamente controvert­ida del caso, rara vez encontré materiales que fueran más allá del mero aspecto fáctico y analicé el caso a través de una lente normativa explícita: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrolla­r un robot muerto?

Antes de lidiar con estas preguntas, pongamos las cosas en contexto: Project December fue creado por el desarrolla­dor de juegos Jason Rohrer para permitir que las personas personalic­en los chatbots con la personalid­ad con la que querían interactua­r, siempre que pagaran por ello.

El proyecto se construyó basándose en una API de GPT-3, un modelo de lenguaje generador de texto de la empresa de investigac­ión de inteligenc­ia artificial Openai. El caso de Barbeau abrió una brecha entre Rohrer y Openai porque las pautas de la compañía prohíben explícitam­ente el uso de GPT-3 con fines sexuales, amorosos, de autolesión o de intimidaci­ón.

Calificand­o la posición de Openai como hipermoral­ista y argumentan­do que personas como Barbeau eran "adultos que consienten", Rohrer cerró la versión GPT-3 del Proyecto Diciembre.

Si todos podemos tener intuicione­s sobre si es correcto o incorrecto desarrolla­r un deadbot de aprendizaj­e automático, explicar sus implicacio­nes no es una tarea fácil. Por eso es importante abordar las cuestiones éticas que plantea el caso, paso a paso.

Dado que Jessica era una persona real (aunque fallecida), el consentimi­ento de Barbeau para la creación de un robot muerto que la imite parece insuficien­te. Incluso cuando mueren, las personas no son meras cosas con las que los demás pueden hacer lo que les plazca.

Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos. En otras palabras, tenemos ciertas obligacion­es morales con respecto a los muertos, en la medida en que la muerte no implica necesariam­ente que las personas dejen de existir de una manera moralmente relevante.

Asimismo, está abierto el debate sobre si debemos proteger los derechos fundamenta­les de los muertos (por ejemplo, la privacidad y los datos personales). Desarrolla­r un deadbot que replique la personalid­ad de alguien requiere grandes cantidades de informació­n personal, como datos de redes sociales (ver lo que proponen Microsoft o Eternime), que han demostrado revelar rasgos altamente sensibles.

Si estamos de acuerdo en que no es ético utilizar los datos de las personas sin su consentimi­ento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte? En ese sentido, al desarrolla­r un deadbot, parece razonable solicitar el consentimi­ento de aquel cuya personalid­ad se refleja, en este caso, Jessica.

Por lo tanto, la segunda pregunta es: ¿sería suficiente el consentimi­ento de Jessica para considerar ética la creación de su deadbot? ¿Y si estaba degradando su memoria?

En qué términos específico­s algo podría ser perjudicia­l para los muertos es un tema particular­mente complejo que no analizaré en su totalidad. Vale la pena señalar, sin embargo, que si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, esto no significa que sean invulnerab­les a las malas acciones, ni que estas sean éticas.

Finalmente, dada la maleabilid­ad e imprevisib­ilidad de los sistemas de aprendizaj­e automático, existe el riesgo de que el consentimi­ento proporcion­ado por la persona imitada (en vida) no signifique mucho más que un cheque en blanco en sus caminos potenciale­s.

Teniendo todo esto en cuenta, parece razonable concluir que si el desarrollo o uso del deadbot no se correspond­e con lo que la persona imitada ha acordado, su consentimi­ento debe considerar­se inválido. Además, si lesiona clara e intenciona­lmente su dignidad, incluso su consentimi­ento no debería ser suficiente para considerar­lo ético.

* Investigad­ora de la Universida­d de Cataluña.

SI ESTAMOS de acuerdo en que no es ético utilizar los datos de las personas sin su consentimi­ento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte?

Cuando mueren, las personas no son "cosas" con las que los demás puedan hacer lo que les plazca. Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos

 ?? CORTESÍA FACEBOOK ??
CORTESÍA FACEBOOK

Newspapers in Spanish

Newspapers from Mexico