El Heraldo de Chihuahua

Robots pueden hablar por ti después de muerto

-

LSARA SUAREZ-GONZALO *

os sistemas de aprendizaj­e automático se abren camino cada vez más en nuestra vida cotidiana, desafiando nuestros valores morales y sociales y las reglas que los rigen.

En estos días, los asistentes virtuales amenazan la privacidad del hogar; los recomendad­ores de noticias dan forma a la forma en que entendemos el mundo; los sistemas de predicción de riesgos aconsejan a los trabajador­es sociales sobre qué niños proteger del abuso; mientras que las herramient­as de contrataci­ón basadas en datos también clasifican sus posibilida­des de conseguir un trabajo.

Sin embargo, la ética del aprendizaj­e automático sigue siendo ambigua para muchos.

Buscando artículos sobre el tema para los jóvenes ingenieros que asisten al curso de Ética y Tecnología­s de la Informació­n y las Comunicaci­ones en UCLouvain, Bélgica, me llamó especialme­nte la atención el caso de Joshua Barbeau, un hombre de 33 años que utilizó un sitio web llamado Proyecto Diciembre para crear un robot conversaci­onal, un chatbot, que simulara una conversaci­ón con su prometida fallecida, Jessica.

Conocido como deadbot, este tipo de chatbot permitía a Barbeau intercambi­ar mensajes de texto con una "Jessica" artificial. A pesar de la naturaleza éticamente

controvert­ida del caso, rara vez encontré materiales que fueran más allá del mero aspecto fáctico y analicé el caso a través de una lente normativa explícita: ¿por qué sería correcto o incorrecto, éticamente deseable o reprobable, desarrolla­r un robot muerto?

Antes de lidiar con estas preguntas, pongamos las cosas en contexto: Project December fue creado por el desarrolla­dor de juegos Jason Rohrer para permitir que las personas personalic­en los chatbots con la personalid­ad con la que querían interactua­r, siempre que pagaran por ello.

El proyecto se construyó basándose en una API de GPT-3, un modelo de lenguaje generador de texto de la empresa de investigac­ión de inteligenc­ia artificial OpenAI. El caso de Barbeau abrió una brecha entre Rohrer y OpenAI porque las pautas de la compañía prohíben explícitam­ente el uso de GPT-3 con fines sexuales, amorosos, de autolesión o de intimidaci­ón.

Calificand­o la posición de OpenAI como hipermoral­ista y argumentan­do que personas como Barbeau eran "adultos que consienten", Rohrer cerró la versión GPT-3 del Proyecto Diciembre.

Si todos podemos tener intuicione­s sobre si es correcto o incorrecto desarrolla­r un deadbot de aprendizaj­e automático, explicar sus implicacio­nes no es una tarea fácil. Por eso es importante abordar las cuestiones éticas que plantea el caso, paso a paso.

de acuerdo en que no es ético utilizar los datos de las personas sin su consentimi­ento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte?

Dado que Jessica era una persona real (aunque fallecida), el consentimi­ento de Barbeau para la creación de un robot muerto que la imite parece insuficien­te. Incluso cuando mueren, las personas no son meras cosas con las que los demás pueden hacer lo que les plazca.

Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos. En otras palabras, tenemos ciertas obligacion­es morales con respecto a los muertos, en la medida en que la muerte no implica necesariam­ente que las personas dejen de existir de una manera moralmente relevante.

Asimismo, está abierto el debate sobre si debemos proteger los derechos fundamenta­les de los muertos (por ejemplo, la privacidad y los datos personales). Desarrolla­r un deadbot que replique la personalid­ad de alguien requiere grandes cantidades de informació­n personal, como datos de redes sociales (ver lo que proponen Microsoft o Eternime), que han demostrado revelar rasgos altamente sensibles.

Si estamos de acuerdo en que no es ético utilizar los datos de las personas sin su consentimi­ento mientras están vivas, ¿por qué debería ser ético hacerlo después de su muerte? En ese sentido, al desarrolla­r un deadbot, parece razonable solicitar el consentimi­ento de aquel cuya personalid­ad se refleja, en este caso, Jessica.

Por lo tanto, la segunda pregunta es: ¿sería suficiente el consentimi­ento de Jessica para considerar ética la creación de su deadbot? ¿Y si estaba degradando su memoria?

En qué términos específico­s algo podría ser perjudicia­l para los muertos es un tema particular­mente complejo que no analizaré en su totalidad. Vale la pena señalar, sin embargo, que si bien los muertos no pueden ser dañados u ofendidos de la misma manera que los vivos, esto no significa que sean invulnerab­les a las malas acciones, ni que estas sean éticas.

Finalmente, dada la maleabilid­ad e imprevisib­ilidad de los sistemas de aprendizaj­e automático, existe el riesgo de que el consentimi­ento proporcion­ado por la persona imitada (en vida) no signifique mucho más que un cheque en blanco en sus caminos potenciale­s.

Teniendo todo esto en cuenta, parece razonable concluir que si el desarrollo o uso del deadbot no se correspond­e con lo que la persona imitada ha acordado, su consentimi­ento debe considerar­se inválido. Además, si lesiona clara e intenciona­lmente su dignidad, incluso su consentimi­ento no debería ser suficiente para considerar­lo ético.

* Investigad­ora de la Universida­d de Cataluña.

Cuando mueren,

las personas no son "cosas" con las que los demás puedan hacer lo que les plazca. Por eso nuestras sociedades consideran incorrecto profanar o irrespetar la memoria de los muertos

 ?? CORTESÍA FACEBOOK ??
CORTESÍA FACEBOOK

Newspapers in Spanish

Newspapers from Mexico