¿Con quién o con qué hablo?
El realismo del asistente de Google para reservas telefónicas desata un acalorado debate sobre la frontera entre humanizar los robots y fingir que son humanos
La presentación de Google Dúplex, un sistema de voz de inteligencia artificial (IA) capaz de realizar reservas o fijar citas por teléfono con tal realismo que parece una persona, ha desatado un acalorado debate sobre los límites de la sofisticación de la robótica y el riesgo de que su excesiva humanización se traduzca en engaño e indefensión para los humanos. En pocas horas los desarrolladores de Google pasaron de la satisfacción de mostrar “una inteligencia artificial capaz de ponerse al teléfono por ti”, a recibir un alud de críticas por crear una tecnología “inquietante”, “horripilante”, “insensible” y “falta de ética” que coloca robots en conversaciones con humanos sin que esas personas se den cuenta, traicionando su confianza.
A estos reproches se sumó el cuestionamiento legal, dado que los robots no tienen “oído” y para “escuchar” analizan el audio de su interlocutor, lo que implica grabar la conversación sin haber pedido consentimiento. Google intentó acallar las críticas asegurando que la tecnología exhibida es sólo un primer prototipo. Pero al final ha tenido que prometer que hará que el robot se identifique en las llamadas para que su interlocutor sepa que habla con un operador artificial, aunque quizá entonces cuelgue el teléfono.
Pero su promesa no ha zanjado el debate sobre los dilemas éticos de la automatización y los límites a la humanización de la robótica. Maite López Sánchez, profesora de Inteligencia Artificial e investigadora de la UB, considera que es útil que los sistemas automáticos sean lo más parecidos posibles a los humanos “porque las personas estamos acostumbradas a relacionarnos con humanos, así que nos resulta más cómodo y facilita la conversación hacerlo con algo que se le parezca, pero eso no quita que los sistemas artificiales se hayan de identificar como tales” para que todos tengamos claro con quién o con qué estamos hablando.
Carme Torras, profesora de investigación en el Instituto de Robótica CSIC-UPC, subraya que existe una regla, recogida en la mayoría de normativas sobre robótica, que especifica que los robots no deben diseñarse de manera engañosa para explotar a usuarios vulnerables y, en cambio, su naturaleza de máquina debe ser transparente. En su opinión, en el caso de los sistemas de locución artificial eso significa que debería quedar claro que la voz es sintetizada y no expresar emociones, aunque sí debería ser capaz de comprender lo que quiere la persona y de responder de manera eficaz.
La tecnología Dúplex de Google no se atiene a estos patrones, puesto que la voz no sólo suena como la de un humano sino que reproduce entonaciones y patrones de habla de las personas –coletillas como “um” “ah” y pausas– para resultar más emotiva, natural y realista.
Emilia Gómez, profesora e investigadora de la UPF que lidera el proyecto Humaint de la Comisión Europea sobre el impacto que tendrá la IA en el comportamiento humano, asegura que, “en general, ya no nos podemos fiar de nuestros propios sentidos porque con la calidad que consiguen las tecnologías actuales de síntesis de voz y de vídeo el engaño es ya inevitable”.
Por eso cree indispensable que las personas desarrollen un pensamiento crítico respecto a la IA para poder entenderla y desafiarla, pero también que los tecnólogos trabajen con sistemas transparentes para las personas que los utilizan.
El director del Instituto de Investigación en Inteligencia ArtificialCSIC, Ramon López de Mántaras, también cree que los actuales servicios de atención al cliente basados en comunicar con una máquina son inaceptables y deberían prohibirse “porque siempre tiene que estar claro con quién nos estamos comunicando, si nos escucha una persona o la máquina, y eso exigiría que no sólo al principio, sino durante toda la comunicación, se oyeran recordatorios de que uno está hablando con una máquina y se avisara que al ser una máquina no tiene ni sentimientos ni empatía y no cabe esperar tales cualidades de ella”.
Pero el engaño o la falta de identificación no es el único reproche que se hace a estos sistemas. Se alerta que agrandarán la brecha tecnológica y las diferencias de cla-
se entre las personas “muy ocupadas” y con recursos tecnológicos –que ya no tendrán que dedicar su tiempo a hablar con los empleados de servicios como restaurantes, peluquerías, etcétera–, y los trabajadores menos cualificados, que tendrán que atender a los sustitutos robóticos. “La tecnología no crea las diferencias socioeconómicas pero sí las evidencia y las amplifica, porque cuanta más tecnología das a alguien más cosas puede hacer y menos el que no tiene acceso a ella”, indica Maite López. Otras voces critican la desconfianza e inseguridad que puede suponer para los trabajadores de empresas de servicios que los encargos o las citas las realicen máquinas, lo cual se podría traducir en que rechacen a esos clientes, que les den un peor trato o que usen las máquinas como pretexto cuando se produzcan errores.
En esta línea, Genís Roca, especialista en digitalización y presidente de RocaSalvatella –que esta semana participó en la jornada Dilemas éticos de la robótica y la inteligencia artificial organizada por la Fundació Factor Humà–, pronostica que triunfarán los sistemas destinados a la interacción robot con robot pero costará implementar los que buscan la relación robot-persona “porque somos radicalmente humanos y hay una especie de intuición que nos hace rechazar la mecanización de nuestras relaciones”.
En el mismo encuentro, la profesora de Ética de la UB Begoña Román comentó que las personas sólo consideran como interlocutores válidos a los humanos, “y por eso nos ofende que un robot aparente que es un ser humano o que una web nos pida que demostremos que nosotros no somos un robot”.
Emilia Gómez, de la UPF, asegura que es muy difícil limitar la imitación o la calidad de los robots porque la tecnología la proporciona y la clave está en exigir transparencia, como tiene previsto hacer el marco ético y legal para el uso de la inteligencia artificial que la Comisión Europea presentará antes de final de año. Y en 2019 se revisará la Directiva sobre Responsabilidad de los Productos para proteger a los consumidores y fabricantes europeos de los posibles daños causados por desarrollos tecnológicos.