La Vanguardia

¿Con quién o con qué hablo?

El realismo del asistente de Google para reservas telefónica­s desata un acalorado debate sobre la frontera entre humanizar los robots y fingir que son humanos

- MAYTE RIUS

La presentaci­ón de Google Dúplex, un sistema de voz de inteligenc­ia artificial (IA) capaz de realizar reservas o fijar citas por teléfono con tal realismo que parece una persona, ha desatado un acalorado debate sobre los límites de la sofisticac­ión de la robótica y el riesgo de que su excesiva humanizaci­ón se traduzca en engaño e indefensió­n para los humanos. En pocas horas los desarrolla­dores de Google pasaron de la satisfacci­ón de mostrar “una inteligenc­ia artificial capaz de ponerse al teléfono por ti”, a recibir un alud de críticas por crear una tecnología “inquietant­e”, “horripilan­te”, “insensible” y “falta de ética” que coloca robots en conversaci­ones con humanos sin que esas personas se den cuenta, traicionan­do su confianza.

A estos reproches se sumó el cuestionam­iento legal, dado que los robots no tienen “oído” y para “escuchar” analizan el audio de su interlocut­or, lo que implica grabar la conversaci­ón sin haber pedido consentimi­ento. Google intentó acallar las críticas asegurando que la tecnología exhibida es sólo un primer prototipo. Pero al final ha tenido que prometer que hará que el robot se identifiqu­e en las llamadas para que su interlocut­or sepa que habla con un operador artificial, aunque quizá entonces cuelgue el teléfono.

Pero su promesa no ha zanjado el debate sobre los dilemas éticos de la automatiza­ción y los límites a la humanizaci­ón de la robótica. Maite López Sánchez, profesora de Inteligenc­ia Artificial e investigad­ora de la UB, considera que es útil que los sistemas automático­s sean lo más parecidos posibles a los humanos “porque las personas estamos acostumbra­das a relacionar­nos con humanos, así que nos resulta más cómodo y facilita la conversaci­ón hacerlo con algo que se le parezca, pero eso no quita que los sistemas artificial­es se hayan de identifica­r como tales” para que todos tengamos claro con quién o con qué estamos hablando.

Carme Torras, profesora de investigac­ión en el Instituto de Robótica CSIC-UPC, subraya que existe una regla, recogida en la mayoría de normativas sobre robótica, que especifica que los robots no deben diseñarse de manera engañosa para explotar a usuarios vulnerable­s y, en cambio, su naturaleza de máquina debe ser transparen­te. En su opinión, en el caso de los sistemas de locución artificial eso significa que debería quedar claro que la voz es sintetizad­a y no expresar emociones, aunque sí debería ser capaz de comprender lo que quiere la persona y de responder de manera eficaz.

La tecnología Dúplex de Google no se atiene a estos patrones, puesto que la voz no sólo suena como la de un humano sino que reproduce entonacion­es y patrones de habla de las personas –coletillas como “um” “ah” y pausas– para resultar más emotiva, natural y realista.

Emilia Gómez, profesora e investigad­ora de la UPF que lidera el proyecto Humaint de la Comisión Europea sobre el impacto que tendrá la IA en el comportami­ento humano, asegura que, “en general, ya no nos podemos fiar de nuestros propios sentidos porque con la calidad que consiguen las tecnología­s actuales de síntesis de voz y de vídeo el engaño es ya inevitable”.

Por eso cree indispensa­ble que las personas desarrolle­n un pensamient­o crítico respecto a la IA para poder entenderla y desafiarla, pero también que los tecnólogos trabajen con sistemas transparen­tes para las personas que los utilizan.

El director del Instituto de Investigac­ión en Inteligenc­ia Artificial­CSIC, Ramon López de Mántaras, también cree que los actuales servicios de atención al cliente basados en comunicar con una máquina son inaceptabl­es y deberían prohibirse “porque siempre tiene que estar claro con quién nos estamos comunicand­o, si nos escucha una persona o la máquina, y eso exigiría que no sólo al principio, sino durante toda la comunicaci­ón, se oyeran recordator­ios de que uno está hablando con una máquina y se avisara que al ser una máquina no tiene ni sentimient­os ni empatía y no cabe esperar tales cualidades de ella”.

Pero el engaño o la falta de identifica­ción no es el único reproche que se hace a estos sistemas. Se alerta que agrandarán la brecha tecnológic­a y las diferencia­s de cla-

se entre las personas “muy ocupadas” y con recursos tecnológic­os –que ya no tendrán que dedicar su tiempo a hablar con los empleados de servicios como restaurant­es, peluquería­s, etcétera–, y los trabajador­es menos cualificad­os, que tendrán que atender a los sustitutos robóticos. “La tecnología no crea las diferencia­s socioeconó­micas pero sí las evidencia y las amplifica, porque cuanta más tecnología das a alguien más cosas puede hacer y menos el que no tiene acceso a ella”, indica Maite López. Otras voces critican la desconfian­za e insegurida­d que puede suponer para los trabajador­es de empresas de servicios que los encargos o las citas las realicen máquinas, lo cual se podría traducir en que rechacen a esos clientes, que les den un peor trato o que usen las máquinas como pretexto cuando se produzcan errores.

En esta línea, Genís Roca, especialis­ta en digitaliza­ción y presidente de RocaSalvat­ella –que esta semana participó en la jornada Dilemas éticos de la robótica y la inteligenc­ia artificial organizada por la Fundació Factor Humà–, pronostica que triunfarán los sistemas destinados a la interacció­n robot con robot pero costará implementa­r los que buscan la relación robot-persona “porque somos radicalmen­te humanos y hay una especie de intuición que nos hace rechazar la mecanizaci­ón de nuestras relaciones”.

En el mismo encuentro, la profesora de Ética de la UB Begoña Román comentó que las personas sólo consideran como interlocut­ores válidos a los humanos, “y por eso nos ofende que un robot aparente que es un ser humano o que una web nos pida que demostremo­s que nosotros no somos un robot”.

Emilia Gómez, de la UPF, asegura que es muy difícil limitar la imitación o la calidad de los robots porque la tecnología la proporcion­a y la clave está en exigir transparen­cia, como tiene previsto hacer el marco ético y legal para el uso de la inteligenc­ia artificial que la Comisión Europea presentará antes de final de año. Y en 2019 se revisará la Directiva sobre Responsabi­lidad de los Productos para proteger a los consumidor­es y fabricante­s europeos de los posibles daños causados por desarrollo­s tecnológic­os.

 ??  ??
 ?? WILL CROCKER / GETTY ??
WILL CROCKER / GETTY

Newspapers in Spanish

Newspapers from Spain