Inteligencia artificial: primero ofende, luego habla
Los investigadores deben enfrentarse a lo inesperado. Pese a que los sistemas conversacionales suelen ser civilizados, a veces son groseros…
Tay dijo cosas terribles. Fue racista, xenofóbica y obscena. Afirmó que no había ocurrido el Holocausto, pero ella era tecnología antigua.
Hace casi dos años, se dejó que Tay, un sistema experimental que creó Microsoft, anduviera suelta por Internet. Estaba diseñada para charlar con hipsters digitales usando una jerga relajada, pero en ocasiones irreverente, y los cibernautas estadounidenses rápidamente se percataron de que podían convencerla de utilizar un lenguaje desagradable y ofensivo.
Este resultado se debió a que fue programada para repetir lo que le dijeran. En unas horas, Microsoft la apagó para siempre.
Desde entonces, ha surgido una nueva variedad de tecnología conversacional dentro de Microsoft y otros gigantes de Internet que es mucho más astuta y eficaz que las técnicas que formaban la base de Tay.
Los investigadores creen que estos nuevos sistemas mejorarán a un paso todavía más veloz cuando se suelten en Internet. Pero, como Tay, estos sistemas conversacionales reflejan lo peor de la naturaleza humana, por lo que empresas como Microsoft están reacias a dejarlos libres… al menos por ahora.
Se educan a sí mismos
Estos sistemas no solo repiten lo que se les dice o dan respuestas predeterminadas. Se educan a sí mismos para poder entablar una conversación analizando con cuidado montones de diálogos de humanos reales.
En Microsoft, por ejemplo, un nuevo sistema está aprendiendo a charlar examinando miles de discusiones en línea de servicios como Twitter y Reddit.
Cuando envías un mensaje al bot, este escoge una respuesta después de haber generado decenas de posibilidades y haber calificado cada una según qué tan bien refleja esas conversaciones humanas.
Si te quejas de haber sufrido una fractura de tobillo en un partido de fútbol americano, es tan astuto que te demuestra empatía. “Ay, qué mal”, podría decir. “Espero que te recuperes pronto”.
A pesar de su sofisticación, este sistema puede ser ridículo, mal educado u ofensivo. Si haces una pregunta sencilla, podrías recibir una respuesta insolente.
Los investigadores de Microsoft creen que pueden mejorar esta tecnología de una manera significativa si el sistema pudiera charlar con una gran cantidad de personas. Así podrían identificar sus fallas y generar datos conversacionales mucho más certeros.
El proyecto representa un esfuerzo mucho mayor para crear un nuevo tipo de sistemas de cómputo que sean en verdad conversacionales. En empresas como Facebook, Amazon, Salesforce y Microsoft, esperan que esta tecnología genere una interacción más fluida y relajada con las máquinas: más relajada que con un teclado y un ratón, que con una pantalla táctil, que con Siri y otros asistentes digitales a los cuales les falta mucho para entablar una conversación fluida.
Durante años, las empresas de Silicon Valley proclamaron los “bots conversacionales” que te iban a ayudar a reservar tu próximo vuelo o resolver un problema con tu nueva tableta. Pero estos sistemas no cumplieron las expectativas, ya que ofrecían poco más que respuestas predeterminadas a consultas comunes.
Aprendices veloces
En la actualidad, gracias al auge de algoritmos que pueden aprender tareas por sí solos a gran velocidad, está avanzando la investigación de la computación conversacional. No obstante, toda la industria enfrenta el mismo problema que Microsoft: la nueva variedad de bots conversacionales habla más como un humano, pero eso no siempre es positivo.
La nueva generación depende de “redes neuronales”, algoritmos complejos que pueden aprender tareas identificando patrones en grandes reservas de información. Durante los últimos cinco años, estos algoritmos han acelerado la evolución de los sistemas que pueden reconocer rostros y objetos de forma automática, identificar comandos hablados en los teléfonos inteligentes y traducir de una lengua a otra.
También están apurando el paso del desarrollo de sistemas conversacionales, aunque esta investigación es bastante más compleja y tomará más tiempo en madurar.
A pesar de que estos sistemas conversacionales suelen ser civilizados, en ocasiones son groseros… o peor. El problema no es solo que la tecnología sea nueva y tenga fallas. Debido a que aprenden de enormes cantidades de conversaciones humanas, también lo hacen de los errores que cometemos y de los prejuicios que demostramos.
“Tenemos una inmensa barrera técnica. No sabemos cómo crear un asistente personal. Tal vez el problema no sea reunir más datos. Es probable que nos falte una gran idea” dijo Adam Coates, socio de la firma de capital de riesgo Khosla Ventures.