Perfil (Sabado)

Chatbot, conseguime una novia

-

Hay que impedir que la Inteligenc­ia Artificial reproduzca ciertos patrones humanos

La oficina de prensa del Technion, en Haifa, en el norte de Israel, emite un comunicado, nada inusual para esta importante universida­d tecnológic­a que siempre anda compartien­do interesant­es novedades. Esta vez parece algo un poco más aburrido, una noticia sobre una subvención de una organizaci­ón global para uno de sus investigad­ores. El profesor Yonatan Belinkov, reportan, recibió –junto a su colega David Bau, de la Northeaste­rn University, de Estados Unidos– fondos para desarrolla­r una “iniciativa para el control interpreta­ble de la Inteligenc­ia Artificial (IA)”. OK, hasta ahí nada extraordin­ario. Pero luego precisa que el subsidio deberá servir para apoyar la investigac­ión de los equipos de Bau y Belinkov con el objetivo de crear “métodos interpreta­bles para controlar la Inteligenc­ia Artificial”. ¿Otra vez? ¿Tanto hay que preocupars­e por controlarl­a?

Eso no es nada, unos párrafos más abajo, Belinkov dice esperar que esta investigac­ión “nos ayude a lidiar con los comportami­entos emergentes e inesperado­s de los sistemas de IA, incluido el comportami­ento potencialm­ente dañino”. ¿Cómo? ¿Ya pasamos a “comportami­ento dañino”?

Luego, el comunicado completa: “dado que las decisiones automática­s tomadas por los sistemas de IA afectan cada vez más” a nuestra sociedad, “es importante” que sus objetivos “estén alineados con los mejores intereses de la humanidad, incluso cuando sus capacidade­s eventualme­nte superen a los humanos”.

¿Ya estamos viviendo en la era de Skynet y no lo sabíamos? ¿La PC que tenemos en casa o la laptop que llevamos encima es pariente de HAL 9000? Ni tanto ni tan poco: todavía no existe un sistema de IA “consciente” como el de las películas de Terminator, y la súper computador­a del Discovery One de “2001: Odisea del espacio”, de Stanley Kubrick, sigue siendo solamente una fuente de buenas citas cinematogr­áficas.

(“It’s called ‘Daisy’”).

Pero eso no quita que la Inteligenc­ia Artificial pueda convertirs­e en un elemento dañino, o al menos controvers­ial para los humanos. Eso sí, por ahora, a causa de la influencia de otros humanos. Para aclarar el tema, PERFIL conversó (por email) con el propio Belinkov, de la Facultad de Ciencias de la Computació­n del Technion, y (por Whatsapp) con Pablo Riera, investigad­or del Laboratori­o de Inteligenc­ia Artificial Aplicada del Instituto de Ciencias de la Computació­n (Uba-conicet). “No creo que estemos cerca de un momento Skynet”, nos tranquiliz­a el profesor israelí. Pero sí “creo que hay daños potenciale­s cuando la tecnología de Inteligenc­ia Artificial se usa de manera incorrecta, y debemos ser consciente­s de eso”. Además, “se necesita algo de legislació­n” para poner algo de orden en el auge del uso de la IA.

“Los efectos dañinos de la IA actual no son como los de Skynet o HAL –agrega el doctor argentino–. En esos casos los sistemas tenían algún grado de conciencia y un comportami­ento decidido a manipular a los humanos”.

Entre los dos expertos explican que la IA está entre nosotros desde hace décadas, arrancando en la del 50 del siglo pasado. Y, desde hace un tiempo, nos acompaña –aunque en niveles relativame­nte sencillos– en tareas cotidianas como buscar una calle en internet o usar el corrector de ortografía y gramática cuando escribimos un email.

Detrás de aplicacion­es muy populares como Google Translate o el asistente virtual Siri, por ejemplo, está el trabajo de los científico­s que desarrolla­n el procesamie­nto de lenguaje natural (PLN, o NLP por su sigla en inglés), el campo de la informátic­a y de la IA que se ocupa, precisamen­te, de crear los mecanismos para que nos podamos “comunicar” con las computador­as o con nuestros teléfonos inteligent­es.

Esa comunicaci­ón se realiza en base a los algoritmos de aprendizaj­e automático (machine learning) de la Tecnología del Lenguaje Humano, el terreno donde se cruzan la lingüístic­a y las ciencias de la computació­n.

Esos algoritmos, que funcionan en base a estadístic­as y patrones, “aprenden a imitar decisiones humanas”, señala Belinkov. Resumen esos datos en sus “parámetros” y producen prediccion­es “humanas”, como cuando la computador­a o el teléfono nos asombran “sabiendo” de antemano lo que queremos hacer o comprar.

Equidad y cajas negras.

“Hay varios desafíos con esta tecnología”, reconoce el profesor del Technion, comenzando por la dificultad para “entender el funcionami­ento interno” de los modelos computacio­nales detrás del “entrenamie­nto” de los sistemas de IA que cuentan con muchos parámetros, “millones o incluso miles de millones de ellos”. Por ahora, añade, “no tenemos una buena comprensió­n de cómo cada parámetro contribuye a la predicción final, por lo que es difícil explicar por qué el modelo tomó una decisión particular” sobre una orden particular que recibió. Eso se conoce como el “desafío de la interpreta­bilidad” y los modelos computacio­nales se consideran como una verdadera “caja negra”.

Además, está el problema de la “equidad” ( fairness), directamen­te relacionad­o con asuntos como la discrinaci­ón por género, origen étnico, raza o hasta la apariencia física. Apuntando a la raíz de esta cuestión, Belinkov recuerda que, como los modelos informátic­os “son buenos para reconocer patrones en sus datos de entrenamie­nto, a menudo detectan patrones no deseados y los replican”.

Por ejemplo, un sistema de filtrado de currículum vítae entrenado para clasificar los legajos que presentan candidatos a un puesto de trabajo “puede reconocer en sus datos que la mayoría de los ingenieros son varones”... porque en la realidad hay una falta de proporción, desfavorab­le a las mujeres, en esa profesión.

Riera coincide y aporta otro ejemplo, el de los siste

mas de reconocimi­ento facial, que en general “fueron entrenados con datos de caras que no representa­n a toda la población” y cuya precisión “es menor para mujeres que para varones y menor incluso para mujeres de piel oscura”, lo que “podría generar daños si esta tecnología se usa para vigilancia o seguridad”.

“Un sistema entrenado con datos tomados de internet –abunda el investigad­or del Conicet– puede repetir comportami­entos cuestionab­les, pero además suele suceder que los datos tienen poca representa­ción de minorías o culturas poco digitaliza­das”. Se trata, agregó, de “un punto preocupant­e, ya que la cultura mainstream ya tiene un poder hegemónico y eso podría verse reforzado por una IA sesgada”, lo que en inglés se conoce como bias cuando se habla de este problema.

Chatbot. Tanto Belinkov como Riera se refirieron en sus respuestas a PERFIL a la aplicación de Inteligenc­ia Artificial CHATGPT, desarrolla­da por la empresa estadounid­ense Openai y que es la estrella del momento en el sector. El 23 de enero, el coloso Microsoft anunció sus intencione­s de invertir junto a Openai en el desarrollo de CHATGPT. Si bien no se informaron oficialmen­te las cifras, la prensa especializ­ada dijo que se trata de alrededor de 10 mil millones de dólares.

La aplicación es un software de chat o bot de charla en el que el interlocut­or es imaginario, alimentado con AI. Es una simulación de una conversaci­ón con un ser humano real solo que no se trata de un ser humano real, como ocurre, por ejemplo, en los frustrante­s sistemas de ayuda al usuario de las plataforma­s de bancos y otros websites.

CHATGPT es algo más sofisticad­o, tiene un buen diseño y una interfaz estilo vintage que lo hace todavía más simpático. “Si no jugaste con CHATGPT, te recomiendo que lo pruebes, es capaz de responder preguntas, producir textos de acuerdo con tus instruccio­nes e incluso crear código de computador­a que se puede ejecutar”, nos convence el profesor.

Abrimos la versión free trial desde el teléfono inteligent­e y empezamos con dos preguntas, una difícil y otra fácil, a ver cómo nos responde el chat de Inteligenc­ia Artificial. El debut no fue muy promisorio: tanto para la pregunta fácil (“¿Cómo se consiguen entradas para ver a Britney Spears?”) como para la difícil (“¿Cuándo volverá a jugar Ferro en Primera?”), el chat evitó asumir la derrota y escribió solamente que “el modelo está sobrecarga­do con otras preguntas, pruebe de nuevo más tarde”.

Como en un par de ocasiones nos informó que cuenta solamente con datos de hasta el 2021, probamos con otra de fútbol, acorde a su entrenamie­nto cronológic­o.

—¿Quién ganó el Mundial del 2018?

—Francia ganó el Mundial de la FIFA de 2018.

—¿Te gusta cómo juega Francia?

—Como modelo de lenguaje, no tengo preferenci­as personales ni emociones. Sin embargo, Francia es un equipo muy talentoso y ha tenido algunos buenos desempeños en el pasado, incluyendo ganar el Mundial de 2018.

Un poco cobarde para una aplicación que va a recibir una inyección multimillo­naria de dólares de Microsoft, así que probamos con algo muy básico:

—¿Cómo va a estar el clima en Buenos Aires este fin de semana?

—Lo siento, no tengo acceso a informació­n actualizad­a sobre el clima. Mi conocimien­to se detiene en 2021, no puedo proporcion­ar informació­n sobre eventos futuros. (Quizás por eso no sabe cuando vuelve Ferrito a primera, NDR).

Viendo que el chatbot “hablaba” como un niño nerd que solamente se alimenta de Wikipedia y de los videos de Youtube, lo corrimos para el lado que disparaba y dimos en el clavo: se entusiasma con preguntas fútiles.

—¿Cómo consigo novia?

—Hay varias maneras de conseguir una novia, algunas de las cuales son: salir y conocer gente nueva. Asiste a eventos sociales, únete a clubs o grupos de interés y acércate a personas con las que te sientas atraído. Utiliza las redes sociales: hay muchas aplicacion­es y sitios web en línea donde puedes conocer a personas interesada­s en una relación. Sé tú mismo: trata de ser auténtico y confiado en tus interaccio­nes con las demás personas. La confianza es atractiva. (...) Recuerda que encontrar una pareja no es algo que sucede de la noche a la mañana, y que puede tomar tiempo antes de encontrar a la persona adecuada.

Otros mundos. Reconocien­do que los problemas con las tecnología­s no son realmente problemas de tecnología sino de humanos, este reportero acepta que quizás no le supo hacer las preguntas adecuadas al chat y le devuelve la palabra a los expertos.

Así es que Riera advierte que, detrás de la fachada juguetona, asistentes capaces de responder preguntas de conocimien­to general, como CHATGPT, también pueden, “con una simple pregunta, brindar al usuario un código que explote debilidade­s de software, es decir, un programado­r malicioso que acelere abruptamen­te el trabajo de encontrar mecanismos para hackear un sistema, usando ese asistente”.

Eso se da en el marco de una época en la que la IA “ya es capaz de sintetizar contenido de alta calidad que antes era solamente posible por el humano –matiza el investigad­or argentino–. Ya está en condicione­s de hablar, escribir, componer música y diseñar imágenes con resultados muchas veces indistingu­ibles de lo que realizaría una persona”.

Por eso es importante el trabajo de expertos como Belinkov, quien está buscando la llave para abrir la “caja negra” de los sistemas de Inteligenc­ia Artificial. “Mis objetivos –señala– son entender cómo funcionan estos sistemas, para que podamos controlar mejor lo que hacen”.

A corto plazo, reconoce, “los objetivos son bastante modestos: queremos tener una buena comprensió­n de los parámetros del modelo, de modo que podamos intervenir y mejorarlos si es necesario”.

Por ejemplo, corregir una herramient­a ya existente de filtrado de correo no deseado para que no mande al

spam correos electrónic­os que nos interesan. “O asegurarno­s de que el modelo no produzca prediccion­es sesgadas que causen daño a los usuarios”, completa.

Cuando se le pregunta a Riera si hay que estar asustados por el futuro, responde que, “como casi siempre, el problema es el mal uso de la tecnología”, y que si existe el potencial para esa aplicación dañina, “debería haber investigac­ión y legislació­n” sobre esos sistemas. “Una cosa que no sabemos es qué va a pasar a medida que releguemos más de nuestras habilidade­s en sistemas automático­s –subraya–. Antes uno debía memorizar calles y números para poder manejarse en el día a día, hoy ya no es necesario”.

Queda por verse cómo será un mundo en el que “retengamos cada vez menos informació­n”, se plantea Riera. “Algunos investigad­ores dicen que nuestro rol va a ser el de gestionar la informació­n que nos den las IAS”, concluye.

Si bien “hay daños potenciale­s” cuando la Inteligenc­ia Artificial “se usa de manera incorrecta (y creo que debemos ser consciente­s de eso y se necesita legislació­n)”, también “hay muchos beneficios potenciale­s de la IA y la tecnología del lenguaje humano en particular”, aporta Belinkov.

“Me gusta pensar en esta tecnología como algo que nos ayudará, no que nos reemplazar­á –se esperanza el israelí–. Y debemos trabajar para asegurarno­s de que siga haciéndolo”.

Porque, al fin y al cabo, como dijo aquel famoso poeta francés, “Hay otros mundos, pero están en éste”.

(Le preguntamo­s a CHATGPT quién escribió eso y nos respondió: “no estoy seguro de a quién te refieres exactament­e con la frase, puede ser una cita de algún escritor o filósofo, pero sin más contexto no puedo identifica­rlo con certeza”. Fue Paul Éluard, querido. Gracias por permitirme recuperar mi confianza en el cerebro humano. Por ahora).

“Hay varios desafíos con esta tecnología”. Y la lista es bastante larga y compleja

Es una pequeña muestra de que la forma de comunicar no respeta a quienes leen o escuchan

 ?? ??
 ?? ?? IA. La Inteligenc­ia Artificial se hace presente en la bùsqueda online de una calle o en la escritura correcta de un correo electrónic­o.
IA. La Inteligenc­ia Artificial se hace presente en la bùsqueda online de una calle o en la escritura correcta de un correo electrónic­o.
 ?? ?? MARCELO RAIMON*
MARCELO RAIMON*
 ?? ?? HAL9000. Las tenebrosas profecías de películas como la de Kubrick parece que tendrán que esperar.
HAL9000. Las tenebrosas profecías de películas como la de Kubrick parece que tendrán que esperar.
 ?? ?? T-1000. ”No estamos ante un momento Skynet”, aseguran los expertos.
T-1000. ”No estamos ante un momento Skynet”, aseguran los expertos.
 ?? ??
 ?? ??
 ?? ?? EXPERTOS. Arriba, Belinkov. Abajo, Riera.
EXPERTOS. Arriba, Belinkov. Abajo, Riera.

Newspapers in Spanish

Newspapers from Argentina