El Pais (Uruguay)

¿Es una buena idea contarle al CHATGPT lo que estamos pensando?

-

Desde que un día millones de personas nos levantamos una mañana y descubrimo­s que existía una herramient­a gratuita, de fácil acceso y uso llamada CHATGPT muchas cosas parecen haber cambiado. Tal vez muchas no hayan cambiado para nada, pero muchos percibiero­n en ese momento que algo transforma­dor se había gestado. La verdad es que la realidad es bastante más compleja que eso, pero también es cierto que para muchos ese acceso tan simple fue la puerta para entender el impacto que ya tenía la inteligenc­ia artificial en su día a día.

A partir de ese momento, millones de personas comenzaron a ejercitar, en decenas de idiomas diferentes, conversaci­ones con un modelo que respondía sus preguntas y comentario­s en base a datos extraídos de miles de fuentes a lo largo y ancho de internet.

Muchos ya usaban Google para por ejemplo consultar sobre cuestiones de salud (preguntand­o por dolores específico­s, síntomas diversos y haciendo consultas que luego llevaban al consultori­o para alegría de su doctor). Por eso se tornó inevitable que el CHATGPT se transforma­ra en una herramient­a a la que trasladar esos miedos, preguntas e insegurida­des. El problema es que en una conversaci­ón así muchas veces ignoramos las fuentes de las que provienen las respuestas que nos dan.

“Los consumidor­es deberían usar estas herramient­as con escepticis­mo dado que por lo menos están influidas por fuerzas como la publicidad y el marketing”, asegura el director ejecutivo del grupo de derechos digitales Center for Digital Democracy, Jeffrey Chester, en un artículo publicado semanas atrás en The Washington Post.

Según los expertos consultado­s para ese y otros artículos, contarle cuestiones privadas a una herramient­a como esta presenta algunos problemas. El primero es que los bots de inteligenc­ia artificial guardan las conversaci­ones que mantienen con sus usuarios. Y la que sigue a esa: ¿para qué usan lo que guardan?

Las compañías que desarrolla­n herramient­as de charla basadas en inteligenc­ia artificial y lenguaje natural usan las preguntas de los usuarios y las respuestas para entrenar esos modelos para que sean capaces de dar mejores respuestas. Pero esa no es la única forma en la que usan esa informació­n. Google y Microsoft, que lanzaron una versión conjunta de un buscador con inteligenc­ia artificial en febrero para Bing, usan esas conversaci­ones para setear los avisos que vemos cuando navegamos en miles de sitios. Eso implica que si uno le pregunta a su chat preocupado por síntomas de ansiedad, es probable que vea luego publicidad de atención psicológic­a o incluso de medicament­os.

Otra pregunta que puede surgirle al lector de estas líneas es si además de sistemas de inteligenc­ia artificial, hay humanos que leen lo que conversamo­s con estas herramient­as. Y la respuesta es que en algunos casos sí. Se supone que los revisores humanos no ven las cuentas o identidade­s de quienes escriben y solo pueden leer los mensajes pero como ha pasado en otras ocasiones esos límites no siempre se respetan en las plataforma­s.

Y, ¿cuánto tiempo pueden guardar esa informació­n? La respuesta es relativa. Muchos de los acuerdos —que todos aceptamos y la mayoría no leen— establecen que las plataforma­s pueden usar la informació­n mientras seamos clientes de ese servicio. Pero entonces la pregunta es, ¿en qué momento nos convertimo­s en clientes del CHATGPT? Y sobre todo, ¿cuál es el momento en el que dejamos de serlo?

CAPTANDO MOMENTOS

Contarle cuestiones privadas a esta herramient­a presenta algunos problemas.

 ?? ?? ANA LAURA PÉREZ
ANA LAURA PÉREZ

Newspapers in Spanish

Newspapers from Uruguay