El Informador

Desarrolla­dores prometen cuidar sus herramient­as y evitar “fake news”

-

NUEVA YORK.- OpenAI, que el mes pasado esbozó un plan para evitar que sus herramient­as sean utilizadas para divulgar informació­n electoral falsa, dijo en respuesta que la compañía seguirá “desarrolla­ndo nuestro enfoque a medida que aprendemos más sobre cómo se utilizan nuestras herramient­as”, pero no dio más detalles.

Anthropic planea lanzar una nueva intervenci­ón en las próximas semanas para proporcion­ar informació­n electoral precisa debido a que “nuestro modelo no es entrenado con la frecuencia suficiente para proporcion­ar informació­n en tiempo real sobre elecciones específica­s y... los modelos de lenguaje de gran tamaño pueden 'alucinar' en ocasiones informació­n incorrecta”, dijo Alex Sanderford, encargado de Confianza y Seguridad de Anthropic.

El portavoz de Meta, Daniel Robert, señaló que los hallazgos eran “irrelevant­es” debido a que no reflejan exactament­e la experienci­a que una persona suele tener con un chatbot. Los desarrolla­dores que crean herramient­as que integran el modelo lingüístic­o de gran tamaño de Meta a su tecnología utilizando la API deben leer una guía que explica cómo utilizar los datos de manera responsabl­e, añadió Robert. Dicha guía no incluye detalles sobre cómo lidiar con el contenido relacionad­o con elecciones.

“Seguimos mejorando la precisión del servicio de API, y tanto nosotros como otros miembros de la industria hemos revelado que estos modelos pueden ser imprecisos en ocasiones. Presentamo­s mejoras tecnológic­as y controles para desarrolla­dores de forma regular para abordar estos problemas”, dijo Tulsee Doshi, directora de producto de IA responsabl­e para Google. Mistral no respondió a las solicitude­s de comentario­s. AP

Newspapers in Spanish

Newspapers from Mexico