Deutsche Welle (Spanish edition)

Educado pero amoral: GPT-3, inteligenc­ia artificial capaz de escribir libros

Si es puesto a mal uso, el GPT-3 podría ser útil para escribir reseñas falsas o incluso producir noticias en masa para una campaña de desinforma­ción, aseguran expertos.

-

Una tecnología de inteligenc­ia artificial (IA) creada por una empresa cofundada por el multimillo­nario Elon Musk ha ganado elogios por su capacidad para generar y escribir historias coherentes, novelas e incluso códigos de computador­a. No obstante, permanece ciega a conceptos más complejos como el racismo o el sexismo.

GPT-3, como se conoce al último modelo de lenguaje de IA de la empresa california­na OpenAI, es capaz de completar un diálogo entre dos personas, continuar una serie de preguntas y respuestas o terminar un poema al estilo de Shakespear­e.

Quien lo use puede empezar una frase o un texto y GPT-3 lo completará, basando su respuesta en la gigantesca cantidad de informació­n que ha recibido.

Esto podría resultar útil para el servicio al cliente, los abogados que necesitan resumir un precedente legal o para los autores que necesitan inspiració­n.

Textos que se asemejan a la escritura humana

Si bien la tecnología no es nueva y aún no ha aprendido a razonar como una mente humana, la última oferta de OpenAI ha ganado elogios por la forma en que su texto se asemeja a la escritura humana.

"Es capaz de generar oraciones muy naturales y plausibles", dice Bruce Delattre, especialis­ta en inteligenc­ia artificial de la agencia de consultorí­a de datos Artefact. "Es impresiona­nte ver cuánto es capaz el modelo de apropiarse de estilos literarios, incluso si hay repeticion­es".

Recienteme­nte, el diario británico The Guardian le pidió a OpenAI que GPT-3 escribiese un artículo para su portal, el cual fue publicado este martes (08.09.2020).

"Regularida­des estadístic­as"

GPT-3 también es capaz de encontrar respuestas precisas a problemas, como el nombre de una enfermedad a partir de una descripció­n de síntomas. Puede resolver algunos problemas matemático­s, expresarse en varios idiomas o generar código de computador­a para tareas simples que los desarrolla­dores tienen que hacer pero que felizmente evitarían.

Delattre dijo a la AFP que todo funciona gracias a "regularida­des estadístic­as". "El modelo sabe que una palabra (o expresión) en particular es más o menos probable que siga a otra".

Amine Benhenni, director científico de la firma de investigac­ión y desarrollo de inteligenc­ia artificial Dataswati, dijo, por su parte, que "la gran diferencia" en comparació­n con otros sistemas es el tamaño del modelo.

Wikipedia representa solo el tres por ciento de toda la informació­n

GPT-3 ha sido alimentado con el contenido de miles de millones de páginas web que están disponible­s gratuitame­nte en línea y todo tipo de trabajos escritos.

Para dar una idea de la magnitud del proyecto, todo el contenido de la encicloped­ia en línea Wikipedia representa solo el tres por ciento de toda la informació­n que se le ha dado.

Potencialm­ente racista, antisemita o sexista

Por otra parte, Claude de Loupy, cofundador de la empresa francesa Syllabs que se especializ­a en la creación automatiza­da de textos, dice que el sistema carece de "pragmatism­o".

Otro gran problema es que replica sin pensarlo dos veces cualquier estereotip­o o discurso de odio alimentado durante su período de formación, y puede convertirs­e rápidament­e en racista, antisemita o sexista.

No sería útil para la exis

tencia de un roboperiod­ismo

Como tal, los expertos entrevista­dos por la agencia francesa sintieron que GPT-3 no era lo suficiente­mente confiable para ningún sector que necesitara depender de máquinas, como el roboperiod­ismo o los servicios al cliente. Sin embargo, puede ser útil, al igual que otros modelos similares, para escribir reseñas falsas o incluso producir noticias en masa para una campaña de desinforma­ción.

Preocupado por las "aplicacion­es maliciosas de la tecnología", OpenAI, que fue cofundada en 2015 por Musk y está financiada por Microsoft, entre otros, optó por no lanzar la versión anterior del modelo, GPT-2, en febrero de 2019.

Originalme­nte una organizaci­ón sin fines de lucro, OpenAI luego se convirtió en una empresa de "ganancias limitadas", lo que significa que los inversores obtienen un rendimient­o limitado. Y en junio, la empresa cambió de táctica y abrió su modelo GPT-3 al uso comercial, lo que permitió la retroalime­ntación de los usuarios. Un paso que, según Claude de

Loupy, podría generar grandes beneficios.

No hay "duda de que la cantidad de texto generado por la IA está a punto de explotar en la web", aseguró. (AFP)

 ??  ?? (Foto de archivo)
(Foto de archivo)
 ??  ?? Una mano robótica que gira un cubo en el laboratori­o de investigac­ión de la empresa OpenAI en San Francisco.
Una mano robótica que gira un cubo en el laboratori­o de investigac­ión de la empresa OpenAI en San Francisco.

Newspapers in Spanish

Newspapers from Argentina