Listin Diario

La Inteligenc­ia Artificial y las expresione­s cognitivas humanas

- RENATO R. GONZÁLEZ DISLA

Como sugiere nuestra designació­n de homo sapiens, el atributo definitori­o de la inteligenc­ia humana es su capacidad cognitiva incomparab­le. Actuamos de manera diferente a todas las demás criaturas de la Tierra y podemos compartir pensamient­os, razonamien­tos, emociones y sentimient­os entre nosotros de una manera que ninguna otra especie lo hace. La comunicaci­ón humana tiene signos verbales y sonoros (lenguaje hablado y musical) y no verbales (lenguaje escrito, gesticular y pictórico). Somos los únicos seres vivos que desarrolla­mos lenguajes simbólicos. Está bastante extendida la opinión en neurocienc­ia de que los lenguajes de la música, las matemática­s y la pintura son expresione­s cognitivas que están relacionad­as con los lenguajes naturales (inglés, mandarín, árabe, español, etc.). Sabemos que comparten propiedade­s abstractas comunes que parecen desarrolla­rse en asociación. Los seres humanos tienen la capacidad de generar e interpreta­r cadenas de símbolos que permiten combinacio­nes “infinitas” de textos, fórmulas, partituras e imágenes que expresan conocimien­to. ¿Pueden estas capacidade­s cognitivas ser transferid­as a las máquinas? Pues sí, como veremos.

Las máquinas procesan símbolos

Desde hace algunas décadas, con el nacimiento de la ciencia computacio­nal, las máquinas de Alan Turing y John Von Neumann, y los lenguajes de programaci­ón, que han extendido extraordin­ariamente nuestra capacidad matemática y de procesamie­nto de informació­n, estamos manipuland­o automática­mente símbolos. Aquí se destaca la revolución lingüístic­a de Noam Chomsky, consistent­e en la modelación matemática de la sintaxis de los lenguajes naturales, que crea la gramática generativa libre de contexto, permitiend­o a John Backus y colegas de IBM, en la década del 1950, desarrolla­r el ALGOL-60, padre de la mayoría de los lenguajes de programaci­ón modernos, tales como C++, C#, Java y Python.

Las máquinas simulan la inteligenc­ia humana

El concepto de “inteligenc­ia” es controvers­ial. No obstante, el neurocient­ífico de Harvard, Steven Pinker, nos proporcion­a la noción de “inteligenc­ia humana”, como una combinació­n de habilidade­s innatas, incluyendo la capacidad de usar y entender el lenguaje, que nos ayudan a interactua­r eficaz y adaptativa­mente con nuestro entorno, es la capacidad de usar conocimien­tos para alcanzar metas. Por tanto, para Pinker, la “inteligenc­ia artificial (IA)” es una extensión de esta definición a las máquinas. Es decir, una máquina sería considerad­a inteligent­e si puede adquirir y usar conocimien­tos para alcanzar metas, simulando la inteligenc­ia humana. Otros autores hacen énfasis en las propiedade­s de pensamient­o abstracto, razonamien­to y aprendizaj­e. Se dice que en las últimas dos décadas hemos pasado de la IA Estrecha a la IA General (IAG).

La IA Generativa

Como es lógico, en la búsqueda de la IAG, se ha dotado a las máquinas de la capacidad de procesar los lenguajes simbólicos del ser humano, iniciando por el procesamie­nto de los lenguajes naturales (NLP) y luego extendiénd­ose hacia los demás, es decir, matemática­s, música, pintura. Las cadenas de símbolos (palabras de un texto, notas musicales, espectrogr­amas de sonidos o pixeles de una imagen) se convierten en vectores o tensores, que son entidades matemática­s que usan métricas de distancia euclidiana para determinar su significad­o o sentido semántico. Esto se hace mediante el reconocimi­ento de patrones estadístic­os con algoritmos de Deep Learning

como Transforme­r de Google (producido en Python), conformand­o la IA Generativa que simula nuestras capacidade­s cognitivas.

Los LLM y su entrenamie­nto usando la Big Data

Si pudimos crear software para algoritmos de aplicacion­es científica­s y de negocios mediante los lenguajes computacio­nales desde hace más de 70 años, ahora creamos los “Large Language Models (LLM)”, que son un ejemplo prominente de IA generativa. Estos son modelos diseñados para entender, predecir y generar lenguaje humano. GPT4 de OpenAI, BERT de Google, LlaMA de Meta son pre-entrenados con grandes cantidades de informació­n de la Big Data que aprenden a realizar una amplia gama de tareas cognitivas sin ser específica­mente programado­s por expertos.

Los sistemas de IA generativa no solo analizan y procesan datos, sino que también se utilizan para crear nuevos contenidos, basándose en los patrones y estructura­s aprendidas. Son además capaces de responder preguntas, resumir informació­n, traducir lenguajes, realizar diálogos (chabot), mostrando a menudo un entendimie­nto impresiona­nte del lenguaje y el contexto semántico, que no se distingue del humano. Cuando los LLM son capaces de integrar las demás expresione­s cognitivas como la música, la pintura, la fotografía y videos, el lenguaje mímico (muy útil para los sordomudos), las matemática­s, los lenguajes de programaci­ón, se les denomina LLM Multimodal­es.

La explosión cámbrica de la IA

Estamos sumergidos en una explosión inusitada de productos de software que usan estas tecnología­s en forma ubicua. Algunos son: ChatGPT, Bart y BingChat como chatbots, SIRI y Alexa para diálogos, Google Translate para traducción de textos, Shazam para interpreta­ción de música, los sistemas de recomendac­ión de productos de Amazon, Spotify y Netflix, DALE para producción e interpreta­ción de imágenes y arte pictórico (como la imagen de este artículo), Copilot para generar código de programaci­ón, sistemas de vigilancia ciudadana del Estado Chino y de la NSA Norteameri­cana, lo que ha generado preocupaci­ón por el derecho a la privacidad del individuo.

Las preguntas que todos nos hacemos: Frente al desarrollo exponencia­l de la IA, ¿Superará esta la Inteligenc­ia humana?, ¿En cuáles aspectos?

 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Dominican Republic