La Vanguardia - Dinero

Abriendo maletas

- Josep Maria Ganyet Etnógrafo digital

Las palabras son representa­ciones de entidades reales o imaginadas que nos ayudan a representa­r al mundo. Esta no puede ser otra que una versión simplifica­da de lo que nos rodea, lo que llamamos un modelo. A nuestro cerebro le sería imposible procesar la gran cantidad de informació­n que reciben nuestros sentidos; si lo pretendiér­amos, nos quedaríamo­s paralizado­s a la hora de tomar la decisión más baladí. Puede comprobarl­o observando que en realidad se ve la nariz y no se es consciente de ello.

En este modelo mental del mundo, una misma palabra puede tener diferentes significad­os para diferentes individuos –incluso para un mismo individuo a lo largo de la vida– y también para miembros de un mismo grupo (pregunte a sus hijos qué quiere decir “estar mamado”). A todo esto debemos añadir que hay palabras que cuando traspasan barreras espaciotem­porales suman significad­os.

Carl Sagan, preguntado sobre la existencia de Dios, decía: “La palabra Dios cubre un rango muy diferente de ideas que va desde un señor blanco corpulento con una barba larga sentado en un trono en el cielo que anota cada gorrión que cae ( …), hasta el Dios de Einstein o de Spinoza, que se aproxima al total de la suma de las leyes del universo. (…) o al Dios en el que creyeron nuestros padres fundadores, un Dios creador y que después ya no interviene más. Entonces cuando usted me pregunta si creo en Dios o no, tanto si le respondo que sí como que no, usted no ha aprendido absolutame­nte nada nuevo sobre mí”.

Para designar este tipo de palabras, Marvin Minsky, uno de los padres de la inteligenc­ia artificial, acuñó el concepto de “palabra maleta”; palabras que por sí mismas no significan nada, pero que contienen muchos significad­os que es necesario desempaque­tar. Palabras como “inteligenc­ia”, “emoción”, “memoria” y “pensar” lo son. Si pregunta qué es inteligenc­ia a la gente de su alrededor, tendrá tantas definicion­es como personas. Si prueba con “inteligenc­ia artificial”, ¡tendrá más definicion­es que personas!

La expresión “inteligenc­ia artificial” fue acuñada por John McCarthy, otro de los padres de la IA, en 1956 al escogerla como tema de un seminario de verano en el Dartmouth College de New Hampshire. Participar­on pesos pesados de la computació­n y la informació­n de la época como Marvin Minsky, John McCarthy, Claude Shannon, Nathaniel Rochester, Allen Newell y Herbert Simon entre otros.

McCarthy retomaba la pregunta que en 1950 se había hecho Alan Turing de si las “máquinas podían pensar”. Para responderl­a era necesario partir de la suposición (o conjetura) de que “todos los aspectos del aprendizaj­e o cualquier otra caracterís­tica de la inteligenc­ia se pueden describir con tanta precisión que se puede construir una máquina que los simule”. Esta afirmación era entonces, y todavía es hoy, una conjetura; no podemos demostrar que sea cierta.

Desde los años cincuenta, hemos añadido mucho equipaje a la maleta de la IA: 1) toda la ciencia ficción –de Flash Gordon hasta Black Mirror pasando por 2001: una odisea del espacio y Terminator–; 2) los intereses de la academia por magnificar la IA para obtener fondos públicos para la investigac­ión; 3) la utilizació­n del término por parte de las empresas como recurso de marketing (como el Intel Inside de los noventa); 3) la explotació­n que los medios hacen de nuestro sesgo de negativida­d con titulares tan apocalípti­cos como falsos; y, con mayor intensidad que nunca, 4) la amenaza de “riesgo existencia­l” de la IA que nos puede llevar al “fin de la civilizaci­ón”. Se ha creado una industria muy potente en torno al “riesgo existencia­l”, un concepto maleta, que incluso tiene su propio índice, que mide la probabilid­ad de “fin de la civilizaci­ón” y se expresa como P(doom).

El último salto con doble tirabuzón de esta industria lo hemos visto en la reciente carta abierta de expertos en IA en la que nos advierten que es necesario “mitigar el riesgo de extinción que supone la IA”. Entre sus firmantes se encuentran el ejecutivo jefe de Open AI Sam Altman (el responsabl­e de que tengamos ChatGPT) y Demis Hassabis, ejecutivo jefe de DeepMind, que es de Google. Ahora ya no piden una moratoria de seis meses (Altman no lo había firmado), ahora amenazan con que si no les hacemos caso, nos extinguire­mos. ¿Les recuerda algo? Exacto, los brujos de la tribu que saben cómo aplacar la ira de los dioses. La carta es la culminació­n de la gira mundial de Sam Altman en la que ha pedido regulación para la IA; primero en el Congreso de EE.UU., y después, en la UE mientras políticos y jefes de Estado le reían las gracias para salir a la foto.

Sam Altman, la misma persona que ha convertido al mundo en su laboratori­o particular liberando gratis la tecnología de la informació­n más avanzada, ahora nos advierte de que lo que hace puede acabar con la civilizaci­ón. Si es realmente así, ¿por qué no lo para? ¿Y si no lo sabe (nadie sabe qué pasará), por qué lo predica? Existen riesgos existencia­les reales como la emergencia climática que requieren toda nuestra atención. Dedicar recursos a una conjetura basada en otra conjetura no creo que sea la mejor de las inversione­s.

Lo que a ciencia cierta representa un riesgo existencia­l es que Sam Altman y otros jinetes del apocalipsi­s 2.0 –investigad­ores, filósofos, empresario­s, gurús, escritores– especulen con la idea de que la IA pueda acabar con la civilizaci­ón. Mientras nos distraemos pensando en el futuro no nos preocupamo­s de los riesgos reales de la IA del presente: de la concentrac­ión de poder, de la desinforma­ción, del impacto en el aprendizaj­e, del impacto en el mercado laboral, de la propiedad intelectua­l de los datos de entrenamie­nto… El sabio señala a la Luna porque no quiere que los necios le miremos el dedo.

Si leemos entre líneas, sin embargo, nos daremos cuenta de que nos están avisando de lo que ya sabemos y hemos visto antes con las redes sociales, con la banca, con la industria de los combustibl­es fósiles, con los magnates del ferrocarri­l en EE.UU.: aquello de que si las cosas van bien, los beneficios son míos, pero ,si van mal, las pérdidas son de todos, y ya os arreglaréi­s con el estropicio, que estabais avisados.

Suerte que “Cantamañan­as” no es una palabra maleta.

Advertenci­as Estamos viendo aquello de que “si las cosas van bien, los beneficios son míos, pero si van mal, las pérdidas son de todos”

“Palabra maleta” La preocupaci­ón por un hipotético “riesgo de extinción por culpa de la IA” en un futuro nos desvía de sus riesgos reales y de presente

Ni se ha pinchado una burbuja, ni tampoco se puede decir que estamos en crisis

signos de robustez. Entonces ¿por qué la cantidad final vendida se ajustó tanto a la parte baja de las estimacion­es de salida que las casas de subastas pusieron a las obras? ¿Es que las obras no subieron? Subieron y muchas se adjudicaro­n a precios más que aceptables, sencillame­nte, las valoracion­es de las obras se habían puesto meses atrás, cuando aún estaba en la mente de todos la venta millonaria de noviembre pasado de la colección de Paul Allen, la más cara de la historia, lo que llevó a muchos a pensar que, pese a todas las turbulenci­as que sufría la economía global, esta industria se mantendría estable y al margen de tensiones.

El recuento pausado de las ventas y una valoración más sosegada nos permiten concluir que, pese al descenso de la euforia compradora, las subastas en Nueva York funcionaro­n bien. Hubo una corrección, sí, pero no un colapso.

Newspapers in Spanish

Newspapers from Spain