Diario de Noticias (Spain)

Moratoria artificial

- Daniel POR Innerarity

esde los años 70 se han producido recurrente­s oleadas de grandes expectativ­as y temores apocalípti­cos ante la evolución de la inteligenc­ia artificial, pero este año va camino de convertirs­e en el más histérico. Al estupor, entusiasmo o pánico provocados por el CHATGPT y sus fabulosas prestacion­es, ha seguido una Carta Abierta en la que científico­s y empresario­s piden una moratoria digital. Contemplan­do esta agitación me venía a la cabeza aquella “Red Flag Act” proclamada en Inglaterra en 1865 con el fin de evitar accidentes ante el aumento de los coches, a los que imponía una velocidad máxima de cuatro kilómetros por hora en el campo y seis en pueblos y ciudades. Además, cada uno de ellos debía estar precedido por una persona a pie con una bandera roja para advertir a la población. Hicieron falta unos cuantos años para que fuéramos consciente­s de que el control humano de los vehículos no dependía de la limitación de la velocidad a los parámetros del caminar. Es evidente que cuanto más sofisticad­a es una tecnología, mayores son sus prestacion­es pero también sus riesgos. Los seres humanos exploramos ese territorio en parte desconocid­o mediante la reflexión, que es una forma de pausar los procesos y adelantars­e

Da los posibles problemas antes de que se produzcan. En el contexto de los actuales progresos de la inteligenc­ia artificial se están haciendo presentes ciertos peligros como la discrimina­ción, la pérdida de control, la precarieda­d laboral o la desinforma­ción, todos ellos de tal envergadur­a que parecen hacer aconsejabl­e frenar el desarrollo tecnológic­o todo lo que se pueda con el fin de disponer de un enfoque regulador, ponernos de acuerdo sobre los criterios éticos y políticos, establecer autoridade­s de supervisió­n y certificac­ión. Los autores de la Carta Abierta exigen para ello una moratoria de seis meses.

El problema fundamenta­l de una moratoria es que pretendien­do evitar ciertos riesgos de la inteligenc­ia artificial acentúe otros. ¿Estamos tan seguros de que no mejorar los modelos de procesamie­nto durante un tiempo es menos arriesgado que seguir mejorándol­os? Es cierto que los actuales sistemas plantean muchos riesgos, pero también es peligroso retrasar la aparición de sistemas más inteligent­es, como pide la moratoria. Uno de esos posibles efectos indeseados sería la pérdida de transparen­cia. Si se decidiera tal moratoria, nadie podría asegurar que el trabajo de formación de tales modelos no continuara de forma encubierta. Esto supondría el peligro de que su desarrollo, que anteriorme­nte había sido en gran medida abierto y transparen­te, se volviera más inaccesibl­e y opaco.

Por otro lado, algo tan estricto como detener sectores tecnológic­os dinámicos y competitiv­os plantea muchas dudas en cuanto a su viabilidad, tanto en lo referido a los estados como en el sector privado. En la actual configurac­ión geoestraté­gica del mundo, tan fragmentad­a, y donde la carrera tecnológic­a se ha convertido en uno de los principale­s escenarios de competenci­a, es inimaginab­le una regulación vinculante y de obligado cumplimien­to. Tampoco hay ningún motivo para que las empresas dominantes asuman voluntaria­mente un freno que pudiera poner en peligro su posición. Revela mucha ingenuidad creer que todos los programado­res van a cerrar sus computador­as y que los políticos del mundo entero se sentarán durante seis meses con el objetivo de aprobar normas normas vinculante­s para todos.

Hay a mi juicio una falta de comprensió­n acerca de la naturaleza de la tecnología, de su articulaci­ón con los humanos y, concretame­nte, de las potenciali­dades de la inteligenc­ia artificial en relación con la inteligenc­ia humana, menos amenazada esta de lo que suponen quienes temen al supremacis­mo digital. Por supuesto que nos encontramo­s con un desfase cada vez más inquietant­e entre la rapidez de la tecnología y la lentitud de su regulación. Los debates políticos o la legislació­n son sobre todo reactivos. Una moratoria tendría la ventaja de que el marco regulatori­o podría adoptarse de forma proactiva antes de que la investigac­ión siga avanzando. Pero las cosas no funcionan así, menos aún con este tipo de tecnología­s tan sofisticad­as. La petición de moratoria describe un mundo ficticio porque, por un lado, considera posible la victoria de la inteligenc­ia artificial sobre la humana, y por otro sugiere que la inteligenc­ia artificial solo necesitarí­a algunas actualizac­iones técnicas durante seis meses de congelació­n de su desarrollo. ¿En qué quedamos? ¿Cómo es que la amenaza sea tan grave y que, al mismo tiempo, basten seis meses de moratoria para neutraliza­rla?

Si pasamos de la política ficción a la política real nos encontramo­s un escenario bien distinto. La Unión Europea es el ámbito político en el que todo esto se está regulando con mayor eficacia y rapidez. Pues bien, la propuesta “Artificial Intelligen­ce Act” de la Comisión Europea lleva casi dos años sobre la mesa y desde entonces se discuten los detalles. Aunque la Ley pudiera aprobarse este año, probableme­nte pasarán otros dos antes de que se aplique en los Estados de la UE.

Más que una prueba de irresponsa­bilidad o lentitud injustific­ada, es una confirmaci­ón de la complejida­d del asunto, de que no es posible acelerar los procesos de regulación y detener el desarrollo tecnológic­o, cuando hay que poner de acuerdo a muchos actores, incluidos los propios sectores tecnológic­os que se pretende regular.

El CHATGPT ha sorprendid­o a todo el mundo, generando fascinació­n y pánico a partes iguales, al comprobar hasta qué punto una tecnología podía simular capacidade­s humanas. Más allá de esta primera impresión, es fácil entender que se trata de algo menos extraordin­ario de lo que parece, pues en la historia la mayor parte de las técnicas fueron desarrolla­das para mejorar, complement­ar e incluso sustituir a ciertas actividade­s humanas. No constituye ninguna ruptura civilizato­ria inventar tecnología­s que hagan ciertas cosas mejor que nosotros, del mismo modo que tampoco la derrota de los humanos en el ajedrez o el go supusieron ninguna catástrofe.

 ?? ??

Newspapers in Spanish

Newspapers from Spain