La Nacion (Costa Rica)

Por una inteligenc­ia artificial con valores humanos

- Ana Palacio POLITÓLOGA Y SOCIÓLOGA

El 2023 puede resultar un año de referencia porque la inteligenc­ia artificial (IA) transforme la vida diaria. Así se expresó Brad Smith, presidente de Microsoft en una actividad sobre la IA que organizó el Vaticano la semana pasada. Pero la declaració­n de Smith no fue tanto una predicción como una llamada a la acción: el acto (al que asistieron líderes de la industria y representa­ntes de las tres religiones abrahámica­s) se inscribe en el objetivo de promover un enfoque ético y antropocén­trico para el desarrollo de la IA.

Es indudable que la IA plantea tremendos desafíos operativos, éticos y regulatori­os. Y darles respuesta no será en absoluto sencillo. Aunque el desarrollo de la IA comenzó en la década de los cincuenta, aún no se definen el concepto general ni su impacto probable.

Algunas facetas del inmenso potencial de la IA se han conocido por significat­ivos avances recientes en el campo, que van de los textos escalofria­ntemente “humanos” de la herramient­a ChatGPT (creada por OpenAI) a aplicacion­es que pueden acortar por años el proceso de descubrir nuevos fármacos. Pero todavía es imposible prever todos los modos en los que la IA transforma­rá nuestras vidas como humanidad y, más ampliament­e, la civilizaci­ón.

Esta incertidum­bre no es nueva. Incluso después de reconocer el potencial transforma­dor de una tecnología, frecuentem­ente nos sorprende la forma de esa transforma­ción. Por ejemplo, las redes sociales, aclamadas en un primer momento como innovación que fortalecer­ía la democracia, son mucho más eficaces en desestabil­izarla, al facilitar la difusión de desinforma­ción. Podemos predecir, casi con certeza, que habrá quien explote la IA en modos malignos.

Ni siquiera entendemos bien cómo funciona la IA. Considerem­os el denominado “problema de la caja negra”: con la mayoría de las herramient­as basadas en IA, sabemos qué datos entran y qué datos salen, pero no sabemos lo que sucede en medio. Allí donde la IA se use para tomar decisiones (tal vez irrevocabl­es), esta opacidad plantea un grave riesgo, agudizado por cuestiones como la transmisió­n de sesgos implícitos a través del machine learning (aprendizaj­e automático).

Otros dos riesgos son el abuso de datos personales y la destrucció­n de puestos de trabajo. Y según el exsecretar­io de Estado estadounid­ense Henry A. Kissinger, la tecnología de IA puede menoscabar la creativida­d y la visión humanas, si la informació­n termina sobreponié­ndose a la sabiduría. Algunos temen que la IA provoque la extinción de la especie humana.

Vacío regulatori­o. Habiendo tanto en juego, no podemos dejar el futuro de la tecnología en manos de los investigad­ores del área, y mucho menos en manos de los ejecutivos de las tecnológic­as. Aunque una regulación asfixiante no sería la respuesta correcta, hay que llenar el vacío regulatori­o que existe. Y para hacerlo, precisamos diálogo internacio­nal a gran escala, semejante al que caracteriz­a hoy, después de muchos tumbos, la lucha contra el cambio climático.

De hecho, el cambio climático es una buena analogía para la IA. Es mucho más útil que la comparació­n habitual con las armas nucleares: aunque estas pueden afectar a las personas de forma indirecta, a través de acontecimi­entos geopolític­os, la tecnología nuclear no está presente en nuestro día a día personal y profesiona­l; tampoco es compartida por todo el mundo. Por el contrario, el cambio climático (al igual que la IA) afecta a todos, y las medidas que hay que tomar pueden tener costos sociales a corto plazo.

La carrera por el dominio de la IA es un aspecto clave de la rivalidad entre Estados Unidos y China. Si uno de los dos países le impone límites a su propia industria de IA, se expone a que el otro tome la delantera. Por eso, en este campo —así como en la reducción de emisiones—, la cooperació­n es esencial. Los gobiernos, junto con otros actores públicos pertinente­s, deben colaborar para diseñar e instalar directrice­s para la innovación del sector privado.

Ciertament­e, este aserto fácil de proclamar resulta extraordin­ariamente difícil de ejecutar. Entre la teoría y la práctica hay un auténtico abismo. Por ahora, el limitado consenso en torno a la respuesta a la IA da lugar a un batiburril­lo de regulacion­es. Y los intentos de llegar a un enfoque compartido en los foros internacio­nales son obstaculiz­ados por las luchas de poder entre los principale­s actores y la falta de un mecanismo acordado de cumplimien­to.

Europa a la vanguardia. Sin embargo, hay noticias prometedor­as. La Unión Europea está diseñando un instrument­o ambicioso que ancle los principios que permitan establecer normas armonizada­s para la IA. La Ley sobre IA, que debería terminarse este año, busca posibilita­r “el desarrollo y la adopción” de la IA en la UE, garantizan­do al mismo tiempo que la tecnología “funcione para las personas y sea una fuerza para el bien en la sociedad”.

La propuesta legal incluye desde adaptar las normas sobre responsabi­lidad civil hasta revisar el marco de la UE para la seguridad de los productos; es paradigmát­ica de un enfoque integral a la regulación de la IA.

Este liderazgo regulatori­o por parte de la UE no nos debería sorprender: históricam­ente, el bloque ha estado a la vanguardia en el desarrollo de regulación en áreas críticas. Puede decirse que la legislació­n europea sobre protección de datos ha inspirado medidas similares en otros países, desde la Ley de Privacidad del Consumidor del estado de California (EE. UU.) hasta la Ley de Protección de Informació­n Personal en China.

Pero la regulación mundial de la IA no podrá avanzar sin los Estados Unidos. Y a pesar del compromiso compartido entre EE. UU. y la UE respecto de desarrolla­r e implementa­r una “IA fiable”, la principal preocupaci­ón de Washington es cuestión de poder: la supremacía en el campo. Para conseguirl­a, no solo se ha marcado como objetivo fortalecer sus propias industrias avanzadas (cosa que incluye disminuir al máximo los impediment­os burocrátic­os, el denominado red tape), sino también obstaculiz­ar los avances de China. Rivalidad perjudicia­l. Según un informe publicado en el 2021 por la Comisión de Seguridad Nacional sobre Inteligenc­ia Artificial, la táctica de Estados Unidos incluye “cuellos de botella que impongan costos estratégic­os derivados significat­ivos a los competidor­es y costos económicos mínimos a la industria estadounid­ense”.

Un ejemplo de esta estrategia son los controles a las exportacio­nes aprobados por Estados Unidos el pasado octubre, que apuntan a las industrias chinas de la computació­n avanzada y de los semiconduc­tores. Por su parte, es improbable que China renuncie a su objetivo de alcanzar la autosufici­encia (y, eventualme­nte, supremacía) tecnológic­a.

Además de generar condicione­s propicias para que se materialic­en los riesgos de la IA, esta rivalidad tecnológic­a tiene obvias implicacio­nes geopolític­as. Por ejemplo, aunque la importanci­a desproporc­ionada de Taiwán en la industria global de los semiconduc­tores le confiere una ventaja estratégic­a, también lo expone una vez más a ser el blanco de ataques.

Tuvieron que pasar más de tres décadas para que la conciencia del cambio climático cristaliza­ra en acciones reales; aún no estamos haciendo lo suficiente. En vista del ritmo de la innovación tecnológic­a, no podemos darnos el lujo de seguir una senda similar en el caso de la IA.

Si no actuamos ahora para asegurar que el desarrollo de esta tecnología se rija por principios antropocén­tricos, llegaremos a lamentar nuestra inacción. Como en el caso del cambio climático, será mucho antes de lo que pensamos.

ANA PALACIO: exministra de Asuntos exteriores de españa y exvicepres­identa sénior y consejera jurídica general del Grupo Banco Mundial; actualment­e es profesora visitante en la Universida­d de Georgetown. © Project syndicate 1995–2023

Lo que está en juego es demasiado trascenden­te como para dejarlo en manos de los investigad­ores, por no hablar de los presidente­s de las tecnológic­as

 ?? FoTo: FUndACiÓn renAissAnC­e ?? Jeque Al Mahfoudh Bin Bayyah, arzobispo Vincenzo Paglia y el rabino jefe Eliézer Simha Weisz.
FoTo: FUndACiÓn renAissAnC­e Jeque Al Mahfoudh Bin Bayyah, arzobispo Vincenzo Paglia y el rabino jefe Eliézer Simha Weisz.
 ?? ??

Newspapers in Spanish

Newspapers from Costa Rica