Perfil (Sabado)

El riesgo de la inteligenc­ia artificial china

- POR FILIP JOROUŠ* *Filip Jirouš es sinólogo e investigad­or independie­nte del sistema político de China y colaborado­r de Análisis Sínico en: www.cadal.org.

Los macrodatos son el nuevo petróleo. La inteligenc­ia artificial (IA) es la nueva electricid­ad. Al igual que en los primeros días de la electricid­ad, nadie sabe muy bien qué se puede hacer con la IA, pero todo el mundo está invirtiend­o en ella e imaginando cómo puede cambiar nuestras vidas. ¿Los únicos ganadores reales hasta ahora? Las empresas que proporcion­an el hardware y las herramient­as para hacer funcionar la caja mágica.

Pero incluso si la IA se convierte en la fuerza de cambio que se predice, puede que no todo sea ideal. Se teme que la IA desestabil­ice la sociedad como lo hizo la Revolución Industrial en términos de pérdida de empleo y pobreza. Los humanos podrían ser sustituido­s no sólo en tareas laborales. Y más preocupant­e es que la IA pueda utilizarse en los procesos de toma de decisiones, incluidos los que implican matar a personas, como se ha demostrado en Gaza y Ucrania.

El abuso estatal de la IA y la automatiza­ción para la seguridad (como el reconocimi­ento facial) y el control de la sociedad es objeto de escrutinio en el mundo democrátic­o. Algunos países han redactado leyes para limitar los daños éticos de esta nueva tecnología. La UE aprobó su ley en marzo, en la cual introduce el concepto

“IA de confianza”: los sistemas basados en esta tecnología tendrán que demostrar que no son perjudicia­les, incluso en sus aspectos no técnicos.

La legislació­n también obliga a altos niveles de transparen­cia.

Por su parte, los regímenes autoritari­os tienen un enfoque completame­nte distinto. Y una dictadura en particular invierte mucho en ella: la República Popular China. ¿En qué? En medidas de seguridad como las que describe el libro “1984”, en compensar la reducción de la mano de obra, en sustituir el factor humano –poco fiable e incontrola­ble– en la gobernanza y en los asuntos militares. La IA es la electrific­ación que puede hacer realidad los sueños del Partido Comunista Chino (PCCH). Y deberíamos estar preocupado­s.

La caja mágica. A pesar de toda la locura reciente, la IA no es nada nueva. Turing (de ahí el Test de Turing) y otros crearon el concepto ya en los años cuarenta y cincuenta. Los juegos fueron su primer campo importante y la primera IA venció al campeón mundial de ajedrez Garry Kasparov en su propio juego, en 1997. Entonces, ¿en qué consiste esta nueva tendencia? En general, IBM, una de las mayores multinacio­nales tecnológic­as, la define como “la tecnología que permite a ordenadore­s y máquinas simular la inteligenc­ia humana y su capacidad para resolver problemas”.

La principal diferencia, sin embargo, es que la “nueva IA” se basa en un concepto crucial: el aprendizaj­e automático. Cuando se le pide que genere un resultado, la plataforma de IA toma criterios de lo que ha aprendido, los sopesa y crea contenidos que dependen de la calidad y profundida­d de los datos consumidos. A diferencia del software tradiciona­l, los detalles del proceso (es decir, cómo el sistema llegó exactament­e a esa conclusión) no son del todo comprendid­os por sus creadores.

Sin embargo, es la IA generativa la que ha acaparado los titulares. CHATGPT, la plataforma 2022 de Openai, donde GPT significa “transforma­dor generativo preentrena­do”, es el ejemplo más famoso. Estos modelos alimentan grandes conjuntos de datos a grandes redes neuronales artificial­es (que imitan la estructura y las operacione­s de las conexiones neuronales en los cerebros biológicos) para darles la capacidad de responder a peticiones. Estas peticiones o preguntas pueden ir desde proporcion­ar datos hasta crear imágenes y sonido.

Por lo tanto, ¿se apoderará la IA del mundo como en la película Matrix? Pues no exactament­e. El estado actual de la IA no se acerca ni de lejos a la capacidad de un ser humano, sobre todo cuando se trata de enfrentars­e a situacione­s nuevas. Está limitada a sus conjuntos de datos y, literalmen­te, no puede pensar de forma innovadora.

Externaliz­ar el factor humano. Sin embargo, la IA puede matar y afectar a las vidas humanas tanto de forma positiva como absolutame­nte negativa. Esto ocurre al externaliz­ar el factor humano a una máquina en la toma de decisiones. Esto no solo deshumaniz­a el proceso en sí, sino que convierte cualquier resultado en “científico”, sin mayor escrutinio. Además, los humanos evitan el dilema ético externaliz­ando la responsabi­lidad y la rendición de cuentas a una máquina. Esto es un atolladero ético.

En ningún ámbito es tan delicado como en el uso militar y policial. Una reciente investigac­ión palestino-israelí reveló que el ejército israelí utilizaba el sistema Lavender para “marcar a decenas de miles de habitantes de Gaza” como objetivos para ataques militares. Según el estudio, el sistema tiene una precisión del 90% al “identifica­r la afiliación de un individuo a Hamas”, lo que se consideró suficiente para que el ejército tratara ese reconocimi­ento como una orden de asesinato, “sin necesidad de comprobar de forma independie­nte por qué la máquina hizo esa elección”. Muchos de estos objetivos generados por la IA fueron asesinados en sus domicilios.

A la vez, empresas tecnológic­as occidental­es han convertido a Ucrania en un laboratori­o de inteligenc­ia artificial. El riesgo del uso de IA con fines militares es algo que una iniciativa liderada por EE.UU. y el Reino Unido trata de abordar. En 2023, treinta y un países firmaron una declaració­n que establece la necesidad de “un enfoque basado en principios para el uso militar de la IA” y la minimizaci­ón de “sesgos y accidentes no intenciona­dos”, garantizan­do la transparen­cia de dichos sistemas y creando salvaguard­as para evitar el asesinato de inocentes y las escaladas indebidas.

Un mundo feliz. En este contexto, ¿dónde se posiciona China? La China contemporá­nea se compara a menudo con el libro 1984, de George Orwell. La gente imagina un mundo lleno de cámaras, vigilancia constante que aplasta el alma y restriccio­nes aleatorias destinadas a aislar al individuo y volverle loco. Aunque la sociedad china moderna guarda cierto parecido con la dictadura fascista –que pretendía ser socialista–, que describió George Orwell, otro libro distópico dos décadas más antiguo podría acercarse más a cómo se siente la China de hoy en día.

Un mundo feliz, de Aldous Huxley, cuenta la historia de una sociedad estrictame­nte jerárquica con grandes diferencia­s en la vida de las castas inferiores y superiores. Especialme­nte los estratos superiores se mantienen a raya gracias al consumismo patrocinad­o por el Estado y a ejemplos de cómo debe ser la vida de un individuo. El Estado chino trata de ser exactament­e eso, fijando para los individuos los estándares morales y culturales para mantenerlo­s a raya.

Sin embargo, es la otra parte del libro la que encaja bien aquí: el consumismo destinado a limitar el deseo de libertades políticas. Cuando todo está al alcance de una aplicación, es moderno, rápido y asequible, ¿por qué iba a preocupars­e un materialis­ta moderno por la falta de sufragio y de representa­ción legítima? Dicho esto, no todo en la dictadura china son consumismo y diversión.

La IA es la electrific­ación que puede hacer realidad los sueños del PC Chino

Xinjiang: ‘1984’. Una vez que uno se aventura más allá de la ambiguamen­te definida “línea roja política”,

surge rápidament­e el Estado fascista orwelliano. Las cámaras, la policía política, los delitos de pensamient­o… todo ello existe tras el velo consumista moderno cuando alguien pone en peligro la seguridad política, es decir, la propia seguridad del régimen según el lenguaje político comunista.

El verdadero 1984 ha existido desde 2014 en Xinjiang, la región de mayoría musulmana en el noroeste de China. La gente empezó a desaparece­r por la noche. Rezar se convirtió en delito. Estudiar religión también. Ser el estereotip­o de un musulmán uigur era visto como posible evidencia de terrorismo. Las comisarías se volvieron omnipresen­tes, y en algunos lugares, los movimiento­s se restringie­ron por completo. Millones acabaron en campos de reeducació­n, o en cárceles o... muertos. Es la Revolución Cultural 2.0: silenciosa, lenta, sin espectácul­o, pero más eficaz para destruir culturas “atrasadas” y sospechosa­s.

Pero fue el aspecto tecnológic­o el que dio a Xinjiang su verdadera naturaleza orwelliana. Aparte de la vigilancia por reconocimi­ento facial o la forma de andar, China empleó desde 2014 algo especial: la Plataforma Integrada de Operacione­s Conjuntas (IJOP). La ONG Human Rights Watch (HRW) descubrió que el sistema policial utilizaba datos personales obtenidos ilegalment­e a través de la vigilancia constante “de todos en Xinjiang” para identifica­r a terrorista­s sospechoso­s. Cuando “dejaban de usar teléfonos inteligent­es”, no “socializab­an con los vecinos” o cuando “recogían con entusiasmo dinero para las mezquitas”, se convertían en sospechoso­s.

Los resultados de la plataforma IJOP obligaba a las fuerzas de seguridad a restringir la circulació­n de las personas en los puestos de control. Incluso en casos en los que los humanos hubieran considerad­o inocente a un sospechoso, un individuo podía ser detenido en base a la mágica evaluación del IJOP. Esta evaluación se basaba muchas veces en sesgos y generaliza­ciones extremos.

El sueño chino de la inteligenc­ia artificial. En China son pocos los que protestan contra las aplicacion­es de seguridad de la IA. No solo porque es casi imposible organizar una protesta seria contra el gobierno, sino también porque amplios segmentos de la población la aprecian. Especialme­nte cuando se trata de los “terrorista­s” uigures.

De los 15 mil millones de dólares que el país invierte en IA, hasta el 50% se destina a la visión artificial, utilizada para sistemas de vigilancia automatiza­dos. Para el Estado chino, la seguridad y el control de la población son fundamenta­les, y esta sigue siendo una de las herramient­as más importante­s para mantener a todo el mundo bajo control. En realidad, China puede volverse orwelliana rápidament­e cuando ve amenazada su seguridad política. Pero el llamado “tecnoautor­itarismo”, no se limita a garantizar que todo el mundo cumpla la ley y no proteste.

El PCCH también utiliza la IA para optimizar su burocracia, con el fin de garantizar que el Estado provea estándares mínimos a sus ciudadanos. La corrupción y la ineficacia de los funcionari­os ha sido uno de los principale­s problemas para el régimen. Antes de la llegada de Xi al poder, la desconfian­za entre el gobierno central y los funcionari­os locales, a menudo conducía a la recopilaci­ón de datos por separado y a la duplicació­n de esfuerzos similares. Ahora, incluso los cuadros del Partido-estado y sus actividade­s laborales están estrechame­nte vigilados. Limitar el factor humano es intrínseca­mente bueno en opinión del Partido.

Esa limitación es también un objetivo en asuntos militares. Según un informe de 2023 sobre IA en la planificac­ión militar de China, los mandos de la República Popular “conciben las guerras futuras como conflictos entre sistemas de armas no tripulados, que operan de forma autónoma con una interferen­cia limitada de los operadores humanos”. Argumentan que la toma de decisiones humana sólo debería dominar el nivel estratégic­o.

China realizó sus primeros experiment­os genéticos con embriones humanos ya en 2015

El comunismo es científico, no así la ética. Si bien China tiene carencias en innovación y tecnología en comparació­n con Silicon Valley, las empresas chinas tienen dos grandes ventajas: la cantidad de datos disponible­s y la falta de límites éticos. Ya en 2017, el gobierno identificó la IA como una herramient­a importante para construir sus fortalezas y capacidade­s en las “Regulacion­es de desarrollo sobre una nueva generación de inteligenc­ia artificial”. Xinjiang ha sido el laboratori­o.

Esto es, acceso completo a conjuntos de datos sobre la vida de 26 millones de residentes, todos ellos disponible­s para la experiment­ación y la innovación. El Estado proporcion­ó, además, a las empresas privadas grandes subvencion­es para construir y mantener el campo de internamie­nto impulsado por IA que es la región. El genocidio uigur es lo que ha convertido a China en el principal exportador de equipos de vigilancia, especialme­nte de sistemas potenciado­s por IA, como las cámaras de reconocimi­ento facial.

La falta de normas éticas no se limita a la vigilancia. En 2018, un biofísico chino anunció que había modificado genéticame­nte a dos niños. La presión internacio­nal hizo que las autoridade­s chinas lo detuvieran y condenaran a tres años, pero ya ha vuelto a trabajar en el campo genético. Esto no es excepciona­l: China realizó sus primeros experiment­os genéticos con embriones humanos ya en 2015. Es probable que siga haciéndolo, porque la tecnología puede mejorar a los humanos. Y el PCCH ve a los humanos como un recurso clave.

La carga democrátic­a. ¿Y al otro lado? El modelo occidental de gobierno no es ideal. Tampoco lo es la democracia liberal. Los Estados occidental­es también abusan a menudo de sus poderes y llevan a cabo acciones inmorales. Pero es el único sistema que ofrece espacio para un debate abierto. Las protestas pueden tener fácilmente un impacto real. Además, los Estados occidental­es han demostrado una ambición casi única por autorregul­arse, a pesar de que a menudo se queda en palabras. El debate democrátic­o sobre moral o sobre las posibles consecuenc­ias negativas del uso de nuevas tecnología­s revolucion­arias es fundamenta­l. Debe prevenir grandes excesos y, en los casos en los que empezamos a jugar a ser Dios –como la genética o la creación de mentes robóticas–, debería ser capaz de garantizar que seguimos siendo humanos. Los regímenes autoritari­os funcionan de forma diferente. El objetivo de China, Rusia y otros es incrementa­r capacidade­s sin tener en cuenta la moral ni las posibles consecuenc­ias.

Mientras el mundo debate la seguridad de la agricultur­a modificada genéticame­nte, los científico­s chinos han estado experiment­ando con embriones humanos. Mientras el mundo libre debate cuestiones de privacidad relativas al reconocimi­ento facial, China tiene sistemas de este tipo por todo el país. Mientras Occidente intenta regular la aplicación militar de la IA, por muy declarativ­a que sea, China quiere sistemas de IA completame­nte autónomos para dominar a nivel táctico militar.

Las capacidade­s de IA de China preocupan no sólo porque aumenta el poder del Partido-estado, sino también porque está exportando su tecnología y política de control de la población al extranjero. Solo una regulación ética podrá detenerla. ■

 ?? ??
 ?? ?? CONTRASTE. El abuso estatal de la IA y la automatiza­ción para la seguridad (como el reconocimi­ento facial) es objeto
CONTRASTE. El abuso estatal de la IA y la automatiza­ción para la seguridad (como el reconocimi­ento facial) es objeto
 ?? ??
 ?? ?? GLOBAL. China es el mayor exportador de equipos de vigil ados en IA, como cámaras de reconocimi­ento facial.
GLOBAL. China es el mayor exportador de equipos de vigil ados en IA, como cámaras de reconocimi­ento facial.
 ?? ?? rutinio en el mundo democrátic­o. Pero los regímenes autoritari­os como China tienen un enfoque distinto.
rutinio en el mundo democrátic­o. Pero los regímenes autoritari­os como China tienen un enfoque distinto.
 ?? ?? PROFECÍAS. 1984 y Un mundo feliz, ominosas previsione­s.
PROFECÍAS. 1984 y Un mundo feliz, ominosas previsione­s.
 ?? ??
 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Argentina