El Sol de Tampico

Regular la Inteligenc­ia Artificial: ¿derechos humanos o geopolític­a?

-

El mes de marzo ha estado bastante movido en términos de las discusione­s, acciones y decisiones en diferentes ámbitos que tocan a la Inteligenc­ia Artificial (IA). En estas breves líneas propongo concentrar­nos en lo que, para las potencias globales y regionales, parece una disyuntiva a la hora de pensar en la regulación de la IA: ¿optar por una regulación más estricta que busque proteger los derechos humanos y las libertades de usuarios, o bien optar por una visión más laxa que favorezca al mismo tiempo la innovación y sus intereses geopolític­os?

Los diferentes marcos regulatori­os de la Unión Europea sobre IA que ya han comenzado, de forma paulatina y escalonada, a entrar en vigor –la Ley de Servicios Digitales, la Ley de Mercados Digitales y la Ley de Inteligenc­ia Artificial—, tienen un denominado­r común: proteger y promover los derechos humanos. Independie­ntemente del grado de eficacia que estos marcos regulatori­os puedan tener en el presente, esta protección de derechos fundamenta y explica los varios requisitos de transparen­cia y rendición de cuentas a las que quedan sujetas las plataforma­s digitales –sobre todo, aquellas que se definen como muy grandes plataforma­s, tales como Facebook, Instagram, Snapchat, Tik Tok, YouTube, X, etc. En este sentido, algunas de éstas han comenzado a recibir solicitude­s de más informació­n y hasta multas por parte de las autoridade­s europeas. Por ejemplo, hace menos de dos semanas, la Comisión Europea les solicitó a varias de estas grandes plataforma­s más detalles acerca de cómo están mitigando los riesgos en sus servicios de Inteligenc­ia Artificial generativa, sobre todo, en cuanto a la diseminaci­ón de Deepafakes (videos, imágenes o voces generadas con inteligenc­ia artificial que, al parecer reales y auténticas, pueden usarse engañar), las “alucinacio­nes” (informació­n generada que, aunque escrita coherentem­ente, contiene datos incorrecto­s o erróneos) y la manipulaci­ón informativ­a automatiza­da que pueda afectar el voto libre. A esta solicitud se suma ya otra investigac­ión de la Comisión Europea acerca de posibles prácticas contrarias a la libre competenci­a por parte de Apple, Alphabet y Meta por dificultar el acceso de usuarios a aplicacion­es de terceros.

En contraste, Estados Unidos ha optado por una aproximaci­ón regulatori­a más laxa en cuanto al desarrollo y aplicacion­es de la IA. Por ejemplo, tanto en las diversas audiencias que se llevaron a cabo en el congreso de ese país entre legislador­es y los principale­s ejecutivos de estas plataforma­s entre junio y septiembre del año pasado, así como lo que se desprende de la Orden Ejecutiva de la Casa Blanca sobre IA (de octubre de 2023) queda claro que las razones para no optar por caminos regulatori­os como los de la UE (además de responder a su tradición histórica de desconfian­za ante casi cualquier tipo de regulación) responde a tres aspectos: 1) el temor de que una regulación más estricta, no sólo desincenti­ve la innovación, sino que mueva la inversión a otros lugares; 2) dado que el principal motor de desarrollo de esta tecnología está en Estados Unidos (y se trata de empresas esencialme­nte estadounid­enses), se busca así preservar el liderazgo por razones geopolític­as (sobre todo, impedir que China los rebase); 3) hacer de estas plataforma­s las aliadas naturales en un sistema de distribuci­ón de poder global que beneficia a Estados Unidos, por lo que cualquier intento de regular tomará en cuenta la opinión de las propias plataforma­s.

En esta misma dirección, el 13 de marzo en el marco del famoso festival South by Southwest (SXSW), Vishal Sharma, el VP de Amazon para IA General, decía en una charla con el sitio AXIOS+, especializ­ado en tecnología, que su empresa apuesta por el desarrollo de una “inteligenc­ia ambiental” a la medida de nuestras preferenci­as, como ahora sucede con Alexa, aunque mucho más potente que esté ahí cuando se le llame, y siempre atenta. Sharma pidió “imaginar a un paciente cuyo médico es contactado automática­mente por su sistema de IA basado en su detección de cambios en ciertas métricas vitales de la persona… y ésta recibe entonces sugerencia­s de cuidados”. De hecho, 40% de las interaccio­nes con Alexa en Estados Unidos, ya las inicia la propia Alexa. El ejemplo puede tener un lado muy positivo, pero ¿qué sucedería si Alexa, o como se llame la nueva IA pasa nuestros datos a otras instancias, poniendo en riesgo privacidad y seguridad? Estas considerac­iones de derechos no están en la mente de Sharma.

Es muy probable que la inversión y la innovación terminen moviéndose hacia aquellos lugares con menos menos barreras y limitacion­es. Es claro que Estados Unidos desea mantener el liderazgo en lo que percibe una carrera, sobre todo, frente a China y para ello, la IA es clave. Otros gigantes regionales, como la India, buscan también capitaliza­r las inconformi­dades que las grandes plataforma­s están comenzando a tener con lo que perciben como “excesos regulatori­os” de la UE. Así, acaba de autorizar la disponibil­idad de cualquier aplicación –aunque sea poco fiable y segura para los usuarios—siempre y cuando les adviertan de esta condición. Su objetivo también es consolidar su papel de gigante regional en este sector y, por qué no, eventualme­nte poder rivalizar también con China en este campo.

La cuestión aquí es, ¿qué pasa con los derechos de todas las personas usuarias? Desde las visiones más laxas, las Deepfakes, las violacione­s a los derechos de propiedad intelectua­l y a la privacidad son costos que hay que asumir por seguir avanzando para tener tecnología­s más robustas. La UE ha apostado por el otro camino, ¿pero acaso esta vía es efectiva para mantener la inversión y la innovación? ¿Se puede equilibrar el desarrollo tecnológic­o con las proteccion­es adecuadas en derechos humanos? Y, finalmente, ¿hay forma de conciliar una visión geopolític­a que también considere los derechos humanos y las libertades fundamenta­les de las personas en estos ámbitos de la IA?

 ?? ??

Newspapers in Spanish

Newspapers from Mexico