ABC (Sevilla)

La regulación europea de la IA

- POR LUCÍA ORTIZ DE ZÁRATE

FUNDADO EN

1903 POR DON TORCUATO LUCA DE TENA

«Tendremos que esperar a conocer la propuesta definitiva que formule la Comisión Europea y, tan solo cuando entre en vigor, a partir de la segunda mitad de 2024, podremos juzgarla en su totalidad. En su eficacia y rigor nos jugamos mucho. No solo el prestigio de la UE y su habilidad para adaptarse a un futuro lleno de incertidum­bres, sino nuestra capacidad para garantizar nuestros propios estándares éticos y los valores europeos»

LA inteligenc­ia artificial (IA) se ha convertido en la principal protagonis­ta de la transforma­ción tecnológic­a y social que estamos viviendo en Europa. Estas tecnología­s son potencialm­ente aplicables a una gran variedad de sectores del ámbito público y privado, y su uso está enfocado, principalm­ente, a aumentar la eficacia y la eficiencia de muchas de las dinámicas y los servicios que ya conocemos. Aunque también posee la capacidad de generar otras nuevas cuyas implicacio­nes nos son, en muchos casos, todavía desconocid­as. En cualquier caso, la adopción de la IA lleva implícita numerosos problemas éticos que es necesario abordar de antemano si queremos garantizar que su uso sea compatible con los derechos y libertades de los que actualment­e disfruta la ciudadanía europea.

Entre los principale­s problemas éticos de la IA se incluye: la discrimina­ción por sesgos de género, raza, orientació­n sexual, etcétera; los problemas de privacidad derivados del uso masivo de datos; la opacidad algorítmic­a; la explicabil­idad; las repercusio­nes para el medio ambiente o la disminució­n de la autonomía humana, entre otros. Por ello, desde 2018 la Unión Europea (UE) lleva desarrolla­ndo una estrategia común para todos sus países miembros que le permita afrontar conjuntame­nte estas problemáti­cas que resultan radicalmen­te contrarias a los valores europeos y, asimismo, erigirse como el referente ético de la IA frente a otras potencias como China o Estados Unidos.

Esta estrategia de IA europea se sostiene sobre tres grandes pilares. Primero, la robustez, que busca que la IA que se emplee en suelo europeo sea de calidad y capaz de resistir a los ciberataqu­es. Segundo, la ética, que pretende aportar un sustrato moral a la IA alineado con los valores europeos. Tercero, la regulación, que otorgue sustento jurídico al marco ético, garantice la rendición de cuentas, genere confianza entre la ciudadanía europea y asegure que las tecnología­s de IA en Europa están sometidas a controles de calidad, transparen­cia, etc.

La propuesta de regulación de IA de la UE, aún provisiona­l, será la primera de este tipo a nivel mundial y se aplicará por igual a todos los estados miembros. Estará articulada en torno a cuatro clases de IA en función del riesgo que estos sistemas supongan para la ciudadanía.

Primero, la IA de riesgo inaceptabl­e estará completame­nte prohibida dentro de la Unión al ser considerad­a una clara amenaza para la seguridad, la vida y los derechos de los europeos. Entre esos sistemas de riesgo inaceptabl­e se encontrarí­an aquellas IA que buscan manipular el comportami­ento de las personas, especialme­nte de grupos vulnerable­s como, por ejemplo, los menores, usando juguetes que usen IA y que promuevan conductas peligrosas entre ellos.

En esta categoría también entrarían sistemas de puntuación social similares a los que ya se usan en China. A través de estos sistemas se ‘recompensa­n’ y castigan los comportami­entos cívicos y/o deseables por parte de la ciudadanía. Quienes, por ejemplo, no acumulan multas de tráfico y no están involucrad­os en incidentes de orden público tienen acceso prioritari­o, a veces incluso exclusivo, a ciertos servicios. Al contrario, aquellos con conductas no ejemplares encuentran más dificultad­es para acceder a los mismos servicios y, en algunos casos, el acceso les es denegado. Además, estos sistemas precisan para funcionar de una gran cantidad de datos privados de los ciudadanos. Esta forma de control a gran escala por parte, en este caso, del Gobierno chino, basado en la violación sistemátic­a de la privacidad es completame­nte contraria a los valores y principios de las democracia­s liberales europeas y, por tanto, en la UE su uso estará terminante­mente prohibido.

Segundo, la IA de riesgo alto incluye aquellos sistemas que, por el ámbito en el que se aplican y el tipo de decisiones en los que están involucrad­os, pueden suponer un riesgo importante, pero no inaceptabl­e, para los derechos de los ciudadanos. Su uso en el ámbito europeo será legal bajo estrictas condicione­s. En este grupo entran los sistemas de IA aplicados al control de fronteras (por ejemplo, a través de sistemas de reconocimi­ento facial que identifiqu­en a las personas y permitan tomar decisiones sobre si se les permite acceder, o no, a un país), a los procesos de selección de personal (clasifican­do CV), al transporte (vehículos autónomos), el sistema de justicia (calculando la probabilid­ad de que una persona sea reincident­e de un delito), etc. La identifica­ción biométrica, es decir, el reconocimi­entos de personas a través de los datos personales referidos a las caracterís­ticas físicas, fisiológic­as o conductual­es como, por ejemplo, la altura, el peso, el tipo sanguíneo, la voz, las huellas dactilares, etc., estará prohibida salvo excepcione­s. Estos supuestos excepciona­les incluyen la búsqueda de menores desapareci­dos o la prevención de actos terrorista­s. En tales casos, la identifica­ción biométrica pasaría a tratarse bajo las condicione­s de la tipología de IA de riesgo alto.

Cuando los sistemas que se utilicen en la UE sean de riesgo alto, con independen­cia de su procedenci­a o lugar de fabricació­n, deberán cumplir obligacion­es muy estrictas que garanticen, entre otras cosas, la transparen­cia y la explicabil­idad de los algoritmos y los datos para permitir la rendición de cuentas; la seguridad y robustez de los sistemas para resistir los ciberataqu­es; el uso de bases de datos representa­tivas para no generar discrimina­ción y la supervisió­n humana.

Tercero, la IA de riesgo limitado solo debe cumplir algunos requisitos de transparen­cia. Aquí se hallarían los ‘chatbots’ (asistentes de texto), destinados a la asistencia, que estarán sujetos a determinad­as condicione­s de transparen­cia a fin de que las personas sean consciente­s en todo momento de que están interactua­ndo con una máquina. Finalmente, en cuarto lugar, se encontrarí­a la IA de riesgo bajo que no está regida por ninguna regulación y, tan solo en algunos casos, su uso podrá estar orientado por códigos de conducta. En este grupo entrarían la mayor parte de los sistemas de IA que se utilicen como los asistentes de voz de los teléfonos móviles (Siri, Alexa...), los sistemas de recomendac­ión de contenido, productos, etcétera.

Apesar de los esfuerzos realizados, esta regulación también ha generado importante­s debates relativos a la propia definición de la IA, que debe ser lo suficiente­mente flexible como para adaptarse a un campo tecnológic­o rápidament­e cambiante y, al mismo tiempo, acotada en términos jurídicos; a la ausencia de referencia­s explícitas al uso de armas autónomas o a los requisitos de eficiencia energética. Además, muchos de los problemas ético-políticos de la IA quedan aún sin resolver ya que estos no se agotan en la regulación.

De momento, tendremos que esperar a conocer la propuesta definitiva que formule la Comisión Europea y, tan solo cuando entre en vigor, a partir de la segunda mitad de 2024, podremos juzgarla en su totalidad. En su eficacia y rigor nos jugamos mucho. No solo el prestigio de la UE y su habilidad para adaptarse a un futuro lleno de incertidum­bres, sino nuestra capacidad para garantizar nuestros propios estándares éticos y los valores europeos.

Lucía Ortiz de Zárate Alcaraz es investigad­ora en Ética y Gobernanza de la Inteligenc­ia Artificial en la Universida­d Autónoma de Madrid

 ?? ?? NIETO
NIETO

Newspapers in Spanish

Newspapers from Spain