La regulación europea de la IA
FUNDADO EN
1903 POR DON TORCUATO LUCA DE TENA
«Tendremos que esperar a conocer la propuesta definitiva que formule la Comisión Europea y, tan solo cuando entre en vigor, a partir de la segunda mitad de 2024, podremos juzgarla en su totalidad. En su eficacia y rigor nos jugamos mucho. No solo el prestigio de la UE y su habilidad para adaptarse a un futuro lleno de incertidumbres, sino nuestra capacidad para garantizar nuestros propios estándares éticos y los valores europeos»
LA inteligencia artificial (IA) se ha convertido en la principal protagonista de la transformación tecnológica y social que estamos viviendo en Europa. Estas tecnologías son potencialmente aplicables a una gran variedad de sectores del ámbito público y privado, y su uso está enfocado, principalmente, a aumentar la eficacia y la eficiencia de muchas de las dinámicas y los servicios que ya conocemos. Aunque también posee la capacidad de generar otras nuevas cuyas implicaciones nos son, en muchos casos, todavía desconocidas. En cualquier caso, la adopción de la IA lleva implícita numerosos problemas éticos que es necesario abordar de antemano si queremos garantizar que su uso sea compatible con los derechos y libertades de los que actualmente disfruta la ciudadanía europea.
Entre los principales problemas éticos de la IA se incluye: la discriminación por sesgos de género, raza, orientación sexual, etcétera; los problemas de privacidad derivados del uso masivo de datos; la opacidad algorítmica; la explicabilidad; las repercusiones para el medio ambiente o la disminución de la autonomía humana, entre otros. Por ello, desde 2018 la Unión Europea (UE) lleva desarrollando una estrategia común para todos sus países miembros que le permita afrontar conjuntamente estas problemáticas que resultan radicalmente contrarias a los valores europeos y, asimismo, erigirse como el referente ético de la IA frente a otras potencias como China o Estados Unidos.
Esta estrategia de IA europea se sostiene sobre tres grandes pilares. Primero, la robustez, que busca que la IA que se emplee en suelo europeo sea de calidad y capaz de resistir a los ciberataques. Segundo, la ética, que pretende aportar un sustrato moral a la IA alineado con los valores europeos. Tercero, la regulación, que otorgue sustento jurídico al marco ético, garantice la rendición de cuentas, genere confianza entre la ciudadanía europea y asegure que las tecnologías de IA en Europa están sometidas a controles de calidad, transparencia, etc.
La propuesta de regulación de IA de la UE, aún provisional, será la primera de este tipo a nivel mundial y se aplicará por igual a todos los estados miembros. Estará articulada en torno a cuatro clases de IA en función del riesgo que estos sistemas supongan para la ciudadanía.
Primero, la IA de riesgo inaceptable estará completamente prohibida dentro de la Unión al ser considerada una clara amenaza para la seguridad, la vida y los derechos de los europeos. Entre esos sistemas de riesgo inaceptable se encontrarían aquellas IA que buscan manipular el comportamiento de las personas, especialmente de grupos vulnerables como, por ejemplo, los menores, usando juguetes que usen IA y que promuevan conductas peligrosas entre ellos.
En esta categoría también entrarían sistemas de puntuación social similares a los que ya se usan en China. A través de estos sistemas se ‘recompensan’ y castigan los comportamientos cívicos y/o deseables por parte de la ciudadanía. Quienes, por ejemplo, no acumulan multas de tráfico y no están involucrados en incidentes de orden público tienen acceso prioritario, a veces incluso exclusivo, a ciertos servicios. Al contrario, aquellos con conductas no ejemplares encuentran más dificultades para acceder a los mismos servicios y, en algunos casos, el acceso les es denegado. Además, estos sistemas precisan para funcionar de una gran cantidad de datos privados de los ciudadanos. Esta forma de control a gran escala por parte, en este caso, del Gobierno chino, basado en la violación sistemática de la privacidad es completamente contraria a los valores y principios de las democracias liberales europeas y, por tanto, en la UE su uso estará terminantemente prohibido.
Segundo, la IA de riesgo alto incluye aquellos sistemas que, por el ámbito en el que se aplican y el tipo de decisiones en los que están involucrados, pueden suponer un riesgo importante, pero no inaceptable, para los derechos de los ciudadanos. Su uso en el ámbito europeo será legal bajo estrictas condiciones. En este grupo entran los sistemas de IA aplicados al control de fronteras (por ejemplo, a través de sistemas de reconocimiento facial que identifiquen a las personas y permitan tomar decisiones sobre si se les permite acceder, o no, a un país), a los procesos de selección de personal (clasificando CV), al transporte (vehículos autónomos), el sistema de justicia (calculando la probabilidad de que una persona sea reincidente de un delito), etc. La identificación biométrica, es decir, el reconocimientos de personas a través de los datos personales referidos a las características físicas, fisiológicas o conductuales como, por ejemplo, la altura, el peso, el tipo sanguíneo, la voz, las huellas dactilares, etc., estará prohibida salvo excepciones. Estos supuestos excepcionales incluyen la búsqueda de menores desaparecidos o la prevención de actos terroristas. En tales casos, la identificación biométrica pasaría a tratarse bajo las condiciones de la tipología de IA de riesgo alto.
Cuando los sistemas que se utilicen en la UE sean de riesgo alto, con independencia de su procedencia o lugar de fabricación, deberán cumplir obligaciones muy estrictas que garanticen, entre otras cosas, la transparencia y la explicabilidad de los algoritmos y los datos para permitir la rendición de cuentas; la seguridad y robustez de los sistemas para resistir los ciberataques; el uso de bases de datos representativas para no generar discriminación y la supervisión humana.
Tercero, la IA de riesgo limitado solo debe cumplir algunos requisitos de transparencia. Aquí se hallarían los ‘chatbots’ (asistentes de texto), destinados a la asistencia, que estarán sujetos a determinadas condiciones de transparencia a fin de que las personas sean conscientes en todo momento de que están interactuando con una máquina. Finalmente, en cuarto lugar, se encontraría la IA de riesgo bajo que no está regida por ninguna regulación y, tan solo en algunos casos, su uso podrá estar orientado por códigos de conducta. En este grupo entrarían la mayor parte de los sistemas de IA que se utilicen como los asistentes de voz de los teléfonos móviles (Siri, Alexa...), los sistemas de recomendación de contenido, productos, etcétera.
Apesar de los esfuerzos realizados, esta regulación también ha generado importantes debates relativos a la propia definición de la IA, que debe ser lo suficientemente flexible como para adaptarse a un campo tecnológico rápidamente cambiante y, al mismo tiempo, acotada en términos jurídicos; a la ausencia de referencias explícitas al uso de armas autónomas o a los requisitos de eficiencia energética. Además, muchos de los problemas ético-políticos de la IA quedan aún sin resolver ya que estos no se agotan en la regulación.
De momento, tendremos que esperar a conocer la propuesta definitiva que formule la Comisión Europea y, tan solo cuando entre en vigor, a partir de la segunda mitad de 2024, podremos juzgarla en su totalidad. En su eficacia y rigor nos jugamos mucho. No solo el prestigio de la UE y su habilidad para adaptarse a un futuro lleno de incertidumbres, sino nuestra capacidad para garantizar nuestros propios estándares éticos y los valores europeos.
Lucía Ortiz de Zárate Alcaraz es investigadora en Ética y Gobernanza de la Inteligencia Artificial en la Universidad Autónoma de Madrid