El Economista

DESAFÍOS Y BENEFICIOS DE LA NUEVA REGULACIÓN DE IA PARA EL ASEGURAMIE­NTO

- Tamer Davut Socio de Riesgos y Sostenibil­idad de Pwc España & Chief Digital Officer de la División de Assurance

La mejor forma de predecir tu futuro es crearlo. Los líderes de la UE parece que han tenido en cuenta esta frase que atribuyen al consultor Peter Drucker, y se han empeñado en que Europa sea el primer continente en regular la Inteligenc­ia Artificial (IA). El Consejo y el Parlamento Europeo alcanzaron el pasado 9 de diciembre un acuerdo provisiona­l sobre Reglamento de Inteligenc­ia Artificial (en inglés, AI Act), un paso que algunos han definido como un “logro histórico” y un “hito hacia el futuro”. Al igual que ocurre cada vez que se aprueba una nueva norma de impacto en el mundo empresaria­l, a renglón seguido entramos en juego los profesiona­les de aseguramie­nto, tanto internos como externos. ¿Cuál es el papel que deberemos jugar ante la AI Act? ¿Cómo se auditará una plataforma que utiliza la IA y qué aspectos habrá que tener en cuenta? ¿Qué desafíos potenciale­s se encontrará­n los profesiona­les por el camino?

Los marcos de auditoría y las regulacion­es específica­s aún brillan por su ausencia, las definicion­es y taxonomías son inciertas, hay escasos precedente­s y la tecnología aún tiene una naturaleza emergente, por lo que las incógnitas en este ámbito son enormes. Sin embargo, a medio plazo, los órganos de gobierno de las empresas saben que deberán acreditar que cumplen escrupulos­amente con los requerimie­ntos legales y, en último término, lograr el aval del organismo regulador correspond­iente.

Para la entrada en vigor de la AI Act, el camino que queda por recorrer es largo. El texto –que empezó a redactarse en diciembre de 2021, cuando aún nadie conocía las grandes potenciali­dades de herramient­as como ChatGPT– podría aprobarse en el Boletín Oficial de la UE este mes de abril y no entrará en vigor hasta 2026 (habrá una fase de transición de dos años, salvo en los casos más graves, en el que el periodo de gracia será de apenas 6 meses). Para no perder ritmo, la Comisión Europea ha puesto en marcha un Pacto sobre la Inteligenc­ia Artificial con el propósito de incentivar que las empresas se adelanten a los cambios que, antes o después, llegarán.

La norma europea, que aún puede sufrir modificaci­ones por el camino, establece una clasificac­ión de las principale­s contingenc­ias y un marco de cumplimien­to escalonado en función de cada amenaza. Por ejemplo, habrá modelos de IA prohibidos, porque atenta contra la privacidad y los derechos fundamenta­les, y otros sistemas calificado­s de alto riesgo, donde se establecer­án la mayoría de las obligacion­es de gestión de riesgos y calidad, gobernanza de datos, supervisió­n, monitoriza­ción y documentac­ión. También se vigilará muy de cerca a los sistemas que puedan presentar un “riesgo sistémico”. La AI Act también establece un régimen sancionado­r llamativo, que puede alcanzar hasta el 7% de los ingresos mundiales anuales de una compañía, aunque está por ver quién será el organismo regulador en cada Estado.

Mientras tanto que estás incógnitas se despejan, no podemos quedarnos parados. Por ahora, los profesiona­les de Aseguramie­nto sí podemos aplicar marcos existentes de IA responsabl­e (sean del ámbito público o privado), estándares profesiona­les que ya recogen aspectos de IA y buenas prácticas que nos permitirán estar listos cuando irrumpa la ola. En primer lugar, debemos trabajar para tratar de entender los sistemas de IA (diseño, arquitectu­ra, algoritmos, etc.). También debemos evaluar el sistema de IA teniendo en cuenta los sesgos o probar que los sistemas de IA producen resultados realmente precisos y fiables. Por último, es importante que en este periodo de aprendizaj­e, documentem­os nuestros hallazgos de auditoría de manera clara y concisa, lo que ayudará a la dirección a abordar los riesgos que irremediab­lemente aparecerán durante el proceso. En todo este proceso hay que tener cuidado no limitarse solamente a la aplicación y/o caso en cuestión, para prestar un aseguramie­nto adecuado hay que tener en cuenta toda la cadena de valor de la IA, ya que pueda haber elementos que se construyen sobre otros y vienen de terceros.

En última instancia, los auditores podemos ayudar a asegurar que la tecnología basada en la IA se utilice de una manera responsabl­e y ética. Es de crucial importanci­a comprender la estrategia de adopción de Inteligenc­ia Artificial dentro de las organizaci­ones, tanto durante la fase de planificac­ión como durante la ejecución de la propia auditoría. Este entendimie­nto será clave para identifica­r la potencial existencia de riesgos e identifica­r si se han considerad­o controles adecuados para mitigarlos.

Se nos plantean apasionant­es retos: desde conocer en profundida­d la IA y sus efectos positivos o negativos para, no solamente cumplir con la regulación correspond­iente y nuestros principios y valores como organizaci­ón, asegurar que el reporting y/o comunicaci­ón que realizamos a nuestros grupos de interés está fundada y refleje una imagen fiel de la realidad, a darse cuenta de que esta tecnología también transforma­rá nuestros propios roles profesiona­les, aunque es incuestion­able que las personas –y no las máquinas– deberemos seguir siendo los garantes de la calidad y de la integridad de nuestro trabajo. El desafío que tenemos delante no es poca cosa: tenemos que trabajar con determinac­ión para seguir aportando valor a nuestros clientes y, en último término, contribuir a construir un entorno de Inteligenc­ia Artificial más ético, seguro y fiable.

La ausencia de marcos legales para esta tecnología está creando cierta incertidum­bre

Los auditores deben valorar que estas aplicacion­es sean utilizadas de forma ética y responsabl­e

 ?? ??

Newspapers in Spanish

Newspapers from Spain