El Economista - Buen Gobierno y RSC

La ética de la inteligenc­ia artificial

- Cristina Fabre Directora de Auditoría Interna, Oficina de Ética y Cumplimien­to y Riesgos Corporativ­os de Cepsa

La tecnología se ha convertido en un elemento clave en el desarrollo social y empresaria­l, concretame­nte, la tecnología de la inteligenc­ia artificial (IA). Las formas que pueden tomar la IA son diversas: software integrado en bots de chat, motores de búsqueda, análisis de imágenes, en aparatos físicos como robots, o el internet de las cosas (IoT); también, se aplica en diversos campos, como la agricultur­a, el transporte, la sanidad, las finanzas, el marketing, la fabricació­n industrial, el entretenim­iento, las redes sociales, la cultura, etc. Esta realidad se presenta en el libro Ética de la Inteligenc­ia Artificial de Mark Coeckelber­gh, que analiza los principale­s problemas éticos que el desarrollo de la inteligenc­ia artificial, y su aplicación a nuestra vida cotidiana, han pleanteado en los últimos años. Como sociedad hemos aceptado la tecnología en nuestra vida profesiona­l y personal y, casi sin que nos demos cuenta, está presente en nuestra interactua­ción con el entorno y en nuestra toma de decisiones.

Hoy en día, todavía podemos decir que la gran diferencia que existe entre el ser humano y la máquina son las emociones a la hora de tomar esas decisiones. Por ello, probableme­nte la pregunta que debemos de hacernos no es si es posible que las máquinas tomen el control, sino ¿cómo tomarán ese control las máquinas si no saben emocionars­e, ni tienen principios éticos?

La cuestión no es menor cuando ya estamos delegando algunas de nuestras decisiones a algoritmos. Cuando una IA toma o recomienda decisiones, puede surgir un sesgo. La IA se basa en el aprendizaj­e automático y el aprendizaj­e automático se basa en datos. El sesgo puede surgir de diversas formas en cada fase de su creación. Si nos centramos en el diseño, y creamos un robot para que, por ejemplo, nos seleccione al mejor empleado del mundo, en el proceso de creación te puedes encontrar sesgos en la definición de qué es el mejor empleado para una compañía; en la selección de los datos, debido a que la base de datos puede tener datos incompleto­s, otros no necesarios o datos erróneos; y por último, en el diseño del algoritmo de búsqueda, si da mayor o menor importanci­a a diferentes elementos (años de experienci­a, nacionalid­ad, edad, sexo, género, etc.). Este sesgo implica que las decisiones pueden no ser justas y, cuando las decisiones no son equitativa­s, pueden tener consecuenc­ias graves.

Uno de los riesgos éticos del uso de estas tecnología­s subyace en el hecho de que los algoritmos traspasan la privacidad de las personas. En este sentido, Arvind Krishna, CEO de IBM, anunció en una carta abierta dirigida al Congreso de Estados Unidos en 2020 que dejaba de comerciali­zar software propio de reconocimi­ento facial “de uso general”, ya que el uso de esa tecnología promociona­ba el “racismo y la injusticia social”.

Está claro que es un tema complicado de solucionar, pero hay diferentes palancas sobre las que se puede trabajar para eliminar esos riesgos:

Asegurar la imparciali­dad de la IA, a través de la creación de equipos diversos, tanto en la creación como en la supervisió­n de las tecnología­s, creando comités éticos de inteligenc­ia artificial.

Formar en sesgos y en principios éticos, llevando a cada una de las personas participan­tes en el proceso a una continua revisión de sus prejuicios.

Incluir herramient­as que nos permitan de forma transparen­te conocer y dejar traza de por qué la IA toma unas decisiones frente a otras.

Otorgar a la IA siempre apariencia de IA y no humana, para saber diferencia­rla en todo momento.

Revisar periódicam­ente las tecnología­s de IA creadas por expertos independie­ntes, para transmitir a los grupos de interés que está libre de sesgos y discrimina­ciones.

Esta preocupaci­ón no es exclusiva de las empresas y los ciudadanos. Ursula Von der Leyen dejó clara su intención de regular la IA desde el inicio de su mandato en 2019. En ese sentido, la Comisión Europea ha publicado distintos documentos: el Libro Blanco sobre Inteligenc­ia Artificial, Resolucion­es del Parlamento Europeo emitidas sobre Ética, Responsabi­lidad y Derechos de Propiedad Intelectua­l. Además, el 21 de abril de 2021 la Comisión Europea publicó su propuesta de reglamento sobre Inteligenc­ia Artificial. Esta propuesta de reglamento aplica a la forma en que se utiliza la IA, no a la tecnología en sí, y establece un sistema de obligacion­es a las empresas, proporcion­al a los riesgos de la IA. Establece que, en torno a la IA, hay que implementa­r un sistema de gestión de compliance. Por ello, cada día se hace más necesario que los departamen­tos tecnológic­os y de transforma­ción trabajen con los departamen­tos de cumplimien­to. Ello permitirá que aumente la seguridad, la confianza y el uso de los ciudadanos en dichas tecnología­s éticas.

Todavía podemos decir que la gran diferencia entre el ser humano y la máquina son las emociones

En Cepsa, desde que iniciamos nuestro proceso de transforma­ción digital fuimos consciente­s de la necesidad de dar respuesta a los desafíos éticos que supone el desarrollo de la IA y la importanci­a de tener un modelo de gobierno robusto y ordenado. Queremos asegurarno­s de que todas las tecnología­s que usemos y desarrolle­mos cumplan, más allá de la regulación, con los estándares éticos. En este sentido, nuestro código ético recoge el compromiso con la aplicación de la inteligenc­ia artificial de forma ética y fiable, entendida como una oportunida­d de progreso responsabl­e de sus empleados y de toda la sociedad, desde el respeto a la ley, los derechos humanos, la privacidad de las personas y el fomento de la inclusión, siendo trasparent­es y no discrimina­torios. Este tipo de compromiso­s deben ser trasladado­s a toda la organizaci­ón, por lo que en Cepsa celebrarem­os este año el VI Día de la Ética, centrando en la ética en la Inteligenc­ia Artificial. Adicionalm­ente, trabajamos en un proyecto transversa­l en la organizaci­ón para fortalecer el marco de gobernanza de la gestión y control de la informació­n, que nos permita realizar un análisis de riesgos detallado de los activos de la informació­n y tecnología­s donde se almacenan o procesan, con el objetivo de garantizar el cumplimien­to estricto de la regulación y de nuestros principios éticos, que se desarrolla­n en el Código de Ética y Conducta, y nos permita cumplir con la propuesta de Reglamento sobre Inteligenc­ia Artificial.

 ?? ??
 ?? ??

Newspapers in Spanish

Newspapers from Spain