El Economista - Buen Gobierno y RSC
La ética de la inteligencia artificial
La tecnología se ha convertido en un elemento clave en el desarrollo social y empresarial, concretamente, la tecnología de la inteligencia artificial (IA). Las formas que pueden tomar la IA son diversas: software integrado en bots de chat, motores de búsqueda, análisis de imágenes, en aparatos físicos como robots, o el internet de las cosas (IoT); también, se aplica en diversos campos, como la agricultura, el transporte, la sanidad, las finanzas, el marketing, la fabricación industrial, el entretenimiento, las redes sociales, la cultura, etc. Esta realidad se presenta en el libro Ética de la Inteligencia Artificial de Mark Coeckelbergh, que analiza los principales problemas éticos que el desarrollo de la inteligencia artificial, y su aplicación a nuestra vida cotidiana, han pleanteado en los últimos años. Como sociedad hemos aceptado la tecnología en nuestra vida profesional y personal y, casi sin que nos demos cuenta, está presente en nuestra interactuación con el entorno y en nuestra toma de decisiones.
Hoy en día, todavía podemos decir que la gran diferencia que existe entre el ser humano y la máquina son las emociones a la hora de tomar esas decisiones. Por ello, probablemente la pregunta que debemos de hacernos no es si es posible que las máquinas tomen el control, sino ¿cómo tomarán ese control las máquinas si no saben emocionarse, ni tienen principios éticos?
La cuestión no es menor cuando ya estamos delegando algunas de nuestras decisiones a algoritmos. Cuando una IA toma o recomienda decisiones, puede surgir un sesgo. La IA se basa en el aprendizaje automático y el aprendizaje automático se basa en datos. El sesgo puede surgir de diversas formas en cada fase de su creación. Si nos centramos en el diseño, y creamos un robot para que, por ejemplo, nos seleccione al mejor empleado del mundo, en el proceso de creación te puedes encontrar sesgos en la definición de qué es el mejor empleado para una compañía; en la selección de los datos, debido a que la base de datos puede tener datos incompletos, otros no necesarios o datos erróneos; y por último, en el diseño del algoritmo de búsqueda, si da mayor o menor importancia a diferentes elementos (años de experiencia, nacionalidad, edad, sexo, género, etc.). Este sesgo implica que las decisiones pueden no ser justas y, cuando las decisiones no son equitativas, pueden tener consecuencias graves.
Uno de los riesgos éticos del uso de estas tecnologías subyace en el hecho de que los algoritmos traspasan la privacidad de las personas. En este sentido, Arvind Krishna, CEO de IBM, anunció en una carta abierta dirigida al Congreso de Estados Unidos en 2020 que dejaba de comercializar software propio de reconocimiento facial “de uso general”, ya que el uso de esa tecnología promocionaba el “racismo y la injusticia social”.
Está claro que es un tema complicado de solucionar, pero hay diferentes palancas sobre las que se puede trabajar para eliminar esos riesgos:
Asegurar la imparcialidad de la IA, a través de la creación de equipos diversos, tanto en la creación como en la supervisión de las tecnologías, creando comités éticos de inteligencia artificial.
Formar en sesgos y en principios éticos, llevando a cada una de las personas participantes en el proceso a una continua revisión de sus prejuicios.
Incluir herramientas que nos permitan de forma transparente conocer y dejar traza de por qué la IA toma unas decisiones frente a otras.
Otorgar a la IA siempre apariencia de IA y no humana, para saber diferenciarla en todo momento.
Revisar periódicamente las tecnologías de IA creadas por expertos independientes, para transmitir a los grupos de interés que está libre de sesgos y discriminaciones.
Esta preocupación no es exclusiva de las empresas y los ciudadanos. Ursula Von der Leyen dejó clara su intención de regular la IA desde el inicio de su mandato en 2019. En ese sentido, la Comisión Europea ha publicado distintos documentos: el Libro Blanco sobre Inteligencia Artificial, Resoluciones del Parlamento Europeo emitidas sobre Ética, Responsabilidad y Derechos de Propiedad Intelectual. Además, el 21 de abril de 2021 la Comisión Europea publicó su propuesta de reglamento sobre Inteligencia Artificial. Esta propuesta de reglamento aplica a la forma en que se utiliza la IA, no a la tecnología en sí, y establece un sistema de obligaciones a las empresas, proporcional a los riesgos de la IA. Establece que, en torno a la IA, hay que implementar un sistema de gestión de compliance. Por ello, cada día se hace más necesario que los departamentos tecnológicos y de transformación trabajen con los departamentos de cumplimiento. Ello permitirá que aumente la seguridad, la confianza y el uso de los ciudadanos en dichas tecnologías éticas.
Todavía podemos decir que la gran diferencia entre el ser humano y la máquina son las emociones
En Cepsa, desde que iniciamos nuestro proceso de transformación digital fuimos conscientes de la necesidad de dar respuesta a los desafíos éticos que supone el desarrollo de la IA y la importancia de tener un modelo de gobierno robusto y ordenado. Queremos asegurarnos de que todas las tecnologías que usemos y desarrollemos cumplan, más allá de la regulación, con los estándares éticos. En este sentido, nuestro código ético recoge el compromiso con la aplicación de la inteligencia artificial de forma ética y fiable, entendida como una oportunidad de progreso responsable de sus empleados y de toda la sociedad, desde el respeto a la ley, los derechos humanos, la privacidad de las personas y el fomento de la inclusión, siendo trasparentes y no discriminatorios. Este tipo de compromisos deben ser trasladados a toda la organización, por lo que en Cepsa celebraremos este año el VI Día de la Ética, centrando en la ética en la Inteligencia Artificial. Adicionalmente, trabajamos en un proyecto transversal en la organización para fortalecer el marco de gobernanza de la gestión y control de la información, que nos permita realizar un análisis de riesgos detallado de los activos de la información y tecnologías donde se almacenan o procesan, con el objetivo de garantizar el cumplimiento estricto de la regulación y de nuestros principios éticos, que se desarrollan en el Código de Ética y Conducta, y nos permita cumplir con la propuesta de Reglamento sobre Inteligencia Artificial.