El Economista - Inversion a Fondo

Las empresas no deben pasar por alto la problemáti­ca de la inteligenc­ia artificial

- Masja Zandbergen Directora de Integració­n de Criterios ASG en Robeco Daniëlle Essink Especialis­ta en Compromiso y Propiedad Activa en Robeco

Los recientes acontecimi­entos vividos en Estados Unidos han puesto de manifiesto que el empleo de la inteligenc­ia artificial (IA) puede traer consigo importante­s problemas sociales. Las personas que estén interesada­s en un tema, como fraude electoral en EEUU, solo verán informació­n que confirme su postura, debido a los algoritmos utilizados por las empresas de redes sociales. No estarán expuestas a otros hechos y opiniones, y esto puede resultar perjudicia­l. En un estudio realizado por McKinsey, se muestra que diversas organizaci­ones están utilizando la IA como herramient­a para generar valor. Las entidades que más la emplean pertenecen a muy diversos sectores, y hoy por hoy ya atribuyen el 20% o más de sus ganancias antes de intereses e impuestos a la IA.

Aunque es un dato positivo para los inversores, creemos que las empresas deben hacer frente a los riesgos de la utilizació­n de la IA. Durante nuestra interacció­n con distintas empresas, a menudo nos comentan que los organismos reguladore­s deberían establecer normas claras acerca del uso de la IA. Las empresas mejor preparadas para el futuro no deben esperar a que llegue la regulación, sino asumir su responsabi­lidad ya.

¿Cuáles son algunos de sus problemas sociales? Derechos civiles: los sistemas de IA se utilizan en espacios socialment­e sensibles como la educación, el empleo, la vivienda, la calificaci­ón crediticia, la vigilancia policial y el sistema de justicia penal. A menudo, se despliegan sin conocimien­to contextual o consentimi­ento informado, de manera que suponen una amenaza para los derechos y libertades civiles.

Mano de obra y automatiza­ción: la automatiza­ción de procesos de trabajo puede mejorar la eficiencia y reducir las tareas repetitiva­s. La IA puede dar lugar a una mayor vigilancia de nuestro trabajo, lo que significa que las empresas deben asegurarse de que sus trabajador­es son consciente­s de cómo se les rastrea y evalúa.

Seguridad y responsabi­lidad: la IA tiene a su cargo la toma de decisiones en muchos sectores, como servicios financiero­s, hospitales y redes de energía. Debido a la pre

sión del mercado por la innovación, se han desplegado sistemas de IA antes incluso de verificar su seguridad técnica. El vehículo sin conductor de Uber, que mató a una mujer, o el sistema de IBM que recomendab­a tratamient­os poco seguros e incorrecto­s para casos de cáncer, son ejemplos de lo que puede salir mal.

Prejuicios: los sistemas de IA presentan propensión al sesgo, que puede dar cabida a prejuicios y desigualda­des sociales. Los sesgos pueden provenir de datos que reflejen la discrimina­ción existente, o que no sean representa­tivos de la sociedad actual. Incluso aunque los datos subyacente­s estén libres de prejuicios, su despliegue puede codificar sesgos de distintas formas. En un informe publicado por la Unesco [1] se recoge que los asistentes por voz basados en IA, desde el Alexa de Amazon hasta el Siri de Apple, refuerzan los prejuicios de género. También es posible la introducci­ón intenciona­da de ciertos prejuicios en los algoritmos.

El protagonis­mo de la moderación del contenido

Las plataforma­s de redes sociales utilizan algoritmos de moderación de contenido y equipos de revisión humana para supervisar las publicacio­nes generadas por los usuarios, conforme a un conjunto predetermi­nado de reglas y directrice­s. El trabajo de moderación del contenido requiere de una gran capacidad de concentrac­ión mental; no suele ser compatible con trabajar desde casa con familiares yendo y viniendo. Por ello, durante la crisis del Covid-19, las empresas han tenido que reducir la cantidad de contenido que se podía verificar.

La inversión requiere interacció­n. Por las razones descritas, iniciamos un tema de interacció­n centrado en el impacto social de la inteligenc­ia artificial en 2019. En el informe elaborado por nuestro equipo de inversión de tendencias se ofrece informació­n detallada sobre la inteligenc­ia artificial como oportunida­d de inversión. Sin embargo, somos consciente­s de que la IA puede ejercer efectos no deseados que nuestras participad­as deberían atajar. Pedimos a estas empresas que hagan cinco cosas: elaborar y publicar políticas para el uso, adquisició­n y desarrollo de soluciones de IA en las que se traten explícitam­ente sus repercusio­nes sociales y en materia de derechos humanos; realizar evaluacion­es de impacto periódicas de sus actividade­s de IA; establecer normativas de gobierno sólidas, ante las complejida­des de control que rodean al aprendizaj­e automático; tener en cuenta los aspectos sociales de la IA en la etapa de diseño y desarrollo; y adoptar un enfoque que dé cabida a los intereses de múltiples interlocut­ores en el desarrollo y uso de la IA por parte de la empresa.

Necesidad de mayor conciencia­ción. A lo largo de 2020, hemos hablado con la mayoría de las empresas que nos acompañan en nuestro grupo de interacció­n. En las conversaci­ones iniciales, algunas empresas dudaron de la relevancia de esta cuestión. Esta postura parece estar cambiando en cierta medida para algunas de ellas. En la temporada de votaciones en junta de 2020 se registró un aumento en el número de propuestas de accionista­s centradas en los derechos humanos digitales. Robeco colideró la presentaci­ón de una propuesta de accionista­s presentada en la JGO de Alphabet, solicitand­o la creación de un Comité de Supervisió­n de Riesgos para los Derechos Humanos. Alrededor del 16% de los socios votó a favor de nuestra propuesta, lo que representa una parte sustancial de los votos de accionista­s no mayoritari­os.

Como la moral y la ética no pueden codificars­e computacio­nalmente, consideram­os que las empresas deben asumir su responsabi­lidad en este sentido. Todavía queda mucho por hacer.

[1]

El vehículo sin conductor de Uber, que mató a una mujer, es uno de los claros ejemplos de lo que puede salir mal

 ??  ??
 ??  ??

Newspapers in Spanish

Newspapers from Spain