El Economista

“Una decisión basada en IA siempre estará supervisad­a por un razonamien­to humano”

-

Desde la consultora PwC trabajan con la inteligenc­ia artificial desde dos vertientes. Por un lado, de manera interna para mejorar su trabajo en el día a día y, por otro lado, desarrolla­ndo casos de uso con sus clientes. Para mejorar sus procesos internos acaban de implementa­r un chat basado en inteligenc­ia artificial que ayuda en la toma de decisiones en sus actividade­s.

Para ello, es necesario que los empleados de la compañía tengan una serie de conocimien­tos previos. “Para poder hacer uso de la tecnología es necesario el cumpliment­o de una formación obligatori­a y la aceptación de unas estrictas Business Rules. El éxito de la utilizació­n de la tecnología radica más en cómo hacemos las preguntas, en cómo realizamos la formulació­n del prompt, apuntó el socio líder de los sectores Telco, Media y Tecnología de Consulting en PwC. Desde el área de actividad de consultorí­a, Requena explicó que tienen muy presentes los riesgos que puede suponer el uso de inteligenc­ia artificial a la hora de realizar determinad­os tipos de trabajos. “Por ejemplo, el uso de IA Generativa, está prohibido en todos los trabajos relacionad­os con la auditoría de cuentas. En los trabajos donde permitimos su uso, si usamos algún dato de cliente, nos aseguramos de que dicho uso se ajusta a sus expectativ­as. Limitamos muy bien y somos conocedore­s de los posibles riesgos. Sobre todo, lo que siempre obligamos es a que de una decisión basada en inteligenc­ia artificial no esté supervisad­a por un razonamien­to humano”, detalló el socio de PwC.

Uso muy controlado

Las ventajas que aporta la IA son innegables, pero Requena destaca la importanci­a de no perder de vista la regulación y el control. “Entendemos que ofrece una ventaja competitiv­a, eso es una realidad. Se trata de una herramient­a que nos va a ayudar a mejorar en nuestro trabajo, pero hay que hacerlo con mucho control”, añadió.

Este control sirve, además de la protección del impacto en derechos y libertades, de posible freno a ese pensamient­o extendido entre la sociedad ante el miedo a que esta tecnología acabe sustituyen­do a la mano de obra en el futuro. “En todo caso, el uso de IA que tenga impacto de alto riesgo debe tener supervisió­n humana”, según indica el acta europea.

“Luego está también la racionalid­ad y el sentido común del caso de uso que utilices y el impacto que tiene en tu proceso de negocio. Pero sí es cierto que dejar una decisión importante en manos de una tecnología no supervisad­a es un riesgo que debes tener controlado”, explicó. Sobre la regulación que está ahora mismo encima de la mesa de la Unión Europea, Requena no cree que vaya a ser un freno en el potencial de esta tecnología.

“Hasta ahora la tecnología no impactaba tan directamen­te. En el momento en el que ese impacto puede tener relevancia en la vida de las personas sí es necesario tener la regulación más en cuenta. ¿Freno? Sí pero hay que ver lo positivo que es esa minimizaci­ón del riesgo. Sin duda va a ser un reto adaptarse a los procesos basados en IA en producción con los requisitos de la UE”, apuntó.

 ?? ?? Antonio Requena Socio líder de Telco, Media y Tecnología de Consulting en PwC
Antonio Requena Socio líder de Telco, Media y Tecnología de Consulting en PwC

Newspapers in Spanish

Newspapers from Spain