“No veo impedimento para que la inteligencia artificial haga lo mismo que la humana”
Ingeniero computacional y filósofo
lizan algoritmos que toman decisiones que luego las personas no entienden ni saben explicar. ¿No entraña eso mucho riesgo? ¿Quién se responsabilizará de esas decisiones?
Aquí hay dos cuestiones. La primera, el hacer que una maquina sea explicable, y ahí entra en juego mi teoría de causa-efecto. No puedes tener un sistema que explique sus recomendaciones a no ser que la máquina tenga un modelo causal del mundo, que la máquina entienda cuales son las implicaciones de las decisiones en la realidad, no solo a nivel de datos. Y hoy lo que tenemos y se utiliza son máquinas de big data, que no entienden el mundo, solo los datos, y ese es mayor obstáculo que tenemos en la actualidad. Una vez que las máquinas estén equipadas para entender la realidad tendremos un sistema explicable.
¿Y respecto a la responsabilidad de las decisiones de la IA?
Es una combinación de responsabilidades. Si colocas un modelo equivocado de la realidad en una máquina y por ejemplo la haces funcionar en base a fuerzas sobrenaturales de modo que su recomendación para lograr que te den un préstamo sea ‘vete a rezar’, el responsable es el programador que ha asumido el riesgo de describir la realidad en términos de fuerzas sobrenaturales. Pero además del modelo hay que aplicar la lógica correcta para conectarlo con los datos, de modo que son responsables tanto quien proporciona el modelo de realidad como quienes conocen la lógica que lo conecta a los datos.