La Razón (Madrid) - Innovadores
Cómo el humano juzga a la máquina
Mucho se habla de cómo las máquinas juzgan a los humanos, pero no al contrario. ¿Somos justos con ellas? ¿Cómo afecta eso a la interacción mutua? ¿Cómo saberlo puede ayudar a avanzar hacia una IA ética?
LaLa responsabilidad algorítmi-ca algorítmi-ca se ha convertido en una preocupación de creciente importancia. Se han expuesto nume-rosas nume-rosas discriminaciones de sistemas de inteligencia artificial (IA) hacia mujeres, o hacia personas mayores, de color o con capacidades diferen-tes. diferen-tes. Ello ha conducido a un debate sobre cómo garantizar que estos sis-temas sis-temas sean justos y cómo regular-los. regular-los.
Se habla mucho, y con motivo, sobre cómo las máquinas juzgan a los humanos, pero no tanto de cómo los humanos juzgamos a las máqui-nas. máqui-nas. ¿Reaccionaríamos de manera diferente a los actos de discrimina-ción, discrimina-ción, de vigilancia o de daño físico en función de si los realiza una má-quina má-quina o un humano? ¿Nuestro juicio en este sentido se ve afectado por las dimensiones morales de un escena-rio? escena-rio? ¿Existen condiciones en las que juzgamos injustamente -o de mane-ra mane-ra demasiado benevolente- a las má-quinas? má-quinas?
Son las «cuestiones urgentes» a las que trata de responder el chileno César Hidalgo, profesor de la Uni-versidad Uni-versidad de Harvard y director del grupo de Aprendizaje Colectivo del Instituto Toulouse de Inteligencia Artificial y Natural (ANITI). Meses de investigación y experimentos que han cristalizado en el libro How hu-mans hu-mans judge machines (MIT Press), que se publicará en papel en febrero de 2021 y online, de forma gratuita, el próximo martes 29 de septiembre. septiembre.
En el libro, Hidalgo y sus colaboradores colaboradores -entre ellos los españoles Jordi Albó y Natalia Martín- tratan de comprender las consecuencias éticas de la IA. Su postulado inicial es que, si bien los avances recientes en inteligencia artificial han estimulado estimulado un creciente debate sobre la ética de las máquinas semiinteligentes, semiinteligentes, este ha carecido de medidas contrafácticas contrafácticas que comparen el juicio de las personas sobre las máquinas con el juicio de acciones humanas equivalentes. equivalentes.
«Queríamos entender esas diferencias diferencias de acuerdo a las cinco dimensiones dimensiones de la teoría de los fundamentos fundamentos morales: daño, justicia, autoridad, autoridad, lealtad y pureza», explica Hidalgo en una videoentrevista con INNOVADORES. Para ello, él y sus colaboradores realizaron docenas de experimentos con más de 80 escenarios escenarios diferentes, sobre cuestiones de sesgo algorítmico, privacidad, aplicación aplicación de la ley, vehículos autónomos autónomos y empleo.
Cuestión de intención
La conclusión, grosso modo, es que las personas tienden a ver las acciones acciones de las máquinas como más dañinas dañinas e inmorales en escenarios que implican violencia o daño físico. físico. Sin embargo, son más indulgentes indulgentes con las máquinas que con otros humanos en escenarios de injusticia. injusticia. Por ejemplo, somos más duros con un humano que discrimina en un proceso de selección laboral que con una máquina que también lo hace. «En escenarios de injusticia las personas ponen mucha intencionalidad intencionalidad a un humano injusto y poca a una máquina», comenta Hidalgo. Hidalgo.
Al contrario sucede con la dimensión dimensión moral de la pureza. En uno de los escenarios se planteó cómo una máquina excavadora perpetraba una cripta con restos humanos al hacer un agujero para un nuevo edificio. A 200 personas se les presentó como que la acción de una excavadora autónoma autónoma y a otras 200 como una máquina máquina conducida por un humano. Era una cuestión de pureza porque nadie había sufrido ningún daño, pero en este caso las personas también también juzgaron más duramente a la máquina autónoma. ¿Por qué? «Cuando juzgamos a las personas lo hacemos en función de la interacción interacción entre intención y daño y, en el caso de las máquinas lo hacemos de acuerdo a los resultados», afirma Hidalgo.
¿Qué pasa si entran en conflicto dos dimensiones morales? Depende del proceso y de si es ejecutado por una persona o por una máquina. Las personas valoran a los humanos que toman riesgos de manera mucho más positiva que a los algoritmos que se arriesgan. Sin embargo, evalúan las acciones de ambos como igualmente igualmente intencionales.
Esa, la intencionalidad, es otra de las claves de la variabilidad de los resultados en diferentes escenarios. Cuando el escenario es muy accidental, accidental, donde la causa es exógena, las personas juzgan a la máquina de manera manera más dura. Por ejemplo, si un vehículo autónomo se ve obligado a
girar de manera repentina por una causa imprevista y atropella a una persona, se le juzga más duramente que en el caso de un conductor humano, humano, ya que a este la no intencionalidad intencionalidad le exonera.
Debate ético
Una de las conclusiones de los experimentos experimentos del libro es que los sesgos sesgos humanos a la hora de evaluar a las máquinas se mueven en tres ejes. Uno es la dicotomía entre daño y justicia. Otro es la componente accidental accidental del suceso. El tercero es el rasero por el que se juzga a las personas personas en base a sus intenciones y a las máquinas en función de los resultados. resultados.
¿Se puede extrapolar el resultado de dichos experimentos a la realidad? Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Research Consulting y Fundación Eticas, resalta que es «muy relevante y útil» hablar de la interacción humano-máquina. humano-máquina. «En general no estamos estamos incorporando cómo las máquinas máquinas interactúan con formas de trabajar humanas», afirma. Sin embargo, embargo, considera que la aproximación aproximación de la investigación del libro es una «perspectiva muy teórica y alejada alejada de la práctica de la interacción». «En ese tipo de escenario, lo que pasa en el laboratorio y en el mundo real no tienen –por lo general- nada que ver. Por tanto, las conclusiones no sirven para planificar impactos reales», reales», sostiene.
Hidalgo especula en su libro con los límites de la ética y las implicaciones implicaciones de los resultados de su investigación investigación en un contexto de máquinas sociales. Pone el ejemplo de las burocracias, burocracias, que técnicamente son máquinas máquinas por el modo en que han sido diseñadas y en el que operan, y como tales esperamos que se comporten (de forma exacta, predecible y eficiente). eficiente). Por tanto, se pregunta si el hecho de automatizar esa maquinaria maquinaria ayudaría a interpretar mejor el sistema y los resultados.
Lorena Jaume-Palasí, fundadora de Ethical Tech Society y experta en filosofía del derecho, considera peligroso peligroso entrar en este tipo de pensamiento pensamiento mecanicista. «Es problemático problemático porque plantea la posibilidad de contradecir y trascender a la naturaleza, naturaleza, al externalizar la razón del ser humano a una máquina», sostiene. sostiene. Esto desemboca -dice- en la idea de que las máquinas son mejores. mejores.
Si bien es posible codificar las leyes en algoritmos -señala- la administración administración es mucho más que eso. El aparato aparato burocrático no solo tiene la tarea de tratar a todos por igual según en esa receta, sino que debe considerar hasta qué punto esas reglas se aplican en ese contexto o no. Es lo que hacen los jueces, cuya función es interpretar, interpretar, contextualizar y adaptar la ley a cada caso.
Aquí entra en juego el concepto de equidad de Aristóteles, que asume que a veces la ley no es capaz de captar captar la realidad y por eso aquella debe ser flexible e inclusiva. Asume que las estandarizaciones no son perfectas y crea procesos para entender a quien se está excluyendo. «Eso es lo que legitima este tipo de estructura, y ese trabajo de contextualización no lo puede hacer una máquina. Ello no significa que las administraciones no deban digitalizarse, pero tampoco que los algoritmos vayan a poder sustituir el factor humano ni al proceso proceso en sí».
Galdon añade que ya hay muchos algoritmos y automatizaciones integradas integradas en los procesos de gobierno que «están haciendo más mal que bien». Reconoce que en teoría suena bien: introducir un sistema matemático matemático haría más transparente el proceso. proceso. Pero esa teoría ignora el escenario de aplicación real del algoritmo. «El código casi nunca es público, y a menudo menudo ni siquiera sus creadores saben cómo el sistema toma las decisiones. Además, con frecuencia introducen nuevas ineficiencias», asegura.
Hidalgo sostiene que no se trata de si los algoritmos lo hacen bien o mal, sino de quién lo hace mejor, y de si dicho sistema contribuye a mejorar el actual. «Creo que no debemos de tener una estética de que las personas son buenas o las máquinas son buenas. buenas. Las personas juzgan la tecnología tecnología sin comparar. Asumir que incluir a un humano en un proceso hace que este sea mejor es un supuesto que no siempre es cierto», dice.
Tanto Galdon como Palasí coinciden coinciden en que el debate no debe centrarse centrarse en elegir máquina o persona. La segunda arguye que humanos y máquinas cometen errores diferentes diferentes porque sus limitaciones lo son: la máquina es un artefacto, no piensa ni actúa como una entidad libre, sino que aprende y depende de las personas personas que introducen en ella los datos. «La clave es cómo combinamos lo mejor de humanos y máquinas», concluye Galdon.