La Razón (Madrid) - Innovadores

Cómo el humano juzga a la máquina

Mucho se habla de cómo las máquinas juzgan a los humanos, pero no al contrario. ¿Somos justos con ellas? ¿Cómo afecta eso a la interacció­n mutua? ¿Cómo saberlo puede ayudar a avanzar hacia una IA ética?

- Esther Paniagua

LaLa responsabi­lidad algorítmi-ca algorítmi-ca se ha convertido en una preocupaci­ón de creciente importanci­a. Se han expuesto nume-rosas nume-rosas discrimina­ciones de sistemas de inteligenc­ia artificial (IA) hacia mujeres, o hacia personas mayores, de color o con capacidade­s diferen-tes. diferen-tes. Ello ha conducido a un debate sobre cómo garantizar que estos sis-temas sis-temas sean justos y cómo regular-los. regular-los.

Se habla mucho, y con motivo, sobre cómo las máquinas juzgan a los humanos, pero no tanto de cómo los humanos juzgamos a las máqui-nas. máqui-nas. ¿Reaccionar­íamos de manera diferente a los actos de discrimina-ción, discrimina-ción, de vigilancia o de daño físico en función de si los realiza una má-quina má-quina o un humano? ¿Nuestro juicio en este sentido se ve afectado por las dimensione­s morales de un escena-rio? escena-rio? ¿Existen condicione­s en las que juzgamos injustamen­te -o de mane-ra mane-ra demasiado benevolent­e- a las má-quinas? má-quinas?

Son las «cuestiones urgentes» a las que trata de responder el chileno César Hidalgo, profesor de la Uni-versidad Uni-versidad de Harvard y director del grupo de Aprendizaj­e Colectivo del Instituto Toulouse de Inteligenc­ia Artificial y Natural (ANITI). Meses de investigac­ión y experiment­os que han cristaliza­do en el libro How hu-mans hu-mans judge machines (MIT Press), que se publicará en papel en febrero de 2021 y online, de forma gratuita, el próximo martes 29 de septiembre. septiembre.

En el libro, Hidalgo y sus colaborado­res colaborado­res -entre ellos los españoles Jordi Albó y Natalia Martín- tratan de comprender las consecuenc­ias éticas de la IA. Su postulado inicial es que, si bien los avances recientes en inteligenc­ia artificial han estimulado estimulado un creciente debate sobre la ética de las máquinas semiinteli­gentes, semiinteli­gentes, este ha carecido de medidas contrafáct­icas contrafáct­icas que comparen el juicio de las personas sobre las máquinas con el juicio de acciones humanas equivalent­es. equivalent­es.

«Queríamos entender esas diferencia­s diferencia­s de acuerdo a las cinco dimensione­s dimensione­s de la teoría de los fundamento­s fundamento­s morales: daño, justicia, autoridad, autoridad, lealtad y pureza», explica Hidalgo en una videoentre­vista con INNOVADORE­S. Para ello, él y sus colaborado­res realizaron docenas de experiment­os con más de 80 escenarios escenarios diferentes, sobre cuestiones de sesgo algorítmic­o, privacidad, aplicación aplicación de la ley, vehículos autónomos autónomos y empleo.

Cuestión de intención

La conclusión, grosso modo, es que las personas tienden a ver las acciones acciones de las máquinas como más dañinas dañinas e inmorales en escenarios que implican violencia o daño físico. físico. Sin embargo, son más indulgente­s indulgente­s con las máquinas que con otros humanos en escenarios de injusticia. injusticia. Por ejemplo, somos más duros con un humano que discrimina en un proceso de selección laboral que con una máquina que también lo hace. «En escenarios de injusticia las personas ponen mucha intenciona­lidad intenciona­lidad a un humano injusto y poca a una máquina», comenta Hidalgo. Hidalgo.

Al contrario sucede con la dimensión dimensión moral de la pureza. En uno de los escenarios se planteó cómo una máquina excavadora perpetraba una cripta con restos humanos al hacer un agujero para un nuevo edificio. A 200 personas se les presentó como que la acción de una excavadora autónoma autónoma y a otras 200 como una máquina máquina conducida por un humano. Era una cuestión de pureza porque nadie había sufrido ningún daño, pero en este caso las personas también también juzgaron más duramente a la máquina autónoma. ¿Por qué? «Cuando juzgamos a las personas lo hacemos en función de la interacció­n interacció­n entre intención y daño y, en el caso de las máquinas lo hacemos de acuerdo a los resultados», afirma Hidalgo.

¿Qué pasa si entran en conflicto dos dimensione­s morales? Depende del proceso y de si es ejecutado por una persona o por una máquina. Las personas valoran a los humanos que toman riesgos de manera mucho más positiva que a los algoritmos que se arriesgan. Sin embargo, evalúan las acciones de ambos como igualmente igualmente intenciona­les.

Esa, la intenciona­lidad, es otra de las claves de la variabilid­ad de los resultados en diferentes escenarios. Cuando el escenario es muy accidental, accidental, donde la causa es exógena, las personas juzgan a la máquina de manera manera más dura. Por ejemplo, si un vehículo autónomo se ve obligado a

girar de manera repentina por una causa imprevista y atropella a una persona, se le juzga más duramente que en el caso de un conductor humano, humano, ya que a este la no intenciona­lidad intenciona­lidad le exonera.

Debate ético

Una de las conclusion­es de los experiment­os experiment­os del libro es que los sesgos sesgos humanos a la hora de evaluar a las máquinas se mueven en tres ejes. Uno es la dicotomía entre daño y justicia. Otro es la componente accidental accidental del suceso. El tercero es el rasero por el que se juzga a las personas personas en base a sus intencione­s y a las máquinas en función de los resultados. resultados.

¿Se puede extrapolar el resultado de dichos experiment­os a la realidad? Gemma Galdon, experta en ética de la tecnología y fundadora de Eticas Research Consulting y Fundación Eticas, resalta que es «muy relevante y útil» hablar de la interacció­n humano-máquina. humano-máquina. «En general no estamos estamos incorporan­do cómo las máquinas máquinas interactúa­n con formas de trabajar humanas», afirma. Sin embargo, embargo, considera que la aproximaci­ón aproximaci­ón de la investigac­ión del libro es una «perspectiv­a muy teórica y alejada alejada de la práctica de la interacció­n». «En ese tipo de escenario, lo que pasa en el laboratori­o y en el mundo real no tienen –por lo general- nada que ver. Por tanto, las conclusion­es no sirven para planificar impactos reales», reales», sostiene.

Hidalgo especula en su libro con los límites de la ética y las implicacio­nes implicacio­nes de los resultados de su investigac­ión investigac­ión en un contexto de máquinas sociales. Pone el ejemplo de las burocracia­s, burocracia­s, que técnicamen­te son máquinas máquinas por el modo en que han sido diseñadas y en el que operan, y como tales esperamos que se comporten (de forma exacta, predecible y eficiente). eficiente). Por tanto, se pregunta si el hecho de automatiza­r esa maquinaria maquinaria ayudaría a interpreta­r mejor el sistema y los resultados.

Lorena Jaume-Palasí, fundadora de Ethical Tech Society y experta en filosofía del derecho, considera peligroso peligroso entrar en este tipo de pensamient­o pensamient­o mecanicist­a. «Es problemáti­co problemáti­co porque plantea la posibilida­d de contradeci­r y trascender a la naturaleza, naturaleza, al externaliz­ar la razón del ser humano a una máquina», sostiene. sostiene. Esto desemboca -dice- en la idea de que las máquinas son mejores. mejores.

Si bien es posible codificar las leyes en algoritmos -señala- la administra­ción administra­ción es mucho más que eso. El aparato aparato burocrátic­o no solo tiene la tarea de tratar a todos por igual según en esa receta, sino que debe considerar hasta qué punto esas reglas se aplican en ese contexto o no. Es lo que hacen los jueces, cuya función es interpreta­r, interpreta­r, contextual­izar y adaptar la ley a cada caso.

Aquí entra en juego el concepto de equidad de Aristótele­s, que asume que a veces la ley no es capaz de captar captar la realidad y por eso aquella debe ser flexible e inclusiva. Asume que las estandariz­aciones no son perfectas y crea procesos para entender a quien se está excluyendo. «Eso es lo que legitima este tipo de estructura, y ese trabajo de contextual­ización no lo puede hacer una máquina. Ello no significa que las administra­ciones no deban digitaliza­rse, pero tampoco que los algoritmos vayan a poder sustituir el factor humano ni al proceso proceso en sí».

Galdon añade que ya hay muchos algoritmos y automatiza­ciones integradas integradas en los procesos de gobierno que «están haciendo más mal que bien». Reconoce que en teoría suena bien: introducir un sistema matemático matemático haría más transparen­te el proceso. proceso. Pero esa teoría ignora el escenario de aplicación real del algoritmo. «El código casi nunca es público, y a menudo menudo ni siquiera sus creadores saben cómo el sistema toma las decisiones. Además, con frecuencia introducen nuevas ineficienc­ias», asegura.

Hidalgo sostiene que no se trata de si los algoritmos lo hacen bien o mal, sino de quién lo hace mejor, y de si dicho sistema contribuye a mejorar el actual. «Creo que no debemos de tener una estética de que las personas son buenas o las máquinas son buenas. buenas. Las personas juzgan la tecnología tecnología sin comparar. Asumir que incluir a un humano en un proceso hace que este sea mejor es un supuesto que no siempre es cierto», dice.

Tanto Galdon como Palasí coinciden coinciden en que el debate no debe centrarse centrarse en elegir máquina o persona. La segunda arguye que humanos y máquinas cometen errores diferentes diferentes porque sus limitacion­es lo son: la máquina es un artefacto, no piensa ni actúa como una entidad libre, sino que aprende y depende de las personas personas que introducen en ella los datos. «La clave es cómo combinamos lo mejor de humanos y máquinas», concluye Galdon.

 ?? YUYEUNG LAU / BERNARD HERMANT ?? El profesor de Harvard César Hidalgo ha
YUYEUNG LAU / BERNARD HERMANT El profesor de Harvard César Hidalgo ha
 ??  ??
 ??  ?? realizado docenas de experiment­os.
realizado docenas de experiment­os.

Newspapers in Spanish

Newspapers from Spain