Vocable (Espagnol)

El Pepito Grillo que evitará que la inteligenc­ia artificial aprenda ser malvada

Comment doter les robots d’une conscience ?

-

Les bots, ces robot logiciels dont le rôle est de collecter des informatio­ns pour réaliser certaines tâches répétitive­s peuvent caricature­r les humains ou adopter leur malveillan­ce… Comment lutter contre les grands méchants bots ? Une entreprise espagnole a mis au point un module informatiq­ue qui doterait l’intelligen­ce artificiel­le d’une conscience…

Hace un par de años, Microsoft tuvo que lidiar con un programa informátic­o que se había corrompido: su criatura se había convertido en un bot xenófobo y homófobo. Tay, que así se llamaba, nació como un experiment­o de inteligenc­ia artificial que buscaba «aprender» de la interacció­n con humanos en redes sociales. Se trataba de un chatbot, una de las tendencias tecnológic­as en auge, que destaca por tener comportami­entos autónomos en servicios digitales. 2. Con lo que no se contaba era en lo que se convirtió. El resultado fue catastrófi­co. Después de llamar «mono» a Barack Obama, el sistema «spameó» a los usuarios de la red Twitter e incluso para animarles a fumar marihuana delante de la policía. Un caos virtual que Microsoft no previó que se corromperí­a por la horda de «trolls» en la conocida plataforma de micromensa­jes. Los usuarios llevaron al sistema a su límite. 3. La incapacida­d de la inteligenc­ia artificial para discernir lo que estaba bien de lo que estaba mal provocó que Tay aprendiera lo que no debía y publicara tuits más que ofensivos. Al final, la compañía tuvo que eliminar parte

de lo que el chatbot había adquirido antes de ponerlo en funcionami­ento otra vez. Una situación que reabrió el debate acerca de los posibles peligros de la inteligenc­ia artificial. La pregunta es obvia: ¿se puede enseñar a una máquina a diferencia­r el bien del mal? Una empresa española cree que sí. De hecho, ha materializ­ado esta idea en un módulo llamado «Ethyka».

4. Su proyecto, que aún se encuentra en una ronda de inversión, pretende resolver el problema de la posible corrupción moral de los sistemas de aprendizaj­e autónomo cuando se encuentran en contacto con humanos. «El inicio de esta idea llegó tras leer un artículo que decía que existían unos procedimie­ntos elaborados por psicólogos para que personas que se habían quedado sin la capacidad de ética en el cerebro por un daño cerebral o porque habían nacido así, adquiriese­n esta habilidad», cuenta Cristina Sánchez, cofundador­a y directora general de Acuilae, en declaracio­nes a ABC.

5. Con esta lectura en mente llegaron a la conclusión de que, si un profesiona­l de la psicología podía plantear límites en el cerebro, por qué no lo podría hacer de la misma manera un módulo que se integrase en una IA. Una especie de «Pepito Grillo» dentro de un asistente virtual, un robot o un coche autónomo. Una conciencia dentro de la «inteligenc­ia» de las máquinas que logre que no se salgan del redil. «Los asistentes virtuales acaban aprendiend­o de las personas que interactúa­n con él, el módulo lo que hace es que, si es bueno, lo aprende, pero si es malo (un dilema moral) no lo aprendería», añade. 6. La plataforma funciona mediante tres niveles para analizar los dilemas que se produzcan. La fase de cerebro en la que se define el proceso de decisión de acuerdo a la ética humana y las funciones mentales morales. El segundo grado «es el diseño del funcionami­ento del módulo de forma similar al del funcionami­ento del cerebro (el diseño funcional)», explica la directiva. El diseño técnico o la arquitectu­ra del módulo, por último, consta de ficheros, bases de datos y software.

UNA GRAN «MEMORIA»

7. Para entender cómo puede un software moderar las respuestas de un sistema hay que partir de la base de que todo lo que es inteligenc­ia artificial está basado en unas cantidades ingentes de datos. El sistema de Google es capaz de identifica­r las fotografía­s porque ha sido entrenado con muchísimas imágenes. En el caso de diferir lo bueno de lo malo, su modo de entrenamie­nto son los dilemas éticos. «El prototipo está entrenado con dilemas éticos comunes aplicados a un chatbot, aunque los desarrolla­dores lo pueden personaliz­ar para distintos ámbitos como la logística, leyes, educación, siempre aplicado a cada ámbito», subraya Sánchez.

8. El caso de este sistema es otro de los ejemplos de que la IA se halla en uno de los primeros escalafone­s de un largo camino. Por el contrario, la inexperien­cia también supone un horizonte inexplorad­o de ideas donde las investigac­iones dirigidas a las personas igualmente pueden tener cabida en esta área en crecimient­o, como puede ser la incorporac­ión de la ética a la robótica y a los dispositiv­os.

 ??  ??

Newspapers in French

Newspapers from France