La inteligencia artificial se cuela en las aulas. ¿Ahora qué?
Herramientas como CHATGPT, que resuelve problemas, irrumpen en colegios e institutos y llevan a los profesores a adaptarse para sacarles partido y evitar su prohibición
Herramientas como CHATGPT, que resuelve problemas, irrumpen en el aula vía alumnado. Ante esto, profesores y pedagogos, en lugar de prohibir su uso, optan por ayudarles a saber cómo usarlas para sacarles el mayor provecho posible. No obstante, eso implica no evaluar los resultados, sino cómo se ha llegado hasta ahí.
Que cualquier tecnología suficientemente avanzada es indistinguible de la magia no es una idea nueva. La dejó escrita Arthur C. Clarke hace ya 60 años y hoy por hoy es tan vigente que pone los pelos de punta. Avanza, además, tan rápido, que se ha convertido en el enésimo dolor de cabeza del profesorado. ¿Cómo saber que ese problema lo ha resuelto un alumno y no una máquina? La irrupción de la inteligencia artificial (IA) en las aulas, con CHATGPT a la cabeza, es hoy una de las patatas calientes en el agitado mundo educativo, principalmente por el hecho de que ha entrado en los aulas vía alumnado.
«Ya hay estudiantes que resuelven problemas con programas informáticos, y esa es la gran angustia de padres y docentes. Es algo que tenemos que asumir y afrontar», indica la doctora Montse Guitert, profesora de Ciencias de la Educación de la UOC; quien tiene claro que eso tiene que suponer un cambio de paradigma, como mínimo en los métodos de evaluación. «No podemos evaluar solo los resultados, tenemos que saber cómo han llegado nuestros alumnos hasta ahí, y ellos tienen que poder explicárnoslo y explicárselo a sus compañeros», apunta. Avanzar hacia un aprendizaje basado en el camino que se recorre hasta llegar al resultado.
Conscientes todos de que la inteligencia artificial es una realidad que está ahí, el reto ahora es cómo trabajarla. Guitert no es partidaria de la prohibición -algo que está pasando en algunos lugares de Estados Unidos, como en Nueva York, donde los colegios han prohibido el uso de CHATGPT por temor a que se copie-, sino de dar herramientas a los estudiantes para que hagan un buen uso de ella y le saquen el máximo partido.
Personalizar el aprendizaje
«Puede servir a la escuela, además, para personalizar el aprendizaje, tanto para los alumnos con necesidades especiales como para los que ahora se aburren en clase», añade la investigadora, quien apunta también las posibilidades que puede ofrecer la inteligencia artificial para reducir la pesada burocracia a la que están sometidos los docentes.
«Si la irrupción de Google ya supuso un debate [hoy resulta casi inverosímil, pero pasó], ahora
se ha dado un paso más. Ya no se trata solo de acceder al conocimiento, se trata de generarlo», apunta Héctor Gardó, al frente de la estrategia de equidad digital de la Fundación Bofill.
«Ante esto hay dos opciones: o nos protegemos y lo prohibimos o lo usamos como un aliado. La inteligencia artificial ofrece muchas oportunidades, por ejemplo, como apoyo para la generación de ideas. Si quieres imaginar 10 títu
los para un cuento, te hace un ‘brainstorming’, y a partir de ahí tú eliges. Sirve para superar la hoja el blanco», ejemplifica.
«El material que te da no es finalista, es un punto de partida y es interesante. A partir de ahí tú tienes un material sobre el que trabajar», prosigue del doctor en Ciencias de la Educación.
Igual que Guitert, Gardó considera que estas herramientas, si no se trabajan desde los centros educativos, dejan a los alumnos, que accederán a ellas de todos modos, desnudos de criterio. Además, a ojos de Gardó, es muy probable que eso provoque que las brechas y desigualdades se aceleren. «Hay que darles un sentido crítico y orientar a los profesionales», concluye el investigador. En el amplio apartado de riesgos, Gardó destaca que la inteligencia artificial «no es del todo inteligente». «Lo que nos da la máquina es información, no conocimiento de calidad; incorpora sesgos», zanja.
Lidón Gasull, directora de la Affac, pone otra tema sobre la mesa: «La digitalización puede estar vulnerando muchos derechos y escondiendo muchas problemáticas». A ojos de la portavoz de la federación de asociaciones de familias, no se trata de si se tiene que usar o no, sino de cómo hacerlo y si se conocen bien esos procesos.
Posibles sesgos
Igual que Gardó, apunta que la inteligencia artificial «funciona por algoritmos que pueden tener sesgos que pueden tener un impacto en los niños y niñas», añade Gasull, preocupada por los derechos de la infancia y del profesorado y por las consecuencias que puede tener su uso sin auditar.
Sobre las auditorías, la directora de la Affac habla también sobre el uso de la inteligencia artificial para evaluar. «A través de los algoritmos eliminamos el sesgo del ‘profe’, de acuerdo, pero... ¿Quién ve el sesgo del algoritmo? Es más fácil evaluar al ‘profe’ que al algoritmo», plantea. Y señala: «No podemos hablar de digitalización sin hablar de soberanía digital. Controlar aquello que estamos implementando, saber que también tenemos derechos; las herramientas deben ser respetuosas. Los peligros que van en paralelo son muy grandes».
En la misma línea se pronuncia Jesús Martín, responsable de FP en el sindicato UGT de Cataluña, que opina que se deberían crear plataformas sufragadas con fondos públicos, para que la introducción de la tecnología en el aula estuviera «totalmente controlada y ajustada a normativa», y fuera «fácilmente regulable», apunta. «La digitalización es una herramienta más, pero no ha de ser el eje principal de la educación, eso también genera controversia», opina.
«La máquina da información, no conocimiento de calidad; hay sesgos», dice un experto