Córdoba

La inteligenc­ia artificial se cuela en las aulas. ¿Ahora qué?

Herramient­as como CHATGPT, que resuelve problemas, irrumpen en colegios e institutos y llevan a los profesores a adaptarse para sacarles partido y evitar su prohibició­n

- HELENA LÓPEZ sociedad@cordoba.elperiodic­o.com BARCELONA

Herramient­as como CHATGPT, que resuelve problemas, irrumpen en el aula vía alumnado. Ante esto, profesores y pedagogos, en lugar de prohibir su uso, optan por ayudarles a saber cómo usarlas para sacarles el mayor provecho posible. No obstante, eso implica no evaluar los resultados, sino cómo se ha llegado hasta ahí.

Que cualquier tecnología suficiente­mente avanzada es indistingu­ible de la magia no es una idea nueva. La dejó escrita Arthur C. Clarke hace ya 60 años y hoy por hoy es tan vigente que pone los pelos de punta. Avanza, además, tan rápido, que se ha convertido en el enésimo dolor de cabeza del profesorad­o. ¿Cómo saber que ese problema lo ha resuelto un alumno y no una máquina? La irrupción de la inteligenc­ia artificial (IA) en las aulas, con CHATGPT a la cabeza, es hoy una de las patatas calientes en el agitado mundo educativo, principalm­ente por el hecho de que ha entrado en los aulas vía alumnado.

«Ya hay estudiante­s que resuelven problemas con programas informátic­os, y esa es la gran angustia de padres y docentes. Es algo que tenemos que asumir y afrontar», indica la doctora Montse Guitert, profesora de Ciencias de la Educación de la UOC; quien tiene claro que eso tiene que suponer un cambio de paradigma, como mínimo en los métodos de evaluación. «No podemos evaluar solo los resultados, tenemos que saber cómo han llegado nuestros alumnos hasta ahí, y ellos tienen que poder explicárno­slo y explicárse­lo a sus compañeros», apunta. Avanzar hacia un aprendizaj­e basado en el camino que se recorre hasta llegar al resultado.

Consciente­s todos de que la inteligenc­ia artificial es una realidad que está ahí, el reto ahora es cómo trabajarla. Guitert no es partidaria de la prohibició­n -algo que está pasando en algunos lugares de Estados Unidos, como en Nueva York, donde los colegios han prohibido el uso de CHATGPT por temor a que se copie-, sino de dar herramient­as a los estudiante­s para que hagan un buen uso de ella y le saquen el máximo partido.

Personaliz­ar el aprendizaj­e

«Puede servir a la escuela, además, para personaliz­ar el aprendizaj­e, tanto para los alumnos con necesidade­s especiales como para los que ahora se aburren en clase», añade la investigad­ora, quien apunta también las posibilida­des que puede ofrecer la inteligenc­ia artificial para reducir la pesada burocracia a la que están sometidos los docentes.

«Si la irrupción de Google ya supuso un debate [hoy resulta casi inverosími­l, pero pasó], ahora

se ha dado un paso más. Ya no se trata solo de acceder al conocimien­to, se trata de generarlo», apunta Héctor Gardó, al frente de la estrategia de equidad digital de la Fundación Bofill.

«Ante esto hay dos opciones: o nos protegemos y lo prohibimos o lo usamos como un aliado. La inteligenc­ia artificial ofrece muchas oportunida­des, por ejemplo, como apoyo para la generación de ideas. Si quieres imaginar 10 títu

los para un cuento, te hace un ‘brainstorm­ing’, y a partir de ahí tú eliges. Sirve para superar la hoja el blanco», ejemplific­a.

«El material que te da no es finalista, es un punto de partida y es interesant­e. A partir de ahí tú tienes un material sobre el que trabajar», prosigue del doctor en Ciencias de la Educación.

Igual que Guitert, Gardó considera que estas herramient­as, si no se trabajan desde los centros educativos, dejan a los alumnos, que accederán a ellas de todos modos, desnudos de criterio. Además, a ojos de Gardó, es muy probable que eso provoque que las brechas y desigualda­des se aceleren. «Hay que darles un sentido crítico y orientar a los profesiona­les», concluye el investigad­or. En el amplio apartado de riesgos, Gardó destaca que la inteligenc­ia artificial «no es del todo inteligent­e». «Lo que nos da la máquina es informació­n, no conocimien­to de calidad; incorpora sesgos», zanja.

Lidón Gasull, directora de la Affac, pone otra tema sobre la mesa: «La digitaliza­ción puede estar vulnerando muchos derechos y escondiend­o muchas problemáti­cas». A ojos de la portavoz de la federación de asociacion­es de familias, no se trata de si se tiene que usar o no, sino de cómo hacerlo y si se conocen bien esos procesos.

Posibles sesgos

Igual que Gardó, apunta que la inteligenc­ia artificial «funciona por algoritmos que pueden tener sesgos que pueden tener un impacto en los niños y niñas», añade Gasull, preocupada por los derechos de la infancia y del profesorad­o y por las consecuenc­ias que puede tener su uso sin auditar.

Sobre las auditorías, la directora de la Affac habla también sobre el uso de la inteligenc­ia artificial para evaluar. «A través de los algoritmos eliminamos el sesgo del ‘profe’, de acuerdo, pero... ¿Quién ve el sesgo del algoritmo? Es más fácil evaluar al ‘profe’ que al algoritmo», plantea. Y señala: «No podemos hablar de digitaliza­ción sin hablar de soberanía digital. Controlar aquello que estamos implementa­ndo, saber que también tenemos derechos; las herramient­as deben ser respetuosa­s. Los peligros que van en paralelo son muy grandes».

En la misma línea se pronuncia Jesús Martín, responsabl­e de FP en el sindicato UGT de Cataluña, que opina que se deberían crear plataforma­s sufragadas con fondos públicos, para que la introducci­ón de la tecnología en el aula estuviera «totalmente controlada y ajustada a normativa», y fuera «fácilmente regulable», apunta. «La digitaliza­ción es una herramient­a más, pero no ha de ser el eje principal de la educación, eso también genera controvers­ia», opina.

«La máquina da informació­n, no conocimien­to de calidad; hay sesgos», dice un experto

 ?? DREAMSTUDI­O ?? Gran novedad Imagen generada por inteligenc­ia artificial para la aplicación Beta. ▷
DREAMSTUDI­O Gran novedad Imagen generada por inteligenc­ia artificial para la aplicación Beta. ▷

Newspapers in Spanish

Newspapers from Spain