«Un poco de desobediencia tecnológica hace bien»
Investigador asociado en el Instituto de Internet de la Universidad de Oxford de 2009 a 2019, es uno de los mayores especialistas del mundo en la problemática relación entre educación y tecnología y en inteligencia artificial.
Cristóbal Cobo (Santiago de Chile, 1976) abrió ayer la última jornada del EdTech Congress Barcelona 2024 celebrado en el Campus de la Ciutadella de la UPF, donde, tras su aplaudida ponencia Ni EuforIA ni HisterIA, reconoció que «vale la pena asumir que estamos en un experimento» .
— Como punto de partida da cierto miedo.
— La educación en general tiene una virtud doble. Mira hacia el futuro, pero viene del pasado. Trae consigo una enorme tradición cultural y de pensamiento, pero al mismo tiempo pone el foco en formar a personas que se van a mover en un mundo muy distinto al actual. Existe una natural tensión. Algunos quieren que se mueva más rápido, y otros no quieren que se deshaga del pasado del que viene. Con la irrupción de la IA se produce un desajuste en esa tensión. Y evidentemente la educación no es solo la cantidad de contenido al que accede un estudiante, sino que son otros muchos aspectos de orden relacional: con quién aprendo, cómo aprendo, los niveles de afecto… La IA es una variable más que no tenemos claro cómo puede incidir, especialmente con esa mirada a largo plazo. No tenemos suficiente evidencia ni la perspectiva histórica para saber cómo va a navegar esto; y eso es una voz de alerta, no de inmovilidad. No podemos decir, ‘no, hasta que no tengamos evidencia no hagamos nada’. No nos podemos dar ese lujo.
— Es imposible porque está aquí, ha entrado en el aula en el bolsillo de los estudiantes.
— Exacto. Lo que tenemos que hacer es navegar con cierta cautela. Dar orientaciones y, si algo no funciona, quitarlo sobre la marcha.
— En Catalunya se han prohibido los móviles en los institutos. ¿Qué le parece?
— Esta discusión suele ser muy pendular. Este ciclo lo hemos vivido en otros momentos, y la prohibición no suele tener buenos resultados a largo plazo. Alguien va a tener que enseñar a esa generación a administrar la autorregulación y, si no lo hace la escuela, ¿quién lo va a hacer? Si lo hace la familia, fantástico, pero eso va a generar una inequidad. El alumno que crezca en un contexto de afecto, de orientación, de capital social cultural, maravilloso; no va a tener problema. Pero, ¿y aquel que no?
— En este congreso se ha defendido que la IA es una oportunidad para reducir esa brecha. ¿Usted lo cree así?
— Podemos beber del entusiasmo o del escepticismo. Si bebemos del entusiasmo podemos decir que estas herramientas son fantásticas porque amplifican capacidades, porque dan nuevos accesos, porque hay quienes dicen que puede ser una herramienta para aprender de manera más personalizada.
— ¿Y si bebemos del escepticismo?
— Esta otra mirada nos plantea que es muy peligroso dejar a los jóvenes a merced de estos algoritmos que no sabemos dónde se construyen ni dónde se utilizarán los datos de estos chicos… Hay que tener ambas perspectivas.
— Sobre esa educación más personalizada, punto fuerte de la visión entusiasta, ¿es ya posible? ¿Se está dando?
— Bueno, en algunos lugares, no en todos. Pero en los últimos años ha crecido el acceso a herramientas que ofrecen un alto nivel de personalización, ya sea con software que tienen preprogramadas distintas rutas de aprendizaje y, según tu perfil de ruta, te da distintas opciones; o herramientas más avanzadas de inteligencia generativa que realmente customizan en base a tu proceso. Pero creo que la palabra personalización no es la ideal. Que haya un software que pueda customizar algunas cosas es buenísimo, pero no lo llamaría personalización. No es exactamente lo mismo.
— En absoluto.
— El gran reto que tiene un docente es que tiene a 30 estudiantes, en países de bajos ingresos, más. Entonces se hace muy difícil tratar de responder a estudiantes que van más avanzados y a aquellos que van con mayor rezago. Tratar de dar opciones que se adapten a su estilo de aprendizaje. Esto viene a ayudar, pero no podemos esperar que los docentes estén al día de cada novedad tecnológica, porque si no, entonces esperamos que el docente esté ahí por su labor de tecnólogo y el docente tiene una labor que es mucho más rica que es la de formar ciudadanos para un mundo complejo, donde la tecnología es importante, pero también el medio ambiente o la equidad de género. Que esta novedad no obnubile las otras cuestiones. Yo soy un entusiasta de esto, pero un entusiasta crítico. Me pregunto , ¿a quién tiene que pedir ayuda un docente, o qué ayudas le da el sistema? Tiene que recibir una formación permanente.
— Y usted que tiene una mirada amplia… ¿Eso pasa en algún país?
— En general todos los países están enfrentando retos de déficit de docentes, de preparación y de motivación. La labor docente ha sido muy golpeada, y en pandemia más, todavía. Lo más interesante, más que en un país puntual, está en la medida que la propia comunidad docente ha construido una red en la que entre iguales se pueden ayudar.
— Se habla de las oportunidades de la IA para mejorar la orientación y reducir el abandono escolar temprano, uno de los grandes retos en Catalunya. ¿Cree que la tecnología puede ayudar en eso?
— La academia está dividida en eso. Están quienes dicen que hoy en día tenemos más datos que nunca y que con esos datos podemos tomar decisiones más informadas, y está quien plantea que hay cosas que son difíciles de parametrizar con datos. Las emociones son difíciles de parametrizar. Si un estudiante tiene ciertos comportamientos en una plataforma y cada vez que está en la plataforma tiene desempeños mediocres, pero ese mismo estudiante en su tiempo libre en una libreta escribe todo el tiempo, esos talentos que se desarrollan en papel no quedan recogidos en los datos. Bajo la mirada de los datos es un pésimo estudiante. Si nuestro oráculo solo son los datos, hay que tener muy presente que hay un lado B de esa luna que no tenemos registrado.
— Por suerte, hay todavía información sobre nosotros que se escapa al radar de las big tech.
— En mi libro Acepto las condiciones planteaba que hay una situación como de señores feudales y vasallos. Los señores feudales escriben el código, dan las plataformas y los vasallos solo usan las estructuras que otros crearon, pero no tienen acceso a lo que generan esos datos. Hay una asimetría que no hemos resuelto, y la IA la amplia. Además de avanzar en la regulación, hay que desarrollar en los estudiantes una alfabetización sobre los datos. Aprender a navegar, entender que un poquitín de desobediencia tecnológica hace bien.
■