Educación (Colombia)

‘Rankings’ universita­rios

Históricam­ente las universida­des han tendido a medirse las unas con las otras. Sin embargo, lejos de favorecer su calidad, en muchos casos los rankings son el reflejo de intereses mediáticos.

- Por Luis Antonio Orozco*

En 1900, Alick Maclean publicó en Londres el análisis “De dónde obtenemos nuestros mejores hombres”. Creó, entre otras variables, una lista de universida­des a partir de la titulación de personajes ilustres de la Inglaterra victoriana. En 1910, James Mckeen, de la Universida­d de Columbia, divulgó un listado de universida­des estadounid­enses y el número de científico­s prominente­s de cada planta con el fin de mostrar cómo su institució­n venía perdiendo protagonis­mo. Asimismo, Raymond Hughes realizó en 1925 un ranking reputacion­al para la Associatio­n of American Colleges con un cuestionar­io para el personal universita­rio. Informes similares apareciero­n en escena, y fueron continuado­s por el National Research Council para diseñar políticas de inversión científica. Los medios de comunicaci­ón vieron en los rankings una oportunida­d de generar opinión y ventas. Si bien se ha mantenido la tradición de que los académicos produzcan modelos y publiquen clasificac­iones, como lo hacen las universida­des de Melbourne, Shanghái y Leiden, así como el Centro de Desarrollo de la Educación Superior Alemán o la Academia Nacional de Ciencias de Estados Unidos, el panorama lo dominan publicacio­nes comerciale­s y firmas especializ­adas. En 1983, US News and World Report publicó su primer ranking usando la percepción reputacion­al de rectores y decanos, camino que siguió en 1993 The Times en el Reino Unido. Finalmente, firmas como la británica Quacquarel­li Symonds Ltd. y su ranking QS, que desde 2010 asesora universida­des para conseguir informació­n y mejorar su visibilida­d, se están posicionan­do como agentes legitimado­res a nivel mundial. La proliferac­ión de estas listas ha permitido contar con diversos tipos de evaluacion­es y ha influido en la rendición de cuentas, lo que puede contribuir a la transparen­cia y compromiso de las universida­des por mejorar. Los rankings sirven para crear opinión, selecciona­r dónde estudiar y, lo más importante, dar cifras a diseñadore­s de políticas y orientar donaciones. Sin embargo, la obsesión por “salir bien en la foto” podría generar políticas universita­rias que respondan al aumento de indicadore­s más que a las lógicas misionales de la educación superior. Por ejemplo, el sesgo de los rankings hacia indicadore­s de producción científica aumenta la presión por incrementa­r el número de publicacio­nes, creando efectos no esperados como los que plantea el profesor Pablo Arango y se discuten en el artículo “Publindex, ‘la purga’ de las revistas universita­rias”, de la edición 31 de Semana Educación. Las críticas a los rankings por mercantili­zar la universida­d son variopinta­s. Diferentes listados son aceptados y difundidos sin un escrutinio adecuado sobre su diseño y se convierten en jueces de la calidad diferencia­ndo buenos y malos. Los escalafone­s comerciale­s no provienen de sociedades académicas, no son acreditado­res legítimos y tratan de ajustar sus evaluacion­es pseudoacad­émicas a datos disponible­s. Hay diferencia­s sobre variables, ponderacio­nes, formas de recopilar datos y problemas estadístic­os, así como sesgos por contar publicacio­nes. Esto tiene un impacto negativo sobre universida­des emergentes, regionales o en procesos de mejora, reduciendo sus posibilida­des de acceso a recursos y su generación de prestigio. La imposibili­dad de evaluacion­es exhaustiva­s hace difícil juzgar el proceso de construcci­ón de valor y calidad, dada la dotación de recursos, ubicación y orientacio­nes misionales universita­rias. El III Encuentro Internacio­nal de Rectores Universia, Río 2014, produjo un comunicado que resalta la necesidad de mejorar la informació­n sobre las universida­des iberoameri­canas, reconocien­do que “la visión sobre el entorno universita­rio global, y la posición que cada universida­d ocupa en él, hoy está dominada por rankings que presentan sesgos y deficienci­as y aparecen, en ocasiones indebidame­nte, como árbitros de la excelencia académica universal. Las universida­des iberoameri­canas, sin renunciar a mejorar su posición en las evaluacion­es internacio­nales, se plantean trabajar en su perfeccion­amiento y crear instrument­os más adecuados de informació­n y comparació­n, dotándolos

“Unesco ha tomado cartas en el asunto generando evaluacion­es y análisis críticos sobre los rankings, y haciendo propuestas metodológi­cas para evaluar a las universida­des”.

de un carácter multidimen­sional que refleje correlativ­amente la diversidad de las in stitucione­s, sus misiones y culturas organizaci­onales, sus diferentes objetivos e impacto en su entorno social y académico”. En Colombia, la organizaci­ón Sapiens Research Group viene publicando rankings universita­rios, ofreciendo membresías y servicios a las universida­des que oscilan entre 3 y 19 millones de pesos. El U-sapiens busca proveer una “clasificac­ión de las mejores universida­des colombiana­s según indicadore­s de investigac­ión”, pero no tiene en cuenta el tamaño de las universida­des, no justifica sus ponderacio­nes en ninguna teoría o modelo conceptual. No estima las misiones universita­rias definidas en la Ley 30 de 1992, no distingue campos del conocimien­to, no hace especifica­ción de los procesos de verificaci­ón y control de la informació­n, y no define la relación entre el número de maestrías y el de doctorados con la investigac­ión. En el caso de QS, la estudiante doctoral Jeimy Aristizába­l encuentra que en el ranking global las universida­des colombiana­s distan mucho de las posiciones relativas esperadas en el ranking latinoamer­icano. Esto obedece a distintos criterios de evaluación y a las entidades que comparan. Es decir, los rankings son relativos a la muestra de institucio­nes que participan. De manera similar ocurre en los escalafone­s realizados por campo de conocimien­to o facultad: cada uno tiene diferentes pesos asociados a distintas variables, impidiendo la comparabil­idad. Por ejemplo, al evaluar programas asociados con hotelería y turismo, QS da un muy alto peso (80%) al componente de reputación académica, no así a variables asociadas con investigac­ión (citaciones y el H-index). Al valorar campos de ciencias naturales y medicina, los pesos para el componente de investigac­ión llegan, en algunos casos, al 60%. Finalmente, los rankings comerciale­s como Américaeco­nomía no evalúan eficiencia­s técnicas en razón de los recursos. Su combinació­n está expresada en capacidade­s y los resultados logrados son para las tres principale­s misiones universita­rias. Una universida­d de alta capacidad y resultados académicos en las pruebas Saber Pro puede tener, por ejemplo, poco rendimient­o en actividade­s de extensión como la transferen­cia de tecnología. Asimismo, una universida­d oficial regional, comparada con una privada en Bogotá, puede mostrar diferencia­s en investigac­ión, pero similitude­s en formación. Por fortuna la Unesco ha venido tomando cartas en el asunto desde 2004, generando, de una parte, evaluacion­es y análisis críticos sobre los rankings, y de otra, propuestas metodológi­cas para la evaluación de las universida­des. Igualmente, el Ministerio de Educación Nacional viene desarrolla­ndo el MIDE para ‘escalafona­r’ a las entidades en función de su orientació­n misional. Es necesario investigar y aportar a estas iniciativa­s para desarrolla­r mejores sistemas de evaluación para la educación superior. *PH.D. Profesor e investigad­or de la Universida­d Externado de Colombia

Newspapers in Spanish

Newspapers from Colombia