‘Rankings’ universitarios
Históricamente las universidades han tendido a medirse las unas con las otras. Sin embargo, lejos de favorecer su calidad, en muchos casos los rankings son el reflejo de intereses mediáticos.
En 1900, Alick Maclean publicó en Londres el análisis “De dónde obtenemos nuestros mejores hombres”. Creó, entre otras variables, una lista de universidades a partir de la titulación de personajes ilustres de la Inglaterra victoriana. En 1910, James Mckeen, de la Universidad de Columbia, divulgó un listado de universidades estadounidenses y el número de científicos prominentes de cada planta con el fin de mostrar cómo su institución venía perdiendo protagonismo. Asimismo, Raymond Hughes realizó en 1925 un ranking reputacional para la Association of American Colleges con un cuestionario para el personal universitario. Informes similares aparecieron en escena, y fueron continuados por el National Research Council para diseñar políticas de inversión científica. Los medios de comunicación vieron en los rankings una oportunidad de generar opinión y ventas. Si bien se ha mantenido la tradición de que los académicos produzcan modelos y publiquen clasificaciones, como lo hacen las universidades de Melbourne, Shanghái y Leiden, así como el Centro de Desarrollo de la Educación Superior Alemán o la Academia Nacional de Ciencias de Estados Unidos, el panorama lo dominan publicaciones comerciales y firmas especializadas. En 1983, US News and World Report publicó su primer ranking usando la percepción reputacional de rectores y decanos, camino que siguió en 1993 The Times en el Reino Unido. Finalmente, firmas como la británica Quacquarelli Symonds Ltd. y su ranking QS, que desde 2010 asesora universidades para conseguir información y mejorar su visibilidad, se están posicionando como agentes legitimadores a nivel mundial. La proliferación de estas listas ha permitido contar con diversos tipos de evaluaciones y ha influido en la rendición de cuentas, lo que puede contribuir a la transparencia y compromiso de las universidades por mejorar. Los rankings sirven para crear opinión, seleccionar dónde estudiar y, lo más importante, dar cifras a diseñadores de políticas y orientar donaciones. Sin embargo, la obsesión por “salir bien en la foto” podría generar políticas universitarias que respondan al aumento de indicadores más que a las lógicas misionales de la educación superior. Por ejemplo, el sesgo de los rankings hacia indicadores de producción científica aumenta la presión por incrementar el número de publicaciones, creando efectos no esperados como los que plantea el profesor Pablo Arango y se discuten en el artículo “Publindex, ‘la purga’ de las revistas universitarias”, de la edición 31 de Semana Educación. Las críticas a los rankings por mercantilizar la universidad son variopintas. Diferentes listados son aceptados y difundidos sin un escrutinio adecuado sobre su diseño y se convierten en jueces de la calidad diferenciando buenos y malos. Los escalafones comerciales no provienen de sociedades académicas, no son acreditadores legítimos y tratan de ajustar sus evaluaciones pseudoacadémicas a datos disponibles. Hay diferencias sobre variables, ponderaciones, formas de recopilar datos y problemas estadísticos, así como sesgos por contar publicaciones. Esto tiene un impacto negativo sobre universidades emergentes, regionales o en procesos de mejora, reduciendo sus posibilidades de acceso a recursos y su generación de prestigio. La imposibilidad de evaluaciones exhaustivas hace difícil juzgar el proceso de construcción de valor y calidad, dada la dotación de recursos, ubicación y orientaciones misionales universitarias. El III Encuentro Internacional de Rectores Universia, Río 2014, produjo un comunicado que resalta la necesidad de mejorar la información sobre las universidades iberoamericanas, reconociendo que “la visión sobre el entorno universitario global, y la posición que cada universidad ocupa en él, hoy está dominada por rankings que presentan sesgos y deficiencias y aparecen, en ocasiones indebidamente, como árbitros de la excelencia académica universal. Las universidades iberoamericanas, sin renunciar a mejorar su posición en las evaluaciones internacionales, se plantean trabajar en su perfeccionamiento y crear instrumentos más adecuados de información y comparación, dotándolos
“Unesco ha tomado cartas en el asunto generando evaluaciones y análisis críticos sobre los rankings, y haciendo propuestas metodológicas para evaluar a las universidades”.
de un carácter multidimensional que refleje correlativamente la diversidad de las in stituciones, sus misiones y culturas organizacionales, sus diferentes objetivos e impacto en su entorno social y académico”. En Colombia, la organización Sapiens Research Group viene publicando rankings universitarios, ofreciendo membresías y servicios a las universidades que oscilan entre 3 y 19 millones de pesos. El U-sapiens busca proveer una “clasificación de las mejores universidades colombianas según indicadores de investigación”, pero no tiene en cuenta el tamaño de las universidades, no justifica sus ponderaciones en ninguna teoría o modelo conceptual. No estima las misiones universitarias definidas en la Ley 30 de 1992, no distingue campos del conocimiento, no hace especificación de los procesos de verificación y control de la información, y no define la relación entre el número de maestrías y el de doctorados con la investigación. En el caso de QS, la estudiante doctoral Jeimy Aristizábal encuentra que en el ranking global las universidades colombianas distan mucho de las posiciones relativas esperadas en el ranking latinoamericano. Esto obedece a distintos criterios de evaluación y a las entidades que comparan. Es decir, los rankings son relativos a la muestra de instituciones que participan. De manera similar ocurre en los escalafones realizados por campo de conocimiento o facultad: cada uno tiene diferentes pesos asociados a distintas variables, impidiendo la comparabilidad. Por ejemplo, al evaluar programas asociados con hotelería y turismo, QS da un muy alto peso (80%) al componente de reputación académica, no así a variables asociadas con investigación (citaciones y el H-index). Al valorar campos de ciencias naturales y medicina, los pesos para el componente de investigación llegan, en algunos casos, al 60%. Finalmente, los rankings comerciales como Américaeconomía no evalúan eficiencias técnicas en razón de los recursos. Su combinación está expresada en capacidades y los resultados logrados son para las tres principales misiones universitarias. Una universidad de alta capacidad y resultados académicos en las pruebas Saber Pro puede tener, por ejemplo, poco rendimiento en actividades de extensión como la transferencia de tecnología. Asimismo, una universidad oficial regional, comparada con una privada en Bogotá, puede mostrar diferencias en investigación, pero similitudes en formación. Por fortuna la Unesco ha venido tomando cartas en el asunto desde 2004, generando, de una parte, evaluaciones y análisis críticos sobre los rankings, y de otra, propuestas metodológicas para la evaluación de las universidades. Igualmente, el Ministerio de Educación Nacional viene desarrollando el MIDE para ‘escalafonar’ a las entidades en función de su orientación misional. Es necesario investigar y aportar a estas iniciativas para desarrollar mejores sistemas de evaluación para la educación superior. *PH.D. Profesor e investigador de la Universidad Externado de Colombia