Milenio - Campus

Publish and perish a la mexicana

Es necesario medir la productivi­dad de nuevas formas

- Roberto Rodríguez Gómez UNAM. Instituto de Investigac­iones Sociales. roberto@ unam. mx

“¿ Cómo medir la productivi­dad científi ca?, muy fácil, mediante las publicacio­nes. Pero ¿ cómo distinguir la calidad en ellas?”

En el ámbito científi co y universita­rio mexicano iniciamos la transición hacia los sistemas de retribució­n económica basados en el desempeño individual ( pay for

performanc­e) con la creación del Sistema Nacional de Investigad­ores ( SNI) en 1984. Este obedecía, según sus promotores, al propósito de aliviar el decaimient­o de los ingresos de los académicos dedicados a la investigac­ión, y facilitar su retención en las universida­des y los centros de investigac­ión del país.

Se supuso que SNI sería temporal, mientras salíamos de la crisis. Pero ocurrió lo contrario: el sistema se ha desenvuelt­o como una de las políticas científi cas de mayor continuida­d e impacto al grado en que hoy, formar parte del mismo representa la puerta de ingreso a la comunidad científi ca y el principal canal de movilidad en la ruta del prestigio académico.

Muy pronto la fórmula del SNI sería replicada, por supuesto con variantes, en los programas universita­rios de estímulo a la productivi­dad académica. Inicialmen­te en la Universida­d Autónoma Metropolit­ana y en la Nacional Autónoma de México, más adelante en el conjunto de universida­des públicas de los estados, y al cabo en el amplio y diverso conglomera­do de institucio­nes públicas de educación superior del país, incluso en las escuelas normales.

Dos problemas: Primero ¿ cómo medir la productivi­dad científi ca?, muy fácil, mediante las publicacio­nes. Pero ¿ cómo distinguir la calidad en ellas?, no es tan sencillo, y el tema ha ocupado la atención, por años, de los grupos encargados de la gestión del sistema. Segundo ¿ de qué manera ponderar las tareas de docencia y difusión académica?, más complicado aún, porque fuera de ciertos conteos básicos ( asignatura­s impartidas, tesis dirigidas, tutorías comprobada­s), la aproximaci­ón a la calidad de esas tareas es poco menos que imposible.

En el caso de la productivi­dad ( cantidad y calidad) de la investigac­ión, a medida en que se ha incrementa­do el volumen de solicitude­s de ingreso y promoción al SNI y a los sistemas de estímulo que consideran esa variable, se ha ido adoptando el criterio de utilizar métricas impacto de las publicacio­nes. En parte porque las herramient­as internacio­nales de registro y difusión ( básicament­e los índices Journal Citation Reports de Thomson Reuters y Scopus de Elsevier) han alcanzado un considerab­le nivel de desarrollo, en parte porque así se hace en los países desarrolla­dos, y en ( gran) parte porque se supone que los indicadore­s de impacto resuelven los dilemas de objetivida­d en los juicios de calidad.

La convergenc­ia en torno a la evaluación por bibliometr­ía no está, ni mucho menos, exenta de problemas. Quizás el principal consiste en generaliza­r la publicació­n de artículos en revistas indexadas como la más valiosa, en algunas áreas la única, forma de difusión de la producción académica. ¿ Y los libros, y los capítulos, y las ponencias en memorias?, cuentan menos, y como van las cosas llegará el día en que no cuenten. Algo de ello está retratado en el imprescind­ible libro de James Hynes, Publish and Perish: Three Tales of Tenure and Terror, publicado en 1997 por la editorial Picador.

Del lado de la academia no han faltado críticas a esta tendencia, más bien al contrario. Una de las más conocidas e infl uyentes es la articulada en torno a la denominada “Declaració­n de San Francisco de Evaluación de la Investigac­ión”, también conocida como DORA, por sus siglas en inglés.

La declaració­n DORA, dada a conocer en 2012 por un grupo de editores y directores de revistas académicas, se inicia con una tesis muy clara: “Hay una necesidad apremiante de mejorar la forma en que los resultados de la investigac­ión científi ca son evaluados por las agencias de fi nanciación, institucio­nes académicas y otros.” El diagnóstic­o que incluye la declaració­n destaca cuatro problemas centrales: a) la distribuci­ón de citas en revistas está muy sesgada; b) las propiedade­s del índice de impacto son específi cas del campo científi co considerad­o; c) los índices de impacto se pueden manipular por la política editorial; y d) los datos para el cálculo de los índices de impacto no son transparen­tes ni están a disposició­n del público. El documento de San Francisco, que hasta la fecha ha recogido casi 13 mil fi rmas individual­es y más de 850 fi rmas de organizaci­ones académicas y editoriale­s de todo el mundo, postula un conjunto de recomendac­iones específi cas dirigidas a las institucio­nes académicas, los organismos de fi nanciamien­to de la actividad científi ca, las casas editoras, los investigad­ores y las organizaci­ones que proveen las métricas. La lista es larga pero, según se aclara en el texto, hay tres temas trasversal­es y estratégic­os. Son los siguientes:

La necesidad de eliminar el uso de métricas basadas en revistas, tales como índice de impacto de revistas, en el fi nanciamien­to, en los nombramien­tos, y en las considerac­iones de promoción. La necesidad de evaluar la investigac­ión por sus propios méritos y no en base a la revista en la que se publica la investigac­ión. La necesidad de aprovechar las oportunida­des que ofrece la publicació­n en línea y la exploració­n de nuevos indicadore­s de importanci­a e impacto.

El tema merece atención, y la ha tenido en el mundo académico del Norte. Ojalá la discusión se abra pronto en nuestro contexto.

 ??  ??

Newspapers in Spanish

Newspapers from Mexico