Disgrâce d’un des chercheurs les plus cités au monde
Un bio-informaticien a profité de sa position au sein de plusieurs revues scientifiques pour forcer certains de ses collègues à citer ses articles scientifiques et devenir l’un des chercheurs les mieux notés du monde
Avec 58153 citations, Kuo-Chen Chou, pourtant inconnu en dehors de sa discipline, est l’un des chercheurs les plus cités au monde. En comparaison, l’astronome suisse et Prix Nobel de physique 2019 Didier Queloz est cité 25742 fois. Alors que le nombre de citations est l’un des principaux critères d’évaluation des chercheurs et leur permet de récolter des financements, cette situation n’interpelait, jusqu’ici, pas grand monde.
Mais le 6 février, la revue scientifique Nature a révélé que Kuo-Chen Chou avait utilisé sa position dans différentes revues scientifiques pour pousser, massivement et pendant des années, d’autres chercheurs à citer ses articles, augmentant artificiellement le nombre de citations de son travail.
Radié une première fois
Comme beaucoup de chercheurs, Kuo-Chen Chou est relecteur (reviewer) pour certaines revues scientifiques. Les éditeurs des revues s’appuient sur les critiques de ces relecteurs indépendants pour décider de la publication ou non des articles scientifiques. Le rôle du relecteur est de critiquer les articles que les éditeurs lui envoient en indiquant l’intérêt, l’originalité et les éventuelles erreurs qu’il détecte.
Au sein de la revue Bioinformatics, Kuo-Chen Chou profitait de cette position de relecteur pour suggérer, à chaque article, de citer une trentaine de ses articles. En 2019, la revue l’a repéré et l’a radié de sa liste de reviewers en informant ses lecteurs de la situation sans le nommer.
Mais en ce début d’année 2020, une deuxième revue scientifique, le Journal of Theoretical Biology (JTB), a annoncé avoir repéré des manipulations du système de citations. Dans cette revue, Kuo-Chen Chou occupait cette fois la place d’éditeur, une position de cadre. Dans les revues, «l’éditeur règne sur la publication des articles», confirme Boris Barbour, neuroscientifique et co-organisateur de la plateforme Pubpeer, qui rassemble des commentaires sur la qualité des publications scientifiques.
Selon le JTB, Kuo-Chen Chou s’est permis de relire des articles lui-même sous un pseudonyme en créant des adresses mail factices et de choisir des relecteurs venant de son propre institut, le Gordon Life Science Institute, qu’il a créé en 2003.
Articles à la chaîne
Alexandre de Brevern, bio-informaticien à l’Institut national français de la santé et de la recherche médicale (Inserm), convient que «Kuo-Chen Chou a publié, dans les années 1990, un certain nombre d’articles scientifiques tout à fait honorables dans le domaine».
Mais, déjà à cette époque, il a remarqué des pratiques de publication déontologiquement discutables de la part de son collègue.
Celui-ci saucissonnait ses articles pour en publier le plus possible: «Là où un autre chercheur aurait publié un ou deux articles par an, lui en publiait très rapidement 20 par an sans difficulté», explique-t-il.
Le bio-informaticien confirme avoir constaté, par la suite, en tant qu’éditeur et relecteur, les pratiques de manipulation du système de notation par KuoChen Chou. Mais si Alexandre de Brevern a agi pour éviter de se faire instrumentaliser, il dit ne pas avoir pu aller plus loin, ne connaissant pas l’ampleur du phénomène.
Cette anecdote remet en question la façon dont sont évalués les chercheurs. Pour Baptiste Gault, chercheur à l’Institut Max-Planck de sidérurgie, éditeur de la revue Materialia et ex-éditeur du groupe Elsevier, «ce cas est exceptionnel dans la magnitude et dans la durée, mais à partir du moment où une mesure est utilisée pour juger les gens, certains vont jouer avec».
Comment mesurer la qualité
C’est toujours ce système de mesure de la qualité des scientifiques qui pose question. De nombreux scientifiques se disent pour son abandon, au profit d’un autre, mais lequel? Et les organismes de recherche sont-ils prêts à investir dans un nouveau système d’évaluation et à modifier celui qu’ils utilisent abondamment?
En 2013 a été publiée la Déclaration de San-Francisco sur l’évaluation de la recherche, qui remet en cause l’usage d’indicateurs bibliométriques, comme les citations, dans l’évaluation des chercheurs. Depuis, une grande partie des organismes de recherche, comme le Fonds national suisse de la recherche scientifique, l’ont signée mais peu de choses ont changé dans les pratiques.
■