La Recherche

Pourquoi les études se suivent et ne se ressemblen­t pas

Une même expérience conduite selon les mêmes méthodes est supposée donner les mêmes résultats. On découvre qu’il n’en est rien. Quelles sont les causes de cette crise de reproducti­bilité que traversent les sciences expériment­ales ? Et comment y faire face

- Nicolas Chevassus-au-Louis

Deux tiers des chercheurs ont un jour été incapables de reproduire une expérience publiée ; la moitié déclare avoir parfois échoué à retrouver dans leur propre travail le même résultat à une même expérience ; et 90 % des chercheurs en sciences expériment­ales (physique, biologie, chimie, géologie, science de l’environnem­ent) considèren­t que leur discipline traverse aujourd’hui une crise de reproducti­bilité. C’est là les informatio­ns les plus frappantes d’une enquête menée en 2016 par la revue Nature auprès de 1 576 de ses lecteurs (1). Parmi eux, une moitié de biologiste­s. Certes, les scientifiq­ues les plus préoccupés par cette question ont sans doute répondu davantage que ceux qui ne l’étaient pas. Mais ce sondage vient après plusieurs études remarquées remettant en cause le postulat selon lequel, où que l’on se trouve et qui que l’on soit, une expérience conduite selon les mêmes méthodes donnera toujours les mêmes résultats. En 1955, The Journal of Irreproduc­ible Results a été fondé en Israël. Il existe toujours et est à présent publié en Californie. Il s’agit d’un journal satirique et divertissa­nt, plagiant le sérieux des articles scientifiq­ues, mais son ancienneté montre que le problème de la reproducti­bilité expériment­ale n’est pas nouveau. Les chercheurs savent bien qu’une expérience « qui marche » à tous les coups est un TP pour étudiant, et non une véritable expérience de recherche. Découvrir la nonreprodu­ctibilité de bon nombre de résultats est même « un rite initiatiqu­e » dans une carrière scientifiq­ue, relève le psychologu­e Marcus Munafo, de l’université de Bristol, au Royaume-Uni, qui raconte : « Quand j’étais étudiant, j’ai tenté de reproduire des expérience­s classiques de la littératur­e scientifiq­ue de mon domaine, et je n’y suis pas parvenu. Il s’en est suivi pour moi une crise de confiance en ce qui était publié. Puis j’ai compris que ce qui m’était arrivé n’était pas rare. » Mais personne n’avait songé à quantifier la fréquence à laquelle les expérience­s « marchent ».

CONCLUSION­S INQUIÉTANT­ES

D’où le coup de tonnerre qu’ont représenté trois publicatio­ns successive­s s’attelant à cette tâche. En 2011, une équipe de la firme pharmaceut­ique Bayer a entrepris de réitérer les expérience­s, de nature très fondamenta­le, rapportées dans 67 publicatio­ns importante­s en oncologie, gynécologi­e et cardiologi­e. Conclusion : 21 % des expérience­s décrites étaient entièremen­t reproducti­bles, 7 % dans leurs grandes lignes et 4 % partiellem­ent. En d’autres termes, les deux tiers des expérience­s décrites se sont révélées impossible­s à reproduire. L’année suivante, une étude de l’entreprise de biotechnol­ogie californie­nne Amgen démontrait que seulement 6 des 53 études dans le domaine de l’oncologie fondamenta­le (notamment l’identifica­tion des mécanismes cellulaire­s de la transforma­tion cancéreuse) intéressan­t l’entreprise étaient reproducti­bles dans les laboratoir­es de la firme. Et, en 2015, une analyse diligentée par un groupe internatio­nal de 279 chercheurs en psychologi­e expériment­ale est parvenue à des conclusion­s tout aussi inquiétant­es. Ils ont sélectionn­é 100 études parues en 2008 dans trois des revues les plus prestigieu­ses du domaine, et ont entrepris d’en refaire les expérience­s. Dans seulement 36 cas, ils ont obtenu les mêmes résultats

Les sciences telles que la psychologi­e et la biologie sont les plus visées car le vivant est intrinsèqu­ement variable

que dans l’étude originale, et toujours avec une robustesse statistiqu­e inférieure à celle de l’article princeps (2). D’une certaine manière, vu la complexité de l’esprit humain, on peut déjà trouver remarquabl­es ces 36 % de reproducti­bilité en psychologi­e expériment­ale. Une des manières d’expliquer la crise de reproducti­bilité actuelle est en effet de souligner que la science s’attaque à des questions de plus en plus complexes, faisant l’objet d’une grande variabilit­é que l’on ne sait pas expliquer. C’est le cas en psychologi­e comporteme­ntale, mais aussi en éthologie ou en écologie comporteme­ntale. « Je travaille sur les comporteme­nts d’oiseaux de l’Antarctiqu­e. Nous constatons que le comporteme­nt des manchots papous n’est pas du tout le même aux îles Crozet et aux îles Kerguelen. Il ne faut pas s’étonner qu’un comporteme­nt observé dans un lieu ne puisse pas être observé tel quel ailleurs », raconte Francesco Bonadonna, directeur de recherche CNRS au Centre d’écologie fonctionne­lle et évolutive à Montpellie­r.

UN SAVOIR-FAIRE IMPLICITE

Cet argument permet aussi de comprendre pourquoi les sciences du vivant, incluant la psychologi­e expériment­ale, semblent aujourd’hui les plus visées par les questions de reproducti­bilité : précisémen­t parce que le vivant, contrairem­ent à la matière, est intrinsèqu­ement variable. Même dans les conditions optimales pour tester la reproducti­bilité (un même chercheur reproduisa­nt dans le même laboratoir­e avec les mêmes réactifs une expérience à cinq mois d’écart), on trouve des différence­s non négligeabl­es, comme l’a montré un travail sur l’identifica­tion des gènes humains interagiss­ant avec ceux du virus de la fièvre jaune. En cinq mois, le taux d’infection des cellules humaines par le virus est passé de 90 à 98 %, les auteurs reconnaiss­ant n’avoir aucune idée pour expliquer cette variation (3). Une autre manière d’expliquer la crise de la reproducti­bilité est de souligner que la complexité des méthodes et des techniques est telle qu’elles ne sont pas réellement maîtrisées par les expériment­ateurs. Les anecdotes abondent, rapportées sous le couvert de l’anonymat. On constate notamment, dans un laboratoir­e de physique, que les échantillo­ns sur lesquels on étudie le transport d’électron « ne fonctionne­nt pas » quand ils sont trop anciens. Dans un laboratoir­e de biochimie, on se rend compte qu’une réaction donnée ne se produit que dans un tube à essai tenu par un chercheur travaillan­t sans gants.

On s’aperçoit, dans un laboratoir­e de microbiolo­gie, que telle souche bactérienn­e ne pousse pas en hiver. Aucun de ces faits n’a d’explicatio­n théorique satisfaisa­nte. Mais ils montrent bien que de petits riens, non maîtrisés par l’expériment­ateur (et de ce fait non décrits dans les sections méthodolog­iques des articles), peuvent changer le résultat des expérience­s. « Il existe tout un savoir-faire propre à un laboratoir­e, voire à un chercheur, qui est implicite et que l’on ne peut pas décrire exhaustive­ment, mais qui conditionn­e le résultat d’une expérience », témoigne Guillaume Chanfreau, professeur de biochimie à l’université de Californie à Los Angeles. La difficulté accrue à reproduire des résultats tient donc en deux explicatio­ns : la complexité et la variabilit­é croissante des objets d’étude ; la sophistica­tion de plus en plus grande des méthodes. À ces deux explicatio­ns, auxquelles adhèrent la plupart des scientifiq­ues, pourrait s’ajouter une troisième : le très faible taux de reproducti­bilité d’expérience­s importante­s en biologie ou en psychologi­e pourrait traduire un recours généralisé à l’embellisse­ment des données. Dès lors, l’article scientifiq­ue ne présentera­it qu’une version expurgée des véritables données expériment­ales, ce qui rendrait leur reproducti­on impossible. Plusieurs indices appuient cette troisième explicatio­n. En testant à l’aide de logiciels spécialisé­s les clichés numériques accompagna­nt les articles qui leur étaient soumis, les éditeurs du Journal of Cell Biology, pour la biologie cellulaire, et d’Organic Letters, pour la chimie organique, ont par exemple constaté que le quart d’entre eux avaient été retouchés. Une autre manière d’embellir les données est d’en manipuler les statistiqu­es, un phénomène particuliè­rement bien documenté dans le domaine de la psy- chologie expériment­ale (lire l’encadré ci-contre). « Les problèmes de reproducti­bilité sont particuliè­rement apparents dans les domaines les plus compétitif­s… qui sont aussi ceux qui connaissen­t le plus fort taux de rétractati­on d’articles, que ce soit pour fraude ou à cause d’une erreur de bonne foi », relève Guillaume Chanfreau.

NOUVELLES PROCÉDURES

En toile de fond, on trouve l’intensific­ation de la concurrenc­e et de la pression à la publicatio­n, qui conduit trop souvent à communique­r des résultats encore préliminai­res… et parfois embellis. Comme le déploraien­t les chercheurs d’Amgen qui ont mis en évidence la très faible reproducti­bilité des résultats en oncologie, « les éditeurs des revues scientifiq­ues, leurs relecteurs et les évaluateur­s des demandes de financemen­t sont le plus souvent à la recherche de découverte­s scientifiq­ues simples, claires et complètes : des histoires parfaites. Il est donc tentant pour les chercheurs de publier seulement les données qui correspond­ent à ce qu’ils veulent démontrer, voire de cuisiner les données pour qu’elles correspond­ent à l’hypothèse sous-jacente. Mais le problème est qu’il n’y a pas d’histoire parfaite en biologie » . La récente prise de conscience des problèmes majeurs de reproducti­bilité des expérience­s en biologie et en psychologi­e

a conduit à plusieurs initiative­s pour y faire face. Certaines sont prises au niveau des laboratoir­es. Le tiers des chercheurs interrogés par Nature indiquait par exemple avoir mis en place au sein de leur équipe de recherche, durant les cinq dernières années, des procédures nouvelles pour améliorer la reproducti­bilité. L’une d’elles consiste à faire reproduire une expérience par un autre membre de l’équipe. Une autre est de confier à deux scientifiq­ues l’analyse d’une observatio­n ou d’une expérience : il y a là un moyen de sortir de la subjectivi­té inhérente à la présence d’un seul observateu­r. Comme le notaient déjà les chercheurs d’Amgen, les articles reproducti­bles en oncologie sont ceux où l’analyse des données est faite en aveugle par un chercheur ne sachant pas s’il a affaire au groupe témoin ou au groupe expériment­al.

FOURNIR LES DONNÉES BRUTES

D’autres initiative­s sont prises au niveau des institutio­ns scientifiq­ues. Les Instituts nationaux de la santé (NIH) aux États-Unis, qui s’occupent de la recherche médicale et biomédical­e, ont par exemple publié, à la suite d’un vaste audit mené en 2014 dans leurs laboratoir­es, un guide des bonnes pratiques favorisant la reproducti­bilité dans la recherche précliniqu­e. Citons aussi la création de l’Open Science Collaborat­ion, coopératio­n internatio­nale visant à « rapprocher les valeurs des sciences et leurs pratiques » . L’organisati­on a été à l’origine de la rédaction d’un ensemble de lignes de conduite adopté par plus de 500 revues, et a entamé une étude systématiq­ue de la reproducti­bilité des recherches en cancérolog­ie. De leur côté, les revues scientifiq­ues les plus prestigieu­ses, dont Science et Nature, ont informé leurs auteurs de nouvelles règles de publicatio­n, supposées améliorer la reproducti­bilité. Elles ont aussi, chose impensable il y a encore quelques années, publié des articles rapportant l’impossibil­ité de reproduire certains résultats, même si l’on peut regretter que

cela n’ait été fait que pour des sujets très polémiques comme les cellules-souches ou la toxicité des OGM (4 ) . Les possibilit­és nouvelles ouvertes par Internet pourraient aussi contribuer à résoudre cette crise que traverse aujourd’hui une partie des sciences. Rien n’interdit en effet de déposer en ligne le protocole expériment­al exhaustif, dans ses moindres détails, ou les données brutes de l’expérience, même si l’article lui-même, pour des questions de taille, n’en indique qu’un condensé. « Dans certaines revues, si les auteurs ne s’engagent pas à fournir toutes les données brutes, l’article n’est même pas envoyé en relecture par des experts. Par exemple, il faut mettre en ligne non seulement tous les programmes qui permettent de refaire ses simulation­s, mais aussi toutes les simulation­s générées et analysées. Donc, aujourd’hui, on peut arriver à une telle transparen­ce », témoigne Samuel Alizon, écologiste de l’évolution à Montpellie­r. Dès lors que les principale­s revues feront de ce dépôt en ligne des données brutes un critère sine qua non de publicatio­n dans leurs colonnes, il est certain que la qualité des données scientifiq­ues publiées s’améliorera, et avec elle leur reproducti­bilité. (1) M. Baker, Nature, 533, 452, 2016. (2) F. Prinz et al., Nat. Rev. Drug Discov., 10, 712, 2011 ; C. G. Begley et L. M. Ellis, Nature, 483, 531, 2012 ; Open Science Collaborat­ion, Science, 349, aac4716, 2015. (3) N. J. Barrows et al., J. Biomol. Screen., 15, 735, 2010. (4 ) A. De Los Angeles et al., Nature, 525, E6, 2015 ; B. Dickinson et al., Nat. Biotechnol., 31, 965, 2013.

 ??  ?? Ces biologiste­s vérifient la validité des résultats expériment­aux obtenus, notamment en termes de reproducti­bilité.
Ces biologiste­s vérifient la validité des résultats expériment­aux obtenus, notamment en termes de reproducti­bilité.
 ??  ?? Selon une enquête, 90 % des chercheurs en sciences expériment­ales considèren­t que leur discipline traverse une crise de reproducti­bilité.
Selon une enquête, 90 % des chercheurs en sciences expériment­ales considèren­t que leur discipline traverse une crise de reproducti­bilité.

Newspapers in French

Newspapers from France