Les re­cherches en éco­no­mie ne sont gé­né­ra­le­ment pas ré­pli­cables.

Books - - 19 FAITS & IDÉES À GLANER DANS CE NUMÉRO -

En 2013, un étu­diant de l’uni­ver­si­té du Mas­sa­chu­setts, Tho­mas Hern­don, a créé un cer­tain émoi en dé­mon­trant qu’un ar­ticle pu­blié dans l’in­fluente Ame­ri­can Eco­no­mic Re­view par deux éco­no­mistes bien connus de Har­vard, Car­men Rein­hart et Ken­neth Ro­goff, com­por­tait des ano­ma­lies de taille : don­nées vo­lon­tai­re­ment écar­tées, er­reurs de co­dage, ré­sul­tats sta­tis­tiques mal pon­dé­rés. Ana­ly­sant la crois­sance et la dette de 20 éco­no­mies avan­cées de 1946 à 2009, les au­teurs concluaient qu’un ni­veau éle­vé de dette pu­blique, su­pé­rieur à 90 % du PIB, en­traî­nait une lé­gère baisse de la crois­sance. Après ré­pli­ca­tion, Tho­mas Hern­don et ses col­lègues ob­te­naient une crois­sance de 2,2 %. Cet ar­ticle avait été ex­ploi­té par les di­ri­geants amé­ri­cains et eu­ro­péens pour jus­ti­fier leurs po­li­tiques d’aus­té­ri­té. L’an­née sui­vante, une éco­no­miste al­le­mande, Sa­rah Ne­cker, pu­bliait une en­quête me­née au­près des membres de l’As­so­cia­tion éco­no­mique eu­ro­péenne, qui ré­pon­daient de ma­nière ano­nyme. Plus de 50 % ad­met­taient avoir gon­flé le nombre de ci­ta­tions pour plaire aux ré­dac­tions en chef des re­vues et aux éven­tuels éva­lua­teurs et n’avoir pas tou­jours vé­ri­fié le conte­nu des ar­ticles ci­tés en ré­fé­rence. Plus de 30 % ad­met­taient avoir sé­lec­tion­né des don­nées pour confor­ter leur ar­gu­men­ta­tion, ar­ran­gé les sta­tis­tiques et s’être sou­mis aux sug­ges­tions d’éva­lua­teurs ou de ré­dac­teurs des re­vues même lors­qu’ils n’étaient pas d’ac­cord sur le fond. Plus de 20 % ad­met­taient n’avoir pas ci­té des tra­vaux al­lant en sens in­verse de leurs conclu­sions et co­pié sans le men­tion­ner des pas­sages de leurs tra­vaux pré­cé­dents.

En 2015, Co­lin Ca­me­rer, un éco­no­miste du Ca­li­for­nia Ins­ti­tute of Tech­no­lo­gy, a pu­blié dans Science le ré­sul­tat d’une étude vi­sant à ré­pli­quer 18 ar­ticles pu­bliés ré­cem­ment dans l’Ame­ri­can Eco­no­mic Re­view et une autre re­vue de pre­mier plan. Ces ar­ticles étaient fon­dés sur un pro­to­cole ex­pé­ri­men­tal, comme c’est de plus en plus sou­vent le cas. Sept sur les dix-huit n’étaient pas ré­pli­cables.

La même an­née, deux cher­cheurs de la Ré­serve fé­dé­rale et du mi­nis­tère amé­ri­cain des Fi­nances ont ten­té de ré­pli­quer 67 ar­ticles de 13 re­vues pres­ti­gieuses. Même en sol­li­ci­tant l’aide des au­teurs, ils n’y sont par­ve­nus que pour la moi­tié des ar­ticles. Ils en concluent qu’en l’état ac­tuel des choses « les re­cherches en éco­no­mie ne sont gé­né­ra­le­ment pas ré­pli­cables ».

Une étude pa­rue fin 2017 dans The Eco­no­mic Jour­nal pré­sente en­fin une ana­lyse sta­tis­tique de 159 mé­ta-ana­lyses (ana­lyses d’ana­lyses) d’en­vi­ron 6 700 études éco­no­miques. Elle montre que la moi­tié d’entre elles souffrent d’un dé­fi­cit de puis­sance sta­tis­tique, sus­cep­tible de faire ap­pa­raître chaque fois des ré­sul­tats qui sont soit de faux né­ga­tifs (un ré­sul­tat qui de­vrait ap­pa­raître est gom­mé) soit de faux po­si­tifs (faux ré­sul­tats). Et la plu­part des études qui ont une puis­sance sta­tis­tique suf­fi­sante gonflent la taille des ré­sul­tats.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.