Re­tour sur des su­jets de Books

Vic­time de mul­tiples biais cog­ni­tifs d’au­tant plus per­vers qu’ils sont in­cons­cients, je me re­pose sur l’ex­per­tise d’au­trui et évo­lue dans l’illu­sion de sa­voir pour­quoi j’ai rai­son.

Books - - ÉDITO | SOMMAIRE - — O. P.-V.

Ai-je rai­son de pen­ser ce que je pense ? (Si j’ai une opi­nion sur le su­jet, s’en­tend.) Com­ment puis-je en être sûr ? Se pour­rait-il que ce que je pense, sans doute pas sur tous les su­jets, mais sur la plu­part ou sur beau­coup d’entre eux, ne soit pas fon­dé ? À vrai dire, il n’est pas be­soin d’une longue ré­flexion pour s’en convaincre et consta­ter qu’il en va de même pour cha­cun d’entre nous. Dé­jà lon­gue­ment ex­plo­rée par So­crate, cette idée conti­nue de che­mi­ner, plus ou moins sou­ter­rai­ne­ment. Mise le plus sou­vent sous le bois­seau, ob­jet du plus for­mi­dable de tous les dé­nis, elle connaît au­jourd’hui une nou­velle jeu­nesse, par la ver­tu de ce qu’on ap­pelle abu­si­ve­ment les « sciences cog­ni­tives ». Je dis « abu­si­ve­ment », parce qu’en fait de science on est bien sûr loin du compte. Di­sons plu­tôt qu’un cer­tain nombre de cher­cheurs, in­té­res­sés par le fonc­tion­ne­ment de notre cer­veau pris en fla­grant dé­lit de ju­ger, dé­crivent de ma­nière de plus en plus fine les « biais » qui ins­truisent notre pen­sée à nos dé­pens.

En France, le pen­seur qui à ma connais­sance a le plus pro­fon­dé­ment ex­plo­ré la ques­tion est le so­cio­logue Ray­mond Bou­don. Pour en don­ner une idée, voi­ci quelques phrases ti­rées de sa pré­face à une nou­velle édi­tion de L’Idéo­lo­gie ou l’Ori­gine des idées re­çues : « D’où pro­viennent les croyances aux idées non fon­dées ob­jec­ti­ve­ment ? » ; « Les croyances en des idées non fon­dées peuvent être aus­si et sont sou­vent au moins pour par­tie le pro­duit du fonc­tion­ne­ment le plus nor­mal de la pen­sée » ; « Des idées fausses peuvent être et sont sou­vent fon­dées sur une ar­gu­men­ta­tion ac­cep­table » ; « Com­ment des idées dou­teuses peuvent-elles être conso­li­dées par des ar­gu­ments im­pec­cables ? » ; « On peut avec de bonnes rai­sons croire dur comme fer à des illu­sions ». Aux États-Unis, le livre fon­da­teur est de Williard Van Or­man Quine et Jo­seph Sil­bert Ul­lian, The Web of Be­lief, dont la pre­mière édi­tion est pa­rue en 1970. L’idée de base est que nous ac­cep­tons ou re­je­tons une croyance se­lon qu’elle entre ou n’entre pas dans notre ré­seau de croyances. Comme l’a écrit ré­cem­ment dans The New Yor­ker la phi­lo­sophe amé­ri­caine Sha­ron Sch­warze, « les croyances qui sont au centre de notre ré­seau sont so­li­de­ment en­ra­ci­nées, car les chan­ger exi­ge­rait de re­cons­truire des pans en­tiers du ré­seau ». Au­tre­ment dit, ce­la exi­ge­rait une dé­pense d’éner­gie de­vant la­quelle nous pré­fé­rons in­cons­ciem­ment re­non­cer. Une iro­nie de l’his­toire est que le Web, de nos jours, est un ré­seau bien réel dont toutes les études montrent qu’il ren­force nos ré­seaux de croyances en nous don­nant l’illu­sion de nous confé­rer un sup­plé­ment d’ob­jec­ti­vi­té, alors que nous ne fai­sons le plus sou­vent qu’y pui­ser des ar­gu­ments qui viennent le confor­ter.

Des ex­pé­riences me­nées sur des étu­diants dans les an­nées 1970 à l’uni­ver­si­té Stan­ford montrent que même sur des su­jets re­la­ti­ve­ment simples, le fait d’ap­por­ter une ré­fu­ta­tion en bonne et due forme à une croyance même ré­cem­ment for­mée la laisse sou­vent in­tacte. Sur des su­jets lourds et com­plexes, comme l’at­ti­tude à l’égard de la peine de mort, une croyance an­crée dans un sens ou dans l’autre ré­siste à la pré­sen­ta­tion d’études « scien­ti­fiques » abou­tis­sant à la conclu­sion contraire. C’est ce que les psy­cho­logues Amos Tvers­ky et Da­niel Kah­ne­man ont ap­pe­lé « le biais de confir­ma­tion » : la forte ten­dance à ac­cueillir les in­for­ma­tions qui confortent nos croyances et à re­je­ter les in­for­ma­tions qui viennent les contre­dire. Dans The Un­doing Pro­ject : A Friend­ship That Chan­ged Our Minds, Mi­chael Le­wis fait le ré­cit de l’ami­tié entre ces deux hommes, qui ont fait de la psy­cho­lo­gie des biais cog­ni­tifs une dis­ci­pline à part en­tière. Cette dis­ci­pline est de­ve­nue une ins­ti­tu­tion, au point d’être ex­ploi­tée de ma­nière rou­ti­nière par les géants du Web et les concep­teurs de jeux vi­déo, qui misent sur nos biais cog­ni­tifs pour dé­ve­lop­per de sa­vantes tech­niques de vente. Elle est éga­le­ment ex­ploi­tée par les ser­vices de ren­sei­gne­ment, l’ar­mée et, bien sûr, les po­li­tiques, qui s’ap­puient sur des en­tre­prises spé­cia­li­sées pour concoc­ter les mes­sages les plus propres à per­sua­der.

L’un des pro­duits de la psy­cho­lo­gie des biais cog­ni­tifs est l’éco­no­mie dite com­por­te­men­tale, elle aus­si de­ve­nue une dis­ci­pline à part en­tière. Elle s’ap­puie sur le fait que les agents éco­no­miques, confron­tés au ca­rac­tère for­cé­ment in­cer­tain de la plu­part des si­tua­tions, sont vic­times d’une dou­zaine de ca­té­go­ries d’er­reurs sys­té­ma­tiques iden­ti­fiables, qui pro­duisent des dé­ci­sions ir­ra­tion­nelles. Outre le biais de

confir­ma­tion, qui se re­trouve ici comme ailleurs, in­ter­viennent par exemple l’ef­fet de do­ta­tion, par le­quel nous at­tri­buons plus de va­leur à ce qui nous ap­par­tient qu’à ce qui ne nous ap­par­tient pas, la pré­fé­rence psy­cho­lo­gique pour le sta­tu quo, la ten­dance à at­tri­buer un poids plus im­por­tant aux pertes qu’aux gains po­ten­tiels, le pré­sen­tisme, qui consiste à pro­lon­ger men­ta­le­ment les ten­dances ac­tuelles sans ima­gi­ner la pos­si­bi­li­té d’un chan­ge­ment ra­di­cal, ou en­core la ten­dance à être im­pres­sion­né par un évé­ne­ment qui vient de se pro­duire au point de pen­ser que ce type d’évé­ne­ment va se re­pro­duire pro­chai­ne­ment. Le der­nier livre de Da­niel Kah­ne­man, Sys­tème 1/Sys­tème 2, dé­ve­loppe l’idée que notre cer­veau fonc­tionne sui­vant deux sys­tèmes qui entrent en com­pé­ti­tion : le sys­tème 1 est fon­dé sur l’in­tui­tion, il est ra­pide et au­to­ma­tique ; le sys­tème 2 est fon­dé sur la rai­son, il est lent et ré­flé­chi. Le pre­mier dé­pense une éner­gie mi­ni­male, le se­cond une éner­gie maxi­male. La loi du moindre ef­fort nous com­mande de pri­vi­lé­gier le pre­mier. Comme l’a dé­crit par le me­nu le po­li­to­logue fran­çais Phi­lippe Braud (in­ter­viewé dans Books, avril 2012), au mo­ment d’une élec­tion le choix des ci­toyens est pour l’es­sen­tiel dic­té par leurs émo­tions, au­tre­ment dit le sys­tème 1.

L’ap­pel à l’émo­tion est d’au­tant plus ten­tant que nous connais­sons moins le su­jet. Dans un ou­vrage in­ti­tu­lé The Know­ledge Illu­sion, les cog­ni­ti­ciens amé­ri­cains Ste­ven Slo­man et Phi­lip Fern­bach men­tionnent un son­dage me­né aux États-Unis peu après l’an­nexion de la Cri­mée, ter­ri­toire ukrai­nien, par la Rus­sie. On de­man­dait aux per­sonnes in­ter­ro­gées si elles pen­saient que les ÉtatsU­nis de­vaient ré­agir, et aus­si si elles pou­vaient si­tuer l’Ukraine sur une carte. Or plus elles se trom­paient sur la géo­gra­phie, plus elles étaient fa­vo­rables à une in­ter­ven­tion. Leur ignorance glo­bale était d’ailleurs conster­nante : la moyenne des es­ti­ma­tions était fausse à plus de 1 200 ki­lo­mètres près. Pour illus­trer l’illu­sion de la connais­sance, biais cog­ni­tif s’il en est, Slo­man et Fern­bach ont me­né des ex­pé­riences simples. Ils ont ain­si de­man­dé à des étu­diants de qua­trième an­née, à Yale, s’ils com­pre­naient le fonc­tion­ne­ment d’une chasse d’eau ou d’une fer­me­ture Éclair. La plu­part se sont mon­trés d’em­blée très confiants dans leur sa­voir ; mais, priés de dé­crire par écrit le fonc­tion­ne­ment de ces ob­jets or­di­naires, ils ont dû dé­chan­ter. Les au­teurs en tirent un ar­gu­ment po­si­tif. C’est qu’Ho­mo sa­piens, es­pèce fon­ciè­re­ment co­opé­ra­tive, a construit peu à peu un sa­voir col­lec­tif sur le­quel la plu­part d’entre nous peuvent se re­po­ser, sans être obli­gés de faire l’ef­fort d’y ac­cé­der. Nous fai­sons par­tie in­té­grante d’un cer­veau col­lec­tif, un peu comme l’abeille dans sa ruche. Le ver­sant né­ga­tif du phé­no­mène est que nous pen­sons en sa­voir plus que nous en sa­vons vrai­ment – une réa­li­té dé­jà ana­ly­sée par So­crate. Ce biais cog­ni­tif en in­duit un autre, par­fois ap­pe­lé « la ma­lé­dic­tion du sa­voir » : ceux qui connaissent un su­jet peinent sou­vent à conce­voir que les autres n’y connaissent rien. La com­plexi­té de notre rap­port à la connais­sance est à mettre en re­la­tion avec notre « ré­seau de croyances ». Pour re­ve­nir à Bou­don, nos pré­fé­rences idéo­lo­giques, qui tra­duisent une pré­fé­rence pour les idées re­çues, sont d’au­tant plus fa­ci­le­ment confor­tées que nous nous re­po­sons sur l’ex­per­tise d’au­trui pour les va­li­der. Mais pas n’im­porte quelle ex­per­tise. Car nous don­nons très lo­gi­que­ment la pré­fé­rence aux ex­perts dont les tra­vaux viennent confor­ter ce que nous pen­sons, sans prê­ter at­ten­tion ou en dé­ni­grant les tra­vaux d’ex­perts qui plaident en sens contraire. Or, bien en­ten­du, les ex­perts sont eux aus­si des hommes et des femmes, su­jets aux mêmes biais cog­ni­tifs que tout un cha­cun. Comme l’avait en­core très bien ana­ly­sé Bou­don, quand on quitte le do­maine des sciences exactes, la ré­fé­rence à « la science » n’est sou­vent qu’un cache-sexe des­ti­né à me confor­ter dans mes rai­sons de pen­ser ce que je pense.

The Un­doing Pro­ject: A Friend­ship That Chan­ged Our Minds, de Mi­chael Le­wis, Nor­ton, 2016.

L’Idéo­lo­gie ou l’Ori­gine des idées re­çues, de Ray­mond Bou­don, Points, 2011.

The Web of Be­lief, de W. V. Quine et J. S. Ul­lian, McG­raw-Hill Edu­ca­tion, 1978.

Sys­tème 1/Sys­tème 2.

Les deux vi­tesses de la pen­sée, de Da­niel Kah­ne­man (tra­duit de l’an­glais par Ray­mond Cla­ri­nard), Flam­ma­rion, 2016.

The Know­ledge Illu­sion, de Ste­ven Slo­man et Phi­lip Fern­bach, Ri­ve­rhead Books, 2017.

Newspapers in French

Newspapers from France

© PressReader. All rights reserved.