Cuan­do no hay da­to que val­ga

En un mun­do ca­da vez más po­la­ri­za­do y don­de in­ter­net tiene una teo­ría pa­ra ca­da gus­to, la su­pues­ta ra­cio­na­li­dad hu­ma­na se po­ne a prue­ba. Es que pen­sar crí­ti­ca­men­te, acep­tar nue­vas ideas y cam­biar de opi­nión es, pa­ra nues­tro ce­re­bro, mu­cho más di­fí­cil de l

La Tercera - Tendencias - - SOCIEDAD - Ta­nia Opa­zo POR:

El con­cep­to de ca­len­ta­mien­to glo­bal fue crea­do por y pa­ra los chi­nos con el fin de ha­cer a las ma­nu­fac­tu­ras nor­te­ame­ri­ca­nas me­nos com­pe­ti­ti­vas”, tui­teó el ac­tual pre­si­den­te de los Es­ta­dos Uni­dos, Do­nald Trump, en no­viem­bre de 2012. Un tuit que ya tiene ca­si 70 mil “me gus­ta” y una idea que re­cien­te­men­te lo lle­vó a de­ter­mi­nar la sa­li­da de esa na­ción del Acuer­do de Pa­rís, a pe­sar del con­sen­so que exis­te en la co­mu­ni­dad cien­tí­fi­ca so­bre que la cau­sa prin­ci­pal del cam­bio cli­má­ti­co es la ac­ti­vi­dad hu­ma­na.

Sea el cam­bio cli­má­ti­co, las va­cu­nas u otro te­ma, no es po­co co­mún par­ti­ci­par o al me­nos ob­ser­var de­ba­tes en los que las pos­tu­ras pa­re­cen irre­con­ci­lia­bles. En una épo­ca don­de, de la mano de la in­ter­net, nues­tras di­fe­ren­cias de opi­nión se ha­cen más evi­den­tes y, al pa­re­cer, más ra­di­ca­les, quie­nes lle­van años es­tu­dian­do es­te te­ma di­cen que pa­ra en­ten­der­lo hay que ana­li­zar có­mo pen­sa­mos.

Soy lo que creo

En la dé­ca­da del 70 hu­bo una crí­ti­ca ma­si­va al con­cep­to del ser hu­mano ra­cio­nal y se co­men­zó a teo­ri­zar so­bre la po­si­bi­li­dad de que hu­bie­ra ele­men­tos en nues­tro sis­te­ma cog­ni­ti­vo que nos hi­cie­ran “pen­sar mal”. “Sur­gió la idea de que nues­tra men­te te­nía ses­gos y por su­pues­to la pre­gun­ta ob­via era si es­tos ses­gos eran ma­los en sí mis­mos. Pues la ver­dad no. Los se­res hu­ma­nos nos en­fren­ta­mos a un en­torno com­ple­jo y es ne­ce­sa­rio te­ner res­pues­tas rá­pi­das fren­te a cier­tas si­tua­cio­nes”, di­ce Clau­dio La­vín, pro­fe­sor de Ra­zo­na­mien­to de la Fa­cul­tad de Psi­co­lo­gía de la Uni­ver­si­dad Die­go Por­ta­les. “Por ejem­plo, si vas ca­mi­nan­do por la ca­lle y vie­ne un ti­po con pa­sa­mon­ta­ñas, tu sis­te­ma ner­vio­so au­tó­no­mo te di­ce que sal­gas co­rrien­do y te ale­jes, no que te acer­ques a pre­gun­tar­le si es real­men­te un la­drón. En ese ca­so la ver­dad co­mo fe­nó­meno pier­de re­le­van­cia, lo que im­por­ta es lo prác­ti­co”, agre­ga.

Da­niel Kanh­ne­man y Avos Tversky, que en 2002 ga­na­ron el pre­mio No­bel de Eco­no­mía con sus ha­llaz­gos, ex­pli­ca­ron es­te fe­nó­meno a tra­vés de los lla­ma­dos sis­te­mas cog­ni­ti­vos o de pen­sa­mien­to: el sis­te­ma 1 (in­tui­ti­vo) es rá­pi­do y es­tá pre­pa­ra­do pa­ra creer, no pa­ra du­dar. Es el que nos ha­ce arran­car del ti­po con el pa­sa­mon­ta­ñas. El sis­te­ma 2 (ra­cio­nal) es len­to, es­cép­ti­co y ana­lí­ti­co (qui­zás se pre­gun­ta­ría so­bre los pre­jui­cios y los pa­sa­mon­ta­ñas).

La gran par­te del tiem­po los se­res hu­ma­nos fun­cio­na­mos en mo­do 1, por­que es más fá­cil, ya que pen­sar re­fle­xi­va­men­te to­ma tiem­po y ener­gía. “Ima­gi­na si tu­vie­ras que pre­gun­tar­le a la gen­te to­do. Hay mu­cho que uno asu­me y eso pa­ra la vi­da co­ti­dia­na es muy útil, por­que pue­des pre­de­cir co­sas. Sin em­bar­go, el pen­sa­mien­to rá­pi­do es tam­bién un te­rreno fér­til pa­ra pre­jui­cios, ge­ne­ra­li­za­cio­nes ab­sur­das e irra­cio­na­li­da­des”, agre­ga La­vín. Así es co­mo hay gen­te que cree que la cau­sa de la po­bre­za es la flo­je­ra, que la ho­meo­pa­tía fun­cio­na… o que el mun­do se iba a aca­bar en 2012.

La lec­ción del ti­po con el pa­sa­mon­ta­ñas es que so­bre­vi­vir es más im­por­tan­te que la ver­dad. Por eso a me­di­da que cre­ce­mos y apren­de­mos, con­for­ma­mos una ba­te­ría pro­pia de creen­cias. Ese con­jun­to de pen­sa­mien­tos ba­se nos da un sen­ti­do de con­trol y pre­dic­ti­bi­li­dad de la vi­da. Pe­ro más im­por­tan­te aún: es­tas creen­cias pro­fun­das con­tri­bu­yen a de­li­near nues­tra iden­ti­dad, po­si­cio­nar­nos en el mun­do y de­fi­nen nues­tras per­te­nen­cias. Hay, ade­más, cier­tas ideas co­mo las creen­cias re­li­gio­sas, que sir­ven de marco general pa­ra eva­luar nue­vas si­tua­cio­nes y ex­pe­rien­cias.

“La gen­te se en­ca­ri­ña con sus ideas y es di­fí­cil pe­dir­les que se se­pa­ren de ellas por­que las sien­ten co­mo par­te de lo que son. El pro­ble­ma es que a ve­ces las creen­cias ter­mi­nan por po­seer a las per­so­nas, cuan­do de­be­ría ser al re­vés y uno po­der po­ner­las a un la­do, ele­gir­las, cam­biar­las”, ex­pli­ca La­vín. Por eso cuan­do al­guien in­ten­ta ha­cer­nos cam­biar de opi­nión, so­bre to­do en un te­ma ideo­ló­gi­ca­men­te re­le­van­te, se pro­du­ce in­me­dia­ta­men­te un re­cha­zo. “Des­es­ta­bi­li­zar to­do un sis­te­ma de ideas por al­gún da­to es tre­men­da­men­te com­ple­jo y di­fí­cil. Es­to queda en evi­den­cia pa­ra mu­chos di­le­mas so­cio­mo­ra­les, co­mo por ejem­plo el abor­to, el ma­tri­mo­nio y la adop­ción de hi­jos por par­te de pa­re­jas del mis­mo se­xo. In­clu­so el di­vor­cio... que en su épo­ca fue un te­ma su­per con­tro­ver­ti­do”, ar­gu­men­ta La­vín.

Ahí es cuan­do, ex­pli­can los ex­per­tos, apli­ca­mos a mo­do de de­fen­sa un “ses­go de con­fir­ma­ción”: el ce­re­bro ha­ce to­do lo po­si­ble pa­ra evi­tar e ig­no­rar in­for­ma­ción que con­tra­di­ga sus creen­cias, y se en­fo­ca en apren­der y ana­li­zar las que sí la con­fir­man. Por ejem­plo, hoy mu­cha gen­te que cree que Arol­do Ma­ciel pue­de pre­de­cir te­rre­mo­tos y de­ci­de (cons­cien­te o in­cons­cien­te­men­te) ig­no­rar a los ex­per­tos y au­to­ri­da­des que afir­man que eso no es po­si­ble.

La otra al­ter­na­ti­va es pen­sar len­to. Re­vi­sar datos y opi­nio­nes, ade­más de es­tar abier­tos a la po­si­bi­li­dad de que nues­tra mi­ra­da no sea la co­rrec­ta. “Pe­ro la ver­dad es que la gen­te no quie­re ha­cer eso, es mu­cho tra­ba­jo”, agre­ga La­vín.

Una ver­dad in­có­mo­da

- Yo no va­cuno a mis hi­jos por­que un es­tu­dio de­mos­tró que las va­cu­nas pro­vo­can au­tis­mo.

- Pe­ro el mé­di­co que hi­zo ese es­tu­dio fue des­acre­di­ta­do, per­dió su li­cen­cia y des­de en­ton­ces una enor­me can­ti­dad de in­ves­ti­ga­ción con­fir­ma que no exis­te víncu­lo en­tre las va­cu­nas y el au­tis­mo.

- Bueno, aun así, yo de­ci­do so­bre mis hi­jos y no quie­ro va­cu­nar­los.

Acep­tar el error es di­fí­cil. Mu­chas ve­ces sig­ni­fi­ca abra­zar con­cep­tos que no co­no­ce­mos ni en­ten­de­mos bien (pla­cas tec­tó­ni­cas y zo­nas de sub­duc­ción si ha­bla­mos de te­rre­mo­tos), creer en ins­ti­tu­cio­nes de las que por dis­tin­tas ra­zo­nes des­con­fia­mos (la me­di­ci­na tra­di­cio­nal o las far­ma­céu­ti­cas en el ca­so de las va­cu­nas) e in­clu­so du­dar de nues­tros sen­ti­dos y per-

cep­cio­nes (co­mo cuan­do nos di­cen que el pla­ne­ta se es­tá ca­len­tan­do pe­ro en mi ciu­dad no veo nin­gún cam­bio en el cli­ma). Más di­fí­cil to­da­vía si cam­biar de idea sig­ni­fi­ca ade­más mo­di­fi­car com­por­ta­mien­tos (por ejem­plo, en el mis­mo ca­so del cam­bio cli­má­ti­co, cam­biar esa her­mo­sa ca­mio­ne­ta dié­sel por un ho­rri­ble city car eléc­tri­co).

Ese es­fuer­zo, la in­co­mo­di­dad de te­ner dos ideas en con­flic­to, se lla­ma di­so­nan­cia cog­ni­ti­va, y nues­tro ce­re­bro la odia. No por na­da Al Go­re lla­mó a su do­cu­men­tal so­bre el cam­bio cli­má­ti­co Una ver­dad in­con­ve­nien­te.

Aho­ra, no se tra­ta de ir por el mun­do di­cién­do­les a los de­más que es­tán equi­vo­ca­dos. Es­to pue­de pro­vo­car el efec­to con­tra­rio (back­fi­re ef­fect): que la per­so­na re­afir­me aún más su creen­cia ini­cial. D.J Flynn, quien par­ti­ci­pa en el pro­gra­ma de Cien­cias So­cia­les Cuan­ti­ta­ti­vas del Dart­mouth Co­lle­ge, hi­zo jun­to a su equi­po una se­rie de ex­pe­ri­men­tos con pa­dres an­ti­va­cu­nas a los que les pre­sen­ta­ron datos y evi­den­cia que de­mos­tra­ban que es­tas no te­nían re­la­ción con el au­tis­mo. De acuer­do a los in­ves­ti­ga­do­res los re­sul­ta­dos fue­ron “de­pri­men­tes”, y mues­tran que pa­ra ha­cer cam­biar a al­guien de idea se ne­ce­si­tan más que datos y fo­lle­tos in­for­ma­ti­vos.

Troy Camp­bell, pro­fe­sor de Si­co­lo­gía So­cial y Com­por­ta­mien­to de Con­su­mo, se ha de­di­ca­do en­ten­der los me­ca­nis­mos a tra­vés de los cua­les las per­so­nas re­cha­za­mos nue­vas ideas y ha des­cu­bier­to que la gen­te, cuan­do se en­fren­ta a datos que no con­fir­man lo que cree, op­ta por cues­tio­nar la va­li­dez de esa in­for­ma­ción. Por ejem­plo, de­cir que los es­tu­dios que afir­man que las va­cu­nas son se­gu­ras son fi­nan­cia­dos por quie­nes las pro­du­cen. “La ver­dad es que la gen­te ama los datos, ama ser crí­ti­ca y ama la cien­cia… cuan­do no tiene nin­gu­na mo­ti­va­ción pa­ra ne­gar la ver­dad, cla­ro”.

Se­gún Step­han Le­wan­dowsky, di­rec­tor de la Es­cue­la de Psi­co­lo­gía Ex­pe­ri­men­tal de la Uni­ver­si­dad de Bris­tol, pa­ra ma­ne­jar el es­cep­ti­cis­mo y cre­cien­te des­con­fian­za ha­cia el co­no­ci­mien­to y la cien­cia es ur­gen­te edu­car a los ciu­da­da­nos. “Nin­gún cien­tí­fi­co in­di­vi­dual es in­mu­ne al error y el ses­go, pe­ro en general, la cien­cia pro­por­cio­na el me­jor co­no­ci­mien­to po­si­ble”, di­ce.

Pa­ra eso Clau­dio La­vín, quien en­se­ña pen­sa­mien­to crí­ti­co a alum­nos de Psi­co­lo­gía e In­ge­nie­ría Co­mer­cial, ex­pli­ca que “les ha­ce la me­tá­fo­ra de In­cep­tion (la pe­lí­cu­la): que si­gan al­gu­na idea re­le­van­te pa­ra ellos y des­cu­bran cuán­do se ins­ta­ló en sus ca­be­zas y si po­drían cam­biar­la de al­gu­na for­ma. Aun­que creo que lo ven co­mo un ejer­ci­cio más aca­dé­mi­co, es­pe­ro que que­de una se­mi­lla de eso”.

“De­be­mos tra­tar de ayu­dar a la gen­te a pen­sar en tér­mi­nos me­ta, es de­cir, que la cien­cia no se ba­sa en un so­lo es­tu­dio, sino en una gran can­ti­dad de in­ves­ti­ga­ción a lo lar­go del tiem­po. Lo im­por­tan­te es co­mu­ni­car el pe­so de la evi­den­cia (con­sen­so cien­tí­fi­co) a la gen­te, a tra­vés de mu­chos es­tu­dios”, agre­ga San­der van der Lin­den, di­rec­tor del So­cial De­ci­sion-Ma­king Lab de la Uni­ver­si­dad de Cam­brid­ge.

Pa­sio­nes en lí­nea

Si hay un te­rreno en que la po­la­ri­za­ción ha au­men­ta­do es el po­lí­ti­co, lo que se ha vis­to en re­cien­tes elec­cio­nes en dis­tin­tas par­tes. Do­nald Trump con­quis­tó a bue­na par­te de elec­to­ra­do ape­lan­do a emo­cio­nes co­mo la ira y el mie­do a los in­mi­gran­tes. Al­go si­mi­lar se vio es­te año en el dis­cur­so de la de­rro­ta­da can­di­da­ta de la ul­tra­de­re­cha fran­ce­sa Ma­ri­ne Le Pen.

Se­gún Clau­dio La­vín, uno tiene de­re­cho a pe­dir­les a las au­to­ri­da­des y per­so­nas que to­man de­ci­sio­nes vin­cu­lan­tes a pen­sar con sis­te­ma 2. “Si hay per­so­nas que de­ba­ten y to­man de­ci­sio­nes res­pec­to de co­sas que no sa­ben o co­no­cen par­cial­men­te, en­ton­ces es de­jar las de­ci­sio­nes pú­bli­cas en ma­nos del sis­te­ma 1 de los po­lí­ti­cos”, ex­pli­ca.

Es­te ma­yor agi­ta­mien­to po­lí­ti­co, apa­ren­te­men­te, es­tá sien­do po­ten­cia­do por las re­des so­cia­les. “Las no­ti­cias fal­sas, las teo­rías cons­pi­ra­ti­vas y la po­la­ri­za­ción de los usua­rios no son un pro­ble­ma que ha­ya sur­gi­do con la in­ter­net. Cier­ta­men­te el rol que cumplen tien­de a agra­var la si­tua­ción, pe­ro el pro­ble­ma de fon­do es hu­mano”, di­ce Ana Lu­cía Sch­midt, que tra­ba­ja en el La­bo­ra­to­rio Compu­tacio­nal de Cien­cias So­cia­les del IMT School, de Ita­lia. Su equi­po reali­zó un aná­li­sis cuan­ti­ta­ti­vo de 376 millones de usua­rios y 920 fuen­tes de no­ti­cias en Fa­ce­book, que mos­tró una fuer­te po­la­ri­za­ción en el con­su­mo de no­ti­cias. “Los al­go­rit­mos de las re­des so­cia­les nos proveen de fuen­tes de no­ti­cias si­mi­la­res con las que he­mos in­ter­ac­tua­do en el pa­sa­do, in­de­pen­dien­te­men­te de su ve­ra­ci­dad, las que com­par­ti­mos con fa­mi­lia­res y ami­gos. Es así que los usua­rios tien­den a agru­par­se en co­mu­ni­da­des fuer­tes y bien de­fi­ni­das al­re­de­dor de pro­vee­do­res de no­ti­cias que acep­tan, ge­ne­ran­do gru­pos po­la­ri­za­dos, o bur­bu­jas de in­for­ma­ción, don­de sus creen­cias y pun­tos de vis­ta se ven re­for­za­dos y las opi­nio­nes di­si­den­tes son ig­no­ra­das”, ex­pli­ca.

Es­te efec­to lla­ma­do “cá­ma­ra de eco” re­fle­ja có­mo, tan­to en el mun­do real co­mo en la web, nos blin­da­mos pa­ra tra­tar de re­ci­bir in­for­ma­ción que con­fir­ma nues­tros ses­gos y nos ha­ce sen­tir bien. Se­gún Lean­dro De Bra­si, pro­fe­sor en la Uni­ver­si­dad Al­ber­to Hur­ta­do y ex­per­to en fi­lo­so­fía de la men­te, las re­des so­cia­les pue­den res­trin­gir aún más nues­tra ha­bi­li­dad de apre­ciar po­si­cio­nes opues­tas, per­pe­tuan­do es­te ses­go y pro­mo­vien­do la po­la­ri­za­ción.

“Los ses­gos son una en­fer­me­dad que de­be­mos com­ba­tir con el sano tra­ta­mien­to de los datos y edu­ca­ción”, afir­ma Troy Camp­bell. Pe­ro es una ta­rea cues­ta arri­ba, con­cuer­dan los en­tre­vis­ta­dos. “Cier­tos as­pec­tos del pen­sa­mien­to pro­ba­ble­men­te no son mo­di­fi­ca­bles, pe­ro creo que es po­si­ble te­ner el há­bi­to de pen­sar más crí­ti­ca­men­te. Ese es el pa­pel de una bue­na edu­ca­ción”, di­ce Gord Penny­cook, pro­fe­sor del De­par­ta­men­to de Si­co­lo­gía de la Uni­ver­si­dad de Ya­le.T

Clau­dio La­vín, si­có­lo­go y pro­fe­sor de Ra­zo­na­mien­to en la U. Die­go Por­ta­les.

Ser cons­cien­te del efec­to eco de las re­des so­cia­les. An­tes de com­par­tir una in­for­ma­ción in­ten­te che­quear si es ver­da­de­ra. No pro­mue­va no­ti­cias fal­sas. Diez cla­ves pa­ra con­ven­cer a otro

Newspapers in Spanish

Newspapers from Chile

© PressReader. All rights reserved.