Han se­cues­tra­do nues­tras men­tes.

Nues­tras de­ci­sio­nes no son li­bres, es­tán mar­ca­das por sus in­tere­ses, que no son los nues­tros. Im­po­nen la ma­ne­ra de re­la­cio­nar­nos, con­di­cio­nan nues­tra ca­pa­ci­dad de con­ver­sar y po­nen en pe­li­gro la de­mo­cra­cia... ¿Quié­nes? Los in­ge­nie­ros de Goo­gle, Fa­ce­book y

La Voz de Galicia (A Coruña) - XL Semanal - - Magazine -

Quien di­ce to­do es­to es Tris­tan Ha­rris, de 34 años, un fi­ló­so­fo muy pe­cu­liar. La re­vis­ta The Atlan­tic lo des­cri­be co­mo «lo más pa­re­ci­do a la con­cien­cia de Si­li­con Va­lley». Ha­rris li­de­ra una re­vuel­ta pa­ra po­ner la tec­no­lo­gía al ser­vi­cio de la hu­ma­ni­dad, por­que con­si­de­ra que la hu­ma­ni­dad es­tá aho­ra al ser­vi­cio de los gi­gan­tes tec­no­ló­gi­cos. Lo que ha­ce es­pe­cial a Ha­rris es su cu­rrí­cu­lum: no es un pro­fe­ta de la des­co­ne­xión que pre­ten­de que vol­va­mos a los tiem­pos en los que un

"HAY CON­SE­CUEN­CIAS NE­GA­TI­VAS QUE NO HA­BÍA­MOS PRE­VIS­TO"

te­lé­fono so­lo ser­vía pa­ra lla­mar por te­lé­fono. No, Ha­rris era uno de ellos... Uno de esos in­ge­nie­ros bri­llan­tes y al­go en­dio­sa­dos de Si­li­con Va­lley, je­fe de di­se­ño éti­co de Goo­gle, na­da me­nos. Un pues­to que aban­do­nó cuan­do se per­ca­tó de que sus co­le­gas, que asen­tían con la ca­be­za cuan­do les ha­cía una pre­sen­ta­ción con dia­po­si­ti­vas, se ol­vi­da­ban de la éti­ca en cuan­to vol­vían a sus pues­tos.

UNA LAR­GA LIS­TA DE RENEGADOS. Lo más ex­tra­or­di­na­rio es que Ha­rris no es el úni­co re­ne­ga­do. Otros tan bri­llan­tes co­mo él se han uni­do a la cau­sa. Pio­ne­ros, al­tos eje­cu­ti­vos, in­ver­so­res... Ha­rris ha crea­do el Cen­ter for Hu­ma­ne Tech­no­logy ('Cen­tro por una Tec­no­lo­gía Hu­ma­na'). Su ob­je­ti­vo es cam­biar un mo­de­lo de ne­go­cio ba­sa­do en la eco­no­mía de la aten­ción. «Lo que em­pe­zó co­mo una ca­rre­ra por mo­no­po­li­zar y mo­ne­ti­zar nues­tra aten­ción es­tá ero­sio­nan­do aho­ra los pi­la­res de nues­tra so­cie­dad: la sa­lud men­tal, la de­mo­cra­cia, nues­tras re­la­cio­nes so­cia­les y nues­tros hi­jos». «Pa­ra cap­tar nues­tra aten­ción, los gi­gan­tes de Si­li­con Va­lley nos han con­ver­ti­do en adic­tos», de­nun­cia. Lo han he­cho a sa­bien­das y des­de el prin­ci­pio por­que sus in­gre­sos pu­bli­ci­ta­rios de­pen­den de ello. Y les ha ido fe­no­me­nal, sos­tie­ne Ha­rris. «Se han he­cho in­men­sa­men­te ri­cos. Y en­ci­ma ar­gu­men­tan que lo han he­cho por nues­tro bien». Pa­ra re­ver­tir el pro­ce­so, la pri­me­ra op­ción son las me­di­das le­ga­les, pe­ro pa­re­ce po­co pro­ba­ble que los go­bier­nos es­ta­dou­ni­den­se o eu­ro­peos va­yan a po­ner to­da la car­ne en el asa­dor pa­ra pro­te­ger a la ciu­da­da­nía de la ma­ni­pu­la­ción, el en­ga­ño y la ex­plo­ta­ción por par­te de las cor­po­ra­cio­nes tec­no­ló­gi­cas. La otra for­ma es crear una con­cien­cia pú­bli­ca de la ne­ce­si­dad de esa au­to­rre­gu­la­ción. Ha­rris y los otros 'arre­pen­ti­dos' de las tec­no­ló­gi­cas son los aban­de­ra­dos de es­te mo­vi­mien­to que ya pue­de apun­tar­se un lo­gro: los CPO. Son las si­glas de chief phi­lo­sophy of­fi­cer, un je­fe de Fi­lo­so­fía. Re­cla­man que las em­pre­sas con­tra­ten a fi­ló­so­fos pa­ra que tra­ba­jen en sus ofi­ci­nas a tiem­po com­ple­to. El in­te­rés de Si­li­con Va­lley por la fi­lo­so­fía no es nue­vo. Se re­mon­ta al pro­gra­ma Sym­bo­lic Sys­tems, o Sym­sis, es­ta­ble­ci­do en 1986 por la Uni­ver­si­dad de Stan­ford. Es­te pro­gra­ma te­nía el pro­pó­si­to de for­mar a la si­guien­te ge­ne­ra­ción de al­tos di­rec­ti­vos de la tec­no­lo­gía. Ana­li­za­ba la co­mu­ni­ca­ción en­tre el or­de­na­dor y el ser hu­mano por me­dio de la neu­ro­cien­cia, la psi­co­lo­gía y la fi­lo­so­fía con­tem­po­rá­nea. Ma­ris­sa Ma­yer –la an­ti­gua con­se­je­ra de­le­ga­da de Yahoo–, Reid Hoff­man –co­fun­da­dor de Lin­ke­din– y Mi­ke Krie­ger –co­fun­da­dor de Ins­ta­gram– si­guie­ron es­tos cur­sos. Pe­ro lo que en prin­ci­pio de­bía ser una he­rra­mien­ta pa­ra el bien aca­bó des­vián­do­se de su ob­je­ti­vo an­te la fas­ci­na­ción por el po­der de la neu­ro­cien­cia y la psi­co­lo­gía del com­por­ta­mien­to en el cor­to pla­zo. La fi­lo­so­fía no fun­cio­na a gol­pe de clic, pe­ro la ma­ni­pu­la­ción sí.

EL REY MI­DAS DE LA PER­SUA­SIÓN. En 1998, B. J. Fogg, un re­cién doc­to­ra­do en Psi­co­lo­gía Ex­pe­ri­men­tal de Stan­ford, creó The Stan­ford Per­sua­si­ve Tech­no­logy Lab. y se cen­tró en in­ves­ti­gar có­mo los mó­vi­les pue­den 'mo­ti­var' a la gen­te. El cam­po de in­ves­ti­ga­ción se lla­ma aho­ra mo­bi­le per­sua­sion y Fogg se ha con­ver­ti­do en el 'rey Mi­das del con­duc­tis­mo'. Fogg es, de he­cho, el pa­dre del 'di­se­ño del com­por­ta­mien­to', una ma­ne­ra eu­fe­mís­ti­ca de re­fe­rir­se a la ma­ni­pu­la­ción de los usua­rios pa­ra que ha­gan clic on-li­ne. Por ejem­plo, pre­mian­do con un 'me gus­ta' ins­tan­tá­neo cuan­do al­guien su­be una fo­to. Al­go que pa­re­ce bas­tan­te inocen­te, pe­ro que es una ma­ne­ra de re­for­zar ese com­por­ta­mien­to y con­ver­tir una ac­ti­vi­dad oca­sio­nal en un há­bi­to dia­rio. Las apli­ca­cio­nes más exi­to­sas re­cu­rren a las pul­sio­nes y ne­ce­si­da­des más hon­da­men­te arrai­ga­das en el ser hu­mano. Lin­ke­din, por ejem­plo, creó un icono pa­ra re­pre­sen­tar el ta­ma­ño de la red de con­tac­tos de ca­da

"Los gi­gan­tes de Si­li­con Va­lley nos han con­ver­ti­do en adic­tos. Sus in­gre­sos pu­bli­ci­ta­rios de­pen­den de ello. Hay que obli­gar­los a que re­di­se­ñen sus pro­duc­tos"

usua­rio, es­ti­mu­lan­do nues­tra ne­ce­si­dad in­na­ta de apro­ba­ción so­cial. La re­pro­duc­ción au­to­má­ti­ca de la si­guien­te can­ción (Spo­tify) o ví­deo (Youtu­be) es otra téc­ni­ca. Fa­ce­book no­ti­fi­ca al que en­vía un men­sa­je cuan­do lo lee el re­cep­tor, lo que ac­ti­va en es­te el sen­ti­do so­cial de la re­ci­pro­ci­dad, muy im­bri­ca­do en el ce­re­bro, y lo ani­ma a res­pon­der. Snap­chat va más allá: el usua­rio es in­for­ma­do en el mo­men­to mis­mo en que un ami­go le es­tá es­cri­bien­do, lo que pre­sio­na a es­te a ter­mi­nar y en­viar­le el men­sa­je que ha em­pe­za­do... To­das las apli­ca­cio­nes re­cu­rren a nues­tro afán de acu­mu­lar: con­tac­tos, 'me gus­ta', co­men­ta­rios, vi­si­tas...

EL SAL­VA­JE OES­TE. Tris­tan Ha­rris fue uno de los que acu­dió al más­ter de téc­ni­cas de per­sua­sión que di­ri­ge el psi­có­lo­go ex­pe­ri­men­tal B. J. Fogg. El cur­so de Fogg es­ta­ba es­truc­tu­ra­do en diez se­sio­nes, Ha­rris no pu­do ter­mi­nar­lo. Le re­chi­na­ba que ape­nas se plan­tea­ran du­das éti­cas. Fi­chó por Goo­gle por­que, se­gún él, es la pri­me­ra lí­nea del fren­te. «Con­tro­la tres pla­ta­for­mas de­ci­si­vas en nues­tras vi­das (no so­lo el bus­ca­dor): el correo elec­tró­ni­co (Gmail), el sis­te­ma An­droid de los te­lé­fo­nos mó­vi­les y el na­ve­ga­dor Ch­ro­me». Ha­rris in­ten­tó que Goo­gle se re­plan­tea­se sus pro­duc­tos. Se des­pi­dió frus­tra­do. «Vi­vi­mos en una in­men­sa ciu­dad di­gi­tal. Es el nue­vo en­torno. Y es una ciu­dad sin ley, co­mo el Sal­va­je Oes­te –di­ce Ha­rris–. Son nues­tras vi­das las que es­tán en jue­go. Nues­tro tiem­po. El cos­te de opor­tu­ni­dad de no ha­cer las co­sas que po­dría­mos ha­cer si no es­tu­vié­ra­mos con­di­cio­na­dos pa­ra con­su­mir tec­no­lo­gía de ma­ne­ra com­pul­si­va. El ado­les­cen­te que aban­do­na Snap­chat se arries­ga, ade­más, a per­der una ma­ne­ra fun­da­men­tal de co­mu­ni­car­se con sus ami­gos. Y el em­plea­do que no res­pon­de a un correo de su je­fe fuera de ho­ras pue­de per­der opor­tu­ni­da­des pro­fe­sio­na­les». Ha­rris ma­ti­za que no abo­ga por de­jar de usar la tec­no­lo­gía. Lo que pi­de es que los ciu­da­da­nos y los po­lí­ti­cos pre­sio­nen a las tec­no­ló­gi­cas pa­ra que re­di­se­ñen sus pro­duc­tos pen­san­do en los usua­rios y no so­lo en su pro­pio be­ne­fi­cio. «Si na­die las obli­ga, no lo van a ha­cer por sí so­las». Tam­po­co los usua­rios por sí so­los pue­den com­ba­tir el pro­ble­ma. «El sis­te­ma es me­jor a la ho­ra de se­cues­trar los ins­tin­tos que us­ted con­tro­lán­do­los. Hay que gas­tar una enor­me can­ti­dad de ener­gía pa­ra evi­tar que nos ma­ni­pu­len. La gen­te cree que otras per­so­nas sí pue­den ser per­sua­di­das, pe­ro no ellos. Y que, si te con­vier­tes en un adic­to, es por tu cul­pa. Por­que eres dé­bil. Por­que caes en la ten­ta­ción. Pe­ro no se per­ca­tan de que hay un ejér­ci­to de in­ge­nie­ros que se va­len de to­do ti­po de téc­ni­cas pa­ra con­ver­tir­los en adic­tos, que sa­ben có­mo ge­ne­rar an­sie­dad y la sen­sa­ción cons­tan­te de que te es­tás per­dien­do al­go».

"¿Son los con­sul­to­res fi­lo­só­fi­cos una ex­cen­tri­ci­dad de Si­li­con Va­lley? Tam­bién lo fue­ron los pri­me­ros di­rec­ti­vos de res­pon­sa­bi­li­dad so­cial cor­po­ra­ti­va y hoy es­tán en to­das las em­pre­sas"

Es­tá cla­ro, ad­mi­ten, que la re­fle­xión éti­ca no pue­de sus­ti­tuir a las obli­ga­cio­nes le­ga­les, pe­ro en el me­dio pla­zo hay que cam­biar la 'fi­lo­so­fía' del ne­go­cio en sí mis­mo.

POR QUÉ ES­TA VEZ PUE­DE SER DI­FE­REN­TE. El es­cán­da­lo por las fa­ke news, la fil­tra­ción de da­tos de Fa­ce­book pa­ra que una em­pre­sa del ul­tra­con­ser­va­dor Ro­bert Mer­cer pu­die­se ma­ni­pu­lar a los vo­tan­tes, la in­ter­ven­ción de Ru­sia en el hac­keo de or­de­na­do­res del Par­ti­do De­mó­cra­ta... Do­nald Trump ha al­te­ra­do la vi­da po­lí­ti­ca de Es­ta­dos Uni­dos desatan­do pro­ce­sos so­cia­les im­pre­vi­si­bles ha­ce po­co más de un año. La com­pa­re­cen­cia de Mark Zuc­ker­berg an­te el Se­na­do del país pa­ra dar ex­pli­ca­cio­nes so­bre la fal­ta de se­gu­ri­dad en Fa­ce­book es un sín­to­ma de la alar­ma en­tre los em­pre­sa­rios de Si­li­con Va­lley an­te el de­sen­can­to de los usua­rios con las re­des so­cia­les y la exi­gen­cia de unos mí­ni­mos éti­cos en su fun­cio­na­mien­to. Pe­ro no son so­lo las re­des so­cia­les, la in­te­li­gen­cia ar­ti­fi­cial, que avan­za de ma­ne­ra ex­po­nen­cial, es aun más in­quie­tan­te. Y aquí en­tran los fi­ló­so­fos. Son ellos los que pue­den ayu­dar a de­ter­mi­nar a qué re­glas tie­nen que ate­ner­se los desa­rro­lla­do­res. ¿Hay que pro­gra­mar ta­les al­go­rit­mos con el úni­co ob­je­ti­vo de ma­xi­mi­zar el tiem­po que el usua­rio de­di­ca a la pla­ta­for­ma, con in­de­pen­den­cia de lo que ta­les con­te­ni­dos pue­dan re­pre­sen­tar pa­ra el usua­rio? Un CPO pue­de con­tri­buir al desa­rro­llo de unas di­rec­tri­ces o pro­to­co­los fa­vo­re­ce­do­res de una pro­gra­ma­ción más 'mo­ral'. Ch­ris­tian Voegtlin, pro­fe­sor de res­pon­sa­bi­li­dad so­cial cor­po­ra­ti­va en la es­cue­la de ne­go­cios fran­ce­sa Au­dien­cia, lo tie­ne cla­ro: «La fi­lo­so­fía pue­de ayu­dar a es­ta­ble­cer unos pro­pó­si­tos y una di­rec­ción. Es im­por­tan­te a la ho­ra de res­pon­der a las pre­gun­tas so­bre có­mo con­vi­vi­mos y có­mo tra­ta­mos a los de­más». ¿Es­to de los CPO o con­sul­to­res fi­lo­só­fi­cos no se­rá la enésima ex­cen­tri­ci­dad de Si­li­con Va­lley? Voegtlin no lo cree: «La con­tra­ta­ción de fi­ló­so­fos es un fe­nó­meno nue­vo, emer­gen­te. Se­gu­ra­men­te va a re­sul­tar con­tro­ver­ti­do. En una pri­me­ra eta­pa es de es­pe­rar que los fi­ló­so­fos se en­cuen­tren con di­fi­cul­ta­des pa­re­ci­das a las de los pri­me­ros di­rec­ti­vos es­pe­cia­li­za­dos en la res­pon­sa­bi­li­dad so­cial de las cor­po­ra­cio­nes. Han de ha­cer­se oír en un en­torno que si­gue otor­gan­do prio­ri­dad a la ob­ten­ción de be­ne­fi­cios. No so­lo eso, sino que se en­cuen­tran con el pro­ble­ma de tra­du­cir com­pli­ca­dos pen­sa­mien­tos fi­lo­só­fi­cos a un len­gua­je prác­ti­co, de apli­ca­ción en el mun­do de los ne­go­cios. Lo que siem­pre ha su­pues­to una di­fi­cul­tad pa­ra los fi­ló­so­fos».

LA ÉTI­CA DEL DI­SE­ÑO. Pre­ci­sa­men­te, pa­ra ha­cer que las teo­rías éti­cas se ma­te­ria­li­cen, fi­ló­so­fos co­mo Evan Se­lin­ger –pro­fe­sor del De­par­ta­men­to de Fi­lo­so­fía del pres­ti­gio­so Ins­ti­tu­to de Tec­no­lo­gía de Ro­ches­ter– pro­po­nen em­pe­zar por al­go tan 'tan­gi­ble' co­mo el di­se­ño de la tec­no­lo­gía. «Si las com­pa­ñías de ver­dad quie­ren ha­cer las co­sas me­jor, de­ben re­vo­lu­cio­nar éti­ca­men­te el di­se­ño de sus pro­duc­tos. No se tra­ta so­lo de los im­pe­ne­tra­bles tér­mi­nos de los con­tra­tos de ser­vi­cio, que nos man­tie­nen en la ig­no­ran­cia de mo­do pre­me­di­ta­do. El di­se­ño de las co­sas in­flu­ye en nues­tra ma­ne­ra de per­ci­bir los ries­gos y las re­com­pen­sas». El di­se­ño nun­ca es neu­tral. Así lo de­jó cla­ro un me­mo­ran­do fil­tra­do ha­ce po­co, es­cri­to por el vi­ce­pre­si­den­te de Fa­ce­book, An­drew Bos­worth: «To­dos y ca­da uno de los de­ta­lles en el di­se­ño de Fa­ce­book tie­nen la fun­ción pri­mor­dial de con­se­guir que no ce­ses de com­par­tir co­sas y de que te sien­tas muy con­ten­to al ha­cer­lo». Woo­drow Har­tzog, pro­fe­sor de de­re­cho y cien­cia compu­tacio­nal, au­tor de Plan de pri­va­ci­dad: la ba­ta­lla pa­ra con­tro­lar el di­se­ño de las nue­vas tec­no­lo­gías, lo tie­ne cla­ro: «Hay una ra­zón por la que el di­se­ño hoy es una cues­tión éti­ca de pri­mer or­den: por­que las le­yes y las nor­ma­ti­vas ape­nas le han pres­ta­do aten­ción. Los le­gis­la­do­res se cen­tran en el pro­ce­sa­mien­to de da­tos, pe­ro ig­no­ran las nor­mas im­pe­ran­tes en el di­se­ño de las tec­no­lo­gías di­gi­ta­les». En el Cen­ter for Hu­ma­ne Tech­no­logy, que di­ri­ge Tris­tan Ha­rris, ya han co­men­za­do a ha­cer pro­pues­tas con­cre­tas pa­ra re­mo­de­lar ese di­se­ño. Más es­cép­ti­co, Scott Ber­kun –un an­ti­guo eje­cu­ti­vo de Mi­cro­soft y li­cen­cia­do en Fi­lo­so­fía– afir­ma que ve muy di­fí­cil que en Si­li­con Va­lley se aca­be va­lo­ran­do real­men­te el po­ten­cial de la fi­lo­so­fía. «Si Só­cra­tes le­van­ta­ra la ca­be­za, se sen­ti­ría ano­na­da­do al ver que tan­tos jó­ve­nes de­di­can su tiem­po a co­sas que ni me­jo­ran el mun­do ni los ha­cen me­jo­res a ellos».

"El di­se­ño es una cues­tión éti­ca de pri­mer or­den, pe­ro no es­tá re­gu­la­do. Los le­gis­la­do­res se cen­tran en el pro­ce­sa­mien­to de da­tos, pe­ro ig­no­ran el po­der del di­se­ño de las tec­no­lo­gías"

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.