EMO­CIO­NES A LA VEN­TA

La Voz de Galicia (A Coruña) - Mujer de Hoy - - Sumario -

Co­no­cen nues­tras fi­lias y fo­bias, mie­dos, frus­tra­cio­nes y ale­grías. Con ca­da co­men­ta­rio que es­cri­bi­mos en ellas, Fa­ce­book, Twit­ter e Ins­ta­gram sa­ben un po­co más de no­so­tros. Pe­ro esa re­la­ción ín­ti­ma tie­ne un pre­cio. Nues­tras emo­cio­nes es­tán a la ven­ta y son un lu­cra­ti­vo ne­go­cio. Por IXONE DÍAZ LAN­DA­LU­CE Ilus­tra­cio­nes: SEAN MACKAOUI

Q“¿Qué es­tás pen­san­do?”, te pre­gun­ta Fa­ce­book ca­da vez que abres su apli­ca­ción en tu or­de­na­dor o tu smartp­ho­ne. Sin ro­deos y sin com­ple­jos, sino más bien con des­ca­ro e in­di­si­mu­la­da in­dis­cre­ción. Te lo pre­gun­ta la red so­cial más im­por­tan­te del mun­do. La que Mark Zuc­ker­berg fun­dó en 2004 des­de su ha­bi­ta­ción de es­tu­dian­te en la Uni­ver­si­dad de Har­vard. El mis­mo Zuc­ker­berg que ha­ce unas se­ma­nas tu­vo que sen­tar­se an­te el Se­na­do de Es­ta­dos Uni­dos pa­ra dar ex­pli­ca­cio­nes so­bre el ro­bo ma­si­vo de da­tos de más 87 mi­llo­nes de usuarios por par­te de la em­pre­sa Cam­brid­ge Analy­ti­ca. La em­pre­sa uti­li­zó esos da­tos pa­ra en­viar men­sa­jes y no­ti­cias fal­sas que cam­bia­ran la for­ma de pen­sar de los vo­tan­tes y, así, im­pul­sar la cam­pa­ña pre­si­den­cial de Do­nald Trump en Es­ta­dos Uni­dos, igual que ha­bía he­cho con el re­fe­rén­dum del Bre­xit en el Reino Uni­do. Fa­ce­book, efec­ti­va­men­te, quie­re co­no­cer tus pen­sa­mien­tos más ín­ti­mos. Y que los com­par­tas con el mun­do. Quie­re que ha­bles de tu die­ta, de tu fa­mi­lia, de tu ideo­lo­gía po­lí­ti­ca, de tu orien­ta­ción se­xual, de lo que co­mis­te ayer o del plan que tie­nes pa­ra es­te fin de se­ma­na. Y quie­re co­no­cer, de pa­so, tus sen­ti­mien­tos más per­so­na­les: lo que te po­ne tris­te y lo que te in­dig­na, lo que te ha­ce fe­liz y lo que más mie­do te da en es­te mun­do. Pro­por­cio­na­mos esa in­for­ma­ción de ma­ne­ra vo­lun­ta­ria, gra­tui­ta y, a me­nu­do, apa­sio­na­da y sin caer en la cuen­ta de que nues­tras emo­cio­nes han de­ja­do de ser un pa­tri­mo­nio per­so­nal e ines­cru­ta­ble pa­ra con­ver­tir­se en una mer­can­cía. Con­ver­ti­das en un gran mer­ca­do de emo­cio­nes, las re­des so­cia­les es­tán em­pe­zan­do a cons­truir un in­quie­tan­te ne­go­cio que se de­di­ca a re­co­pi­lar, ana­li­zar y, fi­nal­men­te, ven­der nues­tros es­ta­dos de áni­mo. El me­jor pos­tor pue­de ser un anun­cian­te de co­ches o un par­ti­do po­lí­ti­co.

Se ven­de fe­li­ci­dad

Evi­den­te­men­te, no es un ne­go­cio ino­cen­te. Ha­ce un año, el dia­rio The Aus­tra­lian des­ve­ló que va­rios eje­cu­ti­vos de Fa­ce­book ha­bían pro­me­ti­do a sus anun­cian­tes que eran ca­pa­ces de iden­ti­fi­car a usuarios ado­les­cen­tes que se sen­tían “in­se­gu­ros”, “inú­ti­les”, “an­sio­sos”, “es­tú­pi­dos” o ne­ce­si­ta­dos de “un chu­te de mo­ral”, a tra­vés de sus es­ta­dos en

la red so­cial o de las fo­to­gra­fías que com­par­tían con sus ami­gos. Ob­via­men­te, ese ti­po de in­for­ma­ción les con­ver­tía en una dia­na fá­cil pa­ra la pu­bli­ci­dad de las mar­cas. “Te­ne­mos que dar­nos cuen­ta de has­ta qué pun­to los da­tos que no­so­tros mis­mos com­par­ti­mos en las re­des so­cia­les, y que a me­nu­do nos pa­re­cen tri­via­les, son re­pre­sen­ta­ti­vos de nues­tras emo­cio­nes y de nues­tra hu­ma­ni­dad, que no es otra co­sa que nues­tra ca­pa­ci­dad de de­ci­dir. Y si la ca­pa­ci­dad de de­ci­dir es­tá con­di­cio­na­da por la ex­plo­ta­ción que las em­pre­sas ha­cen de esa in­for­ma­ción, en­ton­ces el con­trol que tie­nen so­bre no­so­tros es enor­me. Es­ta­mos an­te una nue­va for­ma de po­der so­bre los sen­ti­mien­tos y el pen­sa­mien­to”, ex­pli­ca Ja­vier de Rivera, so­ció­lo­go es­pe­cia­lis­ta en nue­vas tec­no­lo­gías.

Tí­te­res di­gi­ta­les

En reali­dad, llo­vía so­bre mo­ja­do. En 2014, se su­po que Fa­ce­book ha­bía uti­li­za­do a 690.000 de sus usuarios co­mo co­ne­ji­llos de in­dias en un ex­pe­ri­men­to so­cial, en co­la­bo­ra­ción con las uni­ver­si­da­des de California y Cor­nell. Se tra­ta­ba de ses­gar y fil­trar el con­te­ni­do de los muros de los usuarios pa­ra de­mos­trar que las emo­cio­nes se pue­den ma­ni­pu­lar y que, de he­cho, son con­ta­gio­sas. Fa­ce­book ter­mi­nó pi­dien­do dis­cul­pas por una prác­ti­ca de éti­ca du­do­sa, mien­tras los in­ves­ti­ga­do­res lo­gra­ban es­ta­ble­cer que el con­te­ni­do de nues­tros muros pue­de te­ner un efec­to di­rec­to en nues­tros es­ta­dos de áni­mo. “El con­ta­gio emo­cio­nal es al­go es­tu­dia­dí­si­mo en psi­co­lo­gía: es­tás con al­guien de­pri­mi­do y te de­pri­mes; es­tás con al­guien que es­tá con­ten­to y te po­nes con­ten­to. Las re­des fun­cio­nan igual: en­tras en tu mu­ro, so­lo ves co­sas di­ver­ti­das y te ani­mas”, ex­pli­ca De Rivera, que sin em­bar­go cree que los re­sul­ta­dos de aquel ex­pe­ri­men­to no eran muy fia­bles y te­nían pro­ble­mas me­to­do­ló­gi­cos. Qui­zá pa­ra cal­mar los áni­mos y de­mos­trar que su ca­pa­ci­dad pa­ra “leer” e in­ter­pre­tar las emo­cio­nes de sus usuarios no im­pli­ca in­ten­cio­nes ma­quia­vé­li­cas o pu­ra­men­te mer­can­ti­les, ha­ce unos me­ses la red so­cial anun­cia­ba una nue­va he­rra­mien­ta ba­sa­da en la in­te­li­gen­cia ar­ti­fi­cial pa­ra iden­ti­fi­car ten­den­cias sui­ci­das, emi­tir aler­tas y evi­tar muer­tes. Pe­ro Fa­ce­book no es la úni­ca em­pre­sa in­tere­sa­da en co­no­cer nues­tro es­ta­do de áni­mo. Las emo­cio­nes se han con­ver­ti­do en una in­for­ma­ción va­lio­sí­si­ma pa­ra mu­chas em­pre­sas de Si­li­con Va­lley, que tra­ba­jan in­ten­sa­men­te en el re­co­no­ci­mien­to fa­cial de emo­cio­nes o en el eye trac­king (el re­gis­tro del mo­vi­mien­to de los ojos) pa­ra pre­de­cir me­jor el com­por­ta­mien­to de con­su­mi­do­res y usuarios. De he­cho, tu Ap­ple Watch ya pue­de sa­ber si es­tás con­ten­to o tris­te gra­cias a una app que ana­li­za tu tono de voz. Y hay unos au­ri­cu­la­res que cam­bian de can­ción se­gún tu es­ta­do de áni­mo, a tra­vés de un sen­sor que re­gis­tra las on­das ce­re­bra­les. Las ini­cia­ti­vas se mul­ti­pli­can en to­dos los frentes. Mi­xe­de­mo­tions es un pro­yec­to eu­ro­peo en el que par­ti­ci­pan la em­pre­sa es­pa­ño­la Pa­ra­dig­ma y la Uni­ver­si­dad Po­li­téc­ni­ca de Ma­drid. Su ob­je­ti­vo: iden­ti­fi­car, cla­si­fi­car y ca­rac­te­ri­zar las emo­cio­nes me­dian­te téc­ni­cas de big da­ta, pa­ra ayu­dar a las em­pre­sas a re­co­men­dar sus pro­duc­tos. A par­tir de aquí, las po­si­bi­li­da­des son in­fi­ni­tas. Una op­ción, por ejem­plo, es es­ta­ble­cer los pre­cios en fun­ción del es­ta­do de áni­mo de los clien­tes. En 2014, un tea­tro en Bar­ce­lo­na co­bró el pre­cio de las en­tra­das en fun­ción de cuan­tas ve­ces te hu­bie­ras reí­do du­ran­te la fun­ción, gra­cias a una cá­ma­ra de re­co­no­ci­mien­to fa­cial.

Neo­mar­ke­ting

Por eso, el mar­ke­ting y la pu­bli­ci­dad se es­tán rein­ven­tan­do. Ya exis­ten em­pre­sas, co­mo la bri­tá­ni­ca So­cial Chain, de­di­ca­das ex­clu­si­va­men­te a ge­ne­rar fe­nó­me­nos vi­ra­les (mi­llo­nes de vi­si­tas en un cor­to es­pa­cio tiem­po) pa­ra sus clien­tes. Y, se­gún sus pro­mo­to­res, las emo­cio­nes más fuer­tes, co­mo el odio, la ex­ci­ta­ción o la frus­tra­ción, son el au­tén­ti­co “car­bu­ran­te” de esa vi­ra­li­dad. En reali­dad, el in­te­rés de las mar­cas por nues­tros sen­ti­mien­tos no es nue­vo.

El pos­tor so­bre los es­ta­dos de áni­mo pue­de ser una mar­ca o un par­ti­do po­lí­ti­co.

“La pu­bli­ci­dad siem­pre ha ape­la­do a las emo­cio­nes, de­bi­li­da­des y mie­dos. Pe­ro las re­des so­cia­les han afi­na­do mu­chí­si­mo el pro­ce­so, per­mi­tien­do ha­cer es­tu­dios seg­men­ta­dos so­bre nues­tros gus­tos e in­te­re­ses se­gún nues­tro com­por­ta­mien­to on li­ne”, ex­pli­ca De Rivera. La no­ve­dad (y la gran pa­ra­do­ja) es que aho­ra so­mos no­so­tros quie­nes da­mos a las em­pre­sas, so­lí­ci­ta y gra­tui­ta­men­te, lo que ne­ce­si­tan sa­ber pa­ra ven­der­nos me­jor sus pro­duc­tos. “Vi­vi­mos en un mun­do en el que la gen­te ex­pre­sa cons­tan­te­men­te lo que ha­ce, sien­te y pien­sa en Ins­ta­gram, Fa­ce­book o Twit­ter. Y lo ha­ce de ma­ne­ra cons­cien­te. Es inevi­ta­ble que las mar­cas usen esa in­for­ma­ción. Se­ría ab­sur­do no ha­cer­lo”, ex­pli­ca Fran­cesc Ba­rrio, de la agen­cia So­mos Si­nap­sis. “No creo que se es­té co­mer­cian­do con nues­tras emo­cio­nes, pe­ro sí se usan pa­ra co­no­cer me­jor al clien­te po­ten­cial y ofre­cer­le el me­jor pro­duc­to po­si­ble”. De he­cho, el lla­ma­do mar­ke­ting emo­cio­nal es­tá al­can­zan­do una nue­va di­men­sión. “Una he­rra­mien­ta ca­da vez más uti­li­za­da es el neu­romar­ke­ting, que con­sis­te en es­ta­ble­cer es­tra­te­gias co­mer­cia­les en fun­ción de nues­tra reac­ción an­te cier­tos es­tí­mu­los. Un ejem­plo es cuan­do en­tras en una tien­da y hue­le a vai­ni­lla, un aro­ma clá­si­ca­men­te aso­cia­do a la in­fan­cia, que nos ha­ce sen­tir más tran­qui­los y fe­li­ces y que nos em­pu­ja a com­prar más. Y eso ocu­rre de una ma­ne­ra to­tal­men­te in­cons­cien­te. Aho­ra mis­mo, los lí­mi­tes de ese ti­po de es­tra­te­gias, con to­da la in­for­ma­ción que te­ne­mos al al­can­ce, son inima­gi­na­bles”, ex­pli­ca Ba­rrio.

Re­ca­li­bran­do me­di­dor de sen­ti­mien­tos...

Pe­ro co­no­cer los sen­ti­mien­tos de los con­su­mi­do­res no es tan sen­ci­llo co­mo sue­na. Al­gu­nas herramientas de soft­wa­re, co­mo Sen­ti­ment 140, per­mi­ten a las em­pre­sas ana­li­zar los co­men­ta­rios aso­cia­dos a un pro­duc­to que se pu­bli­can en Twit­ter y es­ta­ble­cer si son ma­yo­ri­ta­ria­men­te po­si­ti­vos o ne­ga­ti­vos; otras trac­kean el tono de los co­men­ta­rios pa­ra ca­li­brar la repu­tación de una mar­ca. Sin em­bar­go, de­co­di­fi­car las emo­cio­nes no es una cien­cia exac­ta. La tec­no­lo­gía aún no es ca­paz de en­ten­der

los do­bles sen­ti­dos o las po­si­cio­nes am­bi­guas. Tam­po­co sa­be leer en­tre lí­neas. Lo mis­mo ocu­rre con las apli­ca­cio­nes que pre­ten­den “leer” las mi­cro­ex­pre­sio­nes fa­cia­les: ni to­das las son­ri­sas son igua­les ni sig­ni­fi­can lo mis­mo ni to­do el mun­do son­ríe por los mis­mos mo­ti­vos. Sin em­bar­go, es pro­ba­ble que afi­nar esos erro­res de cálculo sea so­lo cues­tión de tiem­po. De he­cho, al­gu­nos teó­ri­cos ya ha­blan de ca­pi­ta­lis­mo emo­cio­nal, un sis­te­ma don­de la eco­no­mía es­ta­ría ba­sa­da en al­go­rit­mos y nues­tras emo­cio­nes no so­lo se po­drían cuan­ti­fi­car, sino que ten­drían un va­lor eco­nó­mi­co ne­to pa­ra las em­pre­sas, las mar­cas o los par­ti­dos po­lí­ti­cos. Aun­que, co­mo en to­do, en es­to tam­bién hay cla­ses. “Es­tá es­tu­dia­do y de­mos­tra­do que las di­fe­ren­tes cla­ses so­cia­les ha­cen un uso muy di­fe­ren­te de la tec­no­lo­gía. Las cla­ses al­tas, con un ma­yor ni­vel cul­tu­ral, tie­nen una for­ma de re­la­cio­nar­se con la tec­no­lo­gía más con­tro­la­da, más prag­má­ti­ca, no se ex­po­nen tan­to emo­cio­nal ni ideo­ló­gi­ca­men­te. Las cla­ses más des­fa­vo­re­ci­das ven en las re­des so­cia­les una for­ma de ex­pre­sar­se, de des­fo­gar­se y por eso, se con­tro­lan me­nos”, ex­pli­ca De Rivera. Eso tam­bién las ha­ce más vul­ne­ra­bles a la ma­ni­pu­la­ción. Por eso el fu­tu­ro re­sul­ta tan in­quie­tan­te. Tam­bién pa­ra nues­tro sis­te­ma po­lí­ti­co. “Es­ta­mos en un mo­men­to muy com­pli­ca­do y pe­li­gro­so. El ca­so de Cam­brid­ge Analy­ti­ca ha de­ja­do cla­ro que, si an­tes se con­tro­la­ba la de­mo­cra­cia con­tro­lan­do los me­dios de co­mu­ni­ca­ción, aho­ra se ha­ce con­tro­lan­do el pen­sa­mien­to de los in­di­vi­duos de for­ma ma­si­va”, di­ce De Rivera. Mien­tras las re­des so­cia­les mer­ca­dean con nues­tras emo­cio­nes y el mun­do cam­bia a nues­tro al­re­de­dor, la pe­sa­di­lla or­we­llia­na ca­da se pa­re­ce más a la reali­dad co­ti­dia­na. Y to­do, con nues­tra ines­ti­ma­ble co­la­bo­ra­ción. Qui­zá en el fu­tu­ro la pre­gun­ta ha­ya cam­bia­do ra­di­cal­men­te: “¿En qué es­ta­ría­mos pen­san­do?”.

Las cla­ses más des­fa­vo­re­ci­das com­par­ten más... y son, por tan­to, más ma­ni­pu­la­bles.

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.