CHIP EMO­CIO­NAL

Las má­qui­nas apren­den so­bre sen­ti­mien­tos y se pre­pa­ran pa­ra dar res­pues­tas a pro­ble­mas hu­ma­nos

El Observador Fin de Semana - Cromo - - PORTADA - MA­RÍA LAURA PAYRA Es­pe­cial pa­ra Cro­mo

Ca­da tan­to se es­cu­cha so­bre la crea­ción de un ro­bot que les fa­ci­li­ta a los se­res hu­ma­nos la rea­li­za­ción de tal o cual ta­rea. Las maquinas apren­den e in­cor­po­ran cier­tos co­no­ci­mien­tos co­mo lo ha­cen las per­so­nas pe­ro, en es­te sen­ti­do, el plano emo­cio­nal ha que­da­do bas­tan­te re­le­ga­do. Sin em­bar­go, ha­ce ya un tiem­po se es­tán desa­rro­llan­do tec­no­lo­gías con la ca­pa­ci­dad de re­co­no­cer, in­ter­pre­tar, pro­ce­sar y es­ti­mu­lar las emociones hu­ma­nas.

Es­ta ra­ma de la cien­cia de la compu­tación fue de­no­mi­na­da

compu­tación afec­ti­va por Ro­sa­lind Pi­card. Ella es la crea­do­ra y di­rec­to­ra del gru­po que se en­car­ga de es­tu­diar la compu­tación afec­ti­va en el Ins­ti­tu­to Tec­no­ló­gi­co de Mas­sa­chu­setts (MIT). Su idea es desa­rro­llar una tec­no­lo­gía que con­tri­bu­ya a com­pren­der al ser hu­mano co­mo per­so­na y co­mo clien­te y así me­jo­rar la in­ter­ac­ción en­tre las per­so­nas y las compu­tado­ras.

¿Có­mo fun­cio­na?

La idea de es­ta tec­no­lo­gía es que si­mu­le “em­pa­tía”. La má­qui­na in­ter­pre­ta el es­ta­do emo­cio­nal de los hu­ma­nos, los re­co­no­ce y a par­tir de ahí le pro- por­cio­na una res­pues­ta ade­cua­da a esas emociones.

Pa­ra co­men­zar, el sis­te­ma “afec­ti­vo” in­ter­pre­ta el es­ta­do de áni­mo del usua­rio me­dian­te cier­tas me­di­cio­nes a tra­vés de su ros­tro, su voz y su cuer­po. Lue­go pro­ce­sa esa in­for­ma­ción y la cla­si­fi­ca por me­dio de al­go­rit­mos que ya han pro­ce­sa­do y “eti­que­ta­do” mi­les de ros­tros hu­ma­nos, con el fin de re­co­no­cer las emociones co­rres­pon­dien­tes, pa­ra fi­nal­men­te su­ge­rir­le a la per­so­na una so­lu­ción a par­tir de la in­ter­pre­ta­ción.

A tra­vés de mu­chas ma­ne­ras una má­qui­na pue­de de­tec­tar el es­ta­do de áni­mo de los hu­ma­nos. Una de las más sim­ples es que el soft­wa­re le con­sul­te al usua­rio có­mo se sien­te de for­ma di­rec­ta. Pe­ro en es­te ca­so la su­ge­ren­cia del sis­te­ma pue­de no ser sa­tis­fac­to­ria, ya que la res­pues­ta pue­de no ser la co­rrec­ta.

Por lo tan­to, es­ta tec­no­lo­gía emer­gen­te uti­li­za dis­tin­tas for­mas de cap­tar las emociones. Una op­ción es me­dian­te cá­ma­ras in­cor­po­ra­das a los dis­po­si­ti­vos que sean ca­pa­ces de de­tec­tar los ges­tos del usua­rio o las ex­pre­sio­nes fa­cia­les pa­ra ana­li­zar los mo­vi­mien­tos mus­cu­la­res o cier­tos pun­tos ca­rac­te­rís­ti­cos del ros­tro, in­clu­so pue­de re­co­no­cer has­ta los cam­bios de co­lor que ex­pe­ri­men­ta la piel an­te cier­tos es­ta­dos de áni­mo. Tam­bién, al­gu­nos dis­po­si­ti­vos, co­mo los eye-trac­kers, pue­den lle­gar a re­co­pi­lar in­for­ma­ción so­bre las emociones me­dian­te la di­la­ta­ción y el se­gui­mien­to de las pu­pi­las.

Otro ins­tru­men­to útil pa­ra es­ta tec­no­lo­gía son los mi­cró­fo­nos. A tra­vés de su uso, el sis­te­ma pue­de re­co­no­cer el es­ta­do de áni­mo de las per­so­nas a tra­vés de las va­ria­cio­nes en la en­to­na­ción al ha­blar o el vo­lu­men y rit­mo de la voz.

Por otra par­te, tam­bién es po­si­ble re­co­pi­lar es­ta in­for­ma- ción me­dian­te sen­so­res in­cor­po­ra­dos a cier­tos dis­po­si­ti­vos, ca­pa­ces de me­dir as­pec­tos, co­mo la res­pi­ra­ción, el pul­so, la tem­pe­ra­tu­ra de la piel o in­clu­so lle­gar a de­tec­tar la ac­ti­vi­dad ce­re­bral por me­dio de elec­tro­dos.

To­do es­to po­dría co­men­zar a ser in­cor­po­ra­do en nues­tra vi­da dia­ria de ma­ne­ra que con­tri­bu­ye­ra a me­jo­rar la ca­li­dad de vi­da de las per­so­nas.

Se­gún di­jo a Cro­mo, el di­rec­tor de la em­pre­sa uruguaya Id­ha­ta, Sebastián Gar­cía, “la compu­tación afec­ti­va es­tá en la lí­nea de me­jo­rar los sis­te­mas compu­tacio­na­les, de for­ma de ha­cer­los más in­te­li­gen­tes y ami­ga­bles pa­ra el usua­rio”.

Apli­ca­cio­nes

Di­ver­sas áreas pue­den sa­car pro­ve­cho de es­ta tec­no­lo­gía. La sa­lud, la se­gu­ri­dad, la edu­ca­ción, el en­tre­te­ni­mien­to, el mar­ke­ting, la ro­bó­ti­ca, en­tre otras.

Por ejem­plo, los vehícu­los po­drían de­tec­tar cuán­do el con­duc­tor se en­cuen­tra dis­traí­do, som­no­lien­to o enoja­do pa­ra evi­tar que ma­ne­je. Tam­bién po­dría ser que un dis­po­si­ti­vo mó­vil de­tec­ta­ra el es­ta­do de áni­mo de las per­so­nas en fun­ción de có­mo pre­sio­na las te­clas y, en ca­so de que in­ter­pre­te que el usua­rio se en­cuen­tra an­gus­tia­do o tris­te, fil­tre las no­ti­cias fal­sas e in­clu­so has­ta re­co­mien­de lla­mar a al­guien cer­cano pa­ra le­van­tar­le el áni­mo.

Tam­bién los ro­bots que con­tro­lan el ho­gar po­drían de­tec­tar có­mo se sien­te una per­so­na a par­tir de sus fac­cio­nes o su voz. Un ejem­plo es el ro­bot de­no­mi­na­do Ti­tan. Es­te in­ter­pre­ta las emociones de los hu­ma­nos a tra­vés del reconocimiento fa­cial y de len­gua­je per­so­na­li­za­do y ac­túa en con­se­cuen­cia, rea­li­zan­do re­co­men­da­cio­nes so­bre co­mi­das, películas y mú­si­ca co­mo so­lu­ción a di­chas emociones.

Es­te ro­bot, que tie­ne la for­ma de un pe­que­ño te­le­vi­sor, cuen­ta con un ser­vi­cio de en­tre­te­ni­mien­to, ade­más de un centro de al­ma­ce­na­mien­to de in­for­ma­ción pa­ra fo­to­gra­fías y vi­deos del usua­rio. Se tra­ta de un par­lan­te in­te­li­gen­te que per­mi­te tan­to rea­li­zar vi­deo­lla­ma­das co­mo mi­rar vi­deos, es­cu­char mú­si­ca o ha­cer bús­que­das por in­ter­net por co­man­dos de voz. Una par­ti­cu­la­ri­dad de es­te apa­ra­to es que gi­ra so­bre su ba­se, por lo que pue­de se­guir el mo­vi­mien­to de las per­so­nas al ca­mi­nar por su ho­gar.

Sin em­bar­go, el te­rreno que se pue­de ver ma­yor­men­te be­ne­fi­cia­do por es­ta tec­no­lo­gía y que, de he­cho ya la es­tá im­ple­men­tan­do, es el de mar­ke­ting y pu­bli­ci­dad.

La em­pre­sa es­ta­dou­ni­den­se Af­fec­ti­va, fun­da­da por Pi­card, desa­rro­lló un soft­wa­re que es ca­paz de de­tec­tar las reac­cio­nes de las per­so­nas me­dian­te las ex­pre­sio­nes fa­cia­les. Es­te soft­wa­re, co­no­ci­do co­mo Aff­dex, fue crea­do con la idea de ayu­dar a la co­mu­ni­ca­ción con los ni­ños au­tis­tas, pe­ro co­men­zó a ser em­plea­do por el ám­bi­to pu­bli­ci­ta­rio.

A tra­vés de es­te sis­te­ma, las mar­cas pue­den co­no­cer la opi­nión de los con­su­mi­do­res an­te un de­ter­mi­na­do con­cep­to, pro­duc­to o ser­vi­cio, me­dian­te los ges­tos del ros­tro sin ne­ce­si­dad in­clu­so de rea­li­zar­le un cues­tio­na­rio. Es­te soft­wa­re, que se uti­li­za en más de 60 paí­ses, re­quie­re úni­ca­men­te de una compu­tado­ra con cá­ma­ra web pa­ra de­tec­tar las reac­cio­nes de cien­tos de usua­rios en di­fe­ren­tes par­tes del mun­do.

Los call cen­ters tam­bién pue­den apro­ve­char es­te sis­te­ma, me­dian­te asis­ten­tes vir­tua­les que ana­li­cen el tono de voz del clien­te y de es­ta for­ma lo­gren in­ter­pre­tar las emociones de las per­so­nas y así po­der adap­tar la for­ma de aten­ción en tiem­po real.

Sin em­bar­go, las apli­ca­cio­nes más im­por­tan­tes tal vez sean las te­ra­péu­ti­cas pa­ra ayu­dar a per­so­nas con pro­ble­mas emo­cio­na­les. Por ejem­plo, pue­de ser un sis­te­ma útil pa­ra pre­ve­nir la de­pre­sión gra­ve. La má­qui­na de­tec­ta cuan­do la per­so­na se en­cuen­tra an­gus­tia­da y le su­gie­re de­ter­mi­na­das ac­ti­vi­da­des con el fin de le­van­tar­le el áni­mo. Es­to pue­de lle­gar a evi­tar que la si­tua­ción em­peo­re y ne­ce­si­te de tra­ta­mien­to mé­di­co.

Otro ca­so pue­de ser el de las per­so­nas con au­tis­mo, ya que no es tan fá­cil de­tec­tar có­mo se sien­ten. Pue­den uti­li­zar sen­so­res que mo­ni­to­reen su cuer­po pa­ra que lo­gren re­co­no­cer su pro­pio es­ta­do emo­cio­nal y el de las otras per­so­nas.

El de­cano de la Fa­cul­tad de In­ge­nie­ría y Tec­no­lo­gía de la Uni­ver­si­dad Ca­tó­li­ca del Uru­guay, Álvaro Par­do, di­jo a Cro­mo que “es­tas tec­no­lo­gías pue­den ser­vir pa­ra masificar los ser­vi­cios de aten­ción de sa­lud”, co­mo re­co­no­cer cuan­do las per­so­nas so­las o adul­tos ma­yo­res se en­cuen­tran de­pri­mi­dos y, de esa for­ma, ge­ne­rar una alar­ma pa­ra que al­guien los va­ya a vi­si­tar; o dis­po­si­ti­vos que de­tec­ten al­gu­na ano­ma­lía e in­me­dia­ta­men­te lla­men a un pro­fe­sio­nal pa­ra que asis­ta a la per­so­na.

¿Y la pri­va­ci­dad?

Mu­chos autores cues­tio­nan los as­pec­tos éti­cos y ase­gu­ran que es­tas tec­no­lo­gías ma­ni­pu­lan las emociones de los usua­rios, ade­más de in­va­dir su pri­va­ci­dad. En es­te sen­ti­do, Gar­cía se­ña­ló que “to­do aná­li­sis de es­te ti­po de­be de te­ner siem­pre una au­to­ri­za­ción ex­plí­ci­ta del usua­rio”.

Es im­por­tan­te re­cor­dar que la fi­na­li­dad de la compu­tación afec­ti­va no es con­tro­lar las acciones de las per­so­nas ni ex­traer in­for­ma­ción con­tra la vo­lun­tad del usua­rio, sino que la idea es bus­car una me­jo­ra res­pec­to a la in­ter­ac­ción y la ex­pe­rien­cia de los usua­rios. Es­ta tec­no­lo­gía pue­de ser la for­ma de ce­rrar una bre­cha de co­mu­ni­ca­ción en­tres las má­qui­nas y los se­res hu­ma­nos.

“La compu­tación afec­ti­va es­tá en la lí­nea de me­jo­rar los sis­te­mas compu­tacio­na­les, de for­ma de ha­cer­los más in­te­li­gen­tes y ami­ga­bles pa­ra el usua­rio” Sebastián Gar­cía Di­rec­tor de Idat­ha

I.GUIMARAENS

Newspapers in Spanish

Newspapers from Uruguay

© PressReader. All rights reserved.