Ros­tros de­la­to­res

Con so­lo fo­to­gra­fías o vi­deos de ba­ja ca­li­dad, una nue­va apli­ca­ción de iden­ti­fi­ca­ción fa­cial se­ría ca­paz de de­ter­mi­nar si us­ted es­tá fe­liz o es una ame­na­za. Si no nos cree, vea el aná­li­sis que les rea­li­za­mos a al­gu­nos se­na­do­res du­ran­te dis­cur­sos me­mo­ra­ble

SoHo - Censurado (Colombia) - - Summario' -

Vi­vi­mos en lo que el pe­rio­dis­ta de The New York Ti­mes Tim Wei­ner de­fi­nió co­mo la era de la vi­gi­lan­cia to­tal. Ca­da vez es más di­fí­cil es­ca­par de los mi­cró­fo­nos y las cá­ma­ras que inun­dan el mun­do, los pa­sos son ras­trea­dos, las con­ver­sa­cio­nes gra­ba­das y los ros­tros son ma­te­ria de es­tu­dio pa­ra agen­cias de pu­bli­ci­dad y mer­ca­deo. Una de las em­pre­sas pio­ne­ras en el de­sa­rro­llo de tec­no­lo­gía de iden­ti­fi­ca­ción fa­cial es We­see. Por eso de­ci­di­mos ha­blar con Da­vid Ful­ton, su CEO, so­bre có­mo fun­cio­nan es­tos pro­gra­mas y qué tan pre­ci­sos pue­den lle­gar a ser.

Jun­to con su equi­po de tra­ba­jo, Ful­ton —quien tam­bién tra­ba­jó en Mi­cro­soft— desa­rro­lló el Vi­sual In­te­lli­gen­ce En­gi­ne (VIE), un mo­tor que uti­li­za lo úl­ti­mo en in­te­li­gen­cia ar­ti­fi­cial pa­ra leer imá­ge­nes co­mo lo ha­ce­mos los se­res hu­ma­nos, pe­ro mil ve­ces más rá­pi­do. En otras pa­la­bras, We­see creó un pro­gra­ma que es ca­paz de ana­li­zar fo­to­gra­fías e iden­ti­fi­car has­ta sie­te emo­cio­nes hu­ma­nas a par­tir de las que pue­de me­dir, con 70 por cien­to de exac­ti­tud, el es­ta­do emo­cio­nal de una per­so­na.

Es­te sis­te­ma so­lo ne­ce­si­ta de un vi­deo de ba­ja ca­li­dad pa­ra iden­ti­fi­car, ana­li­zar y arro­jar un re­sul­ta­do de los fo­to­gra­mas exa­mi­na­dos. Pa­ra Ful­ton, “la tec­no­lo­gía de We­see se uti­li­za pa­ra me­jo­rar la se­gu­ri­dad de las em­pre­sas ade­lan­tán­do­se a la ac­ti­vi­dad cri­mi­nal. El en­ga­ño y las ac­ti­tu­des sos­pe­cho­sas pue­den ser de­tec­ta­das. Tam­bién eva­lúa el ni­vel de es­trés en­tre los em­plea­dos, lo que ayu­da a me­jo­rar el bie­nes­tar del equi­po y ge­ne­rar una ma­yor con­fian­za y leal­tad en los tra­ba­ja­do­res y clien­tes”.

We­see no tie­ne res­tric­ción al­gu­na pa­ra pro­veer sus ser­vi­cios. Cual­quier país, em­pre­sa o per­so­na del co­mún que desee ad­qui­rir es­te ti­po de pro­gra­mas lo pue­de ha­cer por la su­ma co­rrec­ta. Es­tas apli­ca­cio­nes y al­go­rit­mos se co­no­cen co­mer­cial­men­te co­mo ‘tec­no­lo­gía de re­co­no­ci­mien­to de emo­cio­nes’ y son al­ta­men­te de­man­da­das de­bi­do a la ca­pa­ci­dad que tie­nen pa­ra de­ter­mi­nar el es­ta­do men­tal de un in­di­vi­duo o su in­ten­ción me­dian­te mi­cro­ex­pre­sio­nes fa­cia­les, in­clu­so sin que la per­so­na lo ha­ga ex­plí­ci­to.

Co­mo lo ex­pli­ca Ful­ton, “es­to se pue­de ha­cer des­de di­fe­ren­tes án­gu­los e in­clu­so si el su­je­to se mue­ve o se os­cu­re­ce par­cial­men­te. Por ejem­plo, cuan­do el per­so­na­je tie­ne un pa­sa­mon­ta­ñas o es­tá ba­jo con­di­cio­nes de luz ines­ta­bles, lo que ha­ce al pro­gra­ma par­ti­cu­lar­men­te prác­ti­co. Mien­tras tan­to, los ob­je­tos pe­li­gro­sos, co­mo cu­chi­llos y pis­to­las, tam­bién pue­den ser de­tec­ta­dos”. Las cá­ma­ras de se­gu­ri­dad en una es­ta­ción de me­tro o de Trans­mi­le­nio, por ejem­plo, po­drían de­ter­mi­nar si un com­por­ta­mien­to es sos­pe­cho­so y aler­tar a la Po­li­cía so­bre una po­ten­cial ame­na­za te­rro­ris­ta u otro ti­po de ac­ti­vi­dad cri­mi­nal. Lo mis­mo po­dría ha­cer­se con mul­ti­tu­des en even­tos im­por­tan­tes co­mo par­ti­dos de fút­bol, con­cier­tos o bá­si­ca­men­te don­de quie­ra que ha­ya una cá­ma­ra.

Por eso, en Soho de­ci­di­mos des­car­gar la apli­ca­ción Light­man de We­see pa­ra ipho­ne X y uti­li­zar­la con el fin de ana­li­zar los dis­cur­sos en el Con­gre­so y las en­tre­vis­tas de al­gu­nos de los se­na­do­res de la Re­pú­bli­ca. Sor­pre­si­va­men­te, y se­gún lo que en­ten­di­mos, la gran ma­yo­ría de nues­tros par­la­men­ta­rios se de­ja lle­var por la emo­ción del mo­men­to y a los ojos del al­go­rit­mo es­tán tris­tes, enoja­dos o asus­ta­dos. Son muy po­cas las son­ri­sas es­bo­za­das o la fe­li­ci­dad que pu­di­mos en­con­trar. Aun­que eso sí, nos lle­va­mos una sor­pre­sa con la ca­pa­ci­dad ca­ma­leó­ni­ca de al­gu­nos pa­ra es­con­der sus emo­cio­nes de­trás de su ros­tro.

Por ejem­plo, las ex­pre­si­vas ce­jas del se­na­dor Ál­va­ro Uribe Vé­lez es­con­de­rían gran par­te de sus emo­cio­nes, pe­ro cuan­do el de­ba­te gi­ra en torno a su víncu­lo con pa­ra­mi­li­ta­res su ros­tro se trans­for­ma en un mar de mi­cro­ex­pre­sio­nes, y al­gu­nas otras no tan mi­cro, que en­cien­den las alar­mas de la apli­ca­ción. Ro­jo. Ro­jo. Ro­jo. La luz car­mín es la úni­ca que le ilu­mi­na el ros­tro cuan­do se to­can es­tos te­mas. Y no hay que ir­se tan le­jos pa­ra ver la ra­bia en­car­na­da en su an­tí­po­da en el Con­gre­so, las emo­cio­nes ne­ga­ti­vas de Iván Ce­pe­da se des­bo­can ca­da vez que men­cio­na al se­na­dor del Cen­tro De­mo­crá­ti­co: las ce­jas, fren­te y ojos son lo su­fi­cien­te­men­te ex­pre­si­vos co­mo pa­ra no ne­ce­si­tar de la apli­ca­ción Light­man pa­ra no­tar que es­tá a po­cos mi­nu­tos de ex­plo­tar.

Pa­ra Juan Die­go Cas­ta­ñe­da, de la Fun­da­ción Ka­ris­ma —or­ga­ni­za­ción que tra­ba­ja en la pro­mo­ción de los de­re­chos hu­ma­nos en el mun­do di­gi­tal—, sin im­por­tar qué al­go­rit­mo sea, no se pue­de ha­blar de una in­te­li­gen­cia su­pe­rior o divina. Sim­ple­men­te es un al­go­rit­mo que pro­ce­sa mu­cho más rá­pi­do la in­for­ma­ción que las per­so­nas le en­se­ñan. Es de­cir: es­te ti­po de tec­no­lo­gía lo úni­co que ha­ce es com­pa­rar y ha­cer jui­cios uti­li­zan­do las ba­ses de da­tos que la em­pre­sa le fa-

“EL MAR­GEN DE ERROR DE ES­TOS PRO­GRA­MAS SI­GUE SIEN­DO MUY GRAN­DE PA­RA APLI­CAR­LO A LA VI­DA CI­VIL”: DIE­GO CAS­TA­ÑE­DA.

ci­li­ta. Pe­ro, ¿con qué ba­ses de da­tos es­tán ali­men­tan­do es­te pro­gra­ma?

La res­pues­ta a es­ta pre­gun­ta es y siem­pre se­rá un se­cre­to muy bien cus­to­dia­do por las em­pre­sas. Ya que es­to es lo que las ha­ce di­fe­ren­tes a la com­pe­ten­cia. Pe­ro ba­sa­dos en lo que pu­di­mos ver en Light­man, Angélica Lo­zano es si­nó­ni­mo de ale­gría, Pa­lo­ma Va­len­cia del enojo y Er­nes­to Ma­cías es un inex­pre­si­vo pun­to blan­co den­tro del aná­li­sis, aun­que no po­de­mos de­cir lo mis­mo de su dis­cur­so.

Ha­ce un par de se­ma­nas, Amazon lan­zó su pro­gra­ma Amazon Rekognition, que des­cri­be en su pá­gi­na co­mo un sis­te­ma que “ofre­ce aná­li­sis y re­co­no­ci­mien­to fa­cial de al­ta pre­ci­sión en las imá­ge­nes y los vi­deos que us­ted su­mi­nis­tre. Pue­de de­tec­tar, ana­li­zar y com­pa­rar ros­tros pa­ra una am­plia va­rie­dad de ca­sos de uso de ve­ri­fi­ca­ción de usua­rios, con­ta­bi­li­za­ción de per­so­nas y se­gu­ri­dad pú­bli­ca”. La Unión Es­ta­dou­ni­den­se por las Li­ber­ta­des Ci­vi­les (ACLU) de­ci­dió co­rrer el pro­gra­ma con las fo­to­gra­fías de los dipu­tados y se­na­do­res nor­te­ame­ri­ca­nos. Pa­ra el asom­bro de mu­chos, el soft­wa­re confundió a 28 po­lí­ti­cos con per­so­nas que te­nían un pa­sa­do cri­mi­nal, el 39 por cien­to de los ‘fal­sos po­si­ti­vos’ eran le­gis­la­do­res ne­gros o la­ti­nos.

Es­ta es so­lo una mues­tra más de que el mar­gen de error de es­tos pro­gra­mas si­gue sien­do muy gran­de pa­ra apli­car­lo a la vi­da ci­vil. Se­gún Cas­ta­ñe­da, va­rias or­ga­ni­za­cio­nes han de­mos­tra­do que la tec­no­lo­gía de re­co­no­ci­mien­to fa­cial tien­de a des­fa­vo­re­cer a las per­so­nas de co­lor. Es­to, por­que las imá­ge­nes con las que nu­tren es­tos pro­gra­mas son de hom­bres y mu­je­res cau­cá­si­cas y no tie­nen en cuen­ta el am­plio aba­ni­co ra­cial que co­exis­te en el mun­do. Otro ejem­plo de es­to es lo que pa­só con el Fa­ce ID del ipho­ne X: va­rias per­so­nas en Chi­na se que­ja­ron por­que pa­ra el pro­gra­ma de re­co­no­ci­mien­to fa­cial to­dos los chi­nos son igua­les, a tal pun­to que un hi­jo po­día des­blo­quear el dis­po­si­ti­vo de su ma­dre.

Pe­ro pa­ra Ful­ton, CEO de We­see, la tec­no­lo­gía de la em­pre­sa se pue­de uti­li­zar en cual­quier in­di­vi­duo, in­de­pen­dien­te­men­te de la ra­za, por­que su prin­ci­pal ob­je­ti­vo es ana­li­zar las mi­cro­ex­pre­sio­nes fa­cia­les pre­sen­tes en cual­quier per­so­na. In­clu­so ex­pre­sio­nes es­pe­cí­fi­cas en una ra­za pue­den ser ‘apren­di­das’ por el al­go­rit­mo por me­dio de una se­rie de ajus­tes en su pro­gra­ma­ción.

¿QUÉ ES UNA AME­NA­ZA?

Pa­ra Cas­ta­ñe­da, el pro­ble­ma es “¿có­mo au­di­tar al­go­rit­mos? Por­que si se ha­bla, por ejem­plo, de un pro­gra­ma que bus­ca ame­na­zas po­ten­cia­les por su ma­ne­ra de ca­mi­nar o por la re­la­ción de las ce­jas con los ojos, o que quie­re en­con­trar cri­mi­na­les com­pa­ran­do ba­ses de da­tos, hay que crear ins­ti­tu­cio­nes ju­rí­di­cas y so­cia­les que ase­gu­ren que exis­ta un ni­vel de trans­pa­ren­cia en es­tos pro­ce­sos tec­no­ló­gi­cos. ¿No de­be­ría el Es­ta­do es­tar in­vo­lu­cra­do en es­te ti­po de de­ci­sio­nes? Que a una per­so­na la lla­men ‘ame­na­za’ es un te­ma gra­ve”.

En cam­bio, pa­ra Ful­ton es­to de­pen­de del con­tex­to en el cual las emo­cio­nes son ana­li­za­das. En cier­tas si­tua­cio­nes, la ansiedad y el enojo de­tec­ta­do en las per­so­nas pue­de cons­ti­tuir una ame­na­za. En otras, es po­si­ble que no. La tec­no­log a de We­see sim­ple­men­te aler­ta a las or­ga­ni­za­cio­nes de si­tua­cio­nes po­ten­cial­men­te pe­li­gro­sas que lue­go son eva­lua­das por ex­per­tos. En tér­mi­nos de de­tec­ción de ros­tros u ob­je­tos VIE es 99 por cien­to exac­ta. En re­co­no­ci­mien­to e iden­ti­fi­ca­ción fa­cial su pre­ci­sión al­can­za el 98 por cien­to. Res­pec­to al re­co­no­ci­mien­to de emo­cio­nes, que se pue­de usar pa­ra de­tec­tar com­por­ta­mien­tos sos­pe­cho­sos, es has­ta 70 por cien­to con­fia­ble.

Así que nin­guno de los se­na­do­res acá ana­li­za­dos pue­de de­cir que los jui­cios de va­lor que es­ta­mos rea­li­zan­do son arbitrarios. ¿O sí? Es­ta­mos se­gu­ros de que fal­ta mu­cho pa­ra que es­tos pro­gra­mas sean to­tal­men­te acer­ta­dos. Pe­ro por aho­ra, con ese 70 por cien­to po­de­mos de­cir­les que el Con­gre­so es­tá lleno de ex­pre­sio­nes fa­cia­les que en­cen­de­rían las alar­mas de mu­chos de es­tos al­go­rit­mos y aler­ta­rían a la Po­li­cía.

We­see es la primera com­pa­ñía en desa­rro­llar tec­no­lo­gía de re­co­no­ci­mien­to de emo­cio­nes pa­ra dis­po­si­ti­vos mó­vi­les in­clu­yen­do por­tá­ti­les, ta­ble­tas y te­lé­fo­nos in­te­li­gen­tes. A pe­sar de que su im­ple­men­ta­ción avan­za a pa­sos agi­gan­ta­dos sin re­gu­la­ción al­gu­na, si­tua­cio­nes co­mo la de Amazon Rekognition, o la vi­vi­da du­ran­te la fi­nal de la Cham­pions Lea­gue en Car­diff por Ed Brid­ges, un re­si­den­te al que se le ne­gó la en­tra­da al es­ta­dio pro­duc­to de un jui­cio ge­ne­ra­do por es­te ti­po de al­go­rit­mos, po­nen a es­tas em­pre­sas ba­jo el fo­co de la opi­nión pú­bli­ca.

Lo que nun­ca de­be­mos ol­vi­dar es que la in­te­li­gen­cia ar­ti­fi­cial no apren­de so­la. So­mos las per­so­nas las que le “en­se­ña­mos” qué es­tá bien y qué es­tá mal y de­pen­de de no­so­tros que es­te ti­po de ini­cia­ti­vas no re­fuer­cen es­te­reo­ti­pos y ha­gan de la so­cie­dad al­go más se­gu­ro, no más vi­gi­la­do. El de­ba­te si­gue so­bre la me­sa y mien­tras el mar­gen de error si­ga sien­do tan gran­de, los ‘ fal­sos po­si­ti­vos’ se­gui­rán apa­re­cien­do..

EL PRO­GRA­MA AMAZON REKOGNITION CONFUNDIÓ A 28 PO­LÍ­TI­COS CON PER­SO­NAS QUE TE­NÍAN UN PA­SA­DO CRI­MI­NAL, 39 POR CIEN­TO DE ELLOS ERAN NE­GROS O LA­TI­NOS.

Newspapers in Spanish

Newspapers from Colombia

© PressReader. All rights reserved.