Semana (Colombia) - - Vi­da Mo­der­na -

La di­fe­ren­cia es que ca­da día son más so­fis­ti­ca­dos. Hay va­rias apli­ca­cio­nes que con so­lo ver el ros­tro pue­den de­ter­mi­nar si una per­so­na es­tá en­fer­ma o no. Otras pue­den de­tec­tar qué le­sio­nes de la piel son can­ce­ro­sas o mi­ran el ojo de la per­so­na pa­ra diag­nos­ti­car a tiem­po el cán­cer de pán­creas, uno de los más le­ta­les. Una app co­no­ci­da co­mo FD­NA per­mi­te a un doc­tor iden­ti­fi­car las po­si­bles do­len­cias de un in­di­vi­duo con so­lo mos­trar­le unas fo­tos. Los desa­rro­lla­do­res se­ña­lan que de un lis­ta­do de 10.000 en­fer­me­da­des, su pro­gra­ma de re­co­no­ci­mien­to de ros­tro pue­de de­tec­tar 2.500 con un al­to ni­vel de cer­te­za.

En ma­te­ria de se­gu­ri­dad, el po­der vi­sual de las má­qui­nas se em­pie­za a usar co­ti­dia­na­men­te. Se­gún Bes­tuz­hev, los sis­te­mas de vi­gi­lan­cia de los ae­ro­puer­tos y otros lu­ga­res pú­bli­cos mul­ti­tu­di­na­rios cuen­tan con cá­ma­ras que pue­den re­co­no­cer ros­tros de pró­fu­gos. En Es­ta­dos Uni­dos se usa en las igle­sias pa­ra re­co­no­cer a los miem­bros más asi­duos de su fe. Tam­bién pa­ra au­to­ri­zar pa­gos por in­ter­net e iden­ti­fi­car a los usua­rios con sus cuen­tas en los ca­je­ros au­to­má­ti­cos. En Chi­na, se­gún cuen­ta The Eco­no­mist, la fir­ma Meg­vii ha dis­pues­to cá­ma­ras de vi­deo en su re­cep­ción pa­ra re­co­no­cer a los vi­si­tan­tes en un abrir y ce­rrar de ojos. Pe­ro el da­to in­tere­san­te es que la fir­ma pro­vee de es­te ti­po de soft­wa­re a 300.000 em­pre­sas en el mun­do. En­tre es­tas, las ae­ro­lí­neas sue­ñan con agi­li­zar los pro­ce­sos de em­bar­que a par­tir de un re­co­no­ci­mien­to ba­sa­do en las fo­tos de los pa­sa­por­tes. De es­ta for­ma se po­dría pres­cin­dir del pa­sa­bor­do.

Las apli­ca­cio­nes co­mer­cia­les de es­ta tec­no­lo­gía tam­bién son enor­mes.Ant Fi­nan­cial, una sub­si­dia­ria de la em­pre­sa chi­naA­li­ba­ba, lan­zó un sis­te­ma de pago en los res­tau­ran­tes KFC en Chi­na que so­lo re­quie­re de que el clien­te son­ría pa­ra can­ce­lar su cuen­ta. Los ex­per­tos creen que en el fu­tu­ro se uti­li­za­rá el re­co­no­ci­mien­to de ros­tros pa­ra di­ri­gir anun­cios a clien­tes potenciales. Es­to se lo­gra­ría, por ejem­plo, to­man­do fo­tos de los asis­ten­tes a una fe­ria del au­to­mó­vil o a un al­ma­cén de mue­bles. Los ros­tros de esos vi­si­tan­tes se re­la­cio­na­rían con las mu­chas imá­ge­nes de Fa­ce­book pa­ra iden­ti­fi­car­los y di­ri­gir­les la pu­bli­ci­dad de ca­rros o mue­bles.

Aun­que to­do lo an­te­rior pro­me­te me­jo­rar la ca­li­dad de vi­da, preo­cu­pa que es­ta inteligencia ar­ti­fi­cial pue­da ge­ne­rar dis­cri­mi­na­ción y vul­ne­rar la pri­va­ci­dad de las per­so­nas,en­tre otros pro­ble­mas éti­cos. Seth Step­hen-Da­vi­do­witz, au­tor del li­bro Every­body Lies, se­ña­la que la gen­te tien­de a men­tir más so­bre sus pre­fe­ren­cias se­xua­les, y mu­chas per­so­nas que­da­rían al des­cu­bier­to con apli­ca­cio­nes de es­te ti­po. Una de las preguntas que las es­po­sas más ha­cen a Goo­gle es la orien­ta­ción se­xual de sus ma­ri­dos. “Es 10 por cien­to más fre­cuen­te que la fra­se ‘es mi es­po­so…’ se com­ple­te con gay que con in­fiel, al­cohó­li­co y de­pri­mi­do”, di­ce el au­tor. Y si se tra­ta de un país don­de no se acep­ta el ho­mo­se­xua­lis­mo, o in­clu­so es ile­gal,es­tas apli­ca­cio­nes se­rían pe­li­gro­sas.

Otros ven con preo­cu­pa­ción que los go­bier­nos se con­vier­tan en el Gran Her­mano del que na­die es­ca­pa. Es­to por­que, por ejem­plo, en Chi­na se usa pa­ra iden­ti­fi­car a los pea­to­nes im­pru­den­tes y pa­ra atra­par a la­dro­nes de pa­pel hi­gié­ni­co de los ba­ños pú­bli­cos. Ha­ce po­co se su­po que in­ves­ti­ga­do­res de la Uni­ver­si­dad de Cam­brid­ge lo­gra­ron desa­rro­llar un pro­gra­ma que per­mi­te iden­ti­fi­car per­so­nas con la ca­ra cu­bier­ta, lo que po­dría re­ve­lar la iden­ti­dad de cri­mi­na­les o ma­ni­fes­tan­tes es­con­di­dos tras más­ca­ras. En el tra­ba­jo, aún no pu­bli­ca­do, los ex­per­tos lo­gra­ron iden­ti­fi­car a es­tos su­je­tos co­rrec­ta­men­te en 56 por cien­to de los ca­sos. Zey­nep Tu­fe­kei, so­ció­lo­go de la Uni­ver­si­dad de Ca­ro­li­na del Nor­te, se­ña­la que es­te ti­po de inteligencia ar­ti­fi­cial es opre­so­ra “y ca­da vez ten­drá más ca­pa­ci­dad pa­ra ser­vir a los re­gí­me­nes au­to­ri­ta­rios me­jor”, di­jo en un tuit.

Y la an­gus­tia no es gra­tui­ta. La ca­ra es pú­bli­ca a di­fe­ren­cia de la hue­lla digital, que es­tá ocul­ta a los ojos de la ma­yo­ría. Ch­ris Ca­la­bre­se, vi­ce­pre­si­den­te del Cen­ter for De­mo­cracy and Tech­no­logy, una ONG con se­de en Was­hing­ton DC, se­ña­la que la

UN AL­GO­RIT­MO PUE­DE DIS­TIN­GUIR QUIÉN ES HO­MO­SE­XUAL Y QUIÉN NO, SO­LO VIEN­DO EL ROS­TRO DE LA PER­SO­NA. ES ACERTADO EN 91 POR CIEN­TO DE LAS

VE­CES, MU­CHO MÁS QUE LOS HU­MA­NOS

ma­yor fuen­te de preo­cu­pa­ción es la vi­gi­lan­cia se­cre­ta a dis­tan­cia. “Sig­ni­fi­ca que otros po­drían sa­ber a dón­de voy,si es­tu­ve en una ma­ni­fes­ta­ción o no. Eso tie­ne un efec­to es­ca­lo­frian­te”.

Aún más te­rro­rí­fi­co se­rá pen­sar en el día que es­te soft­wa­re po­drá no so­lo de­tec­tar la in­cli­na­ción se­xual de las per­so­nas, sino mu­chas emo­cio­nes que la gen­te tra­ta de es­con­der. Los se­res hu­ma­nos se pa­san le­yen­do el ros­tro de sus in­ter­lo­cu­to­res pa­ra atra­par allí se­ña­les de atrac­ción, con­fian­za, hos­ti­li­dad. Pe­ro co­mo que­dó de­mos­tra­do en los ex­pe­ri­men­tos, el ce­re­bro hu­mano tie­ne li­mi­ta­cio­nes en ese fren­te. Esa fron­te­ra se­gu­ra­men­te no exis­ti­rá cuan­do los al­go­rit­mos lo­gren des­ci­frar ca­da ex­pre­sión de la ca­ra con un al­to ni­vel de con­fian­za.Ese día no ha­brá dón­de es­con­der­se.

Newspapers in Spanish

Newspapers from Colombia

© PressReader. All rights reserved.