Los da­tos nun­ca po­drán sus­ti­tuir a la in­tui­ción

Cinco Días - Executive Excellence - - Opinión De Expertos -

INÉS ORIA: Ac­tual­men­te se ha­bla de “la hu­ma­ni­za­ción de los ne­go­cios a tra­vés de la in­te­li­gen­cia ar­ti­fi­cial”, en lu­gar de la hu­ma­ni­za­ción de los ne­go­cios a tra­vés de las per­so­nas (hu­ma­nas). No so­lo ha­bla­mos de má­qui­nas que son ca­pa­ces de com­por­tar­se co­mo hu­ma­nos, sino tam­bién ca­pa­ces de ges­tio­nar las emo­cio­nes de ma­ne­ra que in­ter­ac­túen con los hu­ma­nos co­mo si tam­bién lo fue­sen… Es­te es­ce­na­rio ca­si de cien­cia fic­ción tie­ne mu­chas ven­ta­jas, pe­ro tam­bién ge­ne­ra gran­des in­cer­ti­dum­bres, e in­clu­so mie­do. ¿Qué im­pac­to ten­drá to­do es­to en el ám­bi­to em­pre­sa­rial?

TI­MO ELLIOT: La in­te­li­gen­cia ar­ti­fi­cial es muy im­por­tan­te pa­ra los ne­go­cios, pe­ro hay que en­ten­der que las má­qui­nas no pue­den re­em­pla­zar a la men­te hu­ma­na. Tal vez lo ha­gan en un fu­tu­ro, pe­ro to­da­vía que­da mu­cho pa­ra eso. La tec­no­lo­gía ac­tual es so­fis­ti­ca­da y útil pa­ra de­ter­mi­na­dos pro­ce­sos en el ám­bi­to em­pre­sa­rial, pe­ro ac­tual­men­te las ma­yo­res opor­tu­ni­da­des se en­cuen­tran en los pro­ce­sos, don­de hay mu­chas de­ci­sio­nes re­pe­ti­ti­vas, las mis­mas de­ci­sio­nes una y otra vez. La in­te­li­gen­cia ar­ti­fi­cial es ideal pa­ra es­te ti­po de si­tua­cio­nes, en las que se pier­de tiem­po y di­ne­ro, por­que in­cre­men­ta no­ta­ble­men­te la efi­cien­cia.

En es­te sen­ti­do, creo que exis­ten tres gran­des áreas de opor­tu­ni­dad. En pri­mer lu­gar, la in­te­li­gen­cia ar­ti­fi­cial es­tá ha­cien­do que las in­ter­fa­ces de las compu­tado­ras sean más hu­ma­nas. Por ejem­plo, SAP ha crea­do un asis­ten­te di­gi­tal si­mi­lar a Si­ri y Cor­ta­na, pe­ro pa­ra la em­pre­sa. Di­cho asis­ten­te pue­de dar res­pues­ta a cues­tio­nes re­la­cio­na­das con una transac­ción co­mer­cial so­lo di­cien­do: “há­bla­me so­bre mis ven­tas de es­ta se­ma­na” o “¿pue­do ob­te­ner más de­ta­lles so­bre es­te pe­di­do?”. La di­fe­ren­cia en­tre es­to y Si­ri o Ale­xa es que ha si­do crea­do pa­ra ser uti­li­za­do en un con­tex­to de tra­ba­jo, y tie­ne más in­for­ma­ción so­bre lo que es­tá su­ce­dien­do. Si le ha­go dos pre­gun­tas se­gui­das a Ale­xa, ella pier­de com­ple­ta­men­te el con­tex­to en­tre las dos, pe­ro con el asis­ten­te de SAP pue­des man­te­ner una con­ver­sa­ción y co­no­cer qué pro­ce­so co­mer­cial es­toy tra­tan­do de lo­grar. Es­to es mu­cho más re­ve­la­dor que una con­ver­sa­ción con Si­ri.

En se­gun­do lu­gar, se es­tá au­to­ma­ti­zan­do el tra­ba­jo de co­no­ci­mien­to con de­ci­sio­nes com­ple­jas re­pe­ti­ti­vas re­em­pla­za­das por al­go­rit­mos. Y en ter­cer lu­gar, exis­te lo que lla­ma­mos “ha­cer lo an­te­rior­men­te im­po­si­ble”, co­mo uti­li­zar tec­no­lo­gías co­mo el re­co­no­ci­mien­to de imá­ge­nes den­tro de los pro­ce­sos co­mer­cia­les pa­ra ha­cer co­sas que an­tes no eran po­si­bles.

Se tra­ta de pro­ce­sos que no so­lo son úti­les pa­ra la em­pre­sa, sino tam­bién pa­ra la so­cie­dad. Por ejem­plo, en Bra­sil han crea­do un sis­te­ma pa­ra de­tec­tar la ta­la ile­gal de ár­bo­les co­lo­can­do en los bos­ques te­lé­fo­nos re­ci­cla­dos que cap­tan el rui­do de una sie­rra me­cá­ni­ca cuan­do se es­tá rea­li­zan­do una ta­la ile­gal, o in­clu­so an­tes, ya que tam­bién es ca­paz de de­tec­tar los rui­dos que se pro­du­cen cuan­do los ta­la­do­res ile­ga­les en­tran en el bos­que.

Por otro la­do, en Es­ta­dos Uni­dos se han he­cho prue­bas con per­so­nas que pa­de­cen al­gún ti­po de en­fer­me­dad men­tal. De­sa­for­tu­na­da­men­te, es­tos en­fer­mos tie­nen a me­nu­do pro­ble­mas con la po­li­cía, pe­ro gra­cias a un sis­te­ma que re­co­pi­la da­tos y com­bi­na al­go­rit­mos, se pue­den pre­de­cir las re­caí­das y ayu­dar­les an­tes de que se pro­duz­ca el pro­ble­ma. Se han pre­vis­to has­ta un 86% de las si­tua­cio­nes an­tes de que ocu­rran, eli­mi­nan­do las des­agra­da­bles con­se­cuen­cias que se pro­du­cen tras es­tos epi­so­dios co­mo el in­gre­so en pri­sión, al­go que es muy trau­má­ti­co pa­ra las per­so­nas con pro­ble­mas men­ta­les.

So­lo el

3% de las com­pa­ñías di­cen es­tar te­nien­do éxi­to con el pro­ce­so de trans­for­ma­ción di­gi­tal.

Las de­más em­pre­sas, por el con­tra­rio, es­tán per­dien­do opor­tu­ni­da­des

I.O.: La in­te­li­gen­cia ar­ti­fi­cial con­du­ce a tec­no­lo­gías que an­ti­ci­pan nues­tras ne­ce­si­da­des y, ade­más, las má­qui­nas ba­san sus de­ci­sio­nes en al­go­rit­mos que son exac­tos. Sin em­bar­go, pa­ra la con­di­ción hu­ma­na el li­bre al­be­drío (es de­cir, la li­bre elec­ción y la ca­pa­ci­dad pa­ra to­mar de­ci­sio­nes pro­pias) es im­por­tan­te. ¿Có­mo se ha­cen com­pa­ti­bles am­bas op­cio­nes: por un la­do, la se­gu­ri­dad que apor­ta la IA pa­ra to­mar la de­ci­sión más ade­cua­da, y a la vez la ne­ce­si­dad del ser hu­mano de ser li­bre pa­ra de­ci­dir? T.E.: En ge­ne­ral, las de­ci­sio­nes que se de­jan a la in­te­li­gen­cia ar­ti­fi­cial son aque­llas que son te­dio­sas, me­cá­ni­cas y sim­ples, pe­ro que hay que to­mar. En es­tas oca­sio­nes la tec­no­lo­gía es ver­da­de­ra­men­te útil. Le voy a po­ner un ejem­plo muy sen­ci­llo: his­tó­ri­ca­men­te, en las es­cue­las se han en­se­ña­do ma­te­má­ti­cas, pe­ro un día apa­re­ció la cal­cu­la­do­ra. En ese mo­men­to co­men­za­mos a plan­tear­nos: ¿pa­ra qué va­mos a apren­der ma­te­má­ti­cas si una má­qui­na pue­de ha­cer los cálcu­los por no­so­tros? Pe­ro de­jar de en­se­ñar ma­te­má­ti­cas en las es­cue­las no es una op­ción.

Ha­ce al­gu­nos años en Es­ta­dos Uni­dos se desató una gran po­lé­mi­ca por­que se uti­li­zó un sis­te­ma ba­sa­do en al­go­rit­mos pa­ra de­ter­mi­nar si un pre­so po­día sa­lir ba­jo fian­za o no. Se pro­vo­có un es­cán­da­lo tre­men­do, por­que los ex­per­tos se die­ron cuen­ta que los al­go­rit­mos es­ta­ban ses­ga­dos, y si el reo era afro­ame­ri­cano te­nía me­nos po­si­bi­li­da­des de que le de­ja­ran sa­lir.

Al fi­nal, se tra­ta de un sis­te­ma po­co jus­to. Por eso, hay que te­ner mu­cho cui­da­do con las de­ci­sio­nes que to­man las má­qui­nas, pe­ro que afec­tan di­rec­ta­men­te a las per­so­nas. En al­gu­nas oca­sio­nes, uti­li­zar al­go­rit­mos pue­de ser pe­li­gro­so o inade­cua­do.

I.O.: ¿De quién se­ría la res­pon­sa­bi­li­dad de edu­car a la so­cie­dad pa­ra ha­cer fren­te a es­tos cam­bios?

T.E.: Has­ta el mo­men­to, na­die tie­ne es­te ti­po de res­pon­sa­bi­li­dad en las em­pre­sas. Se ne­ce­si­ta que al­guien su­per­vi­se la par­te éti­ca por­que te­ne­mos de­ma­sia­dos da­tos, las em­pre­sas aglu­ti­nan gran can­ti­dad de in­for­ma­ción y es im­por­tan­te con­tro­lar que esos da­tos no se uti­li­cen de ma­ne­ra ses­ga­da. Por ejem­plo, si un em­pre­sa­rio em­plea so­la­men­te a va­ro­nes blan­cos de 30 años por­que las es­ta­dís­ti­cas his­tó­ri­cas se­ña­lan que son más efi­cien­tes, es evi­den­te que esos da­tos no es­tán ac­tua­li­za­dos y es­tán ob­vian­do los cam­bios que se han pro­du­ci­do en la so­cie­dad. Se­ría la­bor de los lí­de­res de­tec­tar dón­de es­tán los erro­res pa­ra ade­lan­tar­se a lo que es­tá ocu­rrien­do y re­sol­ver­lo con pron­ti­tud.

Sin em­bar­go, hay otra res­pues­ta pa­ra es­ta pre­gun­ta, y es to­do el mun­do. To­dos te­ne­mos la res­pon­sa­bi­li­dad de re­sal­tar los erro­res pa­ra evi­tar que se re­pi­tan.

I.O.: Exis­te una gran dis­tan­cia en­tre la ve­lo­ci­dad de las in­no­va­cio­nes y la len­ti­tud de la ge­ne­ra­ción de le­yes pa­ra re­gu­lar­la. ¿Có­mo es po­si­ble re­du­cir es­te

T.E.: Un gran po­der im­pli­ca una gran res­pon­sa­bi­li­dad. Es­te po­der pue­de uti­li­zar­se pa­ra ha­cer el bien, pe­ro tam­bién pa­ra ha­cer el mal, por­que así es la na­tu­ra­le­za hu­ma­na. Un dic­ta­dor, por ejem­plo, po­dría usar­lo pa­ra co­no­cer los da­tos de to­das aque­llas per­so­nas que no pien­san co­mo él.

Los lí­de­res em­pre­sa­ria­les de­be­rían ser cons­cien­tes de que exis­te es­te pe­li­gro, re­fle­xio­nar so­bre có­mo es­ta tec­no­lo­gía es­tá afec­tan­do a las per­so­nas, y ve­lar por su buen uso. I.O.: Al­gu­nos gu­rús del ma­na­ge­ment ad­vier­ten que se es­tá ini­cian­do la ten­den­cia de “tec­no­lo­gi­zar nues­tras al­mas”. Se­ña­lan que se es­tá dan­do mu­cha im­por­tan­cia a los da­tos y se es­tá de­jan­do de la­do las ac­ti­tu­des hu­ma­nas. ¿Es­tá de acuer­do?

T.E.: Es un ries­go real. Cuan­tos más da­tos te­ne­mos, me­jor ca­pa­ci­ta­dos es­ta­mos pa­ra to­mar una de­ci­sión co­rrec­ta. Pe­ro los da­tos y la tec­no­lo­gía nun­ca po­drán sus­ti­tuir a la in­tui­ción. El avan­ce de la tec­no­lo­gía per­mi­te al hom­bre de­di­car­se a otros cam­pos en los que an­tes per­día mu­cho tiem­po rea­li­zan­do ta­reas me­cá­ni­cas. Aho­ra pue­de cen­trar­se en ac­ti­vi­da­des más so­fis­ti­ca­das. Es más, cuan­ta más tec­no­lo­gía apa­rez­ca, más ne­ce­sa­ria es la ac­ti­vi­dad del hom­bre.

Hay que te­ner mu­cho cui­da­do con las de­ci­sio­nes que to­man las má­qui­nas y que afec­tan a las per­so­nas. En al­gu­nas oca­sio­nes, uti­li­zar al­go­rit­mos pue­de ser pe­li­gro­so

I.O.: Es­pa­ña es el país de la Unión Eu­ro­pea con la me­dia de edad más al­ta en sus Con­se­jos de Ad­mi­nis­tra­ción. En mu­chos ca­sos, quie­nes de­ben ase­so­rar so­bre la es­tra­te­gia de la em­pre­sa ca­re­cen de for­ma­ción y co­no­ci­mien­to so­bre in­no­va­ción tec­no­ló­gi­ca y trans­for­ma­ción di­gi­tal. ¿Cuál es su ex­pe­rien­cia en es­te sen­ti­do?

T.E.: La ma­yo­ría de los lí­de­res ac­tua­les ha cre­ci­do usan­do un or­de­na­dor, por­que ha­ce más de 30 años que la tec­no­lo­gía se em­pe­zó a ex­ten­der a to­dos los ni­ve­les. Hay po­cos lí­de­res tan ma­yo­res y, por tan­to, la di­fi­cul­tad es muy es­ca­sa. To­dos ellos en­tien­den el im­pac­to que es­tos pro­ce­sos es­tán te­nien­do en el ám­bi­to em­pre­sa­rial n

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.