El hom­bre y las má­qui­nas co­la­bo­ran

Listin Diario - - Internatio­nal Weekly - Por JOHN MARKOFF

Des­de ha­ce mu­cho tiem­po, Elon Musk, el di­rec­tor de Tes­la, y otros eje­cu­ti­vos del Si­li­con Va­lley han pro­me­ti­do un au­to­mó­vil que pue­da ha­cer to­do el re­co­rri­do, sin ayu­da hu­ma­na.

Pe­ro Ben Sh­nei­der­man, cien­tí­fi­co compu­tacio­nal de la Uni­ver­si­dad de Mary­land, cree que los au­to­mó­vi­les to­tal­men­te au­to­ma­ti­za­dos y la vi­sión de la in­dus­tria tec­no­ló­gi­ca para un fu­tu­ro ro­bó­ti­co es erró­nea. In­clu­so pe­li­gro­sa. Cree que los ro­bots de­be­rían co­la­bo­rar con los hu­ma­nos, en lu­gar de re­em­pla­zar­los.

El año pa­sa­do, Sh­nei­der­man em­pren­dió una cru­za­da para con­ven­cer al mundo de que la in­te­li­gen­cia ar­ti­fi­cial va en di­rec­ción equi­vo­ca­da. En lu­gar de tra­tar de crear ro­bots au­tó­no­mos, di­jo, los di­se­ña­do­res de­be­rían en­fo­car­se en di­se­ñar má­qui­nas que sean “se­gu­ras y con­fia­bles”.

Sh­nei­der­man, de 72 años, co­men­zó a di­fun­dir su men­sa­je ha­ce dé­ca­das. Pio­ne­ro en el cam­po de la in­ter­ac­ción hom­bre-compu­tado­ra, en 1982 co­fun­dó lo que hoy es la Con­fe­ren­cia so­bre Fac­to­res Hu­ma­nos en los Sis­te­mas In­for­má­ti­cos y acu­ñó el tér­mino “ma­ni­pu­la­ción di­rec­ta” para des­cri­bir la for­ma en que los ob­je­tos se mue­ven en la pan­ta­lla de una compu­tado­ra, con un ra­tón o, más re­cien­te­men­te, con un de­do.

En 1997, Sh­nei­der­man en­ta­bló un de­ba­te cla­ri­vi­den­te con Pat­tie Maes, una cien­tí­fi­ca compu­tacio­nal del La­bo­ra­to­rio de Me­dios del Ins­ti­tu­to Tec­no­ló­gi­co de Mas­sa­chu­setts (MIT), so­bre la idea de agen­tes in­te­li­gen­tes de soft­wa­re, di­se­ña­dos para rea­li­zar ta­reas au­tó­no­mas para los usua­rios de compu­tado­ras, des­de reor­de­nar los co­mes­ti­bles, has­ta ha­cer una re­ser­va­ción en un res­tau­ran­te.

“Los di­se­ña­do­res creen que es­tán crean­do al­go rea­lis­ta e in­te­li­gen­te; sin em­bar­go, los usua­rios se sien­ten an­sio­sos e in­ca­pa­ces de con­tro­lar es­tos sis­te­mas”, ar­gu­men­tó.

Sh­nei­der­man ha afir­ma­do que los di­se­ña­do­res co­rren el ries­go de ab­sol­ver a los hu­ma­nos, de la res­pon­sa­bi­li­dad éti­ca de las ac­cio­nes to­ma­das por los sis­te­mas au­tó­no­mos, que van des­de au­to­mó­vi­les has­ta las ar­mas.

El con­flic­to apa­re­ció por pri­me­ra vez en dos la­bo­ra­to­rios de cien­cias de la compu­tación que fue­ron crea­dos en 1962 cer­ca de la Uni­ver­si­dad Stan­ford, en Ca­li­for­nia. John McCarthy, un cien­tí­fi­co compu­tacio­nal que ha­bía acu­ña­do el tér­mino “in­te­li­gen­cia ar­ti­fi­cial”, es­ta­ble­ció el La­bo­ra­to­rio de In­te­li­gen­cia Ar­ti­fi­cial de Stan­ford, con el ob­je­ti­vo de crear una “má­qui­na pen­san­te” en una dé­ca­da.

Y Dou­glas En­gel­bart, que in­ven­tó el ra­tón de compu­tado­ra, creó el Cen­tro de In­ves­ti­ga­ción de Au­men­to en el Cen­tro de In­ves­ti­ga­ción de Stan­ford y acu­ñó el tér­mino “in­te­li­gen­cia au­men­ta­da”.

En los úl­ti­mos años, los in­ves­ti­ga­do­res han in­ten­ta­do vol­ver a unir los dos cam­pos, des­cri­bien­do la disciplina re­sul­tan­te co­mo in­te­li­gen­cia ar­ti­fi­cial “hu­ma­nis­ta” o “cen­tra­da en el ser hu­mano”.

La au­to­no­mía de las má­qui­nas se ha des­cri­to co­mo una es­ca­la uni­di­men­sio­nal, que abar­ca des­de má­qui­nas que se con­tro­lan ma­nual­men­te, has­ta sis­te­mas que fun­cio­nan sin in­ter­ven­ción hu­ma­na.

Sh­nei­der­man ha es­bo­za­do una al­ter­na­ti­va bi­di­men­sio­nal que per­mi­te tan­to, ni­ve­les al­tos de au­to­ma­ti­za­ción de má­qui­nas, co­mo con­trol hu­mano. Ex­pli­ca que el ob­je­ti­vo de los di­se­ña­do­res compu­tacio­na­les de­be­ría ser los sis­te­mas en los que la compu­tación se use para ex­ten­der las ha­bi­li­da­des de los hu­ma­nos.

Gill Pratt, di­rec­tor del Ins­ti­tu­to de In­ves­ti­ga­ción To­yo­ta, abo­ga por man­te­ner a los hu­ma­nos “in­vo­lu­cra­dos”. Su ins­ti­tu­to ha desa­rro­lla­do Guar­dian, una “asis­ten­cia al con­duc­tor sú­per avan­za­da”.

Ro­bert O. Work, sub­se­cre­ta­rio de De­fen­sa de los pre­si­den­tes Do­nald J. Trump y Ba­rack Oba­ma, res­pal­dó la idea de los lla­ma­dos sis­te­mas de ar­mas cen­tau­ro, que re­que­ri­rían el con­trol hu­mano, en lu­gar de ro­bots ase­si­nos, ba­sa­dos en in­te­li­gen­cia ar­ti­fi­cial, aho­ra lla­ma­dos ar­mas le­ta­les au­tó­no­mas.

Hay es­cép­ti­cos.

“La no­ción de Ben de que su mo­de­lo bi­di­men­sio­nal es una nue­va pers­pec­ti­va sim­ple­men­te no es ver­dad”, de­cla­ró Missy Cum­mings, di­rec­to­ra del La­bo­ra­to­rio de Hu­ma­nos y Au­to­no­mía de la Uni­ver­si­dad Du­ke, en Ca­ro­li­na del Nor­te, quien afir­mó que se apo­ya­ba en las ideas de la in­ter­faz hu­ma­na de Sh­nei­der­man en las cla­ses de di­se­ño que im­par­te.

“El gra­do de co­la­bo­ra­ción de­be­ría es­tar im­pul­sa­do por la can­ti­dad de in­cer­ti­dum­bre en el sis­te­ma y lo crí­ti­co de los re­sul­ta­dos”, in­di­có. “Los reac­to­res nu­clea­res son al­ta­men­te au­to­ma­ti­za­dos por una ra­zón: los se­res hu­ma­nos a me­nu­do no tie­nen tiem­pos de reac­ción, lo su­fi­cien­te­men­te rá­pi­dos para empujar las ba­rras, si el reac­tor se vuel­ve crí­ti­co”.

PE­TE SHARP

RO­BERT KOSARA

Ben Sh­nei­der­man cree que el en­fo­que en la au­to­ma­ti­za­ción es erró­neo y pe­li­gro­so.

Newspapers in Spanish

Newspapers from Dominican Republic

© PressReader. All rights reserved.