La má­qui­na em­pie­za a mi­rar el mun­do co­mo los hu­ma­nos

Un pro­gra­ma de Goo­gle Deep­mind ge­ne­ra un ma­pa en 3D a par­tir de una fo­to­gra­fía

El País (Nacional) - - CIENCIA Y TECNOLOGÍA - JA­VIER SALAS,

Uno de los prin­ci­pa­les obs­tácu­los de las má­qui­nas es­tá en su for­ma de mi­rar. Los ma­mí­fe­ros iden­ti­fi­can múl­ti­ples fac­to­res de un so­lo vistazo que se su­man en una úni­ca re­pre­sen­ta­ción men­tal del es­pa­cio y per­mi­te in­ter­ac­tuar con él. Ese es el ob­je­ti­vo de Goo­gle Deep­mind, la di­vi­sión de in­te­li­gen­cia ar­ti­fi­cial del gi­gan­te tec­no­ló­gi­co, que aca­ba de pu­bli­car unos lla­ma­ti­vos lo­gros en la re­vis­ta Scien­ce.

Deep­mind ha pre­sen­ta­do una se­rie de prue­bas vir­tua­les rea­li­za­das con GQN, un pro­gra­ma ca­paz de for­mar­se una re­pre­sen­ta­ción abs­trac­ta de lo que hay fren­te a sus ojos a par­tir de un sim­ple vistazo. Has­ta aho­ra, cuan­do se pre­ten­de que una má­qui­na ima­gi­ne un ma­pa de lo que es­tá vien­do, se la ali­men­ta con to­ne­la­das de in­for­ma­ción: nu­me­ro­sas imá­ge­nes y eti­que­tas que ayu­den a iden­ti­fi­car ob­je­tos y es­ce­na­rios.

El abor­da­je de Deep­mind es tan ele­gan­te co­mo com­ple­jo: su má­qui­na so­lo ve un par de fo­tos en dos di­men­sio­nes de la es­ce­na y, a par­tir de ahí, es ca­paz de ha­cer­se una com­po­si­ción de lu­gar en 3D de to­do el pai­sa­je. Al ver un cu­bo ro­jo que ta­pa una bo­la ver­de, es­te pro­gra­ma lo­gra ima­gi­nar que, des­de el la­do opues­to, es la bo­la ver­de la que ape­nas de­ja ver al cu­bo ro­jo.

“En es­te tra­ba­jo, he­mos de­mos­tra­do que una so­la ar­qui­tec­tu­ra neu­ro­nal pue­de apren­der a per­ci­bir, in­ter­pre­tar y re­pre­sen­tar es­ce­nas sin­té­ti­cas sin nin­gún eti­que­ta­do hu­mano de los con­te­ni­dos de es­tas”, ex­pli­can los in­ves­ti­ga­do­res de Deep­mind en su es­tu­dio, li­de­ra­do por S. M. Ali Es­la­mi. La má­qui­na apren­de por sín­te­sis, “lo que le per­mi­te ex­pre­sar la pre­sen­cia de tex­tu­ras, par­tes, ob­je­tos, lu­ces y es­ce­nas de ma­ne­ra con­ci­sa y en un ni­vel de abs­trac­ción ade­cua­da­men­te al­to”, se­gún los res­pon­sa­bles de Deep­mind.

Así la má­qui­na es ca­paz de in­fe­rir la com­po­si­ción ge­ne­ral, en lu­gar de per­der­se en in­nu­me­ra­bles de­ta­lles con­cre­tos. Ade­más, GQN apren­de es­te com­por­ta­mien­to por sí mis­mo y de una for­ma que le per­mi­te apli­car­lo en cual­quier en­torno, sin nin­gu­na es­pe­ci­fi­ca­ción pre­via de las le­yes de pers­pec­ti­va o de ilu­mi­na­ción, co­mo su­ce­de­ría con un hu­mano. La ven­ta­ja es que las má­qui­nas ac­túan y se adap­tan a una rea­li­dad ines­ta­ble y cam­bian­te.

“Los ex­pe­ri­men­tos es­tán res­trin­gi­dos a es­ce­nas 3D sim­ples que con­sis­ten en unos po­cos ob­je­tos geo­mé­tri­cos bá­si­cos”, se­ña­la en Scien­ce el es­pe­cia­lis­ta Matthias Zwic­ker, de la Uni­ver­si­dad de Mary­land. Y aña­de: “Por lo tan­to, no es­tá cla­ro lo cer­ca que se en­cuen­tra de com­pren­der en­tor­nos com­ple­jos del mun­do real, lo que lo ha­ría útil, por ejem­plo, pa­ra im­ple­men­tar el con­trol prác­ti­co de los ro­bots”. “No obs­tan­te, su téc­ni­ca in­tro­du­ce una se­rie de con­tri­bu­cio­nes cru­cia­les que pro­ba­ble­men­te lo ha­gan po­si­ble en el fu­tu­ro”, afir­ma Zwic­ker.

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.