En por­ta­da.

GEOFFREY HINTON NO SE SIEN­TA DES­DE 2005. LI­TE­RAL­MEN­TE. Un se­rio pro­ble­ma en la es­pal­da lo obli­ga a es­tar de pie o tum­ba­do. Una di­fi­cul­tad an­te la que él se li­mi­ta a son­reír y en­co­ger­se de hom­bros –«es­toy acos­tum­bra­do; te pue­des acos­tum­brar a cual­quier cos

La Voz de Galicia (A Coruña) - XL Semanal - - Sumario - POR ANA TAGARRO FO­TO­GRA­FÍA: DA­NIEL EHRENWORTH

Vi­si­ta­mos en To­ron­to (Ca­na­dá) a Geoffrey Hinton, el in­ves­ti­ga­dor que, con sus es­tu­dios so­bre la in­te­li­gen­cia ar­ti­fi­cial y las re­des neu­ro­na­les apli­ca­das a la in­for­má­ti­ca, ha re­vo­lu­cio­na­do el mun­do.

Geoffrey Hinton nos ha cam­bia­do la vi­da. Ha lo­gra­do que las má­qui­nas apren­dan por sí so­las y aho­ra te­ne­mos los pre­dic­to­res de pa­la­bras, el re­co­no­ci­mien­to de imá­ge­nes, los asis­ten­tes vir­tua­les... La re­vo­lu­ción en la in­te­li­gen­cia ar­ti­fi­cial. Y to­do ello, des­pués de 40 años sin que se re­co­no­cie­se su tra­ba­jo. Aho­ra, a los 70, re­ci­be el Pre­mio Fron­te­ras del Co­no­ci­mien­to y se lo dispu­tan en Si­li­con Va­lley. Ha­bla­mos con él.

Hinton es aho­ra to­da una per­so­na­li­dad en Goo­gle, que lo fi­chó en 2013 pa­ra el Team Brain, su pro­gra­ma es­tre­lla pa­ra el desa­rro­llo de la in­te­li­gen­cia ar­ti­fi­cial, y po­dría te­ner un des­pa­cho me­jor, pe­ro es aquí don­de tra­ba­ja des­de los ochen­ta y no tie­ne nin­gún in­te­rés en cam­biar­lo. A Hinton, na­ci­do en Lon­dres en 1947, lo lla­man el 'pa­drino' de la in­te­li­gen­cia ar­ti­fi­cial. Y no es un tí­tu­lo cual­quie­ra. La pa­ter­ni­dad de la in­te­li­gen­cia ar­ti­fi­cial es­tá muy dispu­tada, pe­ro so­bre el pa­drino no hay du­da. Su apor­ta­ción es de­ci­si­va. Con­tra to­da ló­gi­ca, él apos­tó por re­le­gar la ló­gi­ca a la ho­ra de crear in­te­li­gen­cia ar­ti­fi­cial. Y lo hi­zo en 1972. Des­de pe­que­ño, a Hinton lo que le ha in­tere­sa­do de ver­dad es el ce­re­bro, así que lo pri­me­ro que es­tu­dió fue Psi­co­lo­gía Ex­pe­ri­men­tal, en Cam­brid­ge. Una vez su­mer­gi­do en las cla­ves de nues­tra men­te, de­ci­dió que po­día re­pli­car­las y lle­var­las a la compu­tación. Se ins­pi­ró en la bio­lo­gía pa­ra pro­gra­mar y creó lo que se ha da­do en lla­mar 're­des neu­ro­na­les'. Du­ran­te 30 años, su pro­pues­ta no tu­vo nin­gún eco en la co­mu­ni­dad cien­tí­fi­ca. Pe­ro, a me­di­da que la po­ten­cia de los or­de­na­do­res au­men­ta­ba, la in­te­li­gen­cia ar­ti­fi­cial neu­ro­nal –que pri­ma la in­tui­ción– co­men­zó a fun­cio­nar me­jor que la ba­sa­da en la ló­gi­ca. De re­pen­te, Hinton era un ge­nio, un vi­sio­na­rio. Y Si­li­con Va­lley pu­so los ojos en él. Los asis­ten­tes vir­tua­les, los tra­duc­to­res si­mul­tá­neos, el re­co­no­ci­mien­to de imá­ge­nes, el predictor de pa­la­bras, los co­ches sin con­duc­tor... De­trás de to­do ello hay un ce­re­bro: el de Geoffrey Hinton.

"Los ro­bots no nos do­mi­na­rán. Un sis­te­ma me­nos in­te­li­gen­te pue­de con­tro­lar a otro su­pe­rior. Mi­re a los be­bés. La ma­dre no so­por­ta su llan­to. Al­go me­nos po­de­ro­so que ella la do­mi­na"

si­mu­la­do­res de re­des neu­ro­na­les y la gen­te tra­ba­ja­rán jun­tos. No creo que aca­be­mos do­mi­na­dos por las má­qui­nas y, si eso ocu­rre, se­rá en un fu­tu­ro muy muy le­jano. XL. Pues en el Cen­tro de Ries­go Exis­ten­cial, de la Uni­ver­si­dad de Cam­brid­ge, crea­do por gen­te que tra­ba­ja con in­te­li­gen­cia ar­ti­fi­cial, no es­tán tan se­gu­ros. Es­tu­dian que esa po­si­bi­li­dad se pro­duz­ca en 50 años. G.H. ¿50 años? ¡Es im­po­si­ble sa­ber lo que va a ocu­rrir en 50 años! Co­noz­co el cen­tro, pe­ro no pue­des ha­cer predicciones se­rias más allá de 5 años. XL. Su­pon­ga­mos que esa po­si­bi­li­dad exis­te... ¿Qué po­dría­mos ha­cer pa­ra evi­tar­lo? ¿In­tro­du­cir cier­to sis­te­ma de va­lo­res en las má­qui­nas o crear un al­go­rit­mo éti­co, co­mo plan­tean al­gu­nos? G.H. Ya te­ne­mos un ejem­plo de un sis­te­ma me­nos in­te­li­gen­te que con­tro­la a un sis­te­ma más in­te­li­gen­te. Y eso es un be­bé. Una ma­dre sim­ple­men­te no pue­de so­por­tar el llan­to del be­bé. Es­tá di­se­ña­da pa­ra no po­der que­dar­se in­di­fe­ren­te. Es un ejem­plo de có­mo al­go que tú pen­sa­rías que es más po­de­ro­so –la ma­dre– tie­ne al­go den­tro de ella, cons­trui­do por la evo­lu­ción, que per­mi­te que al­go me­nos po­de­ro­so –el be­bé– la con­tro­le e im­pi­de que lo aban­do­ne o lo ti­re por la ven­ta­na. Los be­bés han en­con­tra­do la for­ma de con­tro­lar a las ma­dres. XL. Lo que quie­re de­cir, en­tien­do, es que no­so­tros so­mos los be­bés y las má­qui­nas su­per­in­te­li­gen­tes son las ma­dres y, a pe­sar de ello, se­re­mos ca­pa­ces de con­tro­lar­las, ¿es así? G.H. Eso es. No­so­tros va­mos a cons­truir en las ma­dres, o sea, en las má­qui­nas es­ta 'co­sa' a la que no pue­den re­sis­tir­se y ha­rá que se apa­guen. XL. ¿Nos va­mos a po­ner a llo­rar? G.H. No sé lo que ha­re­mos. Pe­ro ya te­ne­mos un ejem­plo de que eso es po­si­ble. Si la evo­lu­ción lo ha he­cho con las ma­dres, no­so­tros po­dre­mos ha­cer­lo con las má­qui­nas.

XL. Ha di­cho us­ted que la res­pon­sa­bi­li­dad de lo que ha­gan las má­qui­nas no es de los cien­tí­fi­cos, sino de los po­lí­ti­cos. G.H. Aquí hay dos te­mas di­fe­ren­tes. Un asun­to es que las má­qui­nas sean más in­te­li­gen­tes que no­so­tros y nos su­peren. Si eso ocu­rre, se­rá en un fu­tu­ro muy le­jano. Otro te­ma es que las má­qui­nas sean tan in­te­li­gen­tes co­mo pa­ra rea­li­zar mu­chos de los tra­ba­jos ac­tua­les, de for­ma que la gen­te se que­de sin em­pleo. Es­te te­ma com­pe­te al sis­te­ma po­lí­ti­co. Que las má­qui­nas pue­dan ha­cer co­sas co­mo dis­pen­sar di­ne­ro en un ban­co es in­trín­se­ca­men­te más efi­caz, así que in­trín­se­ca­men­te de­be­ría ser bueno pa­ra la gen­te. Y lo que que­re­mos es que sea me­jor pa­ra to­da la gen­te y no so­lo pa­ra unos po­cos. Eso es un asun­to po­lí­ti­co y los po­lí­ti­cos de­ben re­sol­ver­lo. XL. ¿Al­gu­na idea? G.H. La ren­ta bá­si­ca uni­ver­sal. Yo es­toy a fa­vor de eso, por ejem­plo. De he­cho, creo que es la úni­ca so­lu­ción. Por­que lo que es se­gu­ro es que no pue­des de­te­ner el pro­gre­so. No hay for­ma de evi­tar los ca­je­ros au­to­má­ti­cos. Y na­die pien­sa que fue­sen una ma­la idea. La so­lu­ción es cam­biar el sis­te­ma po­lí­ti­co de for­ma que cuan­do se crea más ri­que­za, por­que las má­qui­nas son más efi­ca­ces, esa ri­que­za se re­par­ta. XL. Uno de los cam­pos en los que sus re­des neu­ro­na­les son más efi­ca­ces es la tra­duc­ción. Se­gún pa­re­ce, en bre­ve no va­mos a ne­ce­si­tar apren­der idio­mas, ¿no? G.H. To­da­vía es­ta­mos un po­co le­jos de las tra­duc­cio­nes per­fec­tas, pe­ro ya son bas­tan­te bue­nas. Va a ser co­mo las cal­cu­la­do­ras. Ya na­die se mo­les­ta en ha­cer cálcu­lo men­tal. Pa­ra el tra­ba­jo del día a día y las transac­cio­nes de ne­go­cios no vas a ne­ce­si­tar apren­der el idio­ma. Aho­ra bien, pa­ra tra­duc­cio­nes de ca­li­dad, to­da­vía vas a ne­ce­si­tar gen­te. Y si quie­res en­ten­der una cul­tu­ra, ten­drás que apren­der su idio­ma. XL. El otro uso pa­ra el que sus al­go­rit­mos son muy úti­les son las predicciones del Mer­ca­do de Va­lo­res, es de­cir, la es­pe­cu­la­ción. ¿Có­mo va a cam­biar eso el mun­do fi­nan­cie­ro? G.H. Bueno, eso ya se es­tá ha­cien­do. Hay un mon­tón de au­to­ma­tic tra­ding y al­gu­na gen­te se es­tá fo­rran­do con ello. XL. ¿Po­dría esa es­pe­cu­la­ción desata­da ba­sa­da en la ra­pi­dez del pro­ce­sa­do de da­tos lle­var­nos a otra cri­sis? G.H. No lo sé, no soy un ex­per­to en esa ma­te­ria. Pe­ro lo que yo creo es que to­do eso de­be es­tar al­ta­men­te re­gu­la­do. El pe­li­gro no son las má­qui­nas, que va­yan o no rá­pi­do, el pe­li­gro es que se es­tán qui­tan­do las re­gu­la­cio­nes. XL. La gran ven­ta­ja de las re­des neu­ro­na­les es que son in­tui­ti­vas, ade­más de ló­gi­cas. ¿Pe­ro qué pin­tan en to­do es­to los sen­ti­mien­tos? ¿Se pue­de enamo­rar una má­qui­na? G.H. Sí. XL. ¿Sí?

"La so­lu­ción pa­ra los que pier­dan el tra­ba­jo por los ro­bots es la ren­ta uni­ver­sal. El pro­gre­so no se pue­de de­te­ner"

G.H. Los se­res hu­ma­nos son má­qui­nas, so­lo que muy muy so­fis­ti­ca­das. XL. Esa afir­ma­ción re­que­ri­ría una ex­pli­ca­ción más pro­fun­da, pe­ro yo me re­fe­ría a las que no son de car­ne y hue­so. ¿Se pue­de enamo­rar un ro­bot? G.H. Por su­pues­to que po­dría. Ima­gi­na tu ce­re­bro. E ima­gi­na que re­em­pla­za­mos ca­da cé­lu­la ce­re­bral por una má­qui­na que tra­ba­ja exac­ta­men­te igual que esa cé­lu­la. Ima­gi­na que po­de­mos lle­gar a ha­cer eso con na­no­tec­no­lo­gía. Lue­go re­em­pla­zo to­das las neu­ro­nas de tu ce­re­bro por pe­que­ñas má­qui­nas que ac­túan exac­ta­men­te co­mo tus neu­ro­nas. Lo que sea que tú hi­cie­ras an­tes, es­te nue­vo sis­te­ma lo ha­rá aho­ra. Si tú te reías de un chis­te, es­te nue­vo sis­te­ma se reirá tam­bién; si te ofen­de el com­por­ta­mien­to de una per­so­na, es­te nue­vo sis­te­ma se ofen­de­rá tam­bién, ten­drá sen­ti­mien­tos... XL. Pe­ro re­pro­du­cir eso no es po­si­ble. G.H. No es po­si­ble... hoy. Pe­ro es po­si­ble. Lo que ocu­rre es que la gen­te no en­tien­de qué sig­ni­fi­ca te­ner sen­ti­mien­tos. Es un pro­ble­ma fi­lo­só­fi­co. XL. Pues tal y co­mo us­ted lo cuen­ta no pa­re­ce fi­lo­só­fi­co, sino me­cá­ni­co: re­em­pla­zar neu­ro­nas por chips... G.H. Es fi­lo­só­fi­co. Si le pre­gun­tas a una per­so­na que te ex­pli­que sus sen­ti­mien­tos, te di­rá, por ejem­plo, «sien­to que quie­ro pe­gar a al­guien». Lo tra­du­cen co­mo ac­cio­nes que po­drían rea­li­zar en el mun­do real o ha­blan­do de sus cau­sas. Así que cuan­do la gen­te ha­bla de sen­ti­mien­tos no ha­bla de al­go den­tro de la ca­be­za, no se re­fie­ren a la ac­ti­vi­dad neu­ro­nal. Por­que no es­ta­mos acos­tum­bra­dos. Si yo te di­go: «Tu neu­ro­na 52 es­tá muy ac­ti­va», no te di­rá na­da y, sin em­bar­go, si te ape­te­ce gol­pear a al­guien es por­que la neu­ro­na 52 es­tá muy ac­ti­va. Así que 'sen­ti­mien­tos' es so­lo un len­gua­je ton­to pa­ra ha­blar de es­ta­dos del ce­re­bro. XL. O sea, que no en­ten­de­mos los sen­ti­mien­tos...

G.H. Ha­bla­mos siem­pre en tér­mi­nos de sus cau­sas o de sus efec­tos. No de lo que ocu­rre en el ce­re­bro. XL. ¿Y có­mo tras­la­da­mos esos sen­ti­mien­tos a las má­qui­nas? G.H. Te­ne­mos una má­qui­na a la que po­de­mos dar unos in­puts y que es ca­paz de su­pri­mir sus ac­cio­nes, que pue­de in­hi­bir­se de ac­tuar. Nor­mal­men­te esa má­qui­na se com­por­ta de una de­ter­mi­na­da ma­ne­ra cuan­do le da­mos esos in­puts, pe­ro aho­ra le de­ci­mos al ro­bot: «Quie­ro que no lo ha­gas», pe­ro quie­ro que me di­gas qué ha­rías si pu­die­ses ha­cer al­go a par­tir de esos in­puts. Y la má­qui­na me di­ría: «Si pu­die­ra, mo­ve­ría esa pie­za». Es de­cir, el ro­bot sien­te que quie­re mo­ver una pie­za. El ro­bot tie­ne un sen­ti­mien­to. Aun­que no lo ha­ce. Y así es co­mo fun­cio­na un sen­ti­mien­to. XL. Y aho­ra sí que te­ne­mos una cues­tión fi­lo­só­fi­ca... Si so­lo eres lo que son tus neu­ro­nas y vie­nen 'de fá­bri­ca' cuan­do na­ces, ¿eres res­pon­sa­ble de tus ac­tos? G.H. Por su­pues­to. No hay nin­gún con­flic­to en­tre de­ter­mi­nis­mo y res­pon­sa­bi­li­dad. Aun­que es­to nos lle­va­ría a otro te­ma. Pe­ro te­ner unas de­ter­mi­na­das neu­ro­nas no eli­mi­na en ab­so­lu­to nues­tra res­pon­sa­bi­li­dad so­bre quié­nes so­mos y lo que ha­ce­mos. XL. Sos­pe­cho que us­ted no es una per­so­na re­li­gio­sa... G.H. Es una sos­pe­cha acer­ta­da. XL. Us­ted se em­pe­ñó en abor­dar la in­te­li­gen­cia ar­ti­fi­cial co­mo si fue­se el ce­re­bro hu­mano du­ran­te 40 años sin re­ci­bir nin­gún re­co­no­ci­mien­to. ¿Qué les di­ce aho­ra a los que le re­cri­mi­na­ban que es­tu­vie­se per­dien­do el tiem­po? G.H. Lo que les di­go es que de­be­ría ha­ber teo­rías me­jo­res que las que usa­mos hoy. Mu­cha gen­te ha de­ja­do de bus­car me­jo­res for­mas de re­des neu­ro­na­les por­que es­tas es­tán fun­cio­nan­do, y eso es un gran error. En el mo­men­to en que es­tás sa­tis­fe­cho, no vas a nin­gún la­do. XL. ¿Es esa la ra­zón por la que un aca­dé­mi­co co­mo us­ted ha em­pe­za­do a tra­ba­jar pa­ra Goo­gle? G.H. Lo que ha­go en Goo­gle es in­ten­tar desa­rro­llar nue­vos ti­pos de re­des neu­ro­na­les, más efi­ca­ces. Ellos tie­nen or­de­na­do­res más rá­pi­dos y me per­mi­ten pa­sar to­do mi tiem­po in­ves­ti­gan­do. XL. Cuan­do era jo­ven, se ne­gó a tra­ba­jar pa­ra el Ejér­ci­to ame­ri­cano, que es­ta­ba muy in­tere­sa­do en su in­ves­ti­ga­ción y dis­pues­to a fi­nan­ciar­la. ¿Tra­ba­jar pa­ra Goo­gle no le pro­du­ce nin­gu­na in­quie­tud? G.H. No tra­ba­ja­ría pa­ra Goo­gle si desa­rro­lla­sen ar­mas. XL. Pe­ro ha­cen ne­go­cios y no siem­pre cla­ros... G.H. Ha­cen la eco­no­mía más efi­cien­te. XL. Pe­ro no sa­be­mos qué ha­cen con nues­tros da­tos, si los ven­den pa­ra que otros nos ven­dan pro­duc­tos... To­do eso no es­tá cla­ro, ¿no cree? G.H. Goo­gle tie­ne mu­cho cui­da­do con lo que ha­ce con los da­tos per­so­na­les. Y, des­de lue­go, yo con­fío mu­cho más en Goo­gle que en la NSA. Goo­gle es­ta­ba ho­rro­ri­za­do cuan­do se dio cuen­ta de que la NSA es­ta­ba in­ter­cep­tan­do sus ser­vi­do­res. Ge­nui­na­men­te ho­rro­ri­za­dos. Yo es­ta­ba allí. XL. Igual aca­ba­mos te­nien­do que con­fiar en los chi­cos de Si­li­con Va­lley más que en los po­lí­ti­cos, es­pe­cial­men­te en tiem­pos de Trump... G.H. No pien­so ha­cer nin­gún co­men­ta­rio so­bre Trump. XL. Va­le. Pe­ro ¿cree que aca­ba­re­mos go­ber­na­dos por Si­li­con Va­lley y la éli­te del al­go­rit­mo? G.H. No, no lo creo. Siem­pre ne­ce­si­ta­re­mos lí­de­res po­lí­ti­cos. Lo que pa­sa es que a la gen­te le gus­ta pen­sar que si las co­sas van mal es por los lí­de­res po­lí­ti­cos, en lu­gar de pen­sar en tér­mi­nos de sis­te­mas. Es el sis­te­ma so­cial y sus di­ná­mi­cas lo que de­be­ría­mos en­ten­der y or­ga­ni­zar pa­ra que fun­cio­ne bien. XL. ¿Qué ca­rre­ra de­be­ría­mos es­tu­diar hoy en día pa­ra en­con­trar un tra­ba­jo? G.H. Si es­tu­dias re­des neu­ro­na­les, se­gu­ro que en­cuen­tras un tra­ba­jo aho­ra mis­mo. Pe­ro si quie­res cam­biar el mun­do, es­tu­dia cien­cias so­cia­les. XL. No irá us­ted a Es­pa­ña a re­co­ger el pre­mio Fron­te­ras del Co­no­ci­mien­to de la Fun­da­ción BBVA por­que no pue­de co­ger un avión por su pro­ble­ma de es­pal­da... G.H. No, y no he es­ta­do nun­ca en Es­pa­ña, aun­que pa­ra ser pre­ci­sos una vez pu­se un pie en su país. XL. ¿Un pie? G.H. Sí, en los años cin­cuen­ta mi pa­dre me lle­vó a An­do­rra y yo le pe­dí ir a Es­pa­ña, pe­ro él se ne­ga­ba por­que es­ta­ba Fran­co y él era de cla­ras con­vic­cio­nes po­lí­ti­cas. Pe­ro le pi­dió a un guar­da de la fron­te­ra, que ya que yo te­nía el ca­pri­cho, me de­ja­se po­ner un pie en Es­pa­ña. Y lo pu­se.

Aho­ra, Hinton ya tie­ne un pie en la puer­ta. Tie­ne pri­sa. Pe­ro cuan­do es­ta­mos aban­do­nan­do la uni­ver­si­dad, me ha­ce una sin­gu­lar in­vi­ta­ción: que lo acom­pa­ñe al ba­rrio chino por­que tie­ne que com­prar­le un ju­gue­te a su mu­jer. Por des­con­cer­tan­te que re­sul­te la pro­pues­ta, no ca­be otra res­pues­ta que «por su­pues­to». Hinton em­pie­za a ca­mi­nar a tal ve­lo­ci­dad que re­sul­ta

"No creo que aca­be­mos go­ber­na­dos por Si­li­con Va­lley. Siem­pre ne­ce­si­ta­re­mos lí­de­res po­lí­ti­cos. Si quie­res cam­biar el mun­do, es­tu­dia cien­cias so­cia­les"

di­fí­cil se­guir­lo. El ba­rrio chino es­tá cer­ca, pe­ro el tra­yec­to da pa­ra una ex­pli­ca­ción so­bre el ju­gue­te. Su mu­jer co­lec­cio­na unas de­ter­mi­na­das fi­gu­ras. Es­tá en­fer­ma y quie­re lle­var­le una en con­cre­to. Tie­ne una di­rec­ción de una tien­da que con­fía a Goo­gle Maps. Pe­ro con el bus­ca­dor la tien­da no apa­re­ce. Una ca­lle, la otra... Na­da. Su­gie­ro, re­cu­pe­ran­do el alien­to, que con­fíe en el ser hu­mano y pre­gun­te a al­guien por la tien­da. Re­ti­cen­te, abor­da a dos tra­ba­ja­do­res la­ti­nos que nos in­di­can dón­de pue­de es­tar la tien­da. Y, efec­ti­va­men­te, allí es­tá. «Ser hu­mano, 1-Goo­gle, 0», ad­mi­te Hinton rien­do. En­tra­mos con la mis­ma pri­sa por el es­tre­cho pa­si­llo de la tien­da y, en­tre ju­gue­tes chi­nos, ce­le­bro la vic­to­ria del hom­bre so­bre la má­qui­na. Hinton se da la vuel­ta y, son­rien­do co­mo si la anéc­do­ta no fue­se sino una con­fir­ma­ción, di­ce: «No­so­tros so­mos las má­qui­nas».

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.