In­te­li­gen­cia Ar­ti­fi­cial

Los ries­gos de una tec­no­lo­gía que ya se es­tá uti­li­zan­do.

La Voz de Galicia (A Coruña) - Internet y Redes Sociales - - Portada - TEX­TO: E. V. PITA

L a In­te­li­gen­cia Ar­ti­fi­cial (IA) es uno de los cua­tro pi­la­res en los que se asien­ta la in­dus­tria 4.0 jun­to a la im­pre­sión 3D, In­ter­net de las co­sas y la ro­bo­ti­za­ción. El pro­ble­ma es que la In­te­li­gen­cia Ar­ti­fi­cial pre­sen­ta ries­gos des­co­no­ci­dos y ge­ne­ra un gran de­ba­te en­tre los ex­per­tos. Te­men que una su­per­compu­tado­ra do­ta­da de IA ex­pe­ri­men­te una ex­plo­sión ex­po­nen­cial de su in­te­li­gen­cia y lo­gre ser un mi­llón de ve­ces su­pe­rior a la men­te del cien­tí­fi­co Eins­tein.

En 1999, el gu­rú de Si­li­con Va­lley Ray­mond Kurz­weil au­gu­ró que, al rit­mo ac­tual, en el 2040 se cons­trui­rá una má­qui­na que al­can­za­ría la Sin­gu­la­ri­dad y la au­to­cons­cien­cia. «An­tes de que aca­be el pró­xi­mo si­glo, los se­res hu­ma­nos ya no se­rán los en­tes más in­te­li­gen­tes y más ca­pa­ces del pla­ne­ta, las má­qui­nas su­pe­rarán cual­quier ha­bi­li­dad hu­ma­na, po­drán leer li­bros, en­ten­der­los, crear co­no­ci­mien­to y ser cons­cien­tes», di­ce Kurz­weil en La era de las má­qui­nas es­pi­ri­tua­les. Sin em­bar­go, es­ta vi­sión op­ti­mis­ta que ema­na de Si­li­con Va­lley es ma­cha­ca­da por Ev­geny Mo­ro­zov en su li­bro La lo­cu­ra del

so­lu­cio­nis­mo tec­no­ló­gi­co, del 2013. Es­te crí­ti­co iro­ni­za con que la sal­va­ción de la hu­ma­ni­dad que pro­po­ne Si­li­con Va­lley con­sis­te en usar dis­po­si­ti­vos de al­ta tec­no­lo­gía y au­to­vi­gi­lan­cia pa­ra ven­cer la obe­si­dad, el in­som­nio y el calentamiento glo­bal y al­ma­ce­nar to­do lo que ha­ce­mos. An­te es­ta ac­ti­tud su­per­fi­cial, crear una má­qui­na de ca­pa­ci­dad so­bre­hu­ma­na po­dría aca­rrear una ca­tás­tro­fe.

Olle Häggs­tröm, en su re­cien­te li­bro Aquí hay dra­go­nes ve co­mo uno de los fu­tu­ros ries­gos des­co­no­ci­dos una má­qui­na que igua­le o su­pere a los se­res hu­ma­nos y pre­vé que po­dría lle­gar a ser una re­vo­lu­ción in­for­má­ti­ca «de una mag­ni­tud mu­cho ma­yor de lo que he­mos vis­to has­ta aho­ra». Es un su­per­or­de­na­dor que no so­lo ga­na a cam­peo­nes de aje­drez, sino que de­ja ob­so­le­to al ho­mo sa­piens, a su crea­dor.

Por su par­te, Nick Bostrom ex­po­ne los ries­gos de una ex­plo­sión de in­te­li­gen­cia en su li­bro Su­pe­rin­te­li­gen­cia, pu­bli­ca­do en el 2014. Bostrom es­tu­dia las es­tra­te­gias que em­pren­de­ría una red au­to­cons­cien­te pa­ra en­ga­ñar a sus vi­gi­lan­tes, an­te los que si­mu­la­ría ser su­mi­sa, y pro­po­ne fre­nar el desa­rro­llo de la IA has­ta com­pren­der to­dos los ries­gos. Ha­ce po­co Fa­ce­book apa­gó dos ro­bots que ne­go­cia­ban en­tre sí en un len­gua­je in­ven­ta­do por ellos. Bostrom te­me que una compu­tado­ra avan­za­da es­ca­pe a to­do con­trol en ape­nas unas ho­ras y ago­te los re­cur­sos del pla­ne­ta pa­ra cum­plir sus ob­je­ti­vos, co­mo por ejem­plo fa­bri­car el má­xi­mo nú­me­ro de clips. Otro ejem

plo se­ría Skynet, la red que li­de­ra un ejér­ci­to de ro­bots en Ter­mi­na­tor. In­clu­so si se pro­gra­ma­se una má­qui­na éti­ca que ha­ga siem­pre lo me­jor pa­ra la Hu­ma­ni­dad, es­ta po­dría ma­lin­ter­pre­tar las ór­de­nes. Y, al me­nos, las re­glas que si­gue son hu­ma­nas. Peor se­ría to­par­se con una má­qui­na de IA ex­tra­te­rres­tre to­tal­men­te in­com­pren­si­ble.

«Es­to no es Hall 9000»

Los in­ge­nie­ros Juan Gon­zá­lez y Mar­cos Ál­va­rez, de Gra­diant, en Vi­go, mues­tran una vi­sión más rea­lis­ta. Di­se­ñan una apli­ca­ción de IA pa­ra de­tec­tar la ra­di­ca­li­za­ción yiha­dis­ta. Ellos des­dra­ma­ti­zan: «La IA que usa­mos es muy bue­na pe­ro so­lo en una so­la co­sa. No ha­bla­mos del or­de­na­dor ase­sino Hal 9000 de Odi­sea en el es­pa­cio 2001 ».

BOSTROM TE­ME QUE UNA MÁ­QUI­NA CONS­CIEN­TE EN­GA­ÑE A SUS VI­GI­LAN­TES

Newspapers in Spanish

Newspapers from Spain

© PressReader. All rights reserved.