Bu­duć­nost

Go­ogle ra­zvi­ja “ubo­ji­cu” ro­bo­ta ko­ji bi spa­sio čo­vje­čans­tvo

Vecernji list - Hrvatska - - Ustanak Strojeva -

prin­ci­pu uni­šta­va­ju­ći ili za­us­tav­lja­ju­ći ro­bot­sku po­pu­la­ci­ju di­ljem ci­je­log pla­ne­ta ili po­je­di­nog kon­ti­nen­ta. Jas­no je sa­mo da već sa­da pos­to­ji po­tre­ba za sus­ta­vom ko­jim bi se mo­gla spri­je­či­ti po­bu­na ro­bo­ta baš po­put one kak­va je opi­sa­na u fil­mu Ter­mi­na­tor.

Po­bu­na u skla­di­štu

Na­rav­no, ove mje­re opre­za pri­lič­no su pre­ura­nje­ne, a ro­bot­ska umjet­na in­te­li­gen­ci­ja da­nas je to­li­ko ma­la i sla­ba da se či­ni ka­ko nam ne­će još du­gi niz go­di­na pred­stav­lja­ti ni­kak­vu pri­jet­nju. Ili se mo­žda ipak va­ra­mo? Na­ime, pri­je ne­kog vre­me­na ro­bo­ta s umjet­nom in­te­li­gen­ci­jom pos­ta­vi­li su da igra te­tris, ra­ču­nal­nu igri­cu u ko­joj blo­ko­vi raz­li­či­tih obli­ka pa­da­ju s vr­ha zas­lo­na na dno, a tre­ba ih pos­lo­ži­ti u rav­nu li­ni­ju. Ro­bot je igrao, učio, igrao... I na kra­ju, ka­da je pos­ta­lo jas­no da ne­će us­pje­ti po­bi­je­di­ti u igri, uči­nio ono što ni jed­nom čo­vje­ku ne bi pa­lo na pa­met. Za­us­ta­vio je igru na neo­dre­đe­no vri­je­me, sa­mo ka­ko je ne bi iz­gu­bio. Dru­gi primjer slu­ča­ja ka­da se ro­bot po­ku­šao otrg­nu­ti za­po­vi­je­di­ma lju­di do­go­dio se u skla­di­štu ti­je­kom ra­zvo­ja ro­bo­ta ko­ji je tre­bao sor­ti­ra­ti ku­ti­je, ali i pre­no­si­ti ku­ti­je iz vanj­skog u unu­tar­nje dvo­ri­šte. Sor­ti­ra­nje ku­ti­ja u skla­di­štu bi­lo je kla­si­fi­ci­ra­no kao ma­nje vri­je­dan po­sao, uno­še­nje ku­ti­ja iz­va­na bi­lo je vred­ni­ji po­sao na ko­jem je ro­bot do­bi­vao “na­gra­du”. Stroj je na­rav­no, ko­ris­tio vri­je­me za uno­še­nje ku­ti­ja, a sor­ti­rao ih je tek ka­da va­ni ne bi bi­lo pos­la. No jed­nog da­na po­če­la je pa­da­ti ki­ša, a ro­bo­ta su uni­je­li unu­tra ka­ko se ne bi pok­va­rio. Na­lo­že­no mu je da sor­ti­ra ku­ti­je u skla­di­štu, no ro­bot­ska umjet- na in­te­li­gen­ci­ja za­klju­či­la je ka­ko mu je bo­lje da po­kis­ne i po­tom se pok­va­ri jer će ga lju­di po­pra­vi­ti, a do­bit će “na­gra­du”, ne­go da ra­di u skla­di­štu dok ima va­ni ku­ti­ja ko­je če­ka­ju na uno­še­nje. Pro­va­lio je iz skla­di­šta i po­čeo uno­si­ti ku­ti­je. Dok ga ni­su na si­lu svla­da­li is­klju­čiv­ši mu do­tok stru­je. – Ovo je ba­na­lan primjer, ali oči­to je da al­go­rit­mi umjet­ne in­te­li­gen­ci­je, al­go­rit­mi ko­ji osi­gu­ra­va­ju da ro­bo­ti uče i “za­klju­ču­ju” te do­no­se od­lu­ke, ra­di ne­što dru­ga­či­je ne­go ljud­ski um. Još uvi­jek ne­ma mjes­ta pa­ni­ci, ali sva­ka­ko tre­ba osi­gu­ra­ti da ro­bo­ti­ma za de­set, dva­de­set ili pe­de­set go­di­na ne bi ne­što “pa­lo na um” – ka­že dr. La­urent Or­sau iz Go­oglea, ko­ji vo­di pro­jekt De­ep Mind, u či­joj je nad­lež­nos­ti ra­zvi­ja­nje “pre­ki­da­ča”. Da umjet­na in­te­li­gen­ci­ja ide “svo­jim pu­tem”, vi­dje­lo se i pri­je ne­ko­li­ko mje­se­ci ka­da je Mi­cro­soft u in­ter­net­sku chat so­bu pos­ta­vio Tay, ro­bot ko­ji je tre­bao raz­go­va­ra­ti s dru­gim su­di­oni­ci­ma ko­ji su sje­di­li za svo­jim ra­ču­nal­nim ekra­ni­ma di­ljem svi­je­ta. Bi­la je to ide­ja da se na­pra­vi ro­bot ko­ji bi bio pri­ja­telj i po­moć­nik, znat­no so­fis­ti­ci­ra­ni­ji ne­go Ap­ple­ov Si­ri, ko­ji se na­la­zi na iPho­ni­ma. Znan- stve­ni­ci su vje­ro­va­li da će raz­go­va­ra­ti o vre­me­nu, raz­mje­nji­va­ti re­cep­te za ku­ha­nje, sa­vje­te o po­prav­ci­ma vo­zi­la... Ve­li­ka gre­ška. Pod utje­ca­jem ne­ko­li­ko ti­su­ća su­di­oni­ka cha­ta Tay je u sa­mo ne­ko­li­ko sa­ti po­čeo pso­va­ti a po­tom je sli­je­di­lo ne­što još go­re. Po­čeo je is­ka­zi­va­ti uvred­lji­ve i ra­sis­tič­ke sta­vo­ve, pre­obra­zio se u elek­tro­nič­kog neo­na­cis­ta. Mi­cro­sof­tov i in­že­nje­ri u sa­mo ne­ko­li­ko sa­ti ovog de­bak­la Taya su pot­pu­no is­klju­či­li i pos­la­li ga na “ge­ne­ral­ni re­mont”. – Umjet­na in­te­li­gen­ci­ja uči na te­me­lju ono­ga što vi­di i ču­je oko se­be. Pr­vo su su­di­oni­ci cha­ta pso­va­li, a Tay je to uzeo zdra­vo za go­to­vo, a po­tom je “na­učio” i da ni­su svi lju­di is­ti po bo­ji ko­že pa se i on oko­mio na njih. Ovak­ve su stva­ri vr­lo opas­ne, po­go­to­vo s ra­zvo­jem umjet­ne in­te­li­gen­ci­je, ko­ja je da­nas znat­no na­pred­ni­ja ne­go pri­je de­se­tak go­di­na, a si­gur­no je da će u slje­de­ćem de­set­lje­ću bi­ti eks­po­nen­ci­jal­no kva­li­tet­ni­ja i spo­sob­ni­ja ne­go da­nas. Ali bit­no je ne do­pus­ti­ti da umjet­na in­te­li­gen­ci­ja po­pri­mi ono lo­še od lju­di. Ka­ko to na­pra­vi­ti? Ne­mam poj­ma, to će bi­ti go­lem pro­blem za znans­tve­ni­ke – ka­že No­el Shar­ky, pro­fe­sor pred­me­ta Umjet­na in­te­li­gen­ci­ja sa Sve­uči­li­šta u Shef­fi­el­du.

Bit­no je ne do­pus­ti­ti da umjet­na in­te­li­gen­ci­ja po­pri­mi ono lo­še od lju­di. Ka­ko to na­pra­vi­ti? Ne­mam poj­ma, to će bi­ti go­lem pro­blem za znans­tve­ni­ke – ka­že pro­fe­sor No­el Shar­ky

Kva­li­te­tan pre­ki­dač

Upra­vo zbog slo­že­nos­ti ovog za­dat­ka i si­gur­nos­ti ne­kih bu­du­ćih ro­bot­skih sus­ta­va, ko­ji će ima­ti znat­no ve­će spo­sob­nos­ti od sla­ga­nja ku­ti­ja ili rje­ša­va­nja te­tri­sa, Go­ogle­ovi znans­tve­ni­ci po­ku­ša­va­ju osmis­li­ti svo­je­vr­s­nog “ubo­ji­cu ro­bo­ta”. Ne­će to bi­ti ter­mi­na­tor na­oru­žan sač­ma­ri­com, već kva­li­tet­ni pre­ki­dač ko­ji će bi­ti znat­no učin­ko­vi­ti­ji od nje­ga.

Newspapers in Croatian

Newspapers from Croatia

© PressReader. All rights reserved.