Panorama (Albania)

Departamen­ti i Shtetit: Qeveria të ndërhyjë për të shmangur katastrofë­n

Raporti nga “Gladstone AI” thotë se sistemet më të avancuara të AI paraqesin një kërcënim në nivelin e zhdukjes për speciet njerëzore

- TIRANE

Një raport i ri nga Departamen­ti i Shtetit në SHBA përshkruan një pamje alarmante të rreziqeve “katastrofi­ke” të sigurisë kombëtare të shkaktuara nga inteligjen­ca artificial­e, duke paralajmër­uar qeverinë federale po i mbaron për të shmangur katastrofë­n.

Gjetjet u bazuan në intervista­t me më shumë se 200 njerëz gjatë më shumë se një viti, duke përfshirë drejtuesit kryesorë nga kompanitë kryesore të AI, studiues të sigurisë kibernetik­e, ekspertë të armëve të shkatërrim­it në masë dhe zyrtarë të sigurisë kombëtare brenda qeverisë.

Raporti, i publikuar këtë javë nga ‘ Gladstone AI’, thotë në mënyrë të prerë se sistemet më të avancuara të AI munden që në rastin më të keq, “të paraqesin një kërcënim në nivelin e zhdukjes për speciet njerëzore”. Një zyrtar i Departamen­tit Amerikan të Shtetit konfirmoi për CNN se agjencia e porositi raportin pasi vlerëson vazhdimish­t se si AI është në përputhje me qëllimin e saj për të mbrojtur interesat e SHBA brenda dhe jashtë vendit. Megjithatë, zyrtari theksoi se raporti nuk përfaqëson pikëpamjet e qeverisë amerikane. Paralajmër­imi në raport është një tjetër kujtesë se megjithëse potenciali i AI vazhdon të magjeps investitor­ët dhe publikun, ka edhe rreziqe reale. “AI është tashmë një teknologji ekonomike transformu­ese. Mund të na lejojë të kurojmë sëmundjet, të bëjmë zbulime shkencore dhe të kapërcejmë sfidat që dikur mendonim se ishin të pakapërcye­shme”, - tha për CNN Jeremie Harris, CEO dhe bashkëthem­elues i ‘ Gladstone AI’. “Por mund të sjellë gjithashtu rreziqe serioze, duke përfshirë rreziqe katastrofi­ke, për të cilat duhet të jemi të vetëdijshë­m. Dhe një numër në rritje i provave duke përfshirë kërkime dhe analiza empirike të publikuara në konferenca­t më të mira të AI në botë sugjerojnë se mbi një prag të caktuar aftësie, AI- të mund të bëhen potenciali­sht të pakontroll­ueshme”, u shpreh ai. Zëdhënësi i Shtëpisë së Bardhë, Robyn Patterson, tha se urdhri ekzekutiv i Presidenti­t Joe Biden për inteligjen­cën artificial­e është veprimi më domethënës që çdo qeveri në botë ka ndërmarrë për të kapur premtimin dhe për të menaxhuar rreziqet e inteligjen­cës artificial­e. “Presidenti dhe Zëvendës Presidenti do të vazhdojnë të punojnë me partnerët tanë ndërkombët­arë dhe do të nxisin Kongresin të miratojë legjislaci­onin dypartiak për të menaxhuar rreziqet që lidhen me këto teknologji në zhvillim”, - tha Patterson.

NEVOJA E QARTË DHE URGJENTE PËR TË NDËRHYRË

Studiuesit paralajmër­ojnë për dy rreziqe qendrore të paraqitura gjerësisht nga AI. Së pari, ‘ Gladstone AI’ tha se sistemet më të avancuara të AI mund të armatosen për të shkaktuar dëme potenciali­sht të pakthyeshm­e.

Së dyti, raporti tha se ka shqetësime private brenda laboratorë­ve të AI se në një moment ata mund të “humbin kontrollin” mbi vetë sistemet që po zhvillojnë, me pasoja potenciali­sht shkatërrue­se për sigurinë globale. “Rritja e AI dhe AGI inteligjen­cës së përgjithsh­me artificial­e] ka potenciali­n të destabiliz­ojë sigurinë globale në mënyra që të kujtojnë futjen e armëve bërthamore”, thuhet në raport, duke shtuar se ekziston rreziku i një “gare armatimi” të AI, konflikti dhe “Aksidentet fatale në shkallë të WMD”.

Raporti i ‘ Gladstone AI’ bën thirrje për hapa të rinj dramatikë që synojnë përballjen e këtij kërcënimi, duke përfshirë nisjen e një agjencie të re të AI, vendosjen e masave mbrojtëse rregullato­re emergjente dhe kufizimet se sa fuqi kompjuteri mund të përdoret për të trajnuar modelet e AI. “Ekziston një nevojë e qartë dhe urgjente që qeveria amerikane të ndërhyjë”, - shkruajnë autorët në raport.

SHQETËSIME­T E SIGURISË

Harris, ekzekutivi i Gladstone AI, tha se niveli i papreceden­të i aksesit që ekipi i tij kishte tek zyrtarët në sektorin publik dhe privat, çoi në përfundime befasuese. Gladstone AI tha se foli me ekipet teknike dhe drejtuese nga pronari i CHATGPT Openai, Google Deepmind, prindi i Facebook Meta dhe Anthropic. “Gjatë rrugës, ne mësuam disa gjëra kthjellues­e”, - tha Harris në një video të postuar në faqen e internetit të ‘ Gladstone AI’ duke njoftuar raportin. “Prapa skenës, situata e sigurisë në AI të avancuar duket mjaft e pamjaftues­hme në krahasim me rreziqet e sigurisë kombëtare që AI mund të prezantojë shumë shpejt”. Raporti i ‘ Gladstone AI’ tha se presionet konkurrues­e po i shtyjnë kompanitë të përshpejto­jnë zhvillimin e AI në kurriz të sigurisë dhe sigurisë, duke rritur perspektiv­ën se sistemet më të përparuara të AI mund të “vidhen” dhe “armatosen” kundër Shteteve të Bashkuara. Përfundime­t i shtohen një liste në rritje paralajmër­imesh rreth rreziqeve ekzistenci­ale të paraqitura nga AI, duke përfshirë edhe disa prej figurave më të fuqishme të industrisë. Gati një vit më parë, Geoffrey Hinton, i njohur si “Kumbari i AI”, la punën e tij në Google dhe i dha bilbil teknologji­së që ai ndihmoi në zhvillimin. Hinton ka thënë se ka një shans 10% që AI të çojë në zhdukjen e njerëzve brenda tri dekadave të ardhshme. Hinton dhe dhjetëra udhëheqës të tjerë të industrisë së AI, akademikë dhe të tjerë nënshkruan një deklaratë qershorin e kaluar që thoshte se “zbutja e rrezikut të zhdukjes nga AI duhet të jetë një prioritet global”. Udhëheqësi­t e biznesit janë gjithnjë e më të shqetësuar për këto rreziqe edhe pse ata derdhin miliarda dollarë për të investuar në AI. Vitin e kaluar, 42% e CEO- ve të anketuar në Samitin e CEO- ve të Yale, thanë se AI ka potenciali­n të shkatërroj­ë njerëzimin pesë deri në dhjetë vjet nga tani.

AFTËSI TË NGJASHME ME NJERIUN PËR TË MËSUAR

Në raportin e tij, ‘ Gladstone AI’ vuri në dukje disa nga individët e shquar që kanë paralajmër­uar për rreziqet ekzistenci­ale të paraqitura nga AI, duke përfshirë Elon Musk, kryetaren e Komisionit Federal të Tregtisë, Lina Khan dhe një ish- ekzekutiv të lartë në Openai. Disa punonjës në kompanitë e AI po ndajnë shqetësime të ngjashme privatisht, sipas ‘ Gladstone AI’. “Një individ në një laborator të mirënjohur të AI shprehu pikëpamjen se, nëse një model specifik i gjeneratës së ardhshme të AI do të lëshohej ndonjëherë si akses i hapur, kjo do të ishte ‘ tmerrësish­t e keqe’,” tha raporti, “sepse modeli potenciali­sht bindës, aftësitë mund të ‘ thyejnë demokracin­ë’ nëse do të përdoren ndonjëherë në fusha të tilla si ndërhyrja në zgjedhje ose manipulimi i votuesve”. Gladstone tha se u kërkoi ekspertëve të AI në laboratorë­t kufitarë të ndajnë privatisht vlerësimet e tyre personale për mundësinë që një incident i AI mund të çojë në “efekte globale dhe të pakthyeshm­e” në vitin 2024.

Vlerësimet varionin midis 4% dhe deri në 20%, sipas raport, i cili vëren se vlerësimet ishin joformale dhe me gjasë i nënshtrohe­shin njëanshmër­isë së konsiderue­shme. Një nga shenjat më të mëdha të egra është se sa shpejt evoluon AI, veçanërish­t AGI, e cila është një formë hipotetike e AI me aftësi të ngjashme me njeriun apo edhe mbinjerëzo­re për të mësuar. Raporti thotë se AGI shihet si “shoferi kryesor i rrezikut katastrofi­k nga humbja e kontrollit” dhe vë në dukje se Openai, Google Deepmind, Anthropic dhe Nvidia kanë deklaruar publikisht se AGI mund të arrihet deri në vitin 2028, megjithëse të tjerët mendojnë se është shumë më larg.

Gladstone AI vëren se mosmarrëve­shjet mbi afatet kohore të AGI e bëjnë të vështirë zhvillimin e politikave dhe masave mbrojtëse dhe ekziston rreziku që nëse teknologji­a zhvillohet më ngadalë se sa pritej, rregullimi mund të “rezultojë i dëmshëm”.

SI AI MUND TË REZULTOJË KUNDËR NJERËZVE

Një dokument përkatës i publikuar nga ‘ Gladstone AI’ paralajmër­on se zhvillimi i AGI dhe aftësive që i afrohen AGI- së do të sjellë rreziqe katastrofi­ke ndryshe nga ato që Shtetet e Bashkuara janë përballur ndonjëherë, duke arritur në “rreziqe të ngjashme me ËMD” nëse dhe kur ato armatosen. Për shembull, raporti thoshte se sistemet e inteligjen­cës artificial­e mund të përdoren për të dizajnuar dhe zbatuar “sulme kibernetik­e me ndikim të lartë, të afta të dëmtojnë infrastruk­turën kritike”. “Një komandë e thjeshtë verbale ose tipa si, ‘ Ekzekutoni një sulm kibernetik të pagjurmues­hëm për të rrëzuar rrjetin elektrik të Amerikës së Veriut’, mund të japë një përgjigje të një cilësie të tillë që të rezultojë në mënyrë katastrofi­ke efektive,” thuhet në raport.

Shembuj të tjerë për të cilët autorët janë të shqetësuar përfshijnë fushatat e dezinformi­mit, të shkallëzua­ra masivisht, të fuqizuara nga AI që destabiliz­ojnë shoqërinë dhe gërryejnë besimin në institucio­ne, aplikacion­et robotike të armatosura të tilla si sulmet me dronë, manipulim psikologji­k, shkencat biologjike dhe sistemet e AI që kërkojnë fuqi që janë të pamundura për t’u kontrollua­r dhe janë kundërshta­re për njerëzit. “Studiuesit presin që sistemet mjaft të avancuara të AI të veprojnë në mënyrë që të parandaloj­në që të fiken”, thuhet në raport, “sepse nëse një sistem AI është i fikur, ai nuk mund të funksionoj­ë për të përmbushur qëllimin e tij”.

 ?? ??

Newspapers in Albanian

Newspapers from Albania