Men­nes­ke­he­tens fram­tid

Haw­king holdt all­tid et øye mot fjer­ne ho­ri­son­ter i håp om å opp­da­ge tri­um­fe­ne og ka­ta­stro­fe­ne men­nes­ke­he­ten kan være på vei mot.

Stephen Hawking - Et sinn uten grenser - - Innhold - AV BRIAN CLEGG

Med mu­lig unn­tak av Al­bert Ein­stein har in­gen an­nen fy­si­ker i his­to­ri­en vært så kjent og kjær blant folk flest som Step­hen Haw­king. Og i sine se­ne­re år ut­nyt­tet han plas­sen i rampe­ly­set til ful­le for å med­de­le sine tan­ker om fa­re­ne og mu­lig­he­te­ne men­nes­ke­ne står over­for.

Histo­ri­er kom ut i pres­sen om Haw­kings syn på ri­si­ko i for­bin­del­se med rom­ve­se­ner, kuns­tig in­tel­li­gens, løps­ke data­vi­rus og glo­bal opp­var­ming. Blik­ke­ne hans på fram­ti­den be­gren­set seg ikke til det ne­ga­ti­ve. For ek­sem­pel en­ga­sjer­te han seg sterkt i Break­through Ini­tia­ti­ves-pro­gram­met, som fo­ku­ser­te på å nå stjer­ne­ne. Men det var ad­vars­le­ne som var vans­ke­ligst å ig­no­re­re.

Hvis vi vil ha et kla­re­re bil­de av Haw­kings me­nin­ger, må vi ald­ri glem­me man­nens in­fa­me hu­mo­ris­tis­ke sans. Ad­vars­le­ne hans gjaldt nok al­vor­li­ge spørs­mål, men det er vans­ke­lig å tro at det ikke fan­tes et ele­ment av er­ting el­ler skøyer­stre­ker, sær­lig når det vis­te seg å være så lett å få en iv­rig re­ak­sjon fra tab­loid­pres­sen. Men det var ty­pisk for Haw­king at ar­gu­men­te­ne hans all­tid var in­ter­es­san­te.

ROMVESNENE KOM­MER

Ut­gangs­punk­tet for vur­de­ring av even­tu­ell ri­si­ko utenom­jor­dis­ke ve­se­ner kan in­ne­bære for oss, er å for­ut­set­te at det fin­nes in­tel­li­gent liv and­re ste­der i ver­dens­rom­met. Som Haw­king på­pek­te i et fore­drag i 1996, kan livet ha opp­stått så tid­lig som etter de førs­te 500 mil­lio­ner år av klo­dens 4,5 mil­li­ar­der års ek­sis­tens. Det kan tyde på at liv har lett for å opp­stå. Men alle kjen­te jor­dis­ke livs­for­mer la­ter til å ned­stam­me fra sam­me kil­de, noe som ty­der på at den tid­li­ge star­ten vår kan være et sjel­dent fe­no­men. Haw­king på­pek­te at sann­syn­lig­he­ten for å ut­vik­le in­tel­li­gent liv så ab­so­lutt vir­ket lav. Han tenk­te også på at man­ge vel­lyk­ke­de livs­for­mer kun­ne bli ut­slet­tet av as­te­roi­der og ko­me­ter som bom­bar­der­te klo­den de­res, el­ler at de kun­ne øde­leg­ge seg selv før de ut­vik­let tek­no­lo­gi til å for­la­te sin egen klo­de.

En­ten in­tel­li­gens er sjel­dent el­ler van­lig, på­pek­te Haw­king at «iføl­ge re­la­ti­vi­tets­te­ori­en kan in­gen­ting gå for­te­re enn ly­set. Så en rei­se tur-re­tur den nær­mes­te stjer­nen må ta minst åtte år, og til sen­trum av Melke­vei­en vil det ta om­kring 100 000 år. I scien­ce fic­tion over­vin­ner de det pro­ble­met med warp dri­ves, el­ler de tar seg fram gjen­nom and­re di­men­sjo­ner. Men jeg tror ikke sli­ke ting blir mu­lig noen gang.» En mye mer sann­syn­lig me­to­de til ferd­sel mel­lom stjer­ne­ne vil­le være en form for selv­re­pro­du­se­ren­de me­ka­nisk liv, men­te han.

Sli­ke inn­ret­nin­ger kal­les von Neu­mann-son­der etter den un­garsk-ame­ri­kans­ke fy­si­ke­ren John von Neu­mann, som pøn­sket dem ut på 1940-tal­let, og de vil­le kun­ne kla­re seg gjen­nom lan­ge fer­der. Hvis det myld­ret av liv i uni­ver­set, skul­le en tro det var man­ge sli­ke son­der i drift, og at vi had­de hatt be­søk av dem man­ge gan­ger. Men vi har ikke sett tegn til slikt.

I fore­dra­get sa Haw­king at det var verd å støt­te ini­tia­ti­ver som let­te etter utenom­jor­dis­ke sig­na­ler, et av te­ma­ene til Break­through Ini­tia­ti­ves. Men han men­te også at det var tryg­gest å ven­te med å sva­re til vi har kom­met len­ger i ut­vik­lin­gen. Som han selv ut­tryk­te det: Om vi på vårt nå­væ­ren­de ut­vik­lings­trinn mø­ter en mer avan­sert si­vi­li­sa­sjon, kan det bli som da Ame­ri­kas ur­inn­vå­ne­re møt­te Co­lum­bus. Jeg tror ikke det var noen for­del for dem.»

Tross even­tu­el­le be­kym­rin­ger had­de Haw­king in­gen­ting imot å en­ga­sje­re seg i Break­through Ini­tia­ti­ves, som blant an­net av­hol­der en kon­kur­ran­se om å ut­for­me en mel­ding som skal strå­les ut mot stjer­ne­ne. Og som Seth Shos­tak i SETI­pro­gram­met be­mer­ket i The Guar­di­an i 2016, er det urea­lis­tisk å tro at vi kan gjem­me oss ved å la være å sen­de en mel­ding til utenom­jor­dis­ke: «Si­den an­nen ver­dens­krig har vi kring­kas­tet Tv-pro­gram­mer, høy­fre­kvent ra­dio og en­da ty­de­li­ge­re ra­dar­sig­na­ler mot him­me­len. Lite av det har vært gjort for å un­der­hol­de el­ler in­for­me­re utenom­jor­dis­ke ve­se­ner, det hand­ler bare om en uunn­gåe­lig lek­ka­sje av ra­dio­sen­din­ger ut i rom­met.»

Sli­ke sen­din­ger vil være vel­dig sva­ke når de kom­mer ut til stjer­ne­ne. Men Shos­tak på­pek­te at de tek­nis­ke ut­ford­rin­ge­ne med å be­ve­ge seg man­ge lys­år gjen­nom ver­dens­rom­met er mye stør­re enn ut­ford­rin­ge­ne med å opp­fan­ge og av­kode et svakt ra­dio- el­ler Tv-sig­nal. «Og si­den vi gjen­nom en hel leve­tid har fylt ha­vet med flaske­post­mel­din­ger om at vi ek­sis­te­rer og hvor vi be­fin­ner oss, er det litt tå­pe­lig å uroe seg over nye flas­ker.»

ALTFOR SMART

Mer sann­syn­li­ge trus­ler mot men­nes­ke­nes ek­sis­tens er de vi ska­per selv. Kuns­tig in­tel­li­gens (AI) har man­ge po­ten­si­el­le for­de­ler, men det er lett å fore­stil­le seg at de kom­mer ut av kon­troll. Som Haw­king på­pek­te i et Bbc-in­ter­vju i 2014, er avan­sert Ai-pro­gram­vare i stand til å lære ting og ut­vik­le seg mye ras­ke­re enn men­nes­ker. Vi har sett det­te på et tri­vi­elt plan når kuns­tig in­tel­li­gens har slått mes­te­re i spil­let Go, tatt for seg vi­deo­spill og lært å over­gå menne­se­li­ge spil­le­res bes­te re­sul­ta­ter, av og til ved hjelp av juks. «Men­nes­ker er hem­met av lang­som bio­lo­gisk ut­vik­ling», be­mer­ket Haw­king, «så de kan ikke kon­kur­re­re, og da blir de er­stat­tet.» I 2015

un­der­teg­net Haw­king sam­men med Elon Musk og AI- eks­per­ter et åpent brev om at mer måt­te gjø­res for å gar­de­re seg mot fall­gru­be­ne som lig­ger i å ska­pe kuns­tig in­tel­li­gens.

Pa­ral­lel­len Haw­king trek­ker med evo­lu­sjo­nen er vik­tig. Bio­lo­gisk evo­lu­sjon gjor­de det mu­lig for in­tel­li­gent liv å ut­vik­le seg i lø­pet av man­ge tu­sen år. Men AI kan ut­vik­le seg mye for­te­re. «Det kan ta av på egen hånd», sier Haw­king, «og for­bed­re sin egen opp­byg­ning i sta­dig ras­ke­re takt.»

Scien­ce fic­tion har gitt oss et bil­de av onde ma­ski­ner som an­gri­per, men Haw­king har et an­net syn: «Den vir­ke­li­ge fa­ren med AI er ikke ond­skap, men kom­pe­tan­se. En su­per­in­tel­li­gent AI vil være eks­tremt god til å nå sine mål, og hvis de må­le­ne ikke stem­mer over­ens med våre, har vi pro­ble­mer.» Han ad­var­te også mot fa­ren med data­vi­rus og bru­ken av in­ter­nett som en kom­mando­sen­tral for kri­mi­na­li­tet og ter­ror­virk­som­het.

HVOR­DAN FORHOLDER VI OSS FRA NÅ AV?

Haw­king var be­kym­ret over fa­re­ne vi står over­for, både men­neske­skap­te og kos­mis­ke trus­ler som kan føre til at Jor­da blir ube­boe­lig. Han på­pek­te at vi i lik­het med di­no­sau­re­ne kan få mil­jø­et vårt så øde­lagt av et kraf­tig as­te­roide­ned­slag at livet på Jor­da blir uhold­bart. I spørre­run­den etter BBC Reith-fore­dra­ge­ne i 2016 fram­he­vet han fa­rer som atom­krig, klima­end­ring og gen­splei­se­de vi­rus. Et år se­ne­re sa han til BBC at «vi er nær

vippe­punk­tet hvor den glo­ba­le opp­var­min­gen blir umu­lig å snu. At Trump trakk seg fra Pa­ris­av­ta­len kan sky­ve Jor­da ut­for kan­ten slik at klo­den vår blir som Ve­nus, med fle­re hund­re varme­gra­der og svo­vel­syre­regn.»

Noe av driv­kraf­ten bak Haw­kings en­tu­si­as­me for pro­sjek­ter som Break­through Ini­tia­ti­ves er be­ho­vet for å etab­le­re ko­lo­ni­er uten­for Jor­da før en slik de­struk­sjon skjer. I et in­ter­vju i 2016 sat­te han opp en tids­ska­la. «Selv om ri­si­ko­en for en ka­ta­stro­fe på Jor­da i et be­stemt år kan være gans­ke liten», sa han, «byg­ger den seg opp over tid, og blir en nes­ten sik­ker hen­del­se i lø­pet av de nes­te 1000 el­ler 10 000 åre­ne. In­nen den tid bør vi ha spredt oss ut i rom­met, og over til and­re stjer­ner, slik at en ka­ta­stro­fe på Jor­da ikke vil­le bety slutten på men­nes­ke­he­ten.»

I 2017 had­de Haw­king for­kor­tet fris­ten. i BBC­do­ku­men­ta­ren The Se­arch For A New Earth hev­det han at vi bur­de opp­ret­te ko­lo­ni­er for­te­re. «Vi kan og må bru­ke nys­gjer­rig­he­ten vår til å ta sik­te på stjer­ne­ne ... om men­nes­ke­he­ten skal kla­re seg, tror jeg vi må ha for­be­re­del­se­ne på plass in­nen 100 år.»

Det kan vir­ke som om Haw­king had­de et pes­si­mis­tisk syn på fram­ti­den. Men det vil­le være mer rea­lis­tisk å fram­stil­le ham som en op­ti­mist som så at vi gjen­nom rik­tig bruk av vi­ten­skap og tek­no­lo­gi kan over­vin­ne ut­ford­rin­ge­ne i en fram­tid som el­lers vil­le gjø­re slutt på men­nes­ke­ne. Tross ad­vars­le­ne var Haw­kings bud­skap til men­nes­ke­he­ten pre­get av håp.

Newspapers in Norwegian

Newspapers from Norway

© PressReader. All rights reserved.