Stephen Hawking - Et sinn uten grenser
Menneskehetens framtid
Hawking holdt alltid et øye mot fjerne horisonter i håp om å oppdage triumfene og katastrofene menneskeheten kan være på vei mot.
Med mulig unntak av Albert Einstein har ingen annen fysiker i historien vært så kjent og kjær blant folk flest som Stephen Hawking. Og i sine senere år utnyttet han plassen i rampelyset til fulle for å meddele sine tanker om farene og mulighetene menneskene står overfor.
Historier kom ut i pressen om Hawkings syn på risiko i forbindelse med romvesener, kunstig intelligens, løpske datavirus og global oppvarming. Blikkene hans på framtiden begrenset seg ikke til det negative. For eksempel engasjerte han seg sterkt i Breakthrough Initiatives-programmet, som fokuserte på å nå stjernene. Men det var advarslene som var vanskeligst å ignorere.
Hvis vi vil ha et klarere bilde av Hawkings meninger, må vi aldri glemme mannens infame humoristiske sans. Advarslene hans gjaldt nok alvorlige spørsmål, men det er vanskelig å tro at det ikke fantes et element av erting eller skøyerstreker, særlig når det viste seg å være så lett å få en ivrig reaksjon fra tabloidpressen. Men det var typisk for Hawking at argumentene hans alltid var interessante.
ROMVESNENE KOMMER
Utgangspunktet for vurdering av eventuell risiko utenomjordiske vesener kan innebære for oss, er å forutsette at det finnes intelligent liv andre steder i verdensrommet. Som Hawking påpekte i et foredrag i 1996, kan livet ha oppstått så tidlig som etter de første 500 millioner år av klodens 4,5 milliarder års eksistens. Det kan tyde på at liv har lett for å oppstå. Men alle kjente jordiske livsformer later til å nedstamme fra samme kilde, noe som tyder på at den tidlige starten vår kan være et sjeldent fenomen. Hawking påpekte at sannsynligheten for å utvikle intelligent liv så absolutt virket lav. Han tenkte også på at mange vellykkede livsformer kunne bli utslettet av asteroider og kometer som bombarderte kloden deres, eller at de kunne ødelegge seg selv før de utviklet teknologi til å forlate sin egen klode.
Enten intelligens er sjeldent eller vanlig, påpekte Hawking at «ifølge relativitetsteorien kan ingenting gå fortere enn lyset. Så en reise tur-retur den nærmeste stjernen må ta minst åtte år, og til sentrum av Melkeveien vil det ta omkring 100 000 år. I science fiction overvinner de det problemet med warp drives, eller de tar seg fram gjennom andre dimensjoner. Men jeg tror ikke slike ting blir mulig noen gang.» En mye mer sannsynlig metode til ferdsel mellom stjernene ville være en form for selvreproduserende mekanisk liv, mente han.
Slike innretninger kalles von Neumann-sonder etter den ungarsk-amerikanske fysikeren John von Neumann, som pønsket dem ut på 1940-tallet, og de ville kunne klare seg gjennom lange ferder. Hvis det myldret av liv i universet, skulle en tro det var mange slike sonder i drift, og at vi hadde hatt besøk av dem mange ganger. Men vi har ikke sett tegn til slikt.
I foredraget sa Hawking at det var verd å støtte initiativer som lette etter utenomjordiske signaler, et av temaene til Breakthrough Initiatives. Men han mente også at det var tryggest å vente med å svare til vi har kommet lenger i utviklingen. Som han selv uttrykte det: Om vi på vårt nåværende utviklingstrinn møter en mer avansert sivilisasjon, kan det bli som da Amerikas urinnvånere møtte Columbus. Jeg tror ikke det var noen fordel for dem.»
Tross eventuelle bekymringer hadde Hawking ingenting imot å engasjere seg i Breakthrough Initiatives, som blant annet avholder en konkurranse om å utforme en melding som skal stråles ut mot stjernene. Og som Seth Shostak i SETIprogrammet bemerket i The Guardian i 2016, er det urealistisk å tro at vi kan gjemme oss ved å la være å sende en melding til utenomjordiske: «Siden annen verdenskrig har vi kringkastet Tv-programmer, høyfrekvent radio og enda tydeligere radarsignaler mot himmelen. Lite av det har vært gjort for å underholde eller informere utenomjordiske vesener, det handler bare om en uunngåelig lekkasje av radiosendinger ut i rommet.»
Slike sendinger vil være veldig svake når de kommer ut til stjernene. Men Shostak påpekte at de tekniske utfordringene med å bevege seg mange lysår gjennom verdensrommet er mye større enn utfordringene med å oppfange og avkode et svakt radio- eller Tv-signal. «Og siden vi gjennom en hel levetid har fylt havet med flaskepostmeldinger om at vi eksisterer og hvor vi befinner oss, er det litt tåpelig å uroe seg over nye flasker.»
ALTFOR SMART
Mer sannsynlige trusler mot menneskenes eksistens er de vi skaper selv. Kunstig intelligens (AI) har mange potensielle fordeler, men det er lett å forestille seg at de kommer ut av kontroll. Som Hawking påpekte i et Bbc-intervju i 2014, er avansert Ai-programvare i stand til å lære ting og utvikle seg mye raskere enn mennesker. Vi har sett dette på et trivielt plan når kunstig intelligens har slått mestere i spillet Go, tatt for seg videospill og lært å overgå menneselige spilleres beste resultater, av og til ved hjelp av juks. «Mennesker er hemmet av langsom biologisk utvikling», bemerket Hawking, «så de kan ikke konkurrere, og da blir de erstattet.» I 2015
undertegnet Hawking sammen med Elon Musk og AI- eksperter et åpent brev om at mer måtte gjøres for å gardere seg mot fallgrubene som ligger i å skape kunstig intelligens.
Parallellen Hawking trekker med evolusjonen er viktig. Biologisk evolusjon gjorde det mulig for intelligent liv å utvikle seg i løpet av mange tusen år. Men AI kan utvikle seg mye fortere. «Det kan ta av på egen hånd», sier Hawking, «og forbedre sin egen oppbygning i stadig raskere takt.»
Science fiction har gitt oss et bilde av onde maskiner som angriper, men Hawking har et annet syn: «Den virkelige faren med AI er ikke ondskap, men kompetanse. En superintelligent AI vil være ekstremt god til å nå sine mål, og hvis de målene ikke stemmer overens med våre, har vi problemer.» Han advarte også mot faren med datavirus og bruken av internett som en kommandosentral for kriminalitet og terrorvirksomhet.
HVORDAN FORHOLDER VI OSS FRA NÅ AV?
Hawking var bekymret over farene vi står overfor, både menneskeskapte og kosmiske trusler som kan føre til at Jorda blir ubeboelig. Han påpekte at vi i likhet med dinosaurene kan få miljøet vårt så ødelagt av et kraftig asteroidenedslag at livet på Jorda blir uholdbart. I spørrerunden etter BBC Reith-foredragene i 2016 framhevet han farer som atomkrig, klimaendring og genspleisede virus. Et år senere sa han til BBC at «vi er nær
vippepunktet hvor den globale oppvarmingen blir umulig å snu. At Trump trakk seg fra Parisavtalen kan skyve Jorda utfor kanten slik at kloden vår blir som Venus, med flere hundre varmegrader og svovelsyreregn.»
Noe av drivkraften bak Hawkings entusiasme for prosjekter som Breakthrough Initiatives er behovet for å etablere kolonier utenfor Jorda før en slik destruksjon skjer. I et intervju i 2016 satte han opp en tidsskala. «Selv om risikoen for en katastrofe på Jorda i et bestemt år kan være ganske liten», sa han, «bygger den seg opp over tid, og blir en nesten sikker hendelse i løpet av de neste 1000 eller 10 000 årene. Innen den tid bør vi ha spredt oss ut i rommet, og over til andre stjerner, slik at en katastrofe på Jorda ikke ville bety slutten på menneskeheten.»
I 2017 hadde Hawking forkortet fristen. i BBCdokumentaren The Search For A New Earth hevdet han at vi burde opprette kolonier fortere. «Vi kan og må bruke nysgjerrigheten vår til å ta sikte på stjernene ... om menneskeheten skal klare seg, tror jeg vi må ha forberedelsene på plass innen 100 år.»
Det kan virke som om Hawking hadde et pessimistisk syn på framtiden. Men det ville være mer realistisk å framstille ham som en optimist som så at vi gjennom riktig bruk av vitenskap og teknologi kan overvinne utfordringene i en framtid som ellers ville gjøre slutt på menneskene. Tross advarslene var Hawkings budskap til menneskeheten preget av håp.