Fram­ti­dens su­perin­tel­li­gens

”Hotbilden över­ty­gar in­te”

Modern Filosofi - - B- Öcker -

E

Ol­le Hägg­ström He­re be dra­gons: Sci­ence, te­ch­no­lo­gy and the futu­re of hu­ma­ni­ty N VAN­LIG UPP­FATT­NING är att fram­steg in­om ve­ten­skap och tek­no­lo­gi är bra och of­ta nyt­ti­ga. Ol­le Hägg­ström, pro­fes­sor i ma­te­ma­tisk sta­tistik vid Chal­mers i Gö­te­borg, an­ser att den­na upp­fatt­ning in­te ut­an vi­da­re bör god­tas. Den kan va­ra far­lig. De dra­kar som åsyf­tas i ti­teln på den­na väl­skriv­na och tänk­vär­da bok är ex­i­sten­ti­el­la ris­ker – möj­li­ga fa­ror som kan ho­ta mänsk­lig­he­ten i fram­ti­den.

Bland de ris­ker som Ol­le Hägg­ström tar upp finns dels så­da­na som kan upp­stå helt obe­ro­en­de av vad vi gör (som as­te­ro­i­der som kol­li­de­rar med jor­den, död­li­ga pan­de­mi­er och sto­ra vul­kan­ut­brott), dels så­da­na som be­ror på vad vi gör (som kärn­va­pen­k­rig, glo­bal upp­värm­ning, ar­ti­fi­ci­ell in­tel­li­gens som le­der till att fram­ti­da ro­bo­tar för­sla­var el­ler utro­tar oss). Det är allt­så fa­ror som har sin grund i ve­ten­skap­li­ga fram­steg. Nu­me­ra finns sär­skil­da forsk­nings­in­sti­tut som spe­ci­a­li­se­rar sig på ris­ker mot vår ex­istens, som Futu­re of hu­ma­ni­ty in­sti­tu­te i Ox­ford, Stor­bri­tan­ni­en, och Machi­ne in­tel­li­gence re­se­arch in­sti­tu­te i Ber­ke­ley, USA. Men Hägg­ström an­ser att vi be­hö­ver myc­ket mer av så­dan forsk­ning.

ETT SÄTT FÖR män­ni­skor att und­kom­ma en ka­ta­strof på jor­den skul­le, en­ligt Hägg­ström, va­ra att lad­da upp en per­sons med­ve­tan­de i di­gi­tal form på en da­tor. Om han har rätt skul­le en per­son i prin­cip kun­na ko­pie­ras och trans­por­te­ras till en mängd oli­ka plat­ser. Så länge en upp­lad­dad ko­pia finns kvar har per­so­nen in­te dött. Ett pro­blem med det­ta är att det kan ver­ka omöj­ligt att en och sam­ma per­son finns på fle­ra oli­ka plat­ser sam­ti­digt. An­ta att A och B är upp­ladd­ning­ar av en och sam­ma per­son, vil­ka be­fin­ner sig på oli­ka plat­ser vid en viss tid­punkt. Om A är iden­tisk med B, så mås­te A och B ha pre­cis sam­ma egen­ska­per (en­ligt en prin­cip som först for­mu­le­ra­des av 1600-tals­fi­lo­so­fen Gott­fri­ed Leib­niz). Men om A be­fin­ner sig i Gö­te­borg och B sam­ti­digt be­fin­ner sig i New York, så kan de allt­så in­te va­ra iden­tis­ka.

OL­LE HÄGG­STRÖM tror att vi kom­mer att kun­na byg­ga ma­ski­ner som är li­ka in­tel­li­gen­ta el­ler in­tel­li­gen­ta­re än män­ni­skor. Det lå­ter kanske in­te så far­ligt, men han miss­tän­ker ock­så att vi då in­te läng­re kom­mer att kun­na kon­trol­le­ra des­sa su­perin­tel­li­gen­ta ma­ski­ner.

Här und­rar man för­stås vad ’in­tel­li­gens’ be­ty­der i sam­man­hang­et. Schack­pro­gram­met Deep Blue, som be­seg­ra­de världs­mäs­ta­ren Kas­pa­rov, kla­rar ju av en in­tel­lek­tu­ell upp­gift som näs­tan ing­en män­ni­ska

Ho­tar vår ex­istens? kla­rar, men vi skul­le kanske än­då in­te kal­la det in­tel­li­gent. En mi­niräk­na­re är ju in­te hel­ler in­tel­li­gent, trots att den lö­ser arit­me­tis­ka pro­blem långt bätt­re än de fles­ta män­ni­skor.

Kog­ni­tions­ve­ta­ren Ste­ven Pin­ker har ett för­slag på de­fi­ni­tion: ”In­tel­li­gens är för­må­gan att an­vän­da nya me­del för att upp­nå ett mål.” Då lig­ger det nä­ra till hands att frå­ga sig om da­tor­pro­gram har den­na för­må­ga att hit­ta nya me­del. Skul­le Deep Blue kun­na kom­ma på nå­got verk­ligt nytt, som att för­gif­ta Kas­pa­rovs kaf­fe el­ler att ta li­vet av värl­dens al­la schack­spe­la­re?

Ol­le Hägg­ström läg­ger vi­da­re stor vikt vid en di­stink­tion mel- lan fi­na­la och in­stru­men­tel­la mål. Fi­na­la mål in­tro­du­ce­ras ut­i­från i en ar­ti­fi­ci­ell in­tel­li­gens-ma­skin av den som skri­ver pro­gram­met, och de änd­ras se­dan in­te. En avan­ce­rad ar­ti­fi­ci­ell in­tel­li­gens kan dä­re­mot själv väl­ja in­stru­men­tel­la mål, som är me­del att upp­nå dess fi­na­la mål.

Men har van­li­ga, in­tel­li­gen­ta män­ni­skor över hu­vud ta­get någ­ra fi­na­la mål? Det ver­kar väl­digt tvi­vel­ak­tigt, och i al­la hän­del­ser tycks män­ni­skan i så fall – till skill­nad från en avan­ce­rad ma­skin – kun­na änd­ra si­na fi­na­la mål li­te hur som helst. Män­ni­skor har in­te nå­gon rik­tig kon­troll över si­na fi­na­la mål och des­sa är knap­past kon­stan­ta över tid.

APRO­PÅ KON­TROLL. För­fat­ta­ren tyc­ker att det är ”fruk­tans­värt na­ivt” att tro att män­ni­skor kan ha kon­troll över en su­perin­tel­li­gens. Många har tyckt att su­perin­tel­li­gen­sen kan stop­pas, helt en­kelt ge­nom att man drar ur slad­den till el­kon­tak­ten. Men Hägg­ström me­nar att su­perin­tel­li­gen­sen kan för­hind­ra det­ta ge­nom att ho­ta män­ni­skan med hems­ka straff. Det ver­kar in­te över­ty­gan­de. I och med att slad­den är ur­dra­gen är ju ho­ten verk­nings­lö­sa.

Hur som helst kan ju en fånge va­ra väl­digt myc­ket in­tel­li­gen­ta­re än sin fång­vak­ta­re, sam­ti­digt som fång­vak­ta­ren kon­trol­le­rar fång­en.

OL­LE HÄGG­STRÖM re­so­ne­rar ock­så kring fi­lo­so­fen De­rek Par­fits tes att det är myc­ket vik­ti­ga­re att en pro­cent av mänsk­lig­he­ten över­le­ver än att ing­en över­le­ver. Frå­gan är då om vi bor­de sat­sa näs­tan al­la re­sur­ser vi kan upp­bå­da på att mins­ka san­no­lik­he­ten för mänsk­lig­he­tens un­der­gång. Hägg­ström tycks an­se det, även om det kan tyc­kas in­ne­bä­ra allt­för sto­ra upp­off­ring­ar för de män­ni­skor som nu ex­i­ste­rar.

Hur vet han att det är önsk­värt att mänsk­lig­he­ten över­le­ver? Ja, han skul­le väl sä­ga att han in­te vet det. Han tror in­te på ob­jek­ti­va san­ning­ar i mo­ral el­ler and­ra vär­de­sam­man­hang. Hans ar­gu­ment är vis­ser­li­gen in­te sär­skilt starkt; han tyc­ker in­te att vi har nå­gon em­pi­risk evi­dens för en ob­jek­tiv mo­ral som in­te kan för­kla­ras ut­an an­ta­gan­det av en ob­jek­tiv mo­ral. Men den­na brist på em­pi­risk evi­dens är ju pre­cis vad han bor­de vän­ta sig, ef­tersom han ock­så är an­häng­a­re av Hu­mes lag rö­ran­de di­stink­tio­nen mel­lan mo­ral och em­pi­ris­ka fak­ta – att mo­ra­lis­ka om­dö­men in­te är em­pi­ris­ka vi­sar ju in­te att de in­te kan va­ra ob­jek­tivt san­na.

Kanske är det för myc­ket be­gärt att för­fat­ta­ren ska av­gö­ra om det vo­re bra el­ler då­ligt att mänsk­lig­he­ten över­le­ver. Men jag gis­sar att han skul­le hål­la med om att det be­ror på hur even­tu­el­la över­le­van­de ge­ne­ra­tio­ner skul­le kom­ma att ha det.

För den som tror att mänsk­lig­he­ten kan kom­ma att er­sät­tas av ro­bo­tar – och dess­utom att des­sa ro­bo­tar har med­ve­tan­de – upp­står väl frå­gan om huruvi­da de i fram­ti­den kom­mer att ha det bätt­re el­ler säm­re än vad män­ni­skor skul­le ha haft det. Kanske skul­le de bli myc­ket lyck­li­ga­re. De vo­re kanske så för­nuf­ti­ga att de kun­de und­vi­ka krig, ter­ro­rism och and­ra olyc­kor som män­ni­skor kan stäl­la till med. Att män­ni­skor­na har gått un­der skul­le då kanske in­te va­ra mer ka­ta­stro­falt än att ne­an­der­ta­lar­na och and­ra ho­mi­ni­ner gjor­de det för länge se­dan. Lars Bergström är pro­fes­sor eme­ri­tus i prak­tisk fi­lo­so­fi vid Stock­holms uni­ver­si­tet. En läng­re ver­sion av den­na bokan­mä­lan kom­mer i Fi­lo­so­fisk tid­skrift 1/2017. Den kan även lä­sas på Fi­lo­so­fiskt tid­skrifts hem­si­da.

Newspapers in Swedish

Newspapers from Sweden

© PressReader. All rights reserved.