Skypeskaparen ser AI som ett existentiellt hot
Inom kort kommer människan att utveckla supersmarta artificiella intelligenser. För att de inte ska utplåna oss måste deras värderingar vara förenliga med våra egna, säger Jaan Tallinn.
I ett fördjupat samtal på teknologifestivalen Slush i Helsingfors utvecklade Skypeskaparen Jaan Tallinn sina tankar om den artificiella intelligensens (AI) roll i framtidens samhälle. Efter att han cashade in på Skype har han ägnat sig åt att studera de existentiella riskerna med AI, bland annat genom tankesmedjorna Cambridge centre for the study of existential risk och Future of life institute som han varit med om att grunda.
– Det som vi ser nu är slutet av en 100 000 år lång period då den mänskliga hjärnan har varit den starkaste kraften att forma vår omgivning. Nu är vi på väg in i en period där ickemänskliga hjärnor kommer att ta över den rollen, säger Tallinn.
Det har hänt mycket inom artificiell intelligens och maskininlärning under de senaste åren. Till exempel lanserade företaget DeepMind i oktober AlphaGo Zero, som är ett program som undervisade sig själv att spela Go. Genom att spela miljontals spel mot sig själv har programmet blivit världsbäst på spelet.
AlphaGo Zero är dock inte en genuin artificiell superintelligens.
– Den korrekta positionen är att ingen vet när artificiell intelligens kommer. Det är möjligt att det aldrig händer, det är möjligt att det inte händer på 300 år. Men det betyder inte att vi kan strunta i det. När man ser på den teknologiska utvecklingens historia har vi varit i den här situationen även förut. Fem år före bröderna Wright uppfann flygplanet trodde ingen att det skulle ske inom de följande 500 åren.
Tallinn intervjuas av David Goldberg, grundare och vd för Founders Pledge, ett företag som vill göra det enkelt för entreprenörer att agera etiskt och moraliskt korrekt. Han ber om Tallinns bästa gissning på en tidtabell.
– Jag tror att sannolikheten är 50 procent på 25 år, säger Tallinn.
Enligt honom är det viktigt att tänka på den säkerhetsrisk som supersmarta artificiella intelligenser utgör. Det är ett problem som inte går att lösa med teknologi allena. Filosofi är en viktig komponent i allt som berör artificiell intelligens.
– Det här är väldigt intressant, en blandning av filosofi och datavetenskap. Filosofin beaktar inte till kvantfysiken speciellt bra, där utgår man fortfarande från ett newtonskt system. Men datorer skulle inte vara möjliga utan kvantfysik. Föreställ dig att vi skapar en artificiell intelligens vars förmåga att resonera grundar sig på det newtonska systemet, den kommer att få svårigheter att förstå sig själv, vilket leder till en ontologisk kris.
Lösningen är värdejämkning. På engelska talar man om ”coherent extrapolated volition”.
– Det här är något vi måste tänka på om vi ska kunna leva med AI, vi vet att vi inte kommer att kunna kontrollera den. Om vi försöker kontrollera en supersmart artificiell intelligens kommer den att uppleva det som om man försöker låsa in den i ett fängelse som är byggt av femåringar, säger Tallinn. Av den anledningen måste vi övertyga artificiella intelligenser att anamma samma värderingar som vi själva har, fast utan fusk. AI måste ha en liknande uppfattning som vi själva om vad som avses med det allmänna bästa, vad som utgör en bra framtid. Det är det här som menas med ”coherent extrapolated volition”.
– Vi måste lära AI att agera som vi själva skulle agera om vi var smartare och mer koherenta.
Det som vi ser nu är slutet av en 100 000 år lång period då den mänskliga hjärnan har varit den starkaste kraften att forma vår omgivning. Jan Tallinn
Vägen mot AI är lång och krokig. Jaan Tallinn är oroar för att de existentiella riskerna med AI överskuggas av den allmänna hypen kring AI.
– Vi måste göra AI-säkerhet sexigt, säger han. För närvarande är forskning kring AI-säkerhet inte lika sexigt som forskning kring AI.