Vad händer när ditt privatliv läcker på Internet?
“Spela Sjörövar-Fabbe.” Den
22 mars klockan 18:31 bad jag den röststyrda assistenten i min smarta telefon att spela en Astrid Lindgren-visa för min son, som satt missnöjd i bilens baksäte.
Detta vet jag eftersom ljudfilen av händelsen sparats hos Google. När jag via en särskild länk (takeout.google.com för den hugade) begär att få ladda ner all information Google har sparat om mig – drygt två gigabyte – är röstfilen en av de mest oväntade.
Att de sparar mina googlesökningar hade jag väntat mig. Att tvåhundra filer med mina röstprover sparats utan min vetskap är mer överraskande.
De allra flesta – för att inte säga alla – är oskyldiga och ointressanta förfrågningar som gjorts i bilen. Navigera hit eller dit. Spela den eller den låten. Hitta en bensinmack. Det betyder dock inte att Sjörövar-Fabbe-filen är oproblematisk.
Exempelvis har röstprovet potential att bli en personlig säkerhetsrisk, om det hamnar i orätta händer. Förra året rapporterade tidskriften Technology Review om en algoritm som kan generera en utmärkt imitation av en människa baserat på enstaka röstprover.
På ett liknande
sätt kan datorprogram utifrån några hundra stillbilder – till exempel sådana jag laddat upp på Facebook – “klistra in” ett ansikte på någon annans kropp, och få det att se mycket realistiskt ut. Trots att programmen är avancerade krävs inga stora resurser eller kunskaper för att producera en så kallad ”deepfake”.
Visst kan man utifrån detta dra slutsatsen att den tekniska utvecklingen inom exempelvis artificiell intelligens är farlig. Deepfakes kan användas för att iscensätta komprometterande filmklipp på politiker eller andra kända personer. Gränsen mellan sanning och lögn suddas ut.
Men ett sådant förhållningssätt innebär samtidigt att man blundar för att den tekniska utvecklingen i grunden är positiv. Det råder inga tvivel om att AI-teknik på sikt kommer att innebära revolutionerande förändringar på en mängd områden, exempelvis inom sjukvård och hälsa. Samma ansiktsigenkänning som används för att skapa deepfakes kan, för att bara nämna ett exempel bland många, användas för att på några sekunder analysera blodtryck, hjärtrytm och risken för en hjärtattack, enligt forskare på University of Toronto.
Den digitala vården kan innebära fantastiska möjligheter, men ställer också nya och högre krav på försiktighet och datasäkerhet. I vintras framkom att företaget Voice Integrate Nordic, som hanterar samtalen till 1177 Vårdguiden, låtit miljoner sekretessbelagda samtal ligga helt öppet på en oskyddad server.
Många regioner har digitaliserat patientjournaler och lagt dem i molntjänster utan att fundera särskilt mycket på konsekvenserna av en läcka. Transportstyrelseskandalen, där information om exempelvis militära fordon kan ha hamnat i händerna till främmande makt, finns färskt i minnet. I datasäkerhetssammanhang är det en allmän uppfattning att alla register läcker, förr eller senare.
Ansiktsigenkänning,
fingeravtrycksregister och andra biometriska verktyg blir allt vanligare. Om ett lösenordsregister läcker kan du byta lösenord, men vad gör du om ansiktseller fingeravtrycksregistret blir hackat? Frågan är inte retorisk: nyligen uppdagades att en internationell leverantör av inpasseringssystem blivit hackad, och att stora mängder biometrisk information hamnat på villovägar.
Förra året infördes en ny dataskyddslagstiftning, GDPR, som ger individer starkare rättigheter i frågor som rör den personliga integriteten. Men sådant skydd riskerar att bli meningslöst när vi som användare alltför lättvindigt skänker bort information i utbyte mot digitala tjänster. Eller när vi tvingas förlita oss på EU-domstolen, snarare än folklig opinion, för att ogiltigförklara masslagring av elektronisk kommunikation.
Datasäkerhet måste prioriteras
högre i alla delar av samhället. Vår personliga data behöver medvetandegöras, uppvärderas och betraktas som värdefull – både av oss själva, av politiker och av de teknikföretag som lagrar allt från våra meddelanden till våra muntliga sökningar efter barnvisor.