Ai-terapi – så funkar det.
Artificiell intelligens har blivit ett hett forskningsfält inom psykiatrin. Men när DATORPROGRAM blir hjälpredor till psykologer uppstår nya etiska dilemman.
Ellie är en kvinna som ser ut att vara i 30-årsåldern, med mörkt hår och svårbestämbar etnicitet. Hon pratar med en vänlig, trygg röst.
– Jag är inte terapeut, men jag är här för att lära mig om människor. Och jag vill gärna lära mig saker om dig, säger hon, och slår ut sin koftklädda högerarm lite lätt. – Hur mår du i dag? frågar hon sin patient, en man i 20-årsåldern med rutig flanellskjorta. – Jag mår bra, svarar mannen och ler lite nervöst. – Vad bra, säger Ellie och nickar. Var kommer du ifrån? – Los Angeles. – Åh, jag är själv från LA, säger Ellie. Hon är uppmärksam, reagerar på patientens känslolägen och ställer följdfrågor. Hon utstrålar den så typiskt mänskliga egenskapen empati. Men hon är bara en virtuell, dataanimerad intervjuare skapad inom projektet Simsensei på University of Southern California i Los Angeles. Dialogen kommer från en demonstration där Ellie interagerar med en verklig person. Hon ställer en rad frågor med syftet att hitta tecken på posttraumatiskt stressyndrom, PTSD, och depression. Ellie är utrustad med ögon och öron: En webbkamera skannar av ansiktsuttryck och hur patienten placerar huvudet. Rörelsesensorer läser av gester och kroppshållning. En mikro fon lyssnar på talet. Utifrån vad Ellie ser och hör anpassar hon sina kommentarer och frågor till patienten. Projektet, som delvis är finansierat av det amerikanska försvarsdepartementet, har använts på försök för att testa om soldater som tjänstgjort i Afghanistan lider av PTSD.
Skip Rizzo, psykolog vid University of Southern California och en av Ellies skapare, menar att soldaterna och den virtuella terapeuten har fungerat bra tillsammans.
– När soldaterna kommer hem från Irak eller Afghanistan blir de ombedda att fylla i ett formulär om sin mentala hälsa. De tenderar att svara nej-nej-nej på alla frågor om huruvida de tycker att livet känns tungt. Det finns ett stigma i att erkänna att man har det svårt. Men när de pratade med en virtuell intervjuare och fick samma frågor tog de upp betydligt fler symtom. Vi upptäckte att de var mer beredda att tala om sorgliga och svåra händelser med Ellie.
Ska hon ersätta riktiga terapeuters arbete? Det är inte planen, betonar Skip Rizzo, en kaliforniskt solbränd man med håret i hästsvans och med lång erfarenhet av arbete med att kombinera artificiell intelligens och psykiatri.
– Det handlar om att fylla luckan där psykiatrer inte är tillgängliga, eller som ett första steg till hjälp. Till exempel
” Utifrån vad Ellie ser och hör anpassar hon sina kommentarer och frågor till patienten.”
kan arméveteraner gå ut på nätet och interagera med en virtuell person som ställer frågor och kanske ger lite råd i slutet av samtalet: ”Utifrån vad du sagt hittills verkar det som att du har det svårt just nu. Om du vill kan jag ta ditt postnummer och ge dig en lista på ställen där du kan få hjälp i din stad.”
intelligens myntades 1955 av datavetaren John Mccarthy, som definierade det som ”vetenskapen och tekniken att skapa intelligenta maskiner”. Det handlar om att bygga datorer och dataprogram som imiterar mänsklig intelligens, som är medvetna om sin omgivning och som vidtar åtgärder som maximerar chanserna att lyckas. De senaste framstegen sker inom så kallad maskininlärning, där mjukvara tränar sig själv till att bli smartare i takt med att den samlar på sig data. Datorn ställs inför en uppgift, prövar sig fram och lär sig. Ett exempel från sommaren 2012 är hur ett nätverk av 16 000 datorprocessorer tränade sig självt att känna igen en katt genom att titta på 10 miljoner kattbilder från Youtube-klipp.
De senaste tio åren har utvecklingen exploderat och artificiell intelligens har på allvar flyttat ut från forskningslaboratorierna och in i vardagen. AI används bland mycket annat i självkörande bilar, i teknik som sköter transaktioner på börsen och så i våra mobiltelefoner och datorer förstås.
Det är AI som ligger bakom skräddarsydda musiktips från Spotify, när Facebook känner igen ansikten på dina fotografier eller när du använder den virtuella assistenten Siri på en Iphone. Silicon Valley-jättar som Facebook, Google och Microsoft slåss om att anställa
Ai-experterna. Riskkapitalister storsatsar. It-entreprenören och Tesla-grundaren Elon Musk har investerat motsvarande nio miljarder kronor i forskningsbolaget Openai, vars ambition är att arbeta för att artificiell intelligens ska användas för mänsklighetens bästa.
– Det är en spännande tid för AI just nu. Jag är väldigt glad att vara med på den här vågen, säger Louis-philippe Morency, forskare vid Carnegie Mellon university i Pittsburgh.
Han är medskapare till Ellie och har just kopplingen mellan AI och psykiatri som specialitet. Nu arbetar han med att utveckla Multisense, en teknologi som används inom Ellie-projektet, med syftet att analysera ansiktsuttryck, gester och röster hos människor som lider av psykiska sjukdomar och tillstånd. LouisPhilippe Morency nämner deprimerade människors leenden som exempel på uttryck som Multisense kan uppfatta.
– Det har visat sig i våra studier att antalet leenden under ett samtal med en deprimerad och en icke-deprimerad person var nästan exakt detsamma. Men en deprimerad persons leende var mer kortvarigt och mindre brett. Det beror förmodligen på sociala normer.
” Vi upptäckte att de var mer beredda att tala om sorgliga och svåra händelser med Ellie.”
Folk måste le, men känner inte för att göra det innerst inne. Hur ska programmet hjälpa patienterna?
– Det handlar om att komplettera psykiaterns bedömning och hjälpa till att ställa diagnos. Studier har visat att klinikers förmåga att bedöma tal inte är så precis som de tror. De märker inte alltid att en patients tal har förändrats över tid, att personer kanske pratar långsammare eller har ett annat tonläge från en terapisession till en annan. Den mjukvara vi arbetar med kan hjälpa terapeuterna att verk- ligen övervaka hur patienten utvecklas över tid.
Flera liknande projekt pågår parallellt på olika håll. 2015 använde en grupp forskare vid Columbia university i New York ett automatiskt talanalysprogram för att förutse vilka i en högriskgrupp med unga människor som skulle komma att utveckla psykos under en period på två och ett halvt år. Ai-programmet, som analyserade utskrifter av intervjuer med ungdomarna, visade sig med hundraprocentig exakthet kunna bedöma vilka som skulle komma att drabbas. Modellen fokuserade på verbala tics som kännetecknar psykos, som korta meningar och att innehållet i en mening inte hänger ihop med nästa.
i Stockholm ligger psykologidocenten Viktor Kaldo och hans kolleger i startgroparna med projektet Lärande maskiner. Det ska undersöka hur AI kan användas för att förutsäga hur en kbt-behandling via internet kommer att gå, i syfte att tidigt kunna förstärka
behandlingen om det behövs. Detta ska ske genom att bearbeta data från omkring 4 500 tidigare patienter.
– Det viktigaste är de formulär som patienter fyller i innan och under behandlingen, till exempel om hur de mår, andra behandlingar och sociodemografiska faktorer som finns med i bakgrunden, säger Viktor Kaldo.
Genom att Ai-algoritmen lärt sig från data om tidigare patienter kan den ge indikationer på om patienten är på väg åt rätt håll.
– Den informationen kan sedan våra internetbehandlare använda för att justera behandlingen, säger Viktor Kaldo, som liksom Louis-philippe Morency menar att en AI kan fungera som en second
opinon för psykologen som behandlar.
– Om den flaggar för att patienten ser ut att vara på väg åt fel håll kan behandlaren göra en egen bedömning, och kanske agera tidigare än vad den annars hade gjort.
– Tanken är att få en mer förutsättningslös bedömning. Forskningen visar till exempel att terapeuter överskattar sin egen förmåga. Man tror ofta att det kommer gå bättre för en patient än vad det faktiskt gör.
PARALLELLT MED
förhoppningarna och framstegen kring AI ringer somliga i varningsklockorna. Konsekvenserna för arbetsmarknaden och samhället kan bli enorma: Enligt en studie från University of Oxford kan 47 procent av jobben i USA vara automatiserade inom 20 år. Klassklyftorna kan växa enormt i ett sådant samhälle. Om det ens finns kvar. Den svenskfödde filosofen Nick Boström, professor i Oxford, anses vara världens mest inflytelserika tänkare inom artificiell intelligens och han varnar för att AI kan bli mänsklighetens undergång. Hans teori kretsar kring en ”intelligensexplosion”, där AI lär sig att förbättra sig själv, inom kort tid blir oändligt mycket mer intelligent än människan och riskerar att se oss som ett hinder att eliminera. Microsoft-miljardären Bill Gates och Elon Musk hör till dem som tagit till sig av Boströms teorier och stämt in i varningarna om att vi måste titta på riskerna. Teorierna påminner om dystopiska skräckscenarion i filmer som
Terminator- trilogin, där AIförsvarssystemet Skynet blir självmedvetet och utlöser ett kärnvapenkrig.
Men det finns ingen anledning att vara rädd för artificiell intelligens i sig, menar Danica Kragic, professor i robotik på KTH i Stockholm.
– Det viktiga är att både utvecklare och användare diskuterar öppet kring potentiella faror, och att vi kan vara säkra på att man tar hänsyn till risken för bieffekter. Det är också viktigt att utbilda kommande generationer, som kommer att förlita sig väldigt mycket på teknologin. De behöver inte kunna alla detaljer men det är bra att ha en viss förståelse för teknologin man använder och att ha kunskaper om att det finns AI bakom den. När det gäller AI inom psy- kiatrin finns det riskfaktorer. Inom vården kan små fel leda till stora katastrofer. Att Apples Siri under en lång tid hade stora problem med att ta emot röstkommandon från skotska användare är ett exempel på att Ai-tekniken är långt ifrån perfekt. Om en AI tränas på röstinspelningar där alla kommer från samma demografiska grupp kan det bli fel om en person från en annan grupp ska diagnosticeras. ”Om du är från en viss kultur kanske du pratar med en mjukare, lägre röst, vilket en AI felaktigt kan tolka som depression”, säger Jim Schwoebel från företaget Neurolex, som arbetar med en Ai-mjukvara som kan identifiera tecken på schizofreni, till tidningenthe Atlantic.
Danica Kragic ser flera etiska frågeställningar vad gäller AI inom psykiatrin.
– Vem har tillgång till alla data? Vad används de till? Läggs informationen upp i molnet? Kommer min arbetsgivare att få tillgång till informationen? Det gäller att vi har bra regler kring detta och att vi vet hur vi ska behandla frågorna när det blir aktuellt.
Psykiatern Justin Baker vid Mclean hospital i Massachusetts, som samarbetar med Louis-philippe Morency i utvecklandet av Multisense, håller med om problembeskrivningen.
– Det finns stora etiska frågor kring patientdata. När vi samlar in all den här informationen ber vi om data som vi inte har frågat efter förut. Och det finns många företag som är ute efter dem av kommersiella skäl. Men som jag ser det kan vi inte svika patienterna genom att låta bli att mäta saker som kan ge dem en bättre vård.
I Modern Psykologi 12/2016 skrev Jonas Cullberg om opioidmissbruk i USA.
” Terapeuter tror ofta att det kommer gå bättre för en patient än vad det faktiskt gör.”