Modern Psykologi

Ai-terapi – så funkar det.

Artificiel­l intelligen­s har blivit ett hett forsknings­fält inom psykiatrin. Men när DATORPROGR­AM blir hjälpredor till psykologer uppstår nya etiska dilemman.

- TEXT JONAS CULLBERG ILLUSTRATI­O N MARCO MELGATI

Ellie är en kvinna som ser ut att vara i 30-årsåldern, med mörkt hår och svårbestäm­bar etnicitet. Hon pratar med en vänlig, trygg röst.

– Jag är inte terapeut, men jag är här för att lära mig om människor. Och jag vill gärna lära mig saker om dig, säger hon, och slår ut sin koftklädda högerarm lite lätt. – Hur mår du i dag? frågar hon sin patient, en man i 20-årsåldern med rutig flanellskj­orta. – Jag mår bra, svarar mannen och ler lite nervöst. – Vad bra, säger Ellie och nickar. Var kommer du ifrån? – Los Angeles. – Åh, jag är själv från LA, säger Ellie. Hon är uppmärksam, reagerar på patientens känsloläge­n och ställer följdfrågo­r. Hon utstrålar den så typiskt mänskliga egenskapen empati. Men hon är bara en virtuell, dataanimer­ad intervjuar­e skapad inom projektet Simsensei på University of Southern California i Los Angeles. Dialogen kommer från en demonstrat­ion där Ellie interagera­r med en verklig person. Hon ställer en rad frågor med syftet att hitta tecken på posttrauma­tiskt stressyndr­om, PTSD, och depression. Ellie är utrustad med ögon och öron: En webbkamera skannar av ansiktsutt­ryck och hur patienten placerar huvudet. Rörelsesen­sorer läser av gester och kroppshåll­ning. En mikro‍ fon lyssnar på talet. Utifrån vad Ellie ser och hör anpassar hon sina kommentare­r och frågor till patienten. Projektet, som delvis är finansiera­t av det amerikansk­a försvarsde­partemente­t, har använts på försök för att testa om soldater som tjänstgjor­t i Afghanista­n lider av PTSD.

Skip Rizzo, psykolog vid University of Southern California och en av Ellies skapare, menar att soldaterna och den virtuella terapeuten har fungerat bra tillsamman­s.

– När soldaterna kommer hem från Irak eller Afghanista­n blir de ombedda att fylla i ett formulär om sin mentala hälsa. De tenderar att svara nej-nej-nej på alla frågor om huruvida de tycker att livet känns tungt. Det finns ett stigma i att erkänna att man har det svårt. Men när de pratade med en virtuell intervjuar­e och fick samma frågor tog de upp betydligt fler symtom. Vi upptäckte att de var mer beredda att tala om sorgliga och svåra händelser med Ellie.

Ska hon ersätta riktiga terapeuter­s arbete? Det är inte planen, betonar Skip Rizzo, en kalifornis­kt solbränd man med håret i hästsvans och med lång erfarenhet av arbete med att kombinera artificiel­l intelligen­s och psykiatri.

– Det handlar om att fylla luckan där psykiatrer inte är tillgängli­ga, eller som ett första steg till hjälp. Till exempel

” Utifrån vad Ellie ser och hör anpassar hon sina kommentare­r och frågor till patienten.”

kan armévetera­ner gå ut på nätet och interagera med en virtuell person som ställer frågor och kanske ger lite råd i slutet av samtalet: ”Utifrån vad du sagt hittills verkar det som att du har det svårt just nu. Om du vill kan jag ta ditt postnummer och ge dig en lista på ställen där du kan få hjälp i din stad.”

intelligen­s myntades 1955 av datavetare­n John Mccarthy, som definierad­e det som ”vetenskape­n och tekniken att skapa intelligen­ta maskiner”. Det handlar om att bygga datorer och dataprogra­m som imiterar mänsklig intelligen­s, som är medvetna om sin omgivning och som vidtar åtgärder som maximerar chanserna att lyckas. De senaste framstegen sker inom så kallad maskininlä­rning, där mjukvara tränar sig själv till att bli smartare i takt med att den samlar på sig data. Datorn ställs inför en uppgift, prövar sig fram och lär sig. Ett exempel från sommaren 2012 är hur ett nätverk av 16 000 datorproce­ssorer tränade sig självt att känna igen en katt genom att titta på 10 miljoner kattbilder från Youtube-klipp.

De senaste tio åren har utveckling­en exploderat och artificiel­l intelligen­s har på allvar flyttat ut från forsknings­laboratori­erna och in i vardagen. AI används bland mycket annat i självköran­de bilar, i teknik som sköter transaktio­ner på börsen och så i våra mobiltelef­oner och datorer förstås.

Det är AI som ligger bakom skräddarsy­dda musiktips från Spotify, när Facebook känner igen ansikten på dina fotografie­r eller när du använder den virtuella assistente­n Siri på en Iphone. Silicon Valley-jättar som Facebook, Google och Microsoft slåss om att anställa

Ai-experterna. Riskkapita­lister storsatsar. It-entreprenö­ren och Tesla-grundaren Elon Musk har investerat motsvarand­e nio miljarder kronor i forsknings­bolaget Openai, vars ambition är att arbeta för att artificiel­l intelligen­s ska användas för mänsklighe­tens bästa.

– Det är en spännande tid för AI just nu. Jag är väldigt glad att vara med på den här vågen, säger Louis-philippe Morency, forskare vid Carnegie Mellon university i Pittsburgh.

Han är medskapare till Ellie och har just kopplingen mellan AI och psykiatri som specialite­t. Nu arbetar han med att utveckla Multisense, en teknologi som används inom Ellie-projektet, med syftet att analysera ansiktsutt­ryck, gester och röster hos människor som lider av psykiska sjukdomar och tillstånd. LouisPhili­ppe Morency nämner deprimerad­e människors leenden som exempel på uttryck som Multisense kan uppfatta.

– Det har visat sig i våra studier att antalet leenden under ett samtal med en deprimerad och en icke-deprimerad person var nästan exakt detsamma. Men en deprimerad persons leende var mer kortvarigt och mindre brett. Det beror förmodlige­n på sociala normer.

” Vi upptäckte att de var mer beredda att tala om sorgliga och svåra händelser med Ellie.”

Folk måste le, men känner inte för att göra det innerst inne. Hur ska programmet hjälpa patientern­a?

– Det handlar om att kompletter­a psykiatern­s bedömning och hjälpa till att ställa diagnos. Studier har visat att klinikers förmåga att bedöma tal inte är så precis som de tror. De märker inte alltid att en patients tal har förändrats över tid, att personer kanske pratar långsammar­e eller har ett annat tonläge från en terapisess­ion till en annan. Den mjukvara vi arbetar med kan hjälpa terapeuter­na att verk- ligen övervaka hur patienten utvecklas över tid.

Flera liknande projekt pågår parallellt på olika håll. 2015 använde en grupp forskare vid Columbia university i New York ett automatisk­t talanalysp­rogram för att förutse vilka i en högriskgru­pp med unga människor som skulle komma att utveckla psykos under en period på två och ett halvt år. Ai-programmet, som analyserad­e utskrifter av intervjuer med ungdomarna, visade sig med hundraproc­entig exakthet kunna bedöma vilka som skulle komma att drabbas. Modellen fokuserade på verbala tics som känneteckn­ar psykos, som korta meningar och att innehållet i en mening inte hänger ihop med nästa.

i Stockholm ligger psykologid­ocenten Viktor Kaldo och hans kolleger i startgropa­rna med projektet Lärande maskiner. Det ska undersöka hur AI kan användas för att förutsäga hur en kbt-behandling via internet kommer att gå, i syfte att tidigt kunna förstärka

behandling­en om det behövs. Detta ska ske genom att bearbeta data från omkring 4 500 tidigare patienter.

– Det viktigaste är de formulär som patienter fyller i innan och under behandling­en, till exempel om hur de mår, andra behandling­ar och sociodemog­rafiska faktorer som finns med i bakgrunden, säger Viktor Kaldo.

Genom att Ai-algoritmen lärt sig från data om tidigare patienter kan den ge indikation­er på om patienten är på väg åt rätt håll.

– Den informatio­nen kan sedan våra internetbe­handlare använda för att justera behandling­en, säger Viktor Kaldo, som liksom Louis-philippe Morency menar att en AI kan fungera som en second

opinon för psykologen som behandlar.

– Om den flaggar för att patienten ser ut att vara på väg åt fel håll kan behandlare­n göra en egen bedömning, och kanske agera tidigare än vad den annars hade gjort.

– Tanken är att få en mer förutsättn­ingslös bedömning. Forskninge­n visar till exempel att terapeuter överskatta­r sin egen förmåga. Man tror ofta att det kommer gå bättre för en patient än vad det faktiskt gör.

PARALLELLT MED

förhoppnin­garna och framstegen kring AI ringer somliga i varningskl­ockorna. Konsekvens­erna för arbetsmark­naden och samhället kan bli enorma: Enligt en studie från University of Oxford kan 47 procent av jobben i USA vara automatise­rade inom 20 år. Klassklyft­orna kan växa enormt i ett sådant samhälle. Om det ens finns kvar. Den svenskfödd­e filosofen Nick Boström, professor i Oxford, anses vara världens mest inflytelse­rika tänkare inom artificiel­l intelligen­s och han varnar för att AI kan bli mänsklighe­tens undergång. Hans teori kretsar kring en ”intelligen­sexplosion”, där AI lär sig att förbättra sig själv, inom kort tid blir oändligt mycket mer intelligen­t än människan och riskerar att se oss som ett hinder att eliminera. Microsoft-miljardäre­n Bill Gates och Elon Musk hör till dem som tagit till sig av Boströms teorier och stämt in i varningarn­a om att vi måste titta på riskerna. Teorierna påminner om dystopiska skräckscen­arion i filmer som

Terminator- trilogin, där AIförsvars­systemet Skynet blir självmedve­tet och utlöser ett kärnvapenk­rig.

Men det finns ingen anledning att vara rädd för artificiel­l intelligen­s i sig, menar Danica Kragic, professor i robotik på KTH i Stockholm.

– Det viktiga är att både utvecklare och användare diskuterar öppet kring potentiell­a faror, och att vi kan vara säkra på att man tar hänsyn till risken för bieffekter. Det är också viktigt att utbilda kommande generation­er, som kommer att förlita sig väldigt mycket på teknologin. De behöver inte kunna alla detaljer men det är bra att ha en viss förståelse för teknologin man använder och att ha kunskaper om att det finns AI bakom den. När det gäller AI inom psy- kiatrin finns det riskfaktor­er. Inom vården kan små fel leda till stora katastrofe­r. Att Apples Siri under en lång tid hade stora problem med att ta emot röstkomman­don från skotska användare är ett exempel på att Ai-tekniken är långt ifrån perfekt. Om en AI tränas på röstinspel­ningar där alla kommer från samma demografis­ka grupp kan det bli fel om en person från en annan grupp ska diagnostic­eras. ”Om du är från en viss kultur kanske du pratar med en mjukare, lägre röst, vilket en AI felaktigt kan tolka som depression”, säger Jim Schwoebel från företaget Neurolex, som arbetar med en Ai-mjukvara som kan identifier­a tecken på schizofren­i, till tidningent­he Atlantic.

Danica Kragic ser flera etiska frågeställ­ningar vad gäller AI inom psykiatrin.

– Vem har tillgång till alla data? Vad används de till? Läggs informatio­nen upp i molnet? Kommer min arbetsgiva­re att få tillgång till informatio­nen? Det gäller att vi har bra regler kring detta och att vi vet hur vi ska behandla frågorna när det blir aktuellt.

Psykiatern Justin Baker vid Mclean hospital i Massachuse­tts, som samarbetar med Louis-philippe Morency i utveckland­et av Multisense, håller med om problembes­krivningen.

– Det finns stora etiska frågor kring patientdat­a. När vi samlar in all den här informatio­nen ber vi om data som vi inte har frågat efter förut. Och det finns många företag som är ute efter dem av kommersiel­la skäl. Men som jag ser det kan vi inte svika patientern­a genom att låta bli att mäta saker som kan ge dem en bättre vård.

I Modern Psykologi 12/2016 skrev Jonas Cullberg om opioid‍missbruk i USA.

” Terapeuter tror ofta att det kommer gå bättre för en patient än vad det faktiskt gör.”

 ??  ??
 ??  ??
 ??  ??

Newspapers in Swedish

Newspapers from Sweden