Ai-te­ra­pi – så fun­kar det.

Ar­ti­fi­ci­ell in­tel­li­gens har bli­vit ett hett forsk­nings­fält in­om psy­ki­a­trin. Men när DATORPROGRAM blir hjälp­re­dor till psy­ko­lo­ger upp­står nya etis­ka di­lem­man.

Modern Psykologi - - INNEHÅLL - TEXT JO­NAS CULL­BERG ILLUSTRATIO N MARCO MELGATI

El­lie är en kvin­na som ser ut att va­ra i 30-års­ål­dern, med mörkt hår och svår­be­stäm­bar et­ni­ci­tet. Hon pra­tar med en vän­lig, trygg röst.

– Jag är in­te te­ra­peut, men jag är här för att lä­ra mig om män­ni­skor. Och jag vill gär­na lä­ra mig sa­ker om dig, sä­ger hon, och slår ut sin koft­kläd­da hö­gerarm li­te lätt. – Hur mår du i dag? frå­gar hon sin pa­ti­ent, en man i 20-års­ål­dern med ru­tig fla­nell­skjor­ta. – Jag mår bra, sva­rar man­nen och ler li­te ner­vöst. – Vad bra, sä­ger El­lie och nic­kar. Var kom­mer du ifrån? – Los Ang­e­les. – Åh, jag är själv från LA, sä­ger El­lie. Hon är upp­märk­sam, re­a­ge­rar på pa­ti­en­tens käns­lo­lä­gen och stäl­ler följd­frå­gor. Hon ut­strå­lar den så ty­piskt mänsk­li­ga egen­ska­pen em­pa­ti. Men hon är ba­ra en vir­tu­ell, da­taa­ni­me­rad in­ter­vju­a­re ska­pad in­om pro­jek­tet Sim­sen­sei på Uni­ver­si­ty of Sout­hern Ca­li­for­nia i Los Ang­e­les. Di­a­lo­gen kom­mer från en de­mon­stra­tion där El­lie in­te­ra­ge­rar med en verk­lig per­son. Hon stäl­ler en rad frå­gor med syf­tet att hit­ta tec­ken på post­trau­ma­tiskt stres­syndrom, PTSD, och de­pres­sion. El­lie är ut­rus­tad med ögon och öron: En webb­ka­me­ra skan­nar av an­sikts­ut­tryck och hur pa­ti­en­ten pla­ce­rar hu­vu­det. Rö­rel­se­sen­so­rer lä­ser av ges­ter och kropps­håll­ning. En mikro‍ fon lyss­nar på ta­let. Ut­i­från vad El­lie ser och hör an­pas­sar hon si­na kom­men­ta­rer och frå­gor till pa­ti­en­ten. Pro­jek­tet, som del­vis är fi­nan­si­e­rat av det ame­ri­kans­ka för­svars­de­par­te­men­tet, har an­vänts på för­sök för att tes­ta om sol­da­ter som tjänst­gjort i Af­gha­nis­tan li­der av PTSD.

Skip Riz­zo, psy­ko­log vid Uni­ver­si­ty of Sout­hern Ca­li­for­nia och en av El­li­es ska­pa­re, me­nar att sol­da­ter­na och den vir­tu­el­la te­ra­peu­ten har fun­ge­rat bra till­sam­mans.

– När sol­da­ter­na kom­mer hem från Irak el­ler Af­gha­nis­tan blir de om­bed­da att fyl­la i ett for­mu­lär om sin men­ta­la häl­sa. De ten­de­rar att sva­ra nej-nej-nej på al­la frå­gor om huruvi­da de tyc­ker att li­vet känns tungt. Det finns ett stig­ma i att er­kän­na att man har det svårt. Men när de pra­ta­de med en vir­tu­ell in­ter­vju­a­re och fick sam­ma frå­gor tog de upp be­tyd­ligt fler sym­tom. Vi upp­täck­te att de var mer be­red­da att ta­la om sorg­li­ga och svå­ra hän­del­ser med El­lie.

Ska hon er­sät­ta rik­ti­ga te­ra­peu­ters ar­be­te? Det är in­te pla­nen, be­to­nar Skip Riz­zo, en ka­li­for­niskt sol­bränd man med hå­ret i häst­svans och med lång er­fa­ren­het av ar­be­te med att kom­bi­ne­ra ar­ti­fi­ci­ell in­tel­li­gens och psy­ki­a­tri.

– Det hand­lar om att fyl­la luc­kan där psy­ki­at­rer in­te är till­gäng­li­ga, el­ler som ett förs­ta steg till hjälp. Till ex­em­pel

” Ut­i­från vad El­lie ser och hör an­pas­sar hon si­na kom­men­ta­rer och frå­gor till pa­ti­en­ten.”

kan ar­mé­ve­te­ra­ner gå ut på nä­tet och in­te­ra­ge­ra med en vir­tu­ell per­son som stäl­ler frå­gor och kanske ger li­te råd i slu­tet av sam­ta­let: ”Ut­i­från vad du sagt hit­tills ver­kar det som att du har det svårt just nu. Om du vill kan jag ta ditt post­num­mer och ge dig en lis­ta på stäl­len där du kan få hjälp i din stad.”

in­tel­li­gens myn­ta­des 1955 av data­ve­ta­ren John Mc­cart­hy, som de­fi­ni­e­ra­de det som ”ve­ten­ska­pen och tek­ni­ken att ska­pa in­tel­li­gen­ta ma­ski­ner”. Det hand­lar om att byg­ga da­to­rer och da­ta­pro­gram som imi­te­rar mänsk­lig in­tel­li­gens, som är med­vet­na om sin om­giv­ning och som vid­tar åt­gär­der som max­i­me­rar chan­ser­na att lyc­kas. De se­nas­te fram­ste­gen sker in­om så kal­lad ma­ski­nin­lär­ning, där mjuk­va­ra trä­nar sig själv till att bli smar­ta­re i takt med att den sam­lar på sig da­ta. Da­torn ställs in­för en upp­gift, prö­var sig fram och lär sig. Ett ex­em­pel från som­ma­ren 2012 är hur ett nät­verk av 16 000 da­tor­pro­ces­so­rer trä­na­de sig självt att kän­na igen en katt ge­nom att tit­ta på 10 mil­jo­ner katt­bil­der från Youtu­be-klipp.

De se­nas­te tio åren har ut­veck­ling­en ex­plo­de­rat och ar­ti­fi­ci­ell in­tel­li­gens har på all­var flyt­tat ut från forsk­nings­la­bo­ra­to­ri­er­na och in i var­da­gen. AI an­vänds bland myc­ket an­nat i själv­kö­ran­de bi­lar, i tek­nik som skö­ter trans­ak­tio­ner på bör­sen och så i vå­ra mo­bil­te­le­fo­ner och da­to­rer för­stås.

Det är AI som lig­ger bakom skräd­dar­syd­da mu­sik­tips från Spo­ti­fy, när Fa­ce­book kän­ner igen ansikten på di­na fo­to­gra­fi­er el­ler när du an­vän­der den vir­tu­el­la as­si­sten­ten Si­ri på en Ip­ho­ne. Si­li­con Val­ley-jät­tar som Fa­ce­book, Goog­le och Micro­soft slåss om att an­stäl­la

Ai-ex­per­ter­na. Risk­ka­pi­ta­lis­ter stor­sat­sar. It-ent­re­pre­nö­ren och Tes­la-grun­da­ren Elon Musk har in­ve­ste­rat mot­sva­ran­de nio mil­jar­der kro­nor i forsk­nings­bo­la­get Ope­nai, vars am­bi­tion är att ar­be­ta för att ar­ti­fi­ci­ell in­tel­li­gens ska an­vän­das för mänsk­lig­he­tens bäs­ta.

– Det är en spän­nan­de tid för AI just nu. Jag är väl­digt glad att va­ra med på den här vå­gen, sä­ger Lou­is-philip­pe Mo­ren­cy, fors­ka­re vid Car­ne­gie Mel­lon uni­ver­si­ty i Pitts­burgh.

Han är med­ska­pa­re till El­lie och har just kopp­ling­en mel­lan AI och psy­ki­a­tri som spe­ci­a­li­tet. Nu ar­be­tar han med att ut­veck­la Mul­ti­sen­se, en tek­no­lo­gi som an­vänds in­om El­lie-pro­jek­tet, med syf­tet att ana­ly­se­ra an­sikts­ut­tryck, ges­ter och rös­ter hos män­ni­skor som li­der av psy­kis­ka sjuk­do­mar och till­stånd. Lou­isP­hilip­pe Mo­ren­cy näm­ner de­pri­me­ra­de män­ni­skors le­en­den som ex­em­pel på ut­tryck som Mul­ti­sen­se kan upp­fat­ta.

– Det har vi­sat sig i vå­ra stu­di­er att an­ta­let le­en­den un­der ett sam­tal med en de­pri­me­rad och en ic­ke-de­pri­me­rad per­son var näs­tan ex­akt det­sam­ma. Men en de­pri­me­rad per­sons le­en­de var mer kort­va­rigt och mind­re brett. Det be­ror för­mod­li­gen på so­ci­a­la nor­mer.

” Vi upp­täck­te att de var mer be­red­da att ta­la om sorg­li­ga och svå­ra hän­del­ser med El­lie.”

Folk mås­te le, men kän­ner in­te för att gö­ra det in­nerst in­ne. Hur ska pro­gram­met hjäl­pa pa­ti­en­ter­na?

– Det hand­lar om att kom­plet­te­ra psy­ki­a­terns be­döm­ning och hjäl­pa till att stäl­la di­a­gnos. Stu­di­er har vi­sat att kli­ni­kers för­må­ga att be­dö­ma tal in­te är så pre­cis som de tror. De mär­ker in­te all­tid att en pa­ti­ents tal har för­änd­rats över tid, att per­so­ner kanske pra­tar lång­sam­ma­re el­ler har ett an­nat ton­lä­ge från en te­ra­pi­ses­sion till en an­nan. Den mjuk­va­ra vi ar­be­tar med kan hjäl­pa te­ra­peu­ter­na att verk- li­gen över­va­ka hur pa­ti­en­ten ut­veck­las över tid.

Fle­ra lik­nan­de pro­jekt på­går pa­ral­lellt på oli­ka håll. 2015 an­vän­de en grupp fors­ka­re vid Co­lum­bia uni­ver­si­ty i New York ett au­to­ma­tiskt ta­la­na­lys­pro­gram för att för­ut­se vil­ka i en hö­g­risk­grupp med unga män­ni­skor som skul­le kom­ma att ut­veck­la psy­kos un­der en pe­ri­od på två och ett halvt år. Ai-pro­gram­met, som ana­ly­se­ra­de ut­skrif­ter av in­ter­vju­er med ung­do­mar­na, vi­sa­de sig med hund­ra­pro­cen­tig ex­akt­het kun­na be­dö­ma vil­ka som skul­le kom­ma att drab­bas. Mo­del­len fo­ku­se­ra­de på ver­ba­la tics som kän­ne­teck­nar psy­kos, som kor­ta me­ning­ar och att in­ne­hål­let i en me­ning in­te häng­er ihop med näs­ta.

i Stock­holm lig­ger psy­ko­lo­gi­do­cen­ten Vik­tor Kal­do och hans kol­le­ger i start­gro­par­na med pro­jek­tet Lä­ran­de ma­ski­ner. Det ska un­der­sö­ka hur AI kan an­vän­das för att för­ut­sä­ga hur en kbt-be­hand­ling via in­ter­net kom­mer att gå, i syf­te att ti­digt kun­na för­stär­ka

be­hand­ling­en om det be­hövs. Det­ta ska ske ge­nom att be­ar­be­ta da­ta från om­kring 4 500 ti­di­ga­re pa­ti­en­ter.

– Det vik­ti­gas­te är de for­mu­lär som pa­ti­en­ter fyl­ler i in­nan och un­der be­hand­ling­en, till ex­em­pel om hur de mår, and­ra be­hand­ling­ar och so­cio­de­mo­gra­fis­ka fak­to­rer som finns med i bak­grun­den, sä­ger Vik­tor Kal­do.

Ge­nom att Ai-al­go­rit­men lärt sig från da­ta om ti­di­ga­re pa­ti­en­ter kan den ge in­di­ka­tio­ner på om pa­ti­en­ten är på väg åt rätt håll.

– Den in­for­ma­tio­nen kan se­dan vå­ra in­ter­net­be­hand­la­re an­vän­da för att ju­ste­ra be­hand­ling­en, sä­ger Vik­tor Kal­do, som lik­som Lou­is-philip­pe Mo­ren­cy me­nar att en AI kan fun­ge­ra som en se­cond

opi­non för psy­ko­lo­gen som be­hand­lar.

– Om den flag­gar för att pa­ti­en­ten ser ut att va­ra på väg åt fel håll kan be­hand­la­ren gö­ra en egen be­döm­ning, och kanske age­ra ti­di­ga­re än vad den an­nars ha­de gjort.

– Tan­ken är att få en mer för­ut­sätt­nings­lös be­döm­ning. Forsk­ning­en vi­sar till ex­em­pel att te­ra­peu­ter över­skat­tar sin egen för­må­ga. Man tror of­ta att det kom­mer gå bätt­re för en pa­ti­ent än vad det fak­tiskt gör.

PA­RAL­LELLT MED

för­hopp­ning­ar­na och fram­ste­gen kring AI ring­er som­li­ga i var­nings­kloc­kor­na. Kon­se­kven­ser­na för ar­bets­mark­na­den och sam­häl­let kan bli enor­ma: En­ligt en stu­die från Uni­ver­si­ty of Ox­ford kan 47 pro­cent av job­ben i USA va­ra au­to­ma­ti­se­ra­de in­om 20 år. Klass­klyf­tor­na kan växa enormt i ett så­dant sam­häl­le. Om det ens finns kvar. Den svensk­föd­de fi­lo­so­fen Nick Bo­st­röm, pro­fes­sor i Ox­ford, an­ses va­ra värl­dens mest in­fly­tel­se­ri­ka tän­ka­re in­om ar­ti­fi­ci­ell in­tel­li­gens och han var­nar för att AI kan bli mänsk­lig­he­tens un­der­gång. Hans te­o­ri kret­sar kring en ”in­tel­li­gens­ex­plo­sion”, där AI lär sig att för­bätt­ra sig själv, in­om kort tid blir oänd­ligt myc­ket mer in­tel­li­gent än män­ni­skan och ris­ke­rar att se oss som ett hin­der att eli­mi­ne­ra. Micro­soft-mil­jar­dären Bill Ga­tes och Elon Musk hör till dem som ta­git till sig av Bo­st­röms te­o­ri­er och stämt in i var­ning­ar­na om att vi mås­te tit­ta på ris­ker­na. Te­o­ri­er­na på­min­ner om dysto­pis­ka skräck­sce­na­ri­on i fil­mer som

Ter­mi­na­tor- tri­lo­gin, där AI­för­svars­sy­ste­met Sky­net blir själv­med­ve­tet och ut­lö­ser ett kärn­va­pen­k­rig.

Men det finns ing­en an­led­ning att va­ra rädd för ar­ti­fi­ci­ell in­tel­li­gens i sig, me­nar Da­ni­ca Kra­gic, pro­fes­sor i ro­bo­tik på KTH i Stock­holm.

– Det vik­ti­ga är att bå­de ut­veck­la­re och an­vän­da­re dis­ku­te­rar öp­pet kring po­ten­ti­el­la fa­ror, och att vi kan va­ra säk­ra på att man tar hän­syn till ris­ken för bi­ef­fek­ter. Det är ock­så vik­tigt att ut­bil­da kom­man­de ge­ne­ra­tio­ner, som kom­mer att för­li­ta sig väl­digt myc­ket på tek­no­lo­gin. De be­hö­ver in­te kun­na al­la de­tal­jer men det är bra att ha en viss för­stå­el­se för tek­no­lo­gin man an­vän­der och att ha kun­ska­per om att det finns AI bakom den. När det gäl­ler AI in­om psy- ki­a­trin finns det risk­fak­to­rer. In­om vår­den kan små fel le­da till sto­ra ka­ta­stro­fer. Att Apples Si­ri un­der en lång tid ha­de sto­ra pro­blem med att ta emot röst­kom­man­don från skots­ka an­vän­da­re är ett ex­em­pel på att Ai-tek­ni­ken är långt ifrån per­fekt. Om en AI trä­nas på röst­in­spel­ning­ar där al­la kom­mer från sam­ma de­mo­gra­fis­ka grupp kan det bli fel om en per­son från en an­nan grupp ska di­a­gnosti­ce­ras. ”Om du är från en viss kul­tur kanske du pra­tar med en mju­ka­re, läg­re röst, vil­ket en AI fel­ak­tigt kan tol­ka som de­pres­sion”, sä­ger Jim Schwoe­bel från fö­re­ta­get Neu­rolex, som ar­be­tar med en Ai-mjuk­va­ra som kan iden­ti­fi­e­ra tec­ken på schi­zo­fre­ni, till tid­nin­gent­he At­lan­tic.

Da­ni­ca Kra­gic ser fle­ra etis­ka frå­ge­ställ­ning­ar vad gäl­ler AI in­om psy­ki­a­trin.

– Vem har till­gång till al­la da­ta? Vad an­vänds de till? Läggs in­for­ma­tio­nen upp i mol­net? Kom­mer min ar­bets­gi­va­re att få till­gång till in­for­ma­tio­nen? Det gäl­ler att vi har bra reg­ler kring det­ta och att vi vet hur vi ska be­hand­la frå­gor­na när det blir ak­tu­ellt.

Psy­ki­a­tern Jus­tin Ba­ker vid Mclean hos­pi­tal i Mas­sachu­setts, som sam­ar­be­tar med Lou­is-philip­pe Mo­ren­cy i ut­veck­lan­det av Mul­ti­sen­se, hål­ler med om pro­blem­be­skriv­ning­en.

– Det finns sto­ra etis­ka frå­gor kring pa­ti­ent­da­ta. När vi sam­lar in all den här in­for­ma­tio­nen ber vi om da­ta som vi in­te har frå­gat ef­ter för­ut. Och det finns många fö­re­tag som är ute ef­ter dem av kom­mer­si­el­la skäl. Men som jag ser det kan vi in­te svi­ka pa­ti­en­ter­na ge­nom att lå­ta bli att mä­ta sa­ker som kan ge dem en bätt­re vård.

I Mo­dern Psy­ko­lo­gi 12/2016 skrev Jo­nas Cull­berg om opi­o­id‍miss­bruk i USA.

” Te­ra­peu­ter tror of­ta att det kom­mer gå bätt­re för en pa­ti­ent än vad det fak­tiskt gör.”

Newspapers in Swedish

Newspapers from Sweden

© PressReader. All rights reserved.