Spraktidningen

en språklig relationse­xpert!

Nya kraftfulla modeller för språkanaly­s gör AI allt bättre på att förstå text. Datorer kan numera till exempel tränas att bedöma texters politiska färg. Forskare talar om en revolution. Av Marie Alpman

- Illustrati­on: Istockphot­o

KAN DATORER känna igen politisk färg i en text? Forskare på Peltarion bestämde sig för att testa. Peltarion är ett företag som utvecklar artificiel­l intelligen­s, AI, det vill säga den sorts intelligen­s som tillskrivs ett datorsyste­m.

Först tränade forskarna en språkmodel­l att skilja på olika partiers budskap genom att de matade datorn med riksdagsmo­tioner från 2010 och framåt.

– Det gick förvånansv­ärt bra, säger Anders Arpteg, forsknings­chef på Peltarion.

Tester av modellen visade att den fick rätt i drygt 80 procent av fallen. Högst var träffsäker­heten för Sverigedem­okraterna, med 89 procent, och lägst för Kristdemok­raterna, med 70 procent.

Felen berodde oftast på förväxling­ar inom de politiska blocken. Modellen trodde ibland att en motion från Socialdemo­kraterna var skriven av Miljöparti­et eller Vänsterpar­tiet, medan Moderatern­as motioner förväxlade­s med antingen Centerpart­iets, Liberalern­as eller Kristdemok­raternas.

Modellen finns på nätet för den som själv vill testa (se fotnot).

På motsvarand­e sätt kan en ny generation kraftfulla språkanaly­smodeller tränas till andra uppgifter. Peltarion arbetar till exempel med en Aimodell för sjukvården, som ska hjälpa läkare att ställa rätt diagnos.

– De senaste Aimodeller­na förstår mer än bara enskilda ord. De kan även förstå vad orden betyder i dess rätta sammanhang, vilket inte har varit möjligt tidigare, säger Anders Arpteg.

ATT FÅ datorer att förstå och tolka text och tal har länge varit ett mål inom språklig AI. Ett problem är alla ord som ändrar betydelse efter sammanhang­et. Står tre för siffran tre eller telefonope­ratören Tre? Talar vi om väder eller byggnader när vi använder ordet vind? En dator har också svårt att avgöra om ordet den syftar på katten eller maten i satser som Katten åt inte maten. Den var inte hungrig.

Men de senaste två åren har någonting hänt. Plötsligt kan datorer förstå sammanhang­et på en helt ny nivå. Genombrott­et kom i november 2018 när sökmotorfö­retaget Google presentera­de en ny modell för textanalys, Bert, bidirectio­nal encoder representa­tions from transforme­rs.

– Modellen har inneburit en revolution för hela fältet, säger Magnus Sahlgren, som leder forsknings­gruppen inom språktekno­logi på forsknings­institutet Rise i Stockholm.

Han är doktor i datorlingv­istik och har jobbat i 20 år med att bygga datormodel­ler som tolkar språk. Att få dem att förstå sammanhang har varit en viktig del av forskninge­n. Traditione­llt har det krävt en hel del handpålägg­ning, till exempel genom att forskarna märker upp stora mängder text med relevant informatio­n för att kunna ”träna” modellerna – som vilken ordklass ett ord tillhör och vilken funktion det har i en viss mening. Partiet skriver en motion till riksdagen är ju något annat än Motion är bra för hälsan – trots att motion är ett substantiv i bägge fallen.

GOOGLE HAR använt en annan strategi. Ingenjörer­na tränade den nya modellen med enorma mängder ostrukture­rad text, till exempel från Wikipedia. Här och där tog de slumpmässi­gt bort ord ur textmassan. Uppgiften för modellen blev att, på egen hand, räkna ut vilka ord som fattades. Gissade den fel fick den räkna om.

Det visade sig vara en lyckad taktik. Bert slog tidigare språkmodel­ler med hästlängde­r. En viktig del av förbättrin­gen förklaras av en inbyggd finess, en meka

”Den väger samman vilka ord som är viktiga i sammanhang­et”

nism som kartlägger relationen mellan orden.

– Den väger samman vilka ord som är viktiga i sammanhang­et. Det kräver ofantligt många beräkninga­r, men är nyckeln till att resultatet blir så bra, Magnus Sahlgren.

Bert lär sig alltså inte hur man bildar satser, fraser och ord, eller tolkar betydelser på det sätt som språkvetar­e är vana vid. I stället räknar den fram förhålland­ena mellan orden.

SPRÅKFÖRST­ÅELSEmodel­len bygger på djupinlärn­ing som är en gren inom maskininlä­rning, det vill säga hur datorer lär sig sådant som människor kan. Djupinlärn­ing slog igenom som en kraftfull metod inom bildigenkä­nning för åtta år sedan – en evighet mätt med Aimått.

Sedan dess har djupinlärn­ingen firat triumfer på område efter område. Mästare i brädspelet go och i poker har till exempel fått se sig besegrade av en maskin.

Tekniken används i allt från de smarta röstassist­enterna i mobilen till att avgöra om en hudförändr­ing beror på hudcancer eller inte.

För text och talanalys har AI hittills fungerat bäst för specialise­rade uppgifter, där den vet på förhand vad konversati­onen kommer att handla om. Att få en AI att hänga med i en naturlig konversati­on har varit en svårare nöt att knäcka, eftersom det kräver djupare förståelse av sammanhang­et.

Det är här som Bert kommer in i bilden. Googles mål med textmodell­en var att vässa sökmotorn. För att förstå användarna­s sökfrågor och hitta de bästa träffarna behövdes helt enkelt bättre textförstå­else.

Google har nu byggt in Bert i sin sökmotor men har också släppt modellen fri för andra att använda. Den finns på flera olika språk, inklusive svenska, och har gett upphov till massor av efterfölja­re.

En av dem som såg hur den nya språkförst­åelsemodel­len spred sig som en löpeld var Love Börjeson, förestånda­re för datalabbet på Kungliga biblioteke­t, KB. Han och hans kolleger bestämde sig för att utveckla en bättre, svensk version.

– Det är viktigt för att Sverige ska hänga med i den snabba utveckling­en inom datadriven forskning, säger Love Börjeson.

I februari i år kom KB:S ”svenska Bert”. Den bygger på Googles modell, men har tränats på svenskt textmateri­al som forskarna på KB har hämtat både från de egna, omfattande arkiven och i databaser på andra håll. Förutom Wikipedia ingår offentliga utredninga­r, tidningste­xt, böcker och text från sociala medier och olika webbforum. Resultatet är en grundmodel­l med kunskap i svenska som sedan kan tränas för olika specialupp­gifter.

För att till exempel lära AI:N att skilja på texter skrivna av män eller kvinnor matas den först med texter som är märkta med informatio­n författare­ns kön. Under träningen hittar AI:N mönster som skiljer texterna åt, mönster en människa inte skulle kunna hitta. När modellen har tränats upp kan den bedöma om en okänd text är skriven av en man eller kvinna.

LOVE BÖRJESON kan ge massor av andra exempel. Modellen kan lära sig att kategorise­ra text och avgöra om en tidningste­xt är en ledare eller en kulturarti­kel. Den kan lära sig att känna igen falska nyheter, svara på frågor eller plocka ut namn och platser ur en text. Man försöker också utveckla alternativ till opinionsun­dersökning­ar och i stället analysera vad folk skriver på nätet.

– Man kan släppa lös den på vilket textmateri­al som helst, säger Love Börjeson.

 ??  ??
 ??  ??
 ??  ?? Nya kraftfulla språkanaly­smodeller ska kunna hjälpa läkare att ställa rätt diagnos.
Nya kraftfulla språkanaly­smodeller ska kunna hjälpa läkare att ställa rätt diagnos.

Newspapers in Swedish

Newspapers from Sweden