Youtube og Google satser på kunstig intelligens for å rydde opp
I mylderet av Youtube-videoer og kommentarer er det grobunn for konspirasjonsteorier og hatefulle ytringer.
Etter skoleskytingen på Stoneman Douglas-skolen Florida i februar, vokste begrepet «crisis actor» frem – en konspirasjonsteori om at ungdommene som protesterte mot amerikanske våpenlover og skoleskytinger egentlig var skuespillere.
Den amerikanske forskeren Jonathan Albright ville undersøke hvordan Youtube-brukere fant frem til konspirasjonsvideoer og hvilke videoer som ble presentert til dem etterpå.
Det han oppdaget, kalte han et «økosystem for konspirasjonsteorier», ifølge Washington Post. Og økosystemet vokser. Veien er kort fra et søk etter hva en «crisis actor» er, til konspirasjonsteorier om 11. september, «Pizzagate».
I samme gate finnes også videoer og kommentarer som hyller Anders Behring Breivik og 22. juli-angrepet. Videoer som beskriver «Anders Behring Breivik-konspirasjonen» er sett titusenvis av ganger. I kommentarfeltet hylles terroristen.
En komplisert løsning
Giftige kommentarfelt og innhold har vaert et problem for Youtube siden starten. I 2013 endret de på kommentarfeltene slik at de mest relevante kommentarene skulle løftes frem. Da kom også nye systemer for å moderere kommentarfeltet under en video og et krav om å bruke Google-kontoen sin for å kommentere – altså med ekte navn.
Det var ikke en komplett løsning på problemet. Å legge opp til at brukerne selv rapporterer støtende innhold, tar også bort en del, men ikke alt.
Nå jobber Youtube – og ikke minst Google som står over dem – med nye løsninger i kampen mot nettroll og konspirasjonsteorier.
I Youtubes kommentarfelt florerer konspirasjonsteorier og hyllester til Anders Behring Breivik