So­ci­al Bots als Mei­nungs­ma­cher

Bot oder ech­ter Nut­zer? Wenn be­stä­tigt wird, was man sel­ber gern glau­ben möch­te: Wer fragt da noch, ob er ge­ra­de ma­ni­pu­liert wird? Wir ha­ben uns mit dem Phä­no­men „So­ci­al Bot“be­schäf­tigt.

PC-WELT - - Inhalt - VON PANAGIOTIS KOLOKYTHAS, CHRIS­TI­AN LÖBERING UND DENISE BERGERT

Bot oder ech­ter Nut­zer? Wie stark wer­den wir in den so­zia­len Me­di­en be­reits ma­ni­pu­liert?

FA­KE NEWS, SO­CI­AL BOTS, Mei­nungs­ro­bo­ter – wie weit wer­den wir in den so­zia­len Me­di­en schon durch Soft­ware ma­ni­pu­liert? Er­hält so je­de „Glau­bens­ge­mein­schaft“ih­re Bla­se mit ih­ren ei­ge­nen, im­mer wie­der be­stä­tig­ten Fak­ten und Wahr­hei­ten? Wie wirkt sich der Ein­satz von So­ci­al Bots aus? Prof. Dirk Hel­bing von der ETH Zü­rich hat zu die­sem The­ma ei­ni­ge un­se­rer Fra­gen be­ant­wor­tet. PC-WELT: Was genau ist ein So­ci­al Bot?

Prof. Dirk Hel­bing: Ein So­ci­al Bot ist ein selbst­stän­dig agie­ren­des Com­pu­ter­pro­gramm, das – wie ein Chat­bot – kom­mu­ni­zie­ren kann und dar­über hin­aus in so­zia­len Me­di­en ak­tiv ist.

PC-WELT: Wie ar­bei­tet ein So­ci­al Bot?

Hel­bing: Er er­zeugt und ver­brei­tet Nach­rich­ten in so­zia­len Me­di­en und ist im Grun­de ge­nom­men das, was Spam bei Mail­sys­te­men ist. Un­ter Um­stän­den ver­sieht ein So­ci­al Bot Nach­rich­ten von an­de­ren mit Li­kes oder folgt frem­den Ac­counts. Man­che So­ci­al Bots kön­nen so­gar sel­ber neue Ac­counts er­öff­nen. Für sol­che Fa­ke Ac­counts wer­den un­ter Um­stän­den Na­men und Fo­tos aus dem In­ter­net ver­wen­det.

PC-WELT: Ler­nen So­ci­al Bots selbst­stän­dig da­zu oder stüt­zen sie sich le­dig­lich auf be­ste­hen­de Datenbanken? Hel­bing: Im Un­ter­schied zu IFTTT (If This Then That) spu­len So­ci­al Bots nicht not­wen­di­ger­wei­se ein vor­her im De­tail vor­ge­ge­be­nes Ver­hal­ten nach ei­ner Wenn-dann-lo­gik ab, son­dern sie sind lern­fä­hig. Sie kön­nen ge­ge­be­nen­falls neue Dia­lo­ge aus dem In­ter­net ex­tra­hie­ren oder sel­ber neue Aus­sa­gen er­zeu­gen. PC-WELT: Nut­zen So­ci­al Bots ko­gni­ti­ve In­tel­li­genz oder neu­ro­na­le Net­ze. Oder kommt we­der das ei­ne noch das an­de­re zum Ein­satz? Hel­bing: Sie nut­zen ma­schi­nel­les Ler­nen. Es kön­nen neu­ro­na­le Net­ze wie auch an­de­re Ver­fah­ren zum Ein­satz kom­men. Be­son­ders fort­schritt­li­che So­ci­al Bots ver­wen­den per­sön­li­che Da­ten über die je­wei­li­gen Ziel­per­so­nen, um so per­so­na­li­sier­te Bot­schaf­ten zu er­zeu­gen und da­durch die ma­xi­ma­le Be­ein­flus­sung zu er­zie­len. Un­ter Um­stän­den ken­nen sol­che So­ci­al

„So­ci­al Bots ver­brei­ten Nach­rich­ten in so­zia­len Netz­wer­ken und die­nen zur Mei­nungs­bil­dung.“

Bots ei­nen Men­schen bes­ser als sei­ne Freun­de. Der Ein­satz die­ser ko­gni­ti­ven In­tel­li­genz zur Ver­hal­tens­ma­ni­pu­la­ti­on wird „Big Nud­ging“ge­nannt. Bei ei­ner un­ter­be­wuss­ten Be­ein­flus­sung be­kommt die adres­sier­te Per­son oft gar nicht mit, dass sie ge­zielt be­ein­flusst wur­de.

PC-WELT: Wer in­stal­liert So­ci­al Bots bzw. lässt sie lau­fen? Was will der Initia­tor er­rei­chen?

Hel­bing: Bei­spiels­wei­se Ge­heim­diens­te, Mi­li­tär, Ha­cker, Un­ter­neh­men. So­ci­al Bots wer­den ver­wen­det, um Ide­en zu ver­brei­ten und Kam­pa­gnen zu un­ter­stüt­zen. Sie sind neue, äu­ßerst ef­fek­ti­ve Pro­pa­gan­da­werk­zeu­ge. Twit­ter­bots und au­to­no­me Agen­ten auf Face­book sind ty­pi­sche Bei­spie­le für So­ci­al Bots. Sie be­ein­flus­sen die Mei­nungs­bil­dung zu­guns­ten von öko­no­mi­schen oder po­li­ti­schen In­ter­es­sen und ma­ni­pu­lie­ren Ent­schei­dun­gen, auch bei Wah­len. Sie wer­den über­dies im Cy­ber-krieg ein­ge­setzt, bei­spiels­wei­se für Des­in­for­ma­ti­ons­kam­pa­gnen und Hacking.

PC-WELT: Wie er­stellt man So­ci­al Bots? Gibt es da­für Pro­gram­me, und könn­te je­der die­se nach Be­lie­ben ver­wen­den?

Hel­bing: Es gibt Fir­men, die So­ci­al Bots an­bie­ten. In­so­fern sind sie im Prin­zip für je­den ver­füg­bar. Die Mie­te von 10 000 Twit­ter­bots kos­tet nur et­wa 1000 Us-dol­lar. Das größ­te be­kann­te Bot-netz­werk um­fass­te 350 000 Bots. Es ver­brei­te­te Star-wars-zi­ta­te. Im Prin­zip kann man sich So­ci­al Bots auch sel­ber bau­en. Heut­zu­ta­ge ist Soft­ware für Künst­li­che In­tel­li­genz je­dem zu­gäng­lich. Die da­für not­wen­di­gen Da­ten könn­te man aus dem In­ter­net her­un­ter­la­den. In der Ver­gan­gen­heit ist es bei­spiels­wei­se vor­ge­kom­men, dass Da­ten von Face­book-nut­zern her­un­ter­ge­la­den wur­den. Ach­tung: Man könn­te hier­bei al­ler­dings un­ter Um­stän­den Nut­zungs­be­din­gun­gen oder Ge­set­ze ver­let­zen.

PC-WELT: Sind So­ci­al Bots haupt­säch­lich in po­li­ti­schen Dis­kus­sio­nen un­ter­wegs? Oder bie­ten sich So­ci­al Bots noch in an­de­ren Be­rei­chen für Ma­ni­pu­la­tio­nen an? Hel­bing: Zu­nächst wur­den die Me­tho­den für ein ef­fi­zi­en­te­res, per­so­na­li­sier­tes Mar­ke­ting ent­wi­ckelt. Man spricht von Neu­ro­mar­ke­ting. Man­che zäh­len die­se Me­tho­den zu „Mind Con­trol“. Wenn sie in al­len All­tags­si­tua­tio­nen zum Ein­satz kom­men, wird auch der Be­griff „Ma­trix“ver­wen­det. Die gro­ßen It-un­ter­neh­men ha­ben jetzt be­gon­nen, nach Mit­teln zu su­chen, Fil­ter­bla­sen und die „Ma­trix“zu durch­bre­chen. PC-WELT: Auf wel­chen so­zia­len Platt­for­men sind So­ci­al Bots un­ter­wegs?

Hel­bing: Heut­zu­ta­ge haupt­säch­lich in den so­zia­len Me­di­en und Such­ma­schi­nen. Aber auch Nach­rich­ten wer­den im In­ter­net im­mer mehr per­so­na­li­siert: die Ti­tel und die Bil­der et­wa. Es ist nur noch ei­ne Fra­ge der Zeit, bis auch der Text per­so­na­li­siert wird. Dann se­hen am En­de al­le un­ter­schied­li­che In­hal­te, ob­wohl sie den­sel­ben Link an­kli­cken. PC-WELT: Wel­che Aus­wir­kun­gen ha­ben So­ci­al Bots in den so­zia­len Netz­wer­ken? Wer pro­fi­tiert da­von, wem scha­den die So­ci­al Bots?

Hel­bing: Sie füh­ren zu Ver­zer­run­gen bei der Mei­nungs­bil­dung und im öf­fent­li­chen Dis­kurs. Sie tra­gen zu Fa­ke News und zu Des­in­for­ma­ti­on bei. Es pro­fi­tie­ren je­ne, die So­ci­al Bots ein­set­zen, bei­spiels­wei­se zu Wer­be­zwe­cken oder für po­li­ti­sche Pro­pa­gan­da. Der Nut­zer hat da­bei das Nach­se­hen. Er kauft Pro­duk­te, die er nicht braucht, und er ver­liert die Ori­en­tie­rung. Durch den Fil­ter­bla­sen­ef­fekt droht die Ge­sell­schaft, po­la­ri­siert zu wer­den. Die ge­mein­sa­me Ba­sis und Kon­sens­fä­hig­keit ge­hen ver­lo­ren.

PC-WELT: Gibt es ein­deu­ti­ge Merk­ma­le, um ei­nen So­ci­al Bot von ei­nem ech­ten Nut­zer un­ter­schei­den zu kön­nen?

Hel­bing: Das ist zu­neh­mend schwie­ri­ger. Mög­li­che Kri­te­ri­en sind: die Ver­wen­dung von Gra­fi-

ken statt Fo­tos im Nut­zer­pro­fil, die An­zahl der Tweets be­zie­hungs­wei­se Posts an ei­nem Tag, das Ver­hält­nis von Fol­lo­wern zu Freun­den, die Va­ria­ti­on der Nach­rich­ten. Und schließ­lich: Ist der Ac­count rund um die Uhr ak­tiv?

PC-WELT: Pro­gram­me wie Twit­ter Au­dit oder Bo­tor­not (mitt­ler­wei­le: Bo­to­m­e­ter) sol­len fest­stel­len kön­nen, was So­ci­al Bots und wer ech­te Nut­zer sind. Twit­ter Au­dit et­wa soll fest­stel­len, wie vie­le Fol­lo­wer ei­nes Twit­ter-ac­counts tat­säch­lich Men­schen sind – wie soll das ge­hen? Hel­bing: Bo­tor­not un­ter­sucht die Ak­ti­vi­tät von Twit­ter-ac­counts und be­wer­tet die Wahr­schein­lich­keit, dass ein Ac­count ein Bot ist. Da­bei wer­den an­geb­lich Tau­sen­de von Ei­gen­schaf­ten un­ter­sucht, et­wa die zu­vor ge­nann­ten. Zum Teil wer­den auch so­ge­nann­te Ho­nigtöp­fe ein­ge­setzt. Da­bei wird of­fen­sicht­li­cher Un­sinn ge­pos­tet und ge­schaut, wer dar­auf rein­fällt. PC-WELT: Gibt es Zah­len oder Schät­zun­gen da­zu, wie vie­le Nut­zer auf Twit­ter, Face­book & Co. So­ci­al Bots sind? Hel­bing: Die Schät­zun­gen lie­gen bei et­wa 20 bis 40 Pro­zent, teil­wei­se so­gar hö­her.

PC-WELT: Gibt es Stu­di­en oder Un­ter­su­chun­gen über Ein­satz und Aus­wir­kun­gen von So­ci­al Bots?

Hel­bing: Ja, aber es han­delt sich um ein ziem­lich jun­ges For­schungs­ge­biet. Folg­lich ist die An­zahl der Pu­bli­ka­tio­nen noch re­la­tiv ge­ring.

PC-WELT: Ist da­von aus­zu­ge­hen, dass – nach­dem So­ci­al Bots jetzt so häu­fig in den Me­di­en sind – die­se Ro­bo­ter­mel­dun­gen eher zu­rück­ge­fah­ren wer­den und viel­leicht wie­der aus den

Net­zen ver­schwin­den? Oder ist so­gar mit ei­nem wei­te­ren An­stieg von So­ci­al Bots zu rech­nen, da sich im­mer mehr An­bie­ter ei­nen Nut­zen von de­ren Ein­satz ver­spre­chen?

Hel­bing: Ich ge­he da­von aus, dass sich der Ein­satz von So­ci­al Bots zu­nächst ein­mal noch wei­ter ver­brei­ten wird. Es ist ein ech­tes Pro­li­fe­ra­ti­ons­pro­blem.

PC-WELT: Von Sei­ten der Grü­nen wird ge­for­dert, dass Ro­bo­ter­mel­dun­gen in den so­zia­len Netz­wer­ken ge­kenn­zeich­net wer­den müs­sen. Ma­chen So­ci­al Bots dann über­haupt noch Sinn? Oder ist es denk­bar, dass sich vie­le Nut­zer auch mit Kenn­zeich­nung wei­ter­hin durch die so ver­brei­te­ten In­for­ma­tio­nen ma­ni­pu­lie­ren las­sen?

Hel­bing: Ei­ne Kenn­zeich­nung ent­sprä­che dem, was für Wer­bung ge­setz­lich vor­ge­schrie­ben ist. Ob­wohl Wer­bung ge­kenn­zeich­net wer­den muss, wirkt sie, an­sons­ten wür­de man nicht so viel Geld da­für aus­ge­ben. Aber die Nut­zer wis­sen dann we­nigs­tens, dass sie ma­ni­pu­liert wer­den sol­len. Und da­mit kön­nen sie sich bes­ser vor Ent­schei­dun­gen schüt­zen, die nicht ih­ren In­ter­es­sen ent­spre­chen.

PC-WELT: Se­hen Sie denn ge­ne­rell auch Hand­lungs­be­darf von Sei­ten der Po­li­tik, um So­ci­al Bots ein­zu­däm­men, oder se­hen Sie hier eher die Ge­fahr, dass Po­li­tik und Wirt­schaft mit den So­ci­al Bots auf den Ge­schmack kom­men könn­ten, den Bür­ger zu „lei­ten“?

Hel­bing: Nud­ging, das heißt Ver­hal­tens­ma­ni­pu­la­ti­on, ist be­reits in mehr als 90 Län­dern zu ei­nem Mit­tel der Po­li­tik ge­wor­den. Man woll­te es ein­set­zen, um ein so­zia­le­res, ge­sün­de­res so­wie um­welt­freund­li­ches Ver­hal­ten zu er­rei­chen. Dass die­se Me­tho­de der­art au­ßer Kon­trol­le ge­rät – Stich­wort: Fa­ke News und post­fak­ti­sche Ge­sell­schaft – hat man of­fen­sicht­lich nicht kom­men se­hen. Maß­nah­men sind un­er­läss­lich. Je mehr mensch­li­che Ei­gen­schaf­ten Künst­li­che In­tel­li­genz­sys­te­me imi­tie­ren, des­to mehr ist es er­for­der­lich, sie zu re­gu­lie­ren – so ma­nagt man ja auch das mensch­li­che Zu­sam­men­le­ben. Die EU denkt schon über Ge­set­ze für Ro­bo­ter nach. Die in­ter­na­tio­na­le In­ge­nieur­ver­ei­ni­gung IEEE ar­bei­tet an Stan­dards für das ethi­sche De­sign von sol­chen Sys­te­men. PC-WELT: Was hal­ten Sie da­von, dass ei­ni­ge Jus­tiz­mi­nis­ter der­zeit über­le­gen, So­ci­al Bots un­ter Stra­fe zu stel­len und ei­nen neu­en Straf­tat­be­stand ein­zu­füh­ren, den so­ge­nann­ten „Di­gi­ta­len Haus­frie­dens­bruch“?

Hel­bing: Es wä­re sehr schön, wenn man Com­pu­ter­pro­gram­me ver­haf­ten könn­te. Zu­nächst ist je­doch si­cher­zu­stel­len, dass Ei­gen­tü­mer, Auf­trag­ge­ber wie auch Be­nut­zer von So­ci­al Bots iden­ti­fi­ziert wer­den kön­nen. Ei­ni­ge So­ci­al Bots wer­den je­doch von ex­tra­ter­ri­to­ria­lem Ge­län­de aus be­trie­ben. Dort gel­ten vie­le na­tio­na­le und in­ter­na­tio­na­le Ge­set­ze nicht. Man bräuch­te hier al­so glo­ba­le Re­ge­lun­gen.

Der Di­enst Bo­tor­not, mitt­ler­wei­le un­ter dem Na­men Bo­to­m­e­ter be­kannt, un­ter­sucht die Ak­ti­vi­tät von Twit­ter-ac­counts und be­wer­tet die Wahr­schein­lich­keit, dass ein Ac­count ein Bot ist.

Schwer von mensch­li­chen Ge­sprächs­part­nern zu un­ter­schei­den: Auch hin­ter Ser­vice­an­ge­bo­ten von Un­ter­neh­men kön­nen Chat­bots ste­cken.

Mi­cro­softs Twit­ter­bot Tay wur­de von Nut­zern für ras­sis­ti­sche In­hal­te miss­braucht. Er wur­de dar­auf­hin vom Netz ge­nom­men und ist mitt­ler­wei­le nur noch ein­ge­schränkt er­reich­bar.

Als Er­satz für Tay wur­de im De­zem­ber 2016 der Chat­bot Zo live ge­schal­tet. Nut­zer kön­nen nur über den Face­book Mes­sen­ger und Kik mit Zo chat­ten.

Mit dem An­dro­id-as­sis­ten­ten, der in der Goo­gle­app „Al­lo“in­te­griert ist, kön­nen Sie Ge­sprä­che füh­ren. Dar­über hin­aus ver­sorgt er Sie mit In­for­ma­tio­nen.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.