Das Ver­trau­en ero­diert

Au­dio- und Vi­deo-Fa­kes im In­ter­net wer­den im­mer per­fek­ter. Se­riö­se Me­di­en brau­chen Mecha­nis­men, um Fäl­schun­gen zu er­ken­nen.

Sueddeutsche Zeitung Deutschland-Ausgabe - - THEMA DES TAGES - Von Thi­lo Ha­gen­dorff

Drei­ßig ge­spro­che­ne Sät­ze ge­nü­gen. Da­mit kann ein Ler­nal­go­rith­mus ei­nen be­lie­bi­gen Text in ei­ne Au­dio­da­tei ver­wan­deln, der Stim­me des Spre­chen­den zum Ver­wech­seln ähn­lich. Es gibt be­reits kos­ten­lo­se Platt­for­men, die dies an­bie­ten. Je mehr Sprach­auf­zeich­nun­gen von ei­ner Stim­me man der Platt­form zur Ver­fü­gung stellt, des­to bes­ser wird die di­gi­ta­le Ko­pie. Zu­ge­ge­ben, noch klingt die künst­li­che Spra­che et­was ble­chern. Aber die Tech­nik wird sich in na­her Zu­kunft per­fek­tio­nie­ren. Dann ist die di­gi­ta­le, syn­the­ti­sche Stim­me nicht mehr von der ech­ten zu un­ter­schei­den und es lässt sich von je­der Per­son, von der ge­nü­gend Stimm­auf­zeich­nun­gen zum Trai­nie­ren der Ler­nal­go­rith­men vor­lie­gen, ei­ne rea­lis­ti­sche Fäl­schung der Stim­me an­fer­ti­gen.

Da­mit wer­den in ab­seh­ba­rer Zeit gro­ße Tei­le der ge­spro­che­nen Te­le­kom­mu­ni­ka­ti­on ei­nem fun­da­men­ta­len Zwei­fel un­ter­lie­gen. Schließ­lich kann man nie wis­sen, ob man es nun mit ei­ner ech­ten Per­son oder doch mit ei­ner mit­tels Al­go­rith­mus nach­ge­bil­de­ten Stim­me zu tun hat. Und was für Au­dio­auf­zeich­nun­gen gilt, das gilt eben­so für die In­hal­te von Vi­de­os. Auch die­se kön­nen so gut ge­fälscht sein, dass der Un­ter­schied zum Ori­gi­nal kaum auf­fällt.

Zum ers­ten Mal brei­ter in der Öf­fent­lich­keit the­ma­ti­siert wur­de dies, als ein Nut­zer der Platt­form Red­dit un­ter dem Pseud­onym „Dee­pfakes“ein Por­no-Vi­deo ver­öf­fent­lich­te, bei dem das Ge­sicht der Dar­stel­le­rin durch je­nes der Schau­spie­le­rin Gal Ga­dot er­setzt wor­den war. Wei­te­re Pro­mi­nen­te wa­ren be­trof­fen, dar­un­ter auch Scarlett Johansson und Em­ma Wat­son. Dem Bei­spiel von „Dee­pfakes“folg­ten wei­te­re Nut­zer, die ei­ne Viel­zahl ge­fälsch­ter Por­no­Clips ins Netz stell­ten.

Noch ist die Er­stel­lung von Fa­ke-Au­di­os und -Vi­de­os mit ei­nem ge­wis­sen Auf­wand ver­bun­den. Mit fort­schrei­ten­der Ent­wick­lung der ent­spre­chen­den Tech­nik ist aber da­mit zu rech­nen, dass dies im­mer ein­fa­cher von­stat­ten ge­hen wird. Da­mit wird auch die Ver­brei­tung sol­cher Fa­ke-In­hal­te mas­siv an­stei­gen. Es las­sen sich dann nicht nur Fäl­schun­gen von Po­li­ti­kern oder Schau­spie­lern er­stel­len, son­dern auch von Be­kann­ten, Ex-Freun­den, Ar­beits­kol­le­gen oder Mit­schü­lern.

Pro­ble­ma­tisch ist, dass al­lein das Be­wusst­sein dar­über, dass Tex­te, Bil­der, Vi­de­os oder Au­di­os ge­fälscht sein könn­ten, nicht aus­reicht, um den da­mit ver­bun­de­nen Pro­ble­men zu be­geg­nen. Der aus der Ko­gni­ti­ons­psy­cho­lo­gie be­kann­te Be­stä­ti­gungs­feh­ler – auch „con­fir­ma­ti­on bi­as“ge­nannt – sorgt da­für, dass Men­schen sich ge­ra­de auf sol­che In­for­ma­tio­nen fo­kus­sie­ren, die ih­re Ein­stel­lun­gen und ihr Welt­bild be­stä­ti­gen. Da­von ab­wei­chen­de In­for­ma­tio­nen wer­den in­fra­ge ge­stellt – oder gleich ganz igno­riert. Ein ge­sell­schaft­li­cher Lern­pro­zess im Um­gang mit ech­ten und ge­fälsch­ten Nach­rich­ten ist des­halb not­wen­dig. Bis die­ser Lern­pro­zess voll­zo­gen ist, kön­nen ge­fälsch­te Vi­de­os das

Soft­ware kann ge­fälsch­te Vi­de­os zu­ver­läs­si­ger ent­lar­ven als der Mensch

Po­ten­zi­al ent­fal­ten, Cha­os an­zu­rich­ten: Au­to­ri­tä­re Staa­ten kön­nen über die ei­ge­nen Me­di­en­an­stal­ten Op­po­si­ti­ons­po­li­ti­ker und an­de­re un­lieb­sa­me Per­so­nen mit ge­fälsch­ten Vi­de­os dis­kre­di­tie­ren, ge­fälsch­te State­ments hoch­ran­gi­ger Po­li­ti­ker kön­nen di­plo­ma­ti­sche Kri­sen, im schlimms­ten Fal­le krie­ge­ri­sche Kon­flik­te aus­lö­sen. Aber auch Pri­vat­per­so­nen könn­ten kom­pro­mit­tie­ren­de Vi­de­os mit den Ge­sich­tern ih­rer Ex-Part­ner fäl­schen, Cy­ber­mob­bing kann durch Fa­ke-Vi­de­os ei­ne ver­schärf­te Di­men­si­on er­rei­chen. Den Mög­lich­kei­ten ge­ziel­ter Des­in­for­ma­ti­on sind dann kaum Gren­zen ge­setzt. Die Ver­wir­rung wird to­tal – mit weit­rei­chen­den Fol­gen für die po­li­ti­sche Kul­tur.

Da­mit po­li­ti­sche De­bat­ten und de­mo­kra­ti­sche Pro­zes­se zu ver­nünf­ti­gen Ent­schei­dun­gen und Er­geb­nis­sen füh­ren kön­nen, be­darf es ei­ner ge­mein­sam ge­teil­ten Auf­fas­sung von Wirk­lich­keit. Wur­de Wirk­lich­keit frü­her durch ver­gleichs­wei­se we­ni­ge Me­di­en auf­be­rei­tet, die ge­wis­sen jour­na­lis­ti­schen Nor­men un­ter­la­gen, so gibt es heu­te ei­ne Viel­zahl an Ver­brei­tungs­me­di­en, die nicht un­mit­tel­bar den Ko­di­zes des Pres­se­rechts un­ter­lie­gen und – im Zu­sam­men­spiel mit den Per­so­na­li­sie­rungs­me­tho­den der be­kann­ten So­ci­al-Me­dia-Platt­for­men – zu ei­ner Frag­men­tie­rung der öf­fent­li­chen Wahr­neh­mung füh­ren. Fa­ke-Me­di­en wer­den die­se Frag­men­tie­rung und die Be­lie­big­keit von Wirk­lich­keits­auf­fas­sun­gen wei­ter ver­stär­ken. Da­mit stel­len sie ein erns­tes Pro­blem für ei­ne funk­tio­nie­ren­de De­mo­kra­tie dar. Die Fra­ge ist: Kann die Ge­sell­schaft ler­nen, mit die­ser Un­si­cher­heit und Be­lie­big­keit um­zu­ge­hen?

In we­ni­gen Jah­ren wird weit­hin be­kannt sein, dass Vi­deo- und Au­dio­ma­te­ri­al ähn­lich leicht­hän­dig ge­fälscht wer­den kann wie Tex­te und Bil­der. Dann wird sich auch das Chao­s­po­ten­zi­al von Fa­ke-Me­di­en ver­rin­gern. Al­ler­dings kann im Zu­ge des­sen ei­ne Kul­tur des Miss­trau­ens ge­gen­über jeg­li­chen Nach­rich­ten ent­ste­hen, da selbst Me­di­en­an­stal­ten nie si­cher sein kön­nen, ob ih­nen zu­ge­spiel­tes Au­dio- oder Vi­deo­ma­te­ri­al echt oder ge­fälscht ist.

Es müs­sen an­ge­sichts der tech­ni­schen Mög­lich­kei­ten von Fa­ke-Me­di­en neue Be­wer­tungs­me­cha­nis­men für die Rich­tig­keit von In­for­ma­tio­nen ge­fun­den wer­den. Tech­ni­sche Ver­fah­ren, die – iro­ni­scher­wei­se – wie­der­um auf ma­schi­nel­lem Ler­nen ba­sie­ren, kön­nen Fäl­schun­gen iden­ti­fi­zie­ren. Sol­che Be­wer­tungs­me­cha­nis­men ler­nen an­hand von Trai­nings­da­tei­en Ei­gen­schaf­ten von vor­ab ge­kenn­zeich­ne­ten ge­fälsch­ten und ech­ten Vi­de­os zu er­ken­nen. An­schlie­ßend kann das er­lern­te Wis­sen auf an­de­re Vi­de­os an­ge­wen­det wer­den. Die Soft­ware lie­fert da­bei weit­aus ak­ku­ra­te­re Er­geb­nis­se als mensch­li­che Zu­schau­er. Ein wei­te­rer An­satz zur Er­ken­nung von Fäl­schun­gen liegt in der Ver­wen­dung der Block­chain-Tech­no­lo­gi­en. In der Block­chain könn­ten die „Fin­ger­ab­drü­cke“ve­ri­fi­zier­ter Vi­de­os de­zen­tral ge­spei­chert wer­den. Ma­ni­pu­la­tio­nen an ei­nem ve­ri­fi­zier­ten Vi­deo zö­gen ei­ne Ve­rän­de­rung die­ses Fin­ger­ab­drucks nach sich. Beim Ab­gleich des ver­än­der­ten Fin­ger­ab­drucks mit dem fäl­schungs­si­cher in der Block­chain ge­spei­cher­ten Fin­ger­ab­druck wür­de der Ma­ni­pu­la­ti­ons­ver­such auf­fal­len.

Die größ­te Be­dro­hung durch me­dia­le Fäl­schun­gen liegt in der Ero­si­on des ge­sell­schaft­li­chen Ver­trau­ens. Ob­wohl es wei­ter­hin Me­di­en ge­ben wird, die Nach­rich­ten auch in Zei­ten von ge­fälsch­ten News wahr­heits­ge­treu auf­be­rei­ten, wird die Pra­xis, die Echt­heit von Nach­rich­ten an­zu­zwei­feln, ein be­lieb­tes Mit­tel der Me­di­en­kri­tik wer­den. Den­noch – oder ei­gent­lich: ge­ra­de des­we­gen – wer­den se­riö­se Me­di­en als ver­läss­li­che Auf­be­rei­ter und Ver­mitt­ler von Er­eig­nis­sen für die de­mo­kra­ti­sche Wil­lens­bil­dung in Zu­kunft noch wich­ti­ger. Denn De­mo­kra­ti­en brau­chen ei­ne ge­mein­sa­me Wis­sens­ba­sis, um funk­tio­nie­ren zu kön­nen – ge­ra­de dann, wenn die Fäl­schung per­fekt wird.

FO­TO: PRI­VAT

Thi­lo Ha­gen­dorff, 30, ist Me­di­en­wis­sen­schaft­ler am In­ter­na­tio­na­len Zen­trum für Ethik in den Wis­sen­schaf­ten an der Uni­ver­si­tät Tübingen und Mit­glied im „Fo­rum Pri­vat­heit“.

Newspapers in German

Newspapers from Germany

© PressReader. All rights reserved.