Kurier (Samstag)

Betrug mit KI:Geklonte Identitäte­n auf dem Vormarsch

Künstliche Intelligen­z. Strafverfo­lgungsbehö­rden vor enormer Herausford­erung

- VON STEPHANIE ANGERER

Auf einem Handybilds­chirm poppt eine Videonachr­icht auf: „Moin moin und viele Grüße aus meinem Urlaub. Ich habe hier Thomas Kreuzer von der Firma ABC Labs getroffen. Er wird sich in den nächsten Tagen mit einem Angebot bei euch melden“, sagt ein Mann, der aussieht und spricht wie Sven Kurras, KI-Experte bei der Firma „Risk Ident“.

Worte, die niemals tatsächlic­h ausgesproc­hen wurden. Sogenannte DeepfakeCl­ips gelten als neue große Herausford­erung für Strafverfo­lgungsbehö­rden. Deepfakes sind Videos, bei denen ein falsches Gesicht auf das Gesicht einer Person „montiert“wird. Dieses Gesicht übernimmt nicht nur die Gesten, sondern auch die Stimme und den Text. Wie häufig mithilfe von Deepfake-Clips in Österreich bzw. im deutschspr­achigen Raum bereits Betrug begangen worden ist, steht nicht fest. „Es gibt keine Zahlen, wie viele Delikte es in Österreich bereits in Zusammenha­ng mit Künstliche­r Intelligen­z gibt“, sagt dazu Manuel Scherscher, Leiter der Abteilung für Wirtschaft­skriminali­tät und Betrug im Bundeskrim­inalamt. Fest steht nur, dass die Anzahl der Betrugsdel­ikte im Internet grundsätzl­ich enorm steigt. Im

Jahr 2022 sind die angezeigte­n Straftaten im Bereich des Cybercrime um 30 Prozent auf mehr als 60.000 gestiegen. Bei Betrugsdel­ikten gab es ein Plus von 23 Prozent auf mehr als 27.600 Fälle, der Schaden belief sich auf 700 Millionen Euro.

Schwere Rückverfol­gung

Je stärker sich KI im Bereich der Internetkr­iminalität durchsetzt, desto mehr sind auch Strafverfo­lgungsbehö­rden gefordert. „Die Täter agieren häufig aus dem Ausland, was die Rückverfol­gbarkeit der Straftaten sowie den Zugriff auf die Täter sowie das entwendete Vermögen erschwert“, erklärt Scherscher.

Derzeit spielt die KI aber noch eine untergeord­nete Rolle, betont KI-Experte Kurras. Kriminelle würden zumeist auf personalis­ierte Text-Nachrichte­n zurückgrei­fen, um ihre Opfer zu betrügen. „Die Masche mit der geklonten Stimme erfordert schon mehr Aufwand. Es ist heutzutage möglich, mithilfe von KI den Rhythmus, die Tonhöhe und die Emotion einer Stimme zu klonen.“Das Sprachmode­ll sei extrem flexibel und würde mittlerwei­le 29 Sprachen beherrsche­n. „Österreich­ische Dialekte sind aber noch nicht dabei“, sagt Kurras mit einem Lachen. Der Experte geht davon aus, dass dies nur mehr eine Frage der Zeit sei.

„Beim Erkennen von manipulier­ten Aufnahmen spielt auch das Bauchgefüh­l eine wichtige Rolle“Sven Kurras KI-Experte bei „Risk Ident“

Teilweise fehlerbeha­ftet

Auch wenn die Manipulati­on von Gesichtern, Stimmen, Videos und Dialogen mittlerwei­le gelingt, sei diese teilweise noch fehlerbeha­ftet. Es gibt Indikatore­n, an denen man sich orientiere­n kann, sagt Kurras. „Unscharfe Übergänge zwischen Gesichtern und dem Hintergrun­d sind verdächtig, ebenso asymmetris­che Brillen. Wenn Teile von Bildern oder Videos eine unterschie­dliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“

 ?? ?? Mithilfe von Künstliche­r Intelligen­z können der Rhythmus, die Tonhöhe und die Emotion von Stimmen nachgeahmt werden
Mithilfe von Künstliche­r Intelligen­z können der Rhythmus, die Tonhöhe und die Emotion von Stimmen nachgeahmt werden
 ?? ??

Newspapers in German

Newspapers from Austria