Betrug mit KI:Geklonte Identitäten auf dem Vormarsch
Künstliche Intelligenz. Strafverfolgungsbehörden vor enormer Herausforderung
Auf einem Handybildschirm poppt eine Videonachricht auf: „Moin moin und viele Grüße aus meinem Urlaub. Ich habe hier Thomas Kreuzer von der Firma ABC Labs getroffen. Er wird sich in den nächsten Tagen mit einem Angebot bei euch melden“, sagt ein Mann, der aussieht und spricht wie Sven Kurras, KI-Experte bei der Firma „Risk Ident“.
Worte, die niemals tatsächlich ausgesprochen wurden. Sogenannte DeepfakeClips gelten als neue große Herausforderung für Strafverfolgungsbehörden. Deepfakes sind Videos, bei denen ein falsches Gesicht auf das Gesicht einer Person „montiert“wird. Dieses Gesicht übernimmt nicht nur die Gesten, sondern auch die Stimme und den Text. Wie häufig mithilfe von Deepfake-Clips in Österreich bzw. im deutschsprachigen Raum bereits Betrug begangen worden ist, steht nicht fest. „Es gibt keine Zahlen, wie viele Delikte es in Österreich bereits in Zusammenhang mit Künstlicher Intelligenz gibt“, sagt dazu Manuel Scherscher, Leiter der Abteilung für Wirtschaftskriminalität und Betrug im Bundeskriminalamt. Fest steht nur, dass die Anzahl der Betrugsdelikte im Internet grundsätzlich enorm steigt. Im
Jahr 2022 sind die angezeigten Straftaten im Bereich des Cybercrime um 30 Prozent auf mehr als 60.000 gestiegen. Bei Betrugsdelikten gab es ein Plus von 23 Prozent auf mehr als 27.600 Fälle, der Schaden belief sich auf 700 Millionen Euro.
Schwere Rückverfolgung
Je stärker sich KI im Bereich der Internetkriminalität durchsetzt, desto mehr sind auch Strafverfolgungsbehörden gefordert. „Die Täter agieren häufig aus dem Ausland, was die Rückverfolgbarkeit der Straftaten sowie den Zugriff auf die Täter sowie das entwendete Vermögen erschwert“, erklärt Scherscher.
Derzeit spielt die KI aber noch eine untergeordnete Rolle, betont KI-Experte Kurras. Kriminelle würden zumeist auf personalisierte Text-Nachrichten zurückgreifen, um ihre Opfer zu betrügen. „Die Masche mit der geklonten Stimme erfordert schon mehr Aufwand. Es ist heutzutage möglich, mithilfe von KI den Rhythmus, die Tonhöhe und die Emotion einer Stimme zu klonen.“Das Sprachmodell sei extrem flexibel und würde mittlerweile 29 Sprachen beherrschen. „Österreichische Dialekte sind aber noch nicht dabei“, sagt Kurras mit einem Lachen. Der Experte geht davon aus, dass dies nur mehr eine Frage der Zeit sei.
„Beim Erkennen von manipulierten Aufnahmen spielt auch das Bauchgefühl eine wichtige Rolle“Sven Kurras KI-Experte bei „Risk Ident“
Teilweise fehlerbehaftet
Auch wenn die Manipulation von Gesichtern, Stimmen, Videos und Dialogen mittlerweile gelingt, sei diese teilweise noch fehlerbehaftet. Es gibt Indikatoren, an denen man sich orientieren kann, sagt Kurras. „Unscharfe Übergänge zwischen Gesichtern und dem Hintergrund sind verdächtig, ebenso asymmetrische Brillen. Wenn Teile von Bildern oder Videos eine unterschiedliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“