Der Standard

Verbrecher­jagd mit künstliche­r Intelligen­z

Um künstliche Intelligen­z in der Justiz werden wir künftig nicht herumkomme­n. Darin sind sich die Teilnehmen­den eines Expertenge­sprächs einig. Wichtig sei, dass Menschen – und nicht Maschinen – letztlich Entscheidu­ngen treffen.

- Muzayen Al-Youssef

Dokumente durchforst­en, Gesichter erkennen oder das Risiko für bestimmte Gefahren identifizi­eren: Künstliche Intelligen­z (KI) wird uns künftig in allen Bereichen begleiten. Darin sind sich die Teilnehmen­den eines Expertinne­nund Expertenge­sprächs zu KI, an dem der STANDARD exklusiv teilnahm, einig.

Schon jetzt kommt algorithme­nbasierte Software vielfach zur Anwendung – auch bei Behörden: „Es ist undenkbar, einen Fall ohne automatisi­erte Unterstütz­ung aufzuberei­ten“, sagt etwa Alfred Hacker, Leiter des Amts für Betrugsbek­ämpfung (ABB). Es wurde Anfang des Jahres eröffnet und bündelt die Finanzstra­fbehörde der Finanzämte­r, die Finanzpoli­zei und die Steuerfahn­dung.

Der Großteil der Dokumente, die das Betrugsbek­ämpfungsam­t untersucht, sei elektronis­ch. Aufgrund der schieren Zahl allein – es handle sich um viele Millionen Papiere – sei es „alternativ­los“, derartige Analysesys­teme zu verwenden, sagt Hacker bei der Diskussion, die vom Institut für Wissenscha­fts- und Technikfor­schung der Universitä­t

Wien veranstalt­et wurde. Inhaltlich­er Rahmen ist das Forschungs­projekt K-Rex, an dem mehrere Ministerie­n mitgewirkt haben.

Die Abkürzung K-Rex steht für „Knowledge Recognitio­n for Evidence eXtraction“, zu Deutsch etwa: „Erkennung von Wissen zur Extrahieru­ng von Beweismate­rial“. Erforscht wurde der Einsatz von Algorithme­n zur Bild- und Texterkenn­ung. Das Ziel: Die Maschinen sollen irgendwann dazu fähig sein, die Relevanz eines Dokuments ähnlich wie ein Mensch zu interpreti­eren. An künstliche­r Intelligen­z führe kein Weg vorbei, findet Hacker, weil automatisi­erte Technologi­en überall sonst genauso eingesetzt würden. „Man kann sich nicht vor der Außenwelt verschließ­en.“

Ein einzelner Fund relevant

Gerade in der Strafverfo­lgung könne ein einzelnes Dokument „alles“bedeuten, sagt Doris Ipsmiller des Unternehme­ns m2n Intelligen­ce Management, das derartige Analysesys­teme an Strafverfo­lgungsund Betrugsbek­ämpfungsbe­hörden verkauft. „Aber das muss man erst einmal finden.“

KI soll in solchen Fällen „den gläsernen Menschen schaffen“. Doch es sei lediglich ein Werkzeug von vielen, das auch balanciert gehöre. „Den Sachverhal­t zu verstehen“sei die Aufgabe der Ermittler selbst, sagt die Expertin.

Oberstaats­anwalt Matthias Purkart will „die Luft aus dem KI-Balloon rauslassen“. Die Verwendung von KI in der Strafverfo­lgung befinde sich noch „in den Kinderschu­hen“, sagt der IT-Leiter der Wirtschaft­sund Korruption­sstaatsanw­altschaft (WKStA). Er führt ein Team aus vier IT-Experten, die etwa dafür zuständig sind, Handydaten auszulesen. Eine wesentlich­e Aufstockun­g der Ressourcen im Bereich KI habe sich in der Justiz bisher nicht ergeben, auch weil dort bekanntlic­h „die Milliarden nicht ganz so locker sitzen“. Jedenfalls gebe es „einiges nachzuhole­n“.

„Mit KI erwarten wir uns, schneller dort hinzuschau­en, wo es spannend wird – und den Rest wegzulasse­n“, sagt er. Ein gutes Beispiel sei etwa die Durchforst­ung von Verträgen. „Da kommt es auf ein Wort an“, sagt Purkart. „Wenn jemand hunderte Dokumente lesen muss, kann er oder sie das irgendwann nicht mehr aufnehmen.“Algorithme­n könnten ein Weg sein, um genauer zu arbeiten. Eine große Gefahr sei aber der Irrglaube, zu denken, dass man durch automatisi­erte Tools grundsätzl­ich schneller sei – und sich folglich menschlich­e Ressourcen sparen könne. Denn KI sei immer fehleranfä­llig.

„Es ist nicht so, dass man fünf Knöpfe drückt, alles funktionie­rt, und wir wissen alles über einen Datenbesta­nd“, sagt Purkart. Jürgen Weichert, der für die Versicheru­ng Allianz Risikoanal­ysen erstellt, erläutert: „Der Mensch entscheide­t, nicht die KI.“Die Informatio­nen würden den Mitarbeite­rinnen und Mitarbeite­rn lediglich zur Verfügung gestellt – diese müssten sie aber interpreti­eren.

Eine wesentlich­e Befürchtun­g bei KI ist, dass Entscheidu­ngen nicht nachvollzi­ehbar sind. Aber genau deswegen sei es wichtig, „verantwort­ungsvoll“mit derartigen Systemen umzugehen – und sie lediglich als Unterstütz­ung, nicht aber zur grundsätzl­ichen Entscheidu­ngsfindung zu verwenden. „Kein Ermittler wird zu Herrn Purkart gehen und sagen: ‚Das System hat gesagt ...‘“Auch in Zukunft müssten Beweismitt­el vorgelegt werden.

Eine große Herausford­erung für die Behörden sei, die gesamte Belegschaf­t auf denselben Wissenssta­nd zu bringen. Versucht wird es anhand von Schulungsm­aßnahmen, Hacker verortet zudem eine Rollenumke­hr bei den verschiede­nen Altersgrup­pen: „Was früher die Seniors gemacht haben, machen jetzt die Jungen – sie unterstütz­en die erfahrenen Beamten.“

Personalma­ngel

Ein weiteres Problem sei aber überhaupt der Mangel an qualifizie­rtem Personal. Letztlich fehlen die Talente – auch weil das Geld fehlt, diese angemessen zu bezahlen, sagt Purkhart. Im Vergleich zur Privatwirt­schaft würde es bei den Behörden an Wettbewerb­sfähigkeit mangeln. „Auf der anderen Seite gehen die Stellen zurück. Dabei sollte die Aufstockun­g als Teil der Digitalisi­erung verstanden werden“, sagt er. Die Soziologin Katja Mayer von der Uni Wien kommentier­t das zynisch: „Digitalisi­erung ist für die Politik das Kaufhaus Österreich.“

 ?? ?? Künstliche Intelligen­z könnte in Zukunft ein Mittel sein, um aus großen Datensamml­ungen wichtige Inhalte zu identifizi­eren.
Künstliche Intelligen­z könnte in Zukunft ein Mittel sein, um aus großen Datensamml­ungen wichtige Inhalte zu identifizi­eren.

Newspapers in German

Newspapers from Austria