Verbrecherjagd mit künstlicher Intelligenz
Um künstliche Intelligenz in der Justiz werden wir künftig nicht herumkommen. Darin sind sich die Teilnehmenden eines Expertengesprächs einig. Wichtig sei, dass Menschen – und nicht Maschinen – letztlich Entscheidungen treffen.
Dokumente durchforsten, Gesichter erkennen oder das Risiko für bestimmte Gefahren identifizieren: Künstliche Intelligenz (KI) wird uns künftig in allen Bereichen begleiten. Darin sind sich die Teilnehmenden eines Expertinnenund Expertengesprächs zu KI, an dem der STANDARD exklusiv teilnahm, einig.
Schon jetzt kommt algorithmenbasierte Software vielfach zur Anwendung – auch bei Behörden: „Es ist undenkbar, einen Fall ohne automatisierte Unterstützung aufzubereiten“, sagt etwa Alfred Hacker, Leiter des Amts für Betrugsbekämpfung (ABB). Es wurde Anfang des Jahres eröffnet und bündelt die Finanzstrafbehörde der Finanzämter, die Finanzpolizei und die Steuerfahndung.
Der Großteil der Dokumente, die das Betrugsbekämpfungsamt untersucht, sei elektronisch. Aufgrund der schieren Zahl allein – es handle sich um viele Millionen Papiere – sei es „alternativlos“, derartige Analysesysteme zu verwenden, sagt Hacker bei der Diskussion, die vom Institut für Wissenschafts- und Technikforschung der Universität
Wien veranstaltet wurde. Inhaltlicher Rahmen ist das Forschungsprojekt K-Rex, an dem mehrere Ministerien mitgewirkt haben.
Die Abkürzung K-Rex steht für „Knowledge Recognition for Evidence eXtraction“, zu Deutsch etwa: „Erkennung von Wissen zur Extrahierung von Beweismaterial“. Erforscht wurde der Einsatz von Algorithmen zur Bild- und Texterkennung. Das Ziel: Die Maschinen sollen irgendwann dazu fähig sein, die Relevanz eines Dokuments ähnlich wie ein Mensch zu interpretieren. An künstlicher Intelligenz führe kein Weg vorbei, findet Hacker, weil automatisierte Technologien überall sonst genauso eingesetzt würden. „Man kann sich nicht vor der Außenwelt verschließen.“
Ein einzelner Fund relevant
Gerade in der Strafverfolgung könne ein einzelnes Dokument „alles“bedeuten, sagt Doris Ipsmiller des Unternehmens m2n Intelligence Management, das derartige Analysesysteme an Strafverfolgungsund Betrugsbekämpfungsbehörden verkauft. „Aber das muss man erst einmal finden.“
KI soll in solchen Fällen „den gläsernen Menschen schaffen“. Doch es sei lediglich ein Werkzeug von vielen, das auch balanciert gehöre. „Den Sachverhalt zu verstehen“sei die Aufgabe der Ermittler selbst, sagt die Expertin.
Oberstaatsanwalt Matthias Purkart will „die Luft aus dem KI-Balloon rauslassen“. Die Verwendung von KI in der Strafverfolgung befinde sich noch „in den Kinderschuhen“, sagt der IT-Leiter der Wirtschaftsund Korruptionsstaatsanwaltschaft (WKStA). Er führt ein Team aus vier IT-Experten, die etwa dafür zuständig sind, Handydaten auszulesen. Eine wesentliche Aufstockung der Ressourcen im Bereich KI habe sich in der Justiz bisher nicht ergeben, auch weil dort bekanntlich „die Milliarden nicht ganz so locker sitzen“. Jedenfalls gebe es „einiges nachzuholen“.
„Mit KI erwarten wir uns, schneller dort hinzuschauen, wo es spannend wird – und den Rest wegzulassen“, sagt er. Ein gutes Beispiel sei etwa die Durchforstung von Verträgen. „Da kommt es auf ein Wort an“, sagt Purkart. „Wenn jemand hunderte Dokumente lesen muss, kann er oder sie das irgendwann nicht mehr aufnehmen.“Algorithmen könnten ein Weg sein, um genauer zu arbeiten. Eine große Gefahr sei aber der Irrglaube, zu denken, dass man durch automatisierte Tools grundsätzlich schneller sei – und sich folglich menschliche Ressourcen sparen könne. Denn KI sei immer fehleranfällig.
„Es ist nicht so, dass man fünf Knöpfe drückt, alles funktioniert, und wir wissen alles über einen Datenbestand“, sagt Purkart. Jürgen Weichert, der für die Versicherung Allianz Risikoanalysen erstellt, erläutert: „Der Mensch entscheidet, nicht die KI.“Die Informationen würden den Mitarbeiterinnen und Mitarbeitern lediglich zur Verfügung gestellt – diese müssten sie aber interpretieren.
Eine wesentliche Befürchtung bei KI ist, dass Entscheidungen nicht nachvollziehbar sind. Aber genau deswegen sei es wichtig, „verantwortungsvoll“mit derartigen Systemen umzugehen – und sie lediglich als Unterstützung, nicht aber zur grundsätzlichen Entscheidungsfindung zu verwenden. „Kein Ermittler wird zu Herrn Purkart gehen und sagen: ‚Das System hat gesagt ...‘“Auch in Zukunft müssten Beweismittel vorgelegt werden.
Eine große Herausforderung für die Behörden sei, die gesamte Belegschaft auf denselben Wissensstand zu bringen. Versucht wird es anhand von Schulungsmaßnahmen, Hacker verortet zudem eine Rollenumkehr bei den verschiedenen Altersgruppen: „Was früher die Seniors gemacht haben, machen jetzt die Jungen – sie unterstützen die erfahrenen Beamten.“
Personalmangel
Ein weiteres Problem sei aber überhaupt der Mangel an qualifiziertem Personal. Letztlich fehlen die Talente – auch weil das Geld fehlt, diese angemessen zu bezahlen, sagt Purkhart. Im Vergleich zur Privatwirtschaft würde es bei den Behörden an Wettbewerbsfähigkeit mangeln. „Auf der anderen Seite gehen die Stellen zurück. Dabei sollte die Aufstockung als Teil der Digitalisierung verstanden werden“, sagt er. Die Soziologin Katja Mayer von der Uni Wien kommentiert das zynisch: „Digitalisierung ist für die Politik das Kaufhaus Österreich.“