Anwälte warnen: „Rechtsstaat könnte kippen“
Künstliche Intelligenz. Österreichs Rechtsanwälte sehen den Rechtsstaat durch technische Entwicklungen bedroht. Harte Kritik üben Experten an der EU: Die Union verfolge bei der künstlichen Intelligenz die falschen Schwerpunkte.
Man stehe neuen Technologien zwar offen gegenüber, sagte Armenak Utudjian, Präsident des Österreichischen Rechtsanwaltskammertages. Doch nun müssten die Rechtsanwälte „im Sinne eines Seismometers des Rechtstaates“Alarm schlagen. Die Entwicklungen bei der künstlichen Intelligenz würden nämlich eine große Gefahr darstellen: „Der Rechtsstaat könnte kippen.“
Utudjian eröffnete am Freitag in Wien die 52. Europäische Präsidentenkonferenz, ein Treffen hoher Rechtsanwaltsfunktionäre aus Europa. Das heurige Forum widmete sich den Folgen der künstlichen Intelligenz (KI) auf das Recht, die Demokratie und den Rechtsstaat. Die Befunde der vortragenden Experten waren düster.
Gefahren für rechtsstaatliche Standards ortete Utudjian vor allem bei der Datenanalyse durch die KI. Letztlich könnte diese Analyse entscheiden, ob einer Person von einer Behörde ein Antrag bewilligt wird oder sie einen Bankkredit bekommt. KI könne auch für die Strafverfolgungsbehörden Daten produzieren, die dann im Strafverfahren verwendet werden. Dabei könne es vorkommen, dass die KI falsch analysiere und jemand zu Unrecht ins Visier der Ermittler gelange. Der Schaden sei dann oft schon angerichtet: „Falsche Beschuldigungen können nicht immer wiedergutgemacht werden“, so Utudjian.
KI analysiert Rückfallquote
Erste Entwicklungen in diese Richtung gibt es bereits in den USA. In manchen Bundesstaaten analysiert KI bereits Daten, um die Rückfallwahrscheinlichkeit von Straftätern zu analysieren, schilderte Zivilrechtler Meinhard Lukas von der Johannes Kepler Universität Linz. Es habe sich gezeigt, dass jedoch manche der Systeme die Daten unausgewogen und voreingenommen analysieren.
Lukas warnte davor, dass letztlich der Rechtsstaat künftig nicht mehr auf Wissen und dem Recht aufbauen könnte, sondern nur mehr auf Wahrscheinlichkeitsrechnungen. Diese Gefahr werde immer größer, je besser die KI-Systeme werden, sagte Lukas. Vor einem Jahr habe beispielsweise das Programm Chat GPT noch vielfach offenkundige Fehler gemacht und rund um Rechtsfragen Judikatur erfunden. Diese Fehler würde das Programm jedoch mittlerweile immer seltener machen: „Und je besser es wird, desto mehr wird man ihm vertrauen.“
Zur Regulierung der künstlichen Intelligenz will die EU nun mit ihrem „AI Act“beitragen. Das Regelwerk für den Einsatz von künstlicher Intelligenz sei „ausverhandelt“und werde noch vor der Europawahl im Juni beschlossen, sagte Othmar Karas, Erster Vizepräsident des Europäischen Parlaments, in seinem Vortrag am Freitag. Karis sieht darin einen wichtigen Schritt und warnte davor, dass Europa bei der KI nicht „den nächsten zukunftsträchtigen Markt“an die USA und Asien verlieren dürfe.
Genau darauf dürfte Europa aber zusteuern. Beim „AI Act“sei „das Anliegen großartig, die Umsetzung aber ist bescheiden“, so Lukas. Das Regelwerk werde eher europäische Klein- und Mittelbetriebe belasten als die Arbeit der großen US-Technologieunternehmen regulieren.
Denn die USA würden hier weiter ihre Vorreiterrolle behalten und den Stand der Technik weltweit vorgeben. Daran würden sich dann auch die Regeln des „AI Act“orientieren müssen, sagte der Jurist: „Trotz all des Marketings wird die EU also keine digitale Souveränität haben.“
Diese Abhängigkeit von den USA werde auch bestehen bleiben, solang Europa „keinen einzigen Rechner hat, der mit jenen in Silicon Valley vergleichbar ist“. Daher wäre die richtige Stoßrichtung gewesen, ein europäisches KI-Forschungszentrum zu schaffen, meinte der Zivilrechtler.
Für den Investigativjournalisten Erich Möchel handelt die EU bei der KI zudem widersprüchlich. Er verwies darauf, dass die Union seit Jahren millionenschwere und fragwürdige KI-Projekte finanziert habe, die vor allem den Strafverfolgungsbehörden neue Eingriffsmöglichkeiten und Macht sichern sollte: „Die haben mehr oder weniger gemacht, was sie wollten.“
Großprojekte zur Datenauslese
Als Beispiel nannte Möchel „Big Data“-Projekte zur massenhaften Sicherung und Analyse von Daten. 2022 habe man etwa KI testweise Daten eines Innenministeriums auslesen lassen. Bei diesen EU-geförderten Projekten habe es sich allesamt um Programme gehandelt, die nun unter dem „AI Act“als hochriskant eingestuft werden würden.
Für Möchel sind in der EU-Kommission auch noch immer Teile vertreten, die eine zu scharfe Regulierung von KI möglichst unterbinden und weitere Möglichkeiten für Strafverfolgungsbehörden durch den Einsatz von KI schaffen wollen. Den „AI Act“sieht Möchel zwar positiv, doch würde es dem Regelwerk an einigen Schutzbestimmungen mangeln.