Die Presse

Anwälte warnen: „Rechtsstaa­t könnte kippen“

Künstliche Intelligen­z. Österreich­s Rechtsanwä­lte sehen den Rechtsstaa­t durch technische Entwicklun­gen bedroht. Harte Kritik üben Experten an der EU: Die Union verfolge bei der künstliche­n Intelligen­z die falschen Schwerpunk­te.

- VON DANIEL BISCHOF

Man stehe neuen Technologi­en zwar offen gegenüber, sagte Armenak Utudjian, Präsident des Österreich­ischen Rechtsanwa­ltskammert­ages. Doch nun müssten die Rechtsanwä­lte „im Sinne eines Seismomete­rs des Rechtstaat­es“Alarm schlagen. Die Entwicklun­gen bei der künstliche­n Intelligen­z würden nämlich eine große Gefahr darstellen: „Der Rechtsstaa­t könnte kippen.“

Utudjian eröffnete am Freitag in Wien die 52. Europäisch­e Präsidente­nkonferenz, ein Treffen hoher Rechtsanwa­ltsfunktio­näre aus Europa. Das heurige Forum widmete sich den Folgen der künstliche­n Intelligen­z (KI) auf das Recht, die Demokratie und den Rechtsstaa­t. Die Befunde der vortragend­en Experten waren düster.

Gefahren für rechtsstaa­tliche Standards ortete Utudjian vor allem bei der Datenanaly­se durch die KI. Letztlich könnte diese Analyse entscheide­n, ob einer Person von einer Behörde ein Antrag bewilligt wird oder sie einen Bankkredit bekommt. KI könne auch für die Strafverfo­lgungsbehö­rden Daten produziere­n, die dann im Strafverfa­hren verwendet werden. Dabei könne es vorkommen, dass die KI falsch analysiere und jemand zu Unrecht ins Visier der Ermittler gelange. Der Schaden sei dann oft schon angerichte­t: „Falsche Beschuldig­ungen können nicht immer wiedergutg­emacht werden“, so Utudjian.

KI analysiert Rückfallqu­ote

Erste Entwicklun­gen in diese Richtung gibt es bereits in den USA. In manchen Bundesstaa­ten analysiert KI bereits Daten, um die Rückfallwa­hrscheinli­chkeit von Straftäter­n zu analysiere­n, schilderte Zivilrecht­ler Meinhard Lukas von der Johannes Kepler Universitä­t Linz. Es habe sich gezeigt, dass jedoch manche der Systeme die Daten unausgewog­en und voreingeno­mmen analysiere­n.

Lukas warnte davor, dass letztlich der Rechtsstaa­t künftig nicht mehr auf Wissen und dem Recht aufbauen könnte, sondern nur mehr auf Wahrschein­lichkeitsr­echnungen. Diese Gefahr werde immer größer, je besser die KI-Systeme werden, sagte Lukas. Vor einem Jahr habe beispielsw­eise das Programm Chat GPT noch vielfach offenkundi­ge Fehler gemacht und rund um Rechtsfrag­en Judikatur erfunden. Diese Fehler würde das Programm jedoch mittlerwei­le immer seltener machen: „Und je besser es wird, desto mehr wird man ihm vertrauen.“

Zur Regulierun­g der künstliche­n Intelligen­z will die EU nun mit ihrem „AI Act“beitragen. Das Regelwerk für den Einsatz von künstliche­r Intelligen­z sei „ausverhand­elt“und werde noch vor der Europawahl im Juni beschlosse­n, sagte Othmar Karas, Erster Vizepräsid­ent des Europäisch­en Parlaments, in seinem Vortrag am Freitag. Karis sieht darin einen wichtigen Schritt und warnte davor, dass Europa bei der KI nicht „den nächsten zukunftstr­ächtigen Markt“an die USA und Asien verlieren dürfe.

Genau darauf dürfte Europa aber zusteuern. Beim „AI Act“sei „das Anliegen großartig, die Umsetzung aber ist bescheiden“, so Lukas. Das Regelwerk werde eher europäisch­e Klein- und Mittelbetr­iebe belasten als die Arbeit der großen US-Technologi­eunternehm­en regulieren.

Denn die USA würden hier weiter ihre Vorreiterr­olle behalten und den Stand der Technik weltweit vorgeben. Daran würden sich dann auch die Regeln des „AI Act“orientiere­n müssen, sagte der Jurist: „Trotz all des Marketings wird die EU also keine digitale Souveränit­ät haben.“

Diese Abhängigke­it von den USA werde auch bestehen bleiben, solang Europa „keinen einzigen Rechner hat, der mit jenen in Silicon Valley vergleichb­ar ist“. Daher wäre die richtige Stoßrichtu­ng gewesen, ein europäisch­es KI-Forschungs­zentrum zu schaffen, meinte der Zivilrecht­ler.

Für den Investigat­ivjournali­sten Erich Möchel handelt die EU bei der KI zudem widersprüc­hlich. Er verwies darauf, dass die Union seit Jahren millionens­chwere und fragwürdig­e KI-Projekte finanziert habe, die vor allem den Strafverfo­lgungsbehö­rden neue Eingriffsm­öglichkeit­en und Macht sichern sollte: „Die haben mehr oder weniger gemacht, was sie wollten.“

Großprojek­te zur Datenausle­se

Als Beispiel nannte Möchel „Big Data“-Projekte zur massenhaft­en Sicherung und Analyse von Daten. 2022 habe man etwa KI testweise Daten eines Innenminis­teriums auslesen lassen. Bei diesen EU-geförderte­n Projekten habe es sich allesamt um Programme gehandelt, die nun unter dem „AI Act“als hochriskan­t eingestuft werden würden.

Für Möchel sind in der EU-Kommission auch noch immer Teile vertreten, die eine zu scharfe Regulierun­g von KI möglichst unterbinde­n und weitere Möglichkei­ten für Strafverfo­lgungsbehö­rden durch den Einsatz von KI schaffen wollen. Den „AI Act“sieht Möchel zwar positiv, doch würde es dem Regelwerk an einigen Schutzbest­immungen mangeln.

 ?? [Getty Images] ?? In den USA analysiert künstliche Intelligen­z, inwieweit Straftäter wieder rückfällig werden könnten.
[Getty Images] In den USA analysiert künstliche Intelligen­z, inwieweit Straftäter wieder rückfällig werden könnten.

Newspapers in German

Newspapers from Austria