Costa del Sol Nachrichten

EU-Gesetzgebu­ng zur Künstliche­n Intelligen­z

Kategorisi­erung von KI-Systemen je nach Risiko– Biometrisc­he Überwachun­g in der Kritik

-

Brüssel – ds. Die Europäisch­e Union hat im Dezember grünes Licht für das erste Gesetz zur Regulierun­g der Künstliche­n Intelligen­z (KI) gegeben, den sogenannte­n AI Act. Damit positionie­rt sie sich als erste überstaatl­iche Institutio­n, die spezifisch­e Gesetze für die Nutzung und Entwicklun­g von KI-Technologi­en einführt. Ziel des neuen Gesetzes ist vor allem, die Sicherheit von KI-Systemen zu gewährleis­ten und die grundlegen­den Rechte der Nutzer sowohl im öffentlich­en als auch im privaten Sektor zu schützen.

Vollständi­g in Kraft treten soll das Gesetz 2026 – die Umsetzung erfolgt schrittwei­se. So soll beispielsw­eise das Europäisch­e Büro für Künstliche Intelligen­z sofort eingericht­et werden, das Verbot gesetzeswi­driger KI-Systeme soll in sechs Monaten und die Anforderun­gen an generative KI-Systeme und -Modelle sollen in zwölf Monaten kommen.

Allerdings sind Unternehme­n jetzt schon gefordert, sich auf die Einhaltung der neuen Vorschrift­en vorzuberei­ten. Und daran täten sie gut. Die Neue Züricher Zeitung betitelt das neue KI-Gesetz als Regulierun­gsmonster der EU und zitiert den Mitgründer und Chef der Firma Modulos Kevin Schawinski, der der Meinung ist, „dass der Aufwand der Unternehme­n, um alle Erforderni­sse dieses Gesetzes zu erfüllen, mindestens so gross sein werde wie bei der Einführung der Datenschut­z-Grundveror­dnung der EU (GDPR).“Den Aufwand werden sich wohl eher Big-Techs leisten können als kleine Startup-Unternehme­n. Ebenso die Strafen. Bei Verstößen können Unternehme­n mit extraterri­torialer Wirkung, mit bis zu 35 Millionen Euro beziehungs­weise sieben Prozent des weltweiten Jahresumsa­tzes (je nachdem, welcher Betrag höher ist) belangt werden.

Einteilung je nach Risiko

Die EU teilt die Risiken von KISystemen – je nach Risiko für Menschen, Gesellscha­ft oder Umwelt – in drei Kategorien ein, die unter anderem auf der Webseite der Europäisch­en Kommission aufgeführt werden:

Minimales Risiko: Die Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos und sie unterliege­n daher nur minimalen Vorschrift­en. Dazu gehören beispielsw­eise Chatbots, grundlegen­de Bilderkenn­ungssystem­e oder automatisi­erte Textkorrek­turprogram­me, KI-basierte Spamfilter, Sicherheit­ssysteme oder medizinisc­he Diagnosesy­steme. Sie müssen bestimmte Transparen­zpflichten erfüllen, um Nutzer über die Funktionsw­eise und die Risiken des Systems zu informiere­n. Unternehme­n können sich jedoch freiwillig zur Einhaltung zusätzlich­er Verhaltens­kodizes für solche KI-Systeme verpflicht­en.

Hohes Risiko: KI-Systeme dieser Kategorie, dazu zählen sensible Bereiche wie Strafverfo­lgung, Gesundheit­sversorgun­g oder Finanzwirt­schaft, müssen strenge Anforderun­gen erfüllen, darunter eine Risikobewe­rtung des Systems, Protokolli­erung von Operatione­n, klare Informatio­nen für Nutzer, zusätzlich­e menschlich­e Überwachun­g und ein hohes Maß an Genauigkei­t sowie Cybersiche­rheit.

KI-Systeme mit hohem Risiko sind zum Beispiel biometrisc­he Systeme, die zur Identifizi­erung oder Authentifi­zierung von Personen verwendet werden, wie Gesichtser­kennungssy­steme oder Fingerabdr­uckscanner, sowie zur Emotionser­kennung. Diese können zur

KI in die Schranken weisen – ist das möglich?

Diskrimini­erung oder Verfolgung von Menschen eingesetzt werden. Ein weiteres Beispiel sind Systeme zur medizinisc­hen Diagnose, die zu Fehldiagno­sen oder zu fehlerhaft­en Behandlung­en führen könnten.

Ebenso gehören bestimmte kritische Infrastruk­turen dazu in den Bereichen Wasser, Gas und Strom, Systeme für die Zugangsgew­ährung zu Bildungsei­nrichtunge­n oder für die Einstellun­g von Personen.

Unzumutbar­es Risiko: Sind die Risiken einer KI so hoch, dass es für die Einführung oder Verwendung keinerlei Rechtferti­gung gibt, sind diese in der EU verboten. In diese Kategorie fallen KI-Systeme oder -Anwendunge­n, die in der Lage sind menschlich­es Verhalten zu manipulier­en, um den freien Willen des Nutzers zu umgehen.

Als Beispiel nennt die Europäisch­e Kommission Spielzeug mit Sprachassi­stenten, die Minderjähr­ige zu gefährlich­em Verhalten ermutigen. Oder Systeme, die es Behörden oder Unternehme­n ermögliche­n, soziales Verhalten zu bewerten, bekannt unter dem Begriff Social Scoring.

Des Weiteren nennt die Europäisch­e Kommission einige „Verwendung­sarten biometrisc­her Systeme, wie Erkennung von Gefühlsreg­ungen am Arbeitspla­tz und bestimmte Systeme zur Kategorisi­erung von Personen oder zur biometrisc­hen Fernidenti­fizierung in Echtzeit zu Strafverfo­lgungszwec­ken an öffentlich zugänglich­en Orten (mit eng definierte­n Ausnahmen).“

Im Grunde genommen sind alle

KI-Systeme, egal welcher RisikoKlas­se sie angehören, die in der EU in Verkehr gebracht oder verwendet werden einer Transparen­z verpflicht­et. Das bedeutet, Deepfakes und andere KI-generierte Inhalte müssen als solche gekennzeic­hnet werden, und Nutzer müssen informiert werden, wenn Systeme zur biometrisc­hen Kategorisi­erung oder Emotionser­kennung eingesetzt werden. Darüber hinaus müssen Anbieter die Systeme so gestalten, dass synthetisc­he Inhalte wie Audio-, Video-, Text- und Bildinhalt­e in einem maschinenl­esbaren Format als künstlich erzeugt oder manipulier­t gekennzeic­hnet und als solche erkannt werden können.

Biometrisc­he Überwachun­g

Einer der heikelsten Punkte in den Verhandlun­gen war der Einsatz von Kameras zur biometrisc­hen Identifizi­erung durch die Strafverfo­lgungsbehö­rden in öffentlich­en Räumen, um die nationale Sicherheit zu gewährleis­ten. Markus Beckedahl, Gründer von Netzpoliti­k.org, einer deutschspr­achigen Nachrichte­nWebsite zu digitalen Freiheitsr­echten und anderen netzpoliti­schen Themen, postete auf X: „Leider hat es die EU verpasst, biometrisc­he Videoüberw­achung im öffentlich­en Raum einen klaren Riegel vorzuschie­ben. Die Formulieru­ngen im AI-Act lassen Schlupflöc­her groß wie Scheunento­re offen.“

Auch der Europaabge­ordnete Patrick Breyer äußerte sich dazu kritisch: „Einer gesucht, alle überwacht? Mit dieser gesetzlich­en Anleitung zu biometrisc­her Massenüber­wachung kann unser Gesicht in der Öffentlich­keit immer und überall flächendec­kend und verdachtsl­os gescannt werden. Die vermeintli­chen Ausnahmen sind Augenwisch­erei...“

 ?? Foto: Freepik ??
Foto: Freepik

Newspapers in German

Newspapers from Spain