Schwäbische Zeitung (Tettnang)
EU bekommt einheitliches Regelwerk für KI
Einsatz von Künstlicher Intelligenz künftig abhängig von Risikokriterien – Verbände befürchten neue Hürden
STRASSBURG (AFP) - Ob in der Videoüberwachung, Spracherkennung oder bei der Auswertung von Finanzdaten: Für den Einsatz von Künstlicher Intelligenz (KI) bekommt die Europäische Union ein einheitliches Regelwerk, das abhängig von Risikokriterien Vorschriften für die Nutzung aufstellt und bestimmte Anwendungen verbietet. Das Europaparlament hat das KI-Gesetz am Mittwoch abgesegnet. In Brüssel gilt das Regelwerk als „historisch“, Wirtschaftsverbände befürchten Einschränkungen für KI-Startups.
Wo wird der Einsatz von KI verboten?
Verboten sind künftig KI-Systeme, die Menschen nach Kriterien wie ihren politischen und religiösen Ansichten, ihrer sexuellen Orientierung oder der Hautfarbe in Gruppen einteilen. Außerdem werden in China bereits übliche sogenannte Sozialkredit-Systeme verboten, die auf das Verhalten oder persönliche Eigenschaften abzielen. Unternehmen dürfen KI nicht einsetzen, um die Gefühle ihrer Beschäftigten zu erfassen. Die Technologie darf zudem nicht genutzt werden, um Menschen gegen ihren Willen zu beeinflussen. Betroffene dürfen durch die Nutzung zudem nicht etwa wegen ihres Alters, einer Behinderung oder ihrer finanziellen Situation benachteiligt werden.
Was gilt für Gesichtserkennungs-Technologien?
Die Polizei und andere Sicherheitsbehörden
in Europa dürfen die KI-gesteuerte Gesichtserkennung an öffentlichen Orten nutzen, wenn eine richterliche Anordnung vorliegt. Solche Systeme wurden in Deutschland bereits etwa am Berliner Bahnhof Südkreuz getestet. Bei aufgezeichnetem Videomaterial darf die Technologie für die Fahndung nach Verurteilten oder Verdächtigten schwerer Straftaten verwendet werden. Verfolgen die Beamten das Videomaterial in Echtzeit, sind KI-Systeme auch für die Suche nach Opfern von Menschenhandel und sexueller Gewalt erlaubt. Außerdem dürfen sie die Gesichtserkennung zur „Verhinderung einer konkreten und akuten Terrorgefahr“nutzen.
Welche Anwendungen gelten als „hohes Risiko“?
Für die Nutzung von Künstlicher Intelligenz in Sicherheitsbehörden stellt das Gesetz grundsätzlich ein „hohes Risiko“für Menschenrechtsverletzungen fest. Das gleiche gilt für Anwendungen bei kritischer Infrastruktur und in der Personalverwaltung. Zu den sogenannten HochrisikoAnwendungen gehören zudem Systeme, die Wahlen beeinflussen können.
In diesen Fällen soll deshalb in letzter Instanz ein Mensch die Kontrolle über die Entscheidungen der KI haben. Zudem schreibt das Gesetz eine technische Dokumentation und ein System zum Risikomanagement vor. Betroffene sollen bei den Behörden Beschwerde gegen die Nutzung der KI einreichen können.
Wie wird die Qualität der Systeme sichergestellt?
Entwicklerinnen und Entwickler müssen künftig klar kennzeichnen, wenn Texte, Bilder oder Videos auf Künstlicher Intelligenz beruhen. Das gilt auch für Beiträge in Online-Plattformen wie Facebook, Instagram oder X. In der Praxis ist das Fachleuten zufolge jedoch schwierig zu überprüfen.
Neue Systeme sollen mit ausgewogenen Datensätzen entwickelt und trainiert werden. Die Behörden sollen KI-Startups deshalb Zugang zu realen Testbedingungen ermöglichen, bevor eine Anwendung auf den Markt kommt. Das Gesetz soll zudem dafür sorgen, dass dabei keine Urheberrechte verletzt werden.
Was befürchtet die Industrie?
Industrieverbände befürchten, dass die neuen Regeln für zu hohe Hürden bei der Entwicklung neuer KI-Anwendungen sorgen. Europäische Unternehmen könnten dadurch Nachteile im Wettbewerb mit der Konkurrenz aus den USA und aus China haben, warnte etwa der Bundesverband der Deutschen Industrie.
Mehrere europäische Regierungen fürchteten etwa um den Fortschritt von Startups wie Aleph Alpha aus Deutschland und Mistral AI in Frankreich. Die Verhandlungen über das neue Gesetz dauerten deshalb fast drei Jahre.
Welche Strafen drohen den Unternehmen?
Bei Verstößen gegen das KI-Gesetz drohen Strafen in Millionenhöhe. Für den Einsatz einer verbotenen Technologie kann die EUKommission Zahlungen von bis zu 35 Millionen Euro oder sieben Prozent des weltweiten Jahresumsatz eines Unternehmens verlangen. Wer gegen andere Bestimmungen des Gesetzes verstößt, muss mit Strafen in Höhe von bis zu 15 Millionen Euro oder drei Prozent des Jahresumsatzes rechnen.
Die neuen Regeln gelten allerdings erst ab dem Frühjahr 2026. Bis dahin setzt die Kommission auf freiwillige Absprachen mit den Unternehmen. Kritiker befürchten allerdings, dass die EUVorgaben in zwei Jahren bereits wieder veraltet sein könnten.