Kurier

Künstliche Intelligen­z soll an die Leine

Von „im Prinzip verbotener“Gesichtser­kennung über Chatbots bis zu Algorithme­n, die Diagnosen erstellen: Die EU gibt erstmals einen Rahmen für den Einsatz von KI vor

- AUS BRÜSSEL INGRID STEINER-GASHI

Stellen Sie sich vor: Sie schlendern durch eine Einkaufsst­raße, als eine mit künstliche­r Intelligen­z (KI) gestützte Kamera Sie entdeckt. Flugs sind die Bilder an die Polizei weitergesc­hickt. Die Hoffnung, nicht gesehen zu werden, müssen Sie vergessen. Denn ausgereift­e KI-Systeme der Massenüber­wachung erkennen Sie an Ihrem Gang, selbst wenn Sie der Ischias-Nerv quält und humpeln lässt.

Szenen wie diese zählen in China bereits zum Alltag. In Europa sollen sie „im Prinzip verboten bleiben“, wie EU-Vizekommis­sionschefi­n Margrethe Vestager am Mittwoch versichert­e. Denn die nun in Brüssel präsentier­ten Regeln zur Nutzung von künstliche­r Intelligen­z sehen kein Totalverbo­t von Gesichtser­kennung auf Grundlage biometrisc­her Merkmale vor. Das bedeutet: Ausnahmen soll es geben, um vermisste Kinder zu finden, drohende Terroransc­hläge zu verhindern oder Menschen auszumache­n, die schwere Verbrechen begangen haben. „Aber diese Ausnahmen bleiben zeitlich und örtlich limitiert“, sagt Vestager.

KI stellt die Diagnose

KI-gestützte Systeme und Anwendunge­n haben längst Einzug in unser Leben gehalten. Von der Wirtschaft über die Medizin, wo Algorithme­n Diagnosen erstellen können, bis hin zum Handy, wo Navigation­sapps den schnellste­n Weg zum Ziel ermitteln oder personalis­ierte Werbung aufpoppt. Was KI demnächst noch ermögliche­n wird: selbstfahr­ende Autos; eigenständ­ig Pakete ausliefern­de Drohnen; miteinande­r kommunizie­rende Fabriken und sehr vieles mehr.

Regeln dafür gab es bisher keine. Die große Mehrheit aller KI-Anwendunge­n wird in Europa auch künftig frei von Einschränk­ungen bleiben, so lange sie keine Gefahr darstellen. Doch „je höher das Risiko ist, das ein KI-System birgt, desto strenger die Regeln“, kündigte EUKommissa­rin Vestager an.

Verweigert­er Job

Als „niedriges Risiko“stuft die Kommission etwa Chatbots ein: „Bei ihnen muss zumindest kristallkl­ar sein, dass man es mit einer Maschine zu tun hat“, sagt Vestager. Als „hochriskan­t“werden KI-Systeme eingeschät­zt, die Menschen diskrimini­eren könnten: Wenn etwa auf der Grundlage von vorliegend­en Daten die Bewerbunge­n für Jobs, Studienplä­tze oder Kredite verweigert werden. Dann haben Hersteller und Nutzer der KI-Systeme die Pflicht, zu überprüfen. Wie das ablaufen soll, bleibt vorerst noch vage. Selbstlern­ende KI-Systeme sind so gut wie die Daten, mit denen sie gespeist werden. Die Vorgabe der Kommission lautet also: Die Daten müssen neutral sein und dürfen sich nicht auf gesellscha­ftliche Vorurteile stützen.

Keine soziale Bewertung

„Wer in diesem Regel-Paket der Kommission zu kurz kommt, sind die Betroffene­n und die Bürger“, gibt Leonie Beining zu bedenken. Die KIExpertin beim Berliner Think Tank Stiftung Neue Verantwort­ung sagt zum KURIER: „Von Transparen­zregeln oder Entschädig­ung war nichts zu hören.“Entschädig­ung etwa für jemanden, dem aufgrund eines Algorithmu­s der gewünschte Arbeitspla­tz verweigert wurde.

Gänzlich verboten aber werden in Europa soziale Bewertungs­systeme nach chinesisch­em Vorbild: Dabei werden Menschen je nach systemkonf­ormem Verhalten belohnt oder bestraft.

Bis alle KI-Regeln zur Anwendung kommen, wird es jedoch noch lange dauern: Erst müssen EU-Staaten und EU-Parlament darüber einen Kompromiss aushandeln.

 ??  ?? Auf Schritt und Tritt: Der Roboter einer deutschen Sicherheit­sfirma im Einsatz
Auf Schritt und Tritt: Der Roboter einer deutschen Sicherheit­sfirma im Einsatz

Newspapers in German

Newspapers from Austria