Lasst Licht ins Dunkel der künstlichen Intelligenz
Man stelle sich vor, ein Auto, das
mit künstlicher Intelligenz (KI) gesteuert wird, kracht in ein anderes
Auto. Im Spital wird die Gewebeprobe eines automatisierten Systems falsch ausgewertet, der Arzt stellt daraufhin die falsche Diagnose und verordnet unnötigerweise eine Chemotherapie. Eine Frau bekommt eine Stelle nicht, für die sie bestens qualifiziert wäre, weil die Videoanalyse im Bewerbungsverfahren sie als „persönlich unzuverlässig“qualifiziert.
Was passiert, wenn künstliche Intelligenz nicht so gescheit ist,
wie der Name suggeriert, sondern Mist baut? Die drei Beispiele sind
keineswegs an den Haaren herbeigezogen: Lernende Maschinen werden schon jetzt in immer mehr
Alltagsbereichen eingesetzt, ohne dass ein Schild darüber informiert, dass KI im Spiel ist. Bisher konnten sich Menschen, die den Verdacht hatten, dadurch zu Schaden gekommen zu sein, jedoch kaum
wehren: Wie sollten sie nachweisen, dass die Maschine fehlerhaft gearbeitet hat, wo doch gar nicht
klar ist, was diese tut? Eine Grundeigenschaft von selbstlernenden Systemen ist nämlich, dass ihre Funktionsweise unklar ist. Oft handelt es sich um sogenannte Black Boxes. Damit greift die Produkthaftung nicht, geschädigte Menschen gehen leer aus.
Genau deshalb plant die EUKommission nun einen Schritt, der den Umgang mit KI in Europa und in Folge auch in anderen Teilen der Welt grundlegend ändern könnte: Nach dem Entwurf zum
AI Act, mit dem generell der Umgang mit KI in Europa erstmals geregelt werden soll, will die EUKommission nun auch die Produkthaftung anpassen: Menschen, die glauben, durch KI zu Schaden
gekommen zu sein, sollen von Herstellern eine Offenlegung von Daten und Prozessen verlangen können. Zum Beispiel sollen möglicherweise Geschädigte Einsicht in Datensätze bekommen können, mit denen die KI trainiert wurde,
und die Offenlegung technischer Dokumentationen anfordern und notfalls einklagen können, sofern
keine Geschäftsgeheimnisse verraten werden.
Das ist eine Revolution, da weder eine saubere Dokumentation
noch ein anderes einheitliches Qualitätsmanagement in der KIWelt üblich ist. Häufig herrscht das Motto: Alles ist möglich, ein
bisschen wie seinerzeit bei den Goldgräbern. Nun wird über die
Produkthaftung ein anderer Stil eingeführt, weil es im Schadensfall eine Verpflichtung zu Transparenz und Qualitätssicherung gibt. Somit wird sich die KI-Entwicklung in Unternehmen und in der
Wissenschaft verändern müssen. Das mag nicht allen gelegen kommen. Für das Vertrauen der Bevölkerung in eine mächtige Alltagstechnologie ist dieser Schritt jedoch unverzichtbar.