Wie Datenschutz gegen Diskriminierung hilft
Personal Pricing. Computer können anhand von Daten Einzelne oder Gruppen benachteiligen. Das ist zwar durch das Gleichbehandlungsgesetz verboten, aber erst die Datenschutzgrundverordnung macht mit hohen Strafen den Schutz effektiv.
Wien. Im Zeitalter der Digitalisierung vertrauen wir Maschinen immer mehr Entscheidungen an. Doch Maschinen handeln nicht ethisch. Wer das ignoriert, dem drohen bald hohe Geldbußen.
Die meisten Menschen haben es vermutlich noch nie bemerkt: Im Lauf ihres Lebens wurden sie schon häufig von einer Maschine aufgrund ihres Alters, Geschlechts, Wohnorts oder ihrer Abstammung benachteiligt. Preise mithilfe von Big Data zu gestalten, ist heute bereits Alltag, selbst entscheidende Kfz-Software steht kurz vor dem Marktdurchbruch.
Stellen- und Wohnungssuche
Die Digitalisierung bewegt immer mehr Unternehmen dazu, Maschinen einzusetzen, um Entscheidungsprozesse zu automatisieren – ob bei der Auswahl von Bewerbern für eine Stelle oder eine Mietwohnung oder bei der individuellen Preisgestaltung beim Online-Shopping. Big-Data-basierte Preisgestaltungs-Software stellt statistisch signifikante Zusammenhänge zwischen der Zahlungsfähigkeit und anderen Eigenschaften von Kunden fest. Um es an einem fiktiven Beispiel zu illustrieren: Die automatisierte Datenanalyse könnte ergeben, dass im Durchschnitt die Zahlungsfähigkeit von Personen mit norwegisch klingenden Nachnamen höher ist als der allgemeine Durchschnitt. Verrechnet ein Un- ternehmen deshalb allen Kunden dieser Gruppe einen höheren Preis, so liegt eine grundsätzlich unzulässige Diskriminierung vor.
Ein weiteres grundlegendes Problem liegt darin, dass solche Big-Data-basierten Programme bei ihren Entscheidungen nicht zwischen ursächlichem und zufälligem Zusammenhang unterscheiden. So könnte eine statistische Analyse ergeben, dass Schwarzhaarige im Schnitt mehr Schulden haben als Kontaktlinsenträger – und sie daraufhin durch die PreisgestaltungsSoftware benachteiligt werden.
Das geltende Recht verbietet gewisse Arten der Diskriminierung vollkommen, wobei im Detail die unterschiedlichen Lebensbereiche wie etwa Arbeit, Bildung oder das Sozialwesen auch unterschiedlich geregelt werden. Nach dem Gleichbehandlungsgesetz ist es insbesondere unzulässig, einzelne Personen oder Personengruppen beim Zugang zu öffentlich angebotenen Waren oder Dienstleistungen zu benachteiligen.
Gesetz noch zahnlos
Da das Gleichbehandlungsgesetz jedoch für viele Arten der Diskriminierung keine Geldstrafen vorsieht, wird es in der Praxis oft vernachlässigt. Die neue Datenschutz-Grundverordnung der EU (DSGVO) wird dies nun ändern. Eine Verarbeitung personenbezogener Daten ist nur dann zulässig, wenn der Verarbeitungszweck rechtmäßig ist. Dies bedeutet nach der Praxis der Datenschutzbehörde, dass die Datenverarbeitung nicht dazu führen darf, dass sonstige Rechtsnormen verletzt werden.
Wird im Zuge einer Datenverarbeitung eine Entscheidung getroffen, die das Gleichbehandlungsgesetz verletzt, so liegt auch eine Verletzung des Datenschutzes vor. Diese kann dann nach der Datenschutz-Grundverordnung, die ab 25. Mai 2018 gilt, mit bis zu 20 Millionen Euro oder vier Prozent des weltweiten Konzernumsatzes bestraft werden. Über den Umweg des Datenschutzrechts gibt es damit ab Mai 2018 einen effektiven Diskriminierungsschutz.
Wie kann sich ein Unternehmen davor schützen, dass die für automatisierte Entscheidungen eingesetzte Software zu diskriminierenden Entscheidungen führt? Erstens sollte die Software einen Diskriminierungsschutz implementiert haben. Unternehmen sind daher gut beraten, bei der Verhandlung der Lizenz- bzw. Entwicklungsverträge mit dem Softwarehersteller darauf zu achten, dass ein entsprechender Diskriminierungsschutz Teil des geschuldeten Funktionsumfangs ist.
Außerdem ist es essenziell, dass sich das Unternehmen nicht ganz auf die Maschine verlässt, insbesondere in den Fällen, in denen der Vertrag mit dem Softwarehersteller nicht frei verhandelt werden kann (z. B. weil es sich um ein standardisiertes Cloud-Service handelt). Deshalb ist es erforderlich, Data-Analysts zu beschäftigen, die regelmäßig die Qualität der von der Maschine getroffenen Entscheidungen prüfen. Sie müssen analysieren, ob es durch die getroffenen Entscheidungen zu einer unzulässigen Diskriminierung von Personengruppen kommt.
Erst wenn wir als Gesellschaft gelernt haben, unseren Maschinen ein Mindestmaß an Ethik beizubringen, sollten wir dazu übergehen, ihnen schwerwiegende Entscheidungen zu überlassen. Diese Entscheidungen regelmäßig zu kontrollieren, wird uns jedoch niemals erspart bleiben – und aus Unternehmenssicht auch notwendig sein, um das Risiko einer Rechtsverletzung zu minimieren.