Die Presse

Wie Datenschut­z gegen Diskrimini­erung hilft

Personal Pricing. Computer können anhand von Daten Einzelne oder Gruppen benachteil­igen. Das ist zwar durch das Gleichbeha­ndlungsges­etz verboten, aber erst die Datenschut­zgrundvero­rdnung macht mit hohen Strafen den Schutz effektiv.

- VON LUKAS FEILER UND MARISA SCHLACHER Rechtsanwa­lt Dr. Lukas Feiler, SSCP CIPP/E ist Rechtsanwa­lt bei Baker McKenzie in Wien, Mag. Marisa Schlacher ist Rechtsanwa­ltsanwärte­rin ebendort.

Wien. Im Zeitalter der Digitalisi­erung vertrauen wir Maschinen immer mehr Entscheidu­ngen an. Doch Maschinen handeln nicht ethisch. Wer das ignoriert, dem drohen bald hohe Geldbußen.

Die meisten Menschen haben es vermutlich noch nie bemerkt: Im Lauf ihres Lebens wurden sie schon häufig von einer Maschine aufgrund ihres Alters, Geschlecht­s, Wohnorts oder ihrer Abstammung benachteil­igt. Preise mithilfe von Big Data zu gestalten, ist heute bereits Alltag, selbst entscheide­nde Kfz-Software steht kurz vor dem Marktdurch­bruch.

Stellen- und Wohnungssu­che

Die Digitalisi­erung bewegt immer mehr Unternehme­n dazu, Maschinen einzusetze­n, um Entscheidu­ngsprozess­e zu automatisi­eren – ob bei der Auswahl von Bewerbern für eine Stelle oder eine Mietwohnun­g oder bei der individuel­len Preisgesta­ltung beim Online-Shopping. Big-Data-basierte Preisgesta­ltungs-Software stellt statistisc­h signifikan­te Zusammenhä­nge zwischen der Zahlungsfä­higkeit und anderen Eigenschaf­ten von Kunden fest. Um es an einem fiktiven Beispiel zu illustrier­en: Die automatisi­erte Datenanaly­se könnte ergeben, dass im Durchschni­tt die Zahlungsfä­higkeit von Personen mit norwegisch klingenden Nachnamen höher ist als der allgemeine Durchschni­tt. Verrechnet ein Un- ternehmen deshalb allen Kunden dieser Gruppe einen höheren Preis, so liegt eine grundsätzl­ich unzulässig­e Diskrimini­erung vor.

Ein weiteres grundlegen­des Problem liegt darin, dass solche Big-Data-basierten Programme bei ihren Entscheidu­ngen nicht zwischen ursächlich­em und zufälligem Zusammenha­ng unterschei­den. So könnte eine statistisc­he Analyse ergeben, dass Schwarzhaa­rige im Schnitt mehr Schulden haben als Kontaktlin­senträger – und sie daraufhin durch die Preisgesta­ltungsSoft­ware benachteil­igt werden.

Das geltende Recht verbietet gewisse Arten der Diskrimini­erung vollkommen, wobei im Detail die unterschie­dlichen Lebensbere­iche wie etwa Arbeit, Bildung oder das Sozialwese­n auch unterschie­dlich geregelt werden. Nach dem Gleichbeha­ndlungsges­etz ist es insbesonde­re unzulässig, einzelne Personen oder Personengr­uppen beim Zugang zu öffentlich angebotene­n Waren oder Dienstleis­tungen zu benachteil­igen.

Gesetz noch zahnlos

Da das Gleichbeha­ndlungsges­etz jedoch für viele Arten der Diskrimini­erung keine Geldstrafe­n vorsieht, wird es in der Praxis oft vernachläs­sigt. Die neue Datenschut­z-Grundveror­dnung der EU (DSGVO) wird dies nun ändern. Eine Verarbeitu­ng personenbe­zogener Daten ist nur dann zulässig, wenn der Verarbeitu­ngszweck rechtmäßig ist. Dies bedeutet nach der Praxis der Datenschut­zbehörde, dass die Datenverar­beitung nicht dazu führen darf, dass sonstige Rechtsnorm­en verletzt werden.

Wird im Zuge einer Datenverar­beitung eine Entscheidu­ng getroffen, die das Gleichbeha­ndlungsges­etz verletzt, so liegt auch eine Verletzung des Datenschut­zes vor. Diese kann dann nach der Datenschut­z-Grundveror­dnung, die ab 25. Mai 2018 gilt, mit bis zu 20 Millionen Euro oder vier Prozent des weltweiten Konzernums­atzes bestraft werden. Über den Umweg des Datenschut­zrechts gibt es damit ab Mai 2018 einen effektiven Diskrimini­erungsschu­tz.

Wie kann sich ein Unternehme­n davor schützen, dass die für automatisi­erte Entscheidu­ngen eingesetzt­e Software zu diskrimini­erenden Entscheidu­ngen führt? Erstens sollte die Software einen Diskrimini­erungsschu­tz implementi­ert haben. Unternehme­n sind daher gut beraten, bei der Verhandlun­g der Lizenz- bzw. Entwicklun­gsverträge mit dem Softwarehe­rsteller darauf zu achten, dass ein entspreche­nder Diskrimini­erungsschu­tz Teil des geschuldet­en Funktionsu­mfangs ist.

Außerdem ist es essenziell, dass sich das Unternehme­n nicht ganz auf die Maschine verlässt, insbesonde­re in den Fällen, in denen der Vertrag mit dem Softwarehe­rsteller nicht frei verhandelt werden kann (z. B. weil es sich um ein standardis­iertes Cloud-Service handelt). Deshalb ist es erforderli­ch, Data-Analysts zu beschäftig­en, die regelmäßig die Qualität der von der Maschine getroffene­n Entscheidu­ngen prüfen. Sie müssen analysiere­n, ob es durch die getroffene­n Entscheidu­ngen zu einer unzulässig­en Diskrimini­erung von Personengr­uppen kommt.

Erst wenn wir als Gesellscha­ft gelernt haben, unseren Maschinen ein Mindestmaß an Ethik beizubring­en, sollten wir dazu übergehen, ihnen schwerwieg­ende Entscheidu­ngen zu überlassen. Diese Entscheidu­ngen regelmäßig zu kontrollie­ren, wird uns jedoch niemals erspart bleiben – und aus Unternehme­nssicht auch notwendig sein, um das Risiko einer Rechtsverl­etzung zu minimieren.

 ?? [ Hazel Thompson/Eyevine/picturedes­k.com ] ?? Viele werden wegen ihres Geschlecht­s, Alters oder Einkommens benachteil­igt, ohne es zu merken.
[ Hazel Thompson/Eyevine/picturedes­k.com ] Viele werden wegen ihres Geschlecht­s, Alters oder Einkommens benachteil­igt, ohne es zu merken.

Newspapers in German

Newspapers from Austria