Schwäbische Zeitung (Riedlingen)
„Kant zu lesen schadet auch Entwicklern nicht“
Petra Grimm, Leiterin von Europas erstem Institut für Digitale Ethik, über Verantwortung im Digitalen
Stuttgart - Die Stuttgarter Medienwissenschaftlerin Petra Grimm leitet Europas erstes Institut für Digitale Ethik. Im Interview erklärt sie, wieso es auch für Entwickler und Programmierer von Vorteil ist, Immanuel Kant zu lesen. Außerdem verdeutlicht sie, wieso Datenschutz und Privatsphäre wirklich jeden angehen sollte.
Sie leiten das Institut für Digitale Ethik in Stuttgart. Gibt es SocialMedia-Tools, die ethisch in Ordnung sind?
Unsere Privatheit können wir etwas mehr schützen, wenn wir anstelle von WhatsApp beispielsweise Threema oder Signal verwenden, auf Suchmaschinen wie Startpage oder Duck Duck Go zugreifen und den Browser Mozilla oder Cliqz nutzen.
Eine Alternative zu Facebook gibt es nicht ...
Das wäre eine europäische Aufgabe, wie ich sie bereits seit Jahren anmahne: eine Plattform, die im Geist eines öffentlich-rechtlichen Systems Meinungsvielfalt ohne Filterblasen garantiert, unsere private Kommunikation schützt und damit unsere Demokratie sichert.
Wo sehen Sie derzeit noch Handlungsbedarf?
Es ist uns ein sehr wichtiges Anliegen, bereits bei der Entwicklung von digitalen Produkten, Dienstleistungen und Infrastrukturen sowie in der Forschung eine wertebasierte Gestaltung zu implementieren. Im Fachjargon heißt das Ethics by Design. Wir sollten begreifen, dass digitale Ethik als Steuerungsinstrument unabdingbar für eine Technikfolgenabschätzung ist. Das Ziel der digitalen Ethik ist es, eine ethische Digitalkompetenz zu fördern, die über eine technische Digitalkompetenz hinausgeht.
Programmierer und Entwickler sollten also nicht nur Codes, sondern auch Kant kennen?
Die philosophischen Schriften von Kant oder Aristoteles zu lesen, schadet sicherlich nicht, aber so meine ich das nicht. Es geht vielmehr darum, sich anwendungsbezogen mit informationsethischen Fragen zu befassen, Wertekonflikte zu reflektieren und sich eine eigene Wertehaltung anzueignen. Dazu bedarf es aber auch professioneller Aus- und Weiterbildung sowie die Bereitschaft, mit Ethikern zu kooperieren.
Haben Sie ein Beispiel für ein Produkt, das den ethischen Standards von Ethics by Design folgt?
Das lässt sich am Beispiel von Kinderspielzeug sehr gut erklären: Die smarte Puppe „Cayla“wurde von der Bundesnetzagentur verboten, weil sie ein Spionagegerät ist. Sie zeichnet die Gespräche der Kinder auf, überträgt sie via Internet und hat keinen Ausschaltknopf. Die Puppe „Hello Barbie“zeichnet ebenfalls die Gespräche auf, hat aber einen Ausschaltknopf. Ganz anders sind die Holzfiguren von Vai Kai, übrigens ein deutsches Unternehmen: Sie interagieren ebenfalls mit dem Kind, übertragen die Gespräche aber nicht an eine Marketingagentur.
Es geht also um die Frage, welche Standards wir definieren, um die Privatsphäre zu schützen?
Richtig. Die Beispiele zeigen, dass wir im digitalen Leben permanent mit Entscheidungsfragen konfrontiert sind. Algorithmen, Big Data und künstliche Intelligenz beeinflussen unser Handeln, unser Sein und unser Zusammenleben. Damit stellen sich für Gesellschaft, Unternehmen und Individuum eine Vielzahl von ethischen Fragen, die unser Wertesystem betreffen. Unser Institut hat es sich deshalb zur Aufgabe gemacht, die ethischen Fragen unserer digitalen Zeit zu reflektieren und Entscheidungshilfen zu geben. „Privacy Made in Germany/Europe“ist jedenfalls
ein Thema, mit dem wir uns ausführlich befassen.
Studierende Ihrer Hochschule haben in einem Projekt digital-ethische Leitlinien entwickelt. Eine lautet, den Respekt vor den Daten des anderen zu wahren und achtsam mit ihnen umzugehen. Das würde die Geschäftsmodelle von Facebook & Co. doch aber ziemlich durcheinanderbringen ...
Mit den Leitlinien würden hiesige Unternehmen eine humane Digitalisierung vorantreiben, die im Vergleich zu Facebook & Co. durchaus innovativ wären. Ob in zehn Jahren noch Geschäftsmodelle wie Facebook ohne nachhaltiges Datenwirtschaften den digitalen Kosmos bestimmen können, bezweifle ich. Wir stehen meines Erachtens heute vielmehr an einem Wendepunkt, der dem von vor 40 Jahren gleicht, als der Umweltschutz politisch und ökonomisch Fahrt aufnahm. „Datenökologische Verantwortung“wird in Zukunft die eigentliche Innovation sein.
Brauchen wir dafür mehr staatliche Regulierung?
Naja, die jetzt in Kraft tretende Datenschutz-Grundverordnung fordert ja von den Unternehmen schon einen achtsamen Umgang mit Daten. Regeln allein sind nicht wirksam, es bedarf auch immer einer entsprechenden
Wertehaltung. Eine solche Wertehaltung kann man nur entwickeln, wenn man sich mit Wertekonflikten auseinandersetzt, sich ausreichend informiert und die Folgen für sich und andere abschätzt. Beschäftigte eines Unternehmens, die sich an Privacy Corporate Rules halten sollen, werden dies nur tun, wenn sie auch eine entsprechende Wertehaltung für sich entwickelt haben und das Unternehmen sie dabei unterstützt.