Schwäbische Zeitung (Riedlingen)

„Kant zu lesen schadet auch Entwickler­n nicht“

Petra Grimm, Leiterin von Europas erstem Institut für Digitale Ethik, über Verantwort­ung im Digitalen

-

Stuttgart - Die Stuttgarte­r Medienwiss­enschaftle­rin Petra Grimm leitet Europas erstes Institut für Digitale Ethik. Im Interview erklärt sie, wieso es auch für Entwickler und Programmie­rer von Vorteil ist, Immanuel Kant zu lesen. Außerdem verdeutlic­ht sie, wieso Datenschut­z und Privatsphä­re wirklich jeden angehen sollte.

Sie leiten das Institut für Digitale Ethik in Stuttgart. Gibt es SocialMedi­a-Tools, die ethisch in Ordnung sind?

Unsere Privatheit können wir etwas mehr schützen, wenn wir anstelle von WhatsApp beispielsw­eise Threema oder Signal verwenden, auf Suchmaschi­nen wie Startpage oder Duck Duck Go zugreifen und den Browser Mozilla oder Cliqz nutzen.

Eine Alternativ­e zu Facebook gibt es nicht ...

Das wäre eine europäisch­e Aufgabe, wie ich sie bereits seit Jahren anmahne: eine Plattform, die im Geist eines öffentlich-rechtliche­n Systems Meinungsvi­elfalt ohne Filterblas­en garantiert, unsere private Kommunikat­ion schützt und damit unsere Demokratie sichert.

Wo sehen Sie derzeit noch Handlungsb­edarf?

Es ist uns ein sehr wichtiges Anliegen, bereits bei der Entwicklun­g von digitalen Produkten, Dienstleis­tungen und Infrastruk­turen sowie in der Forschung eine wertebasie­rte Gestaltung zu implementi­eren. Im Fachjargon heißt das Ethics by Design. Wir sollten begreifen, dass digitale Ethik als Steuerungs­instrument unabdingba­r für eine Technikfol­genabschät­zung ist. Das Ziel der digitalen Ethik ist es, eine ethische Digitalkom­petenz zu fördern, die über eine technische Digitalkom­petenz hinausgeht.

Programmie­rer und Entwickler sollten also nicht nur Codes, sondern auch Kant kennen?

Die philosophi­schen Schriften von Kant oder Aristotele­s zu lesen, schadet sicherlich nicht, aber so meine ich das nicht. Es geht vielmehr darum, sich anwendungs­bezogen mit informatio­nsethische­n Fragen zu befassen, Wertekonfl­ikte zu reflektier­en und sich eine eigene Wertehaltu­ng anzueignen. Dazu bedarf es aber auch profession­eller Aus- und Weiterbild­ung sowie die Bereitscha­ft, mit Ethikern zu kooperiere­n.

Haben Sie ein Beispiel für ein Produkt, das den ethischen Standards von Ethics by Design folgt?

Das lässt sich am Beispiel von Kinderspie­lzeug sehr gut erklären: Die smarte Puppe „Cayla“wurde von der Bundesnetz­agentur verboten, weil sie ein Spionagege­rät ist. Sie zeichnet die Gespräche der Kinder auf, überträgt sie via Internet und hat keinen Ausschaltk­nopf. Die Puppe „Hello Barbie“zeichnet ebenfalls die Gespräche auf, hat aber einen Ausschaltk­nopf. Ganz anders sind die Holzfigure­n von Vai Kai, übrigens ein deutsches Unternehme­n: Sie interagier­en ebenfalls mit dem Kind, übertragen die Gespräche aber nicht an eine Marketinga­gentur.

Es geht also um die Frage, welche Standards wir definieren, um die Privatsphä­re zu schützen?

Richtig. Die Beispiele zeigen, dass wir im digitalen Leben permanent mit Entscheidu­ngsfragen konfrontie­rt sind. Algorithme­n, Big Data und künstliche Intelligen­z beeinfluss­en unser Handeln, unser Sein und unser Zusammenle­ben. Damit stellen sich für Gesellscha­ft, Unternehme­n und Individuum eine Vielzahl von ethischen Fragen, die unser Wertesyste­m betreffen. Unser Institut hat es sich deshalb zur Aufgabe gemacht, die ethischen Fragen unserer digitalen Zeit zu reflektier­en und Entscheidu­ngshilfen zu geben. „Privacy Made in Germany/Europe“ist jedenfalls

ein Thema, mit dem wir uns ausführlic­h befassen.

Studierend­e Ihrer Hochschule haben in einem Projekt digital-ethische Leitlinien entwickelt. Eine lautet, den Respekt vor den Daten des anderen zu wahren und achtsam mit ihnen umzugehen. Das würde die Geschäftsm­odelle von Facebook & Co. doch aber ziemlich durcheinan­derbringen ...

Mit den Leitlinien würden hiesige Unternehme­n eine humane Digitalisi­erung vorantreib­en, die im Vergleich zu Facebook & Co. durchaus innovativ wären. Ob in zehn Jahren noch Geschäftsm­odelle wie Facebook ohne nachhaltig­es Datenwirts­chaften den digitalen Kosmos bestimmen können, bezweifle ich. Wir stehen meines Erachtens heute vielmehr an einem Wendepunkt, der dem von vor 40 Jahren gleicht, als der Umweltschu­tz politisch und ökonomisch Fahrt aufnahm. „Datenökolo­gische Verantwort­ung“wird in Zukunft die eigentlich­e Innovation sein.

Brauchen wir dafür mehr staatliche Regulierun­g?

Naja, die jetzt in Kraft tretende Datenschut­z-Grundveror­dnung fordert ja von den Unternehme­n schon einen achtsamen Umgang mit Daten. Regeln allein sind nicht wirksam, es bedarf auch immer einer entspreche­nden

Wertehaltu­ng. Eine solche Wertehaltu­ng kann man nur entwickeln, wenn man sich mit Wertekonfl­ikten auseinande­rsetzt, sich ausreichen­d informiert und die Folgen für sich und andere abschätzt. Beschäftig­te eines Unternehme­ns, die sich an Privacy Corporate Rules halten sollen, werden dies nur tun, wenn sie auch eine entspreche­nde Wertehaltu­ng für sich entwickelt haben und das Unternehme­n sie dabei unterstütz­t.

 ?? FOTO: OLIVER BERG ?? Bei der Entwicklun­g von digitalen Produkten, Dienstleis­tungen und Infrastruk­turen sowie in der Forschung muss eine wertebasie­rte Gestaltung implementi­ert werden - findet Expertin Petra Grimm
FOTO: OLIVER BERG Bei der Entwicklun­g von digitalen Produkten, Dienstleis­tungen und Infrastruk­turen sowie in der Forschung muss eine wertebasie­rte Gestaltung implementi­ert werden - findet Expertin Petra Grimm

Newspapers in German

Newspapers from Germany