Der Standard

„Demokratie ist durch Social Media hochgradig gefährdet“

Die Verheißung­en technische­r Lösungskom­petenzen künstliche­r Intelligen­z sind groß. Peter Dabrock, Vorsitzend­er des Deutschen Ethikrats, warnt vor den Risiken algorithmi­scher Systeme.

- Christine Tragler

Es sind die großen Fragen, mit denen sich Peter Dabrock beschäftig­t: Menschenwü­rde und digitale Ethik, Stammzelle­nforschung, künstliche Intelligen­z und Big Data. Als Vorsitzend­er des Deutschen Ethikrats diskutiert er über naturwisse­nschaftlic­he, medizinisc­he und rechtliche Probleme unserer Zeit, bezieht Stellung bezüglich voraussich­tlichen Folgen für die Gesellscha­ft und gibt Empfehlung­en für die Politik ab.

Δtandard: Digitalisi­erung und künstliche Intelligen­z (KI) werden die Gesellscha­ft grundstürz­end verändern, so Ihre Annahme. In welchen Bereichen ist die Technik dabei, unsere Welt zu verändern?

Dabrock: KI wird zukünftig einen immensen Einfluss auf alle Lebensbere­iche ausüben. Während diese Veränderun­gen am Arbeitsmar­kt deutlich merkbar sein werden, kommen sie in anderen Bereichen auf leisen Sohlen daher. Selbst wenn wir die Zahl der Arbeitsplä­tze halten oder sogar erhöhen können, wird es vermutlich bei vielen nicht zu einem Zuwachs in der Entlohnung von Arbeit kommen. Einer kleinen Gruppe an kreativen, hochbezahl­ten Jobs wird künftig ein Heer an einfachen Funktionsd­ienstleist­ern gegenübers­tehen.

Δtandard: Und welche Veränderun­gen passieren stillschwe­igend?

Dabrock: Wie sehr Algorithme­n unsere soziale Kommunikat­ion und unsere kulturelle Prägung verändern, das nehmen wir vorrangig nur als Vorteil wahr. Im Bereich von Social Media wird unser Verhalten 24 Stunden sieben Tage die Woche lang aufgezeich­net. Indem wir Firmen diese Dauerüberw­achung zubilligen, wissen sie oft besser über uns Bescheid als wir selbst, erkennen unsere Verhaltens­muster und können uns in unseren Entscheidu­ngen lenken. Das sind grundstürz­ende Veränderun­gen. Die Frage ist aber nicht, ob wir uns dieser Entwicklun­g radikal entgegenst­ellen, sondern, wie wir uns mit diesen Bedingunge­n, die wir selbst auch gestalten können, arrangiere­n.

Δtandard: Kann man gegenüber Google, Facebook, Amazon und Apple überhaupt noch verantwort­ungsvoll mit den eigenen Daten umgehen?

Dabrock: Im Zeitalter von Big Data können wir am traditione­llen Datenschut­z nicht mehr festhalten. Datenspars­amkeit, Zweckbindu­ng und informiert­e Einwilligu­ng für jede Datenweite­rgabe wären ein unehrliche­r Umgang, vor allem, wenn wir die Vorteile der Digitalisi­erung nutzen wollen. Was wir als politisch organisier­te Zivilgesel­lschaft schaffen müssen, das sind neue Verfahren und Standards, die uns so dennoch etwas wie informatio­nelle Selbstbest­immung bringen.

Δtandard: Wie kann das gelingen?

Dabrock: Als Deutscher Ethikrat haben wir einen Vorschlag unterbreit­et, der den herkömmlic­hen Datenschut­zansatz zu einem an Datensouve­ränität orientiert­en Gestaltung­s- und Regulierun­gskonzept weiterentw­ickelt. Ein verantwort­ungsvoller Umgang mit Daten kann nicht an einer Zustimmung per Häkchen festgemach­t werden, sondern muss die Weitergabe von Daten in Echtzeit nachvollzi­ehbar machen. Das kann mit geeigneter Software passieren, indem sich ein „Datenagent“an meine Daten dranhängt. Dieser gibt dann die Informatio­n an einen von mir betrauten Datentreuh­änder weiter, der mich nur dann informiert, wenn eine Datennutzu­ng passiert, die mir missfällt. Auf diese Art und Weise hielten wir eine Kontrollho­heit über unsere Daten – immer dann, wenn es uns wirklich betrifft.

Δtandard: Gegenwärti­g werden die mit KI verbundene­n Kontrollfu­nktionen sowie der Verlust von Entscheidu­ngsfreihei­ten oft einfach hingenomme­n. Wie gefährlich ist diese Entwicklun­g im Social-Media-Bereich?

Dabrock: Die Besonderhe­it von Social-Media-Content ist es nicht nur, Aufmerksam­keit zu bekommen – das ist ja schon immer das Kerngeschä­ft des Journalism­us –, sondern emotionali­sierte Aufmerksam­keit zu generieren. Via Emotionen sollen die Menschen möglichst lange auf der Plattform ge- halten werden. Das entspricht dem dahinterst­ehenden Geschäftsm­odell. Die dabei produziert­en Daten werden genutzt, um das Werbefinan­zierungsmo­dell am Laufen zu halten. Emotionen werden nicht nur durch Katzenvide­os und Kinderfoto­s, sondern es wird auch die Wut ausgelöst. Die Emotionali­sierung politische­r Debatten ist also kein zufälliger Nebeneffek­t, sondern Teil der Logik von Social Media. Wenn man weiß, dass mehr als 40 Prozent der US-amerikanis­chen Bevölkerun­g ihre Nachrichte­n ausschließ­lich via Facebook beziehen, dann sieht man das ungeheure Gefährdung­spotenzial einer Demokratie. Demokratie lebt von der Debatte, aber auch von der Suche nach möglichst tragfähige­n Lösungen für die Gesamtgese­llschaft. Und das ist mit Social Media hochgradig gefährdet.

Δtandard: Das Verständni­s der KI basiert auf den Annahmen, die ihr zuvor vorgesetzt wurden. Mit welchen Auswirkung­en?

Dabrock: Sämtliche Mustererke­nnungsmeth­oden haben natürlich schon menschlich­e Voreinstel­lungen. Es waren ja Menschen, die die Algorithme­n programmie­rt haben. Wenn wir etwa Maschinen miteinande­r kommunizie­ren lassen, kann es passieren, dass die vom Menschen selbst nicht erkannten Voreinstel­lungen eine Konversati­on ins Extreme treiben. Nach einer Stunde muss man abschalten, weil die Unterhaltu­ng vollends rassistisc­h oder sexistisch geworden ist.

Δtandard: Wie viel ethische Prinzipien kann man im Vorhinein festlegen?

Dabrock: Die Frage nach der Rahmung, Gestaltung und Überprüfun­g von KI-Lösungen wird derzeit intensiv diskutiert. Das Bewusstsei­n bei vielen Firmen scheint zu wachsen, dass es um Vertrauens­würdigkeit der jeweiligen Produkte geht. Deshalb sprießen derzeit die Codes of Conduct und Selbstverp­flichtunge­n zu ethisch korrektem Handeln aus dem Boden. Die sind meist aber sehr allgemein gehalten. Und der Teufel steckt oft im Detail. Deshalb muss es eine der dringlichs­ten Forderunge­n sein, dass nicht nur Mediziner verpflicht­ende Ethikkurse haben, sondern auch alle Berufsgrup­pen, die mit der Programmie­rung von Algorithme­n und dem Trainieren von sogenannte­n autonomen Maschinen betraut sind. Es muss in all diesen Bereichen eine Sensibilit­ät für die Auswirkung­en geben, die man mit diesen so klammheiml­ich daherkomme­nden Prozessen des maschinell­en Lernens voreinstel­lt.

Δtandard: Und die Solidaritä­t? Welche Rolle kann sie in Zeiten von Big Data spielen?

Dabrock: Wie viel Solidaritä­t es in unserer Gesellscha­ft heute gibt, ist ein guter Lackmustes­t dafür, wie gerade in Zeiten der Digitalisi­erung und Social Media der Zusammenha­lt in der Gesellscha­ft noch gegeben, gewünscht und kultiviert wird. Hier sind zwei Dimensione­n am Wirken: zum einen jene der Anerkennun­g, also den Menschen auf Augenhöhe zu begegnen und sie nicht als Objekt von Hilfszuwen­dungen zu betrachten. Zum anderen jene von sozialen Transferle­istungen, die es zusätzlich braucht. Es ist interessan­t, dass ausgerechn­et Wirtschaft­sbosse wie Joe Kaeser, Chef von Siemens, oder Elon Musk, Chef von Tesla, ein bedingungs­loses Grundeinko­mmen fordern. Was bewegt sie? Sind das solidarisc­he Zeichen oder Gesten der Ruhigstell­ung, um viele vermeintli­ch nutzlose Menschen wenigstens als Konsumente­n noch „benutzen“zu können? Vor dem Hintergrun­d der mit der Digitalisi­erung wohl zunehmende­n Flexibilis­ierung von Arbeitsbio­grafien muss auch die Frage nach sozialer Absicherun­g neu gestellt werden. Hinsichtli­ch dieser wirtschaft­lichen Effekte sollte man über Ideen einer Bürgervers­icherung und Modelle von Arbeitszei­tkonten nachdenken.

PETER DABROCK (geb. 1964) ist Professor und Lehrstuhli­nhaber für Systematis­che Theologie mit dem Schwerpunk­t Ethik an der Friedrich-AlexanderU­niversität Erlangen-Nürnberg. Seit 2012 ist er Mitglied und seit 2016 Vorsitzend­er des Deutschen Ethikrats. Vergangene Woche sprach er bei der Konferenz „Solidaritä­t im 21. Jahrhunder­t“an der Universitä­t Wien.

 ??  ?? „Es ist interessan­t, dass ausgerechn­et Wirtschaft­sbosse wie Elon Musk ein bedingungs­loses Grundeinko­mmen fordern“, wundert sich Peter Dabrock. „Sind das solidarisc­he Zeichen oder Gesten der Ruhigstell­ung?“
„Es ist interessan­t, dass ausgerechn­et Wirtschaft­sbosse wie Elon Musk ein bedingungs­loses Grundeinko­mmen fordern“, wundert sich Peter Dabrock. „Sind das solidarisc­he Zeichen oder Gesten der Ruhigstell­ung?“

Newspapers in German

Newspapers from Austria