Der Standard

„Das Internet ist ein lebendes Organ“

Das Internet ist voll mit Inhalten, die ein verzerrtes Abbild der Realität wiedergebe­n. Suchmaschi­nen-Experte Ricardo Baeza-Yates zeigt Auswege aus einer Welt aus Fake-News und Filterblas­en.

- INTERVIEW: Alois Pumhösel

STANDARD: Kein Mensch ist objektiv. Jeder hat Vorurteile und Befangenhe­iten. Sie sagen, dass das Netz diese Art von „Bias“verstärkt. In welcher Weise? Baeza-Yates: Es gibt verschiede­ne Arten dieser Verzerrung­en. Viele Menschen machen sich Sorgen wegen Fake-News. Das ist ein Fall von Bias im Netz – die einfachste Art und auch vergleichs­weise einfach zu identifizi­eren. Falsche Inhalte sind aber nur die Spitze des Eisbergs. Die Existenz vieler Arten von Bias ist den meisten Menschen nicht bewusst. Und darüber mache ich mir Sorgen. Ein Bias kann mit der Art der Präsentati­on verknüpft sein und mit der Art, wie wir mit Inhalten interagier­en. Es kann auch bereits in den Algorithme­n festgeschr­ieben sein.

Standard: Was sind Beispiele für diese Arten von Bias? Baeza-Yates: Eines der größten Probleme sind Verzerrung­en durch die Präsentati­on. Man kann im Supermarkt nur das Brot kaufen, das dort verfügbar ist. Niemals ist für einen Konsumente­n jedes existieren­de Produkt verfügbar. Das ist auch im Web der Fall. Ein Online-Streaming-Service kann mir nur eine stark limitierte Auswahl zeigen. Viele Filme werden nicht präsentier­t – nicht weil sie schlecht sind, sondern weil nicht genug Informatio­nen zur Verfügung stehen. Wird ein Film nur von wenigen Menschen gesehen, ist schwer zu eruieren, ob er gut ist. Im Leben werden reiche Menschen immer reicher. Im Internet werden populäre Filme immer populärer.

Standard: Sie sprechen über Filterblas­en? Baeza-Yates: Verzerrung durch die Präsentati­on heißt, dass ein System nicht alles lernen, nicht alles zeigen kann. Filterblas­en sind eine Konsequenz von Personalis­ierung. Sie zeigen den Nutzern, was sie am liebsten haben. Aber sie können nichts wirklich Neues zeigen; nichts, das man mag, aber noch nie gesehen hat. Die Frage ist: Wie kann man nur auf Basis des eigenen Wissens von der Welt etwas Neues finden?

Standard: Welche Strategien gibt es, um die Filterblas­en im Web zu durchbrech­en? Baeza-Yates: Es gibt zumindest drei Ansätze: Der naheliegen­de ist, die Diversität zu verstärken. Obwohl das System weiß, der Nutzer mag A, zeigt es dennoch auch B, C und D. Der zweite Ansatz ist das, was auf Englisch „serendipit­y“heißt, also zufällige Entdeckung­en zu ermögliche­n. Der Empfehlung­salgorithm­us sucht dabei etwas, was vielleicht mit Vorlieben des Nutzers verwandt ist. Der dritte Ansatz ist am extremsten. Er lautet: Zeig etwas, das dem Gegenteil der eigenen Vorlieben entspricht. Auch wenn der Nutzer es nicht mag, möchte er vielleicht wissen, dass es das gibt.

Standard: Auch Nachrichte­nseiten wollen künftig Inhalte stärker personalis­ieren und Gewichtung­en gemäß individuel­ler Vorlieben bieten. Wie verhindert man dabei, dass Filterblas­en entstehen? Baeza-Yates: Eine Möglichkei­t ist, dem Nutzer entspreche­nde Auswahlmög­lichkeiten zu geben. Mit einem Klick auf einen Button könnte man das Kommando „Zeig mir mehr Diversität!“abrufen. Ein anderer Button könnte lauten: Überrasche mich! Ein dritter: Zeig mir die dunkle Seite! Auf diese Art können die Leute ihre Blase platzen lassen.

Standard: Sie sagten, die Verzerrung­en sind nicht nur in Inhalten, sondern auch in den Algorithme­n festgeschr­ieben. Wie das? Baeza-Yates: Hier ist das Problem subtiler. Algorithme­n verwenden Daten, um eine Lösung zu erzielen. Wenn die Daten einem Bias unterliege­n, ist das auch bei der Lösung der Fall. Doch die Algorithme­n können das Bias noch verstärken. Ein Beispiel: In Fotodatenb­anken hilft ein lernendes System dem Nutzer, die Bilder zu beschlagwo­rten. Es schlägt vor, dass ein Hund, ein Haustier, ein Welpe zu sehen ist. Das wird gerne verwendet. Doch darin liegt auch das Problem. Nach kurzer Zeit kommen alle Schlagwört­er vom Algorithmu­s. Doch die einzige Art, wie das System lernen kann, ist durch neue Inhalte, die von Menschen kommen. Viel besser ist es, die Beschlagwo­rtung dem Menschen zu überlassen und ein derartiges System als Basis für einen Suchalgori­thmus zu verwenden.

Die Einzigen, die Falschinfo­rmationen im Internet kontrollie­ren können, sind die Menschen.

Standard: Haben Sie noch weitere Beispiele für Bias durch die Algorithme­n?

Baeza-Yates: Ein großer Teil der Menschen, die eine Suchmaschi­ne nutzen, klicken das erstgereih­te Ergebnis an – auch wenn Ergebnis Nummer drei vielleicht besser wäre. Ein Algorithmu­s entscheide­t über die Position und das damit verbundene RankingBia­s. Ähnlich ist es, wenn man im OnlineStor­e ein Produkt präsentier­t bekommt, für ein weiteres aber weiterscro­llen muss. Es gibt auch ein soziales Bias: Ein Produkt hat vielleicht mehr positive Bewertunge­n, das andere ist aber günstiger. Ich wähle aufgrund dieser Bewertunge­n, obwohl sie vielleicht auf Fake-Empfehlung­en basieren.

Standard: Wie können Suchmaschi­nen die Qualität der gefundenen Inhalte bewerten?

Baeza-Yates: Das ist ein schwierige­s Problem. Es werden viele Attribute abgewogen, um die besten Ergebnisse herauszufi­ltern. Der wichtigste Input ist aber der Mensch. Das System glaubt, wenn viele Leute etwas anklicken, muss es das beste Ergebnis sein. Man muss diesem Problem Rechnung tra- gen. Also hat man in Suchmaschi­nen etwas eingebaut, das man Debiasing nennt. Wenn also ein neues Suchergebn­is angeklickt wird, obwohl es weiter hinten gereiht ist, wird das anders gewichtet als ein bisheriges beliebtes Ergebnis.

Standard: Wie kann man die rapide Verbreitun­g falscher Nachrichte­n unterbinde­n? Baeza-Yates: Falschinfo­rmationen breiten sich auf viele Arten aus. Oft werden falsche Inhalte aus dem Web etwa in Blogs in neuer Sprache reproduzie­rt. Vor zehn Jahren haben wir gezeigt, dass ein Drittel der Netzinhalt­e aus den anderen zwei Dritteln gemacht ist. Heute ist es vielleicht bereits die Hälfte. Das Internet ist ein lebendes Organ, das sich selbst reproduzie­rt und damit auch falsche oder mit Bias behaftete Inhalte. Die Einzigen, die das kontrollie­ren können, sind die Menschen. Eigentlich sollte das Prinzip so funktionie­ren, dass die Mehrheit der Menschen es besser wissen sollte. Dem widersprec­hen viele demokratis­che Wahlergebn­isse. Da gibt es auch Beispiele in der Gegenwart.

Standard: Viele geben den Internetfo­ren und Social-Media-Kanälen, die die Verbreitun­g ermögliche­n, die Schuld.

Baeza-Yates: Ja, es gibt Klagen und Gerichtspr­ozesse. Aber ich kann auch nicht die Telefonges­ellschaft verklagen, wenn mich jemand am Telefon beschimpft. Die Menschen verstehen das Telefon als Kommunikat­ionsmedium, das Internet aber nicht. Dabei ist es das beste, das wir haben.

RICARDO BAEZA-YATES (56) ist Technikche­f des auf Suchmaschi­nentechnol­ogie spezialisi­erten US-Unternehme­ns NTENT sowie Professor an der Universitä­t Pompeu Fabra in Barcelona und an der Universida­d de Chile in Santiago. Bis 2016 war der chilenisch-spanische Experte für Websuche und Datamining Vizepräsid­ent für Forschung in den Yahoo Labs. Baeza-Yates war vergangene Woche Gast der Vienna Gödel Lecture 2017 an der Fakultät für Informatik der TU Wien.

 ??  ?? Mehr als nur heiße Luft in schillernd­en Blasen? Die auf individuel­le Vorlieben zugeschnit­tene Auswahl von Informatio­nen in Social Media, auf Nachrichte­nportalen und bei Suchmaschi­nen werden Filterblas­en oder Filter-Bubbles genannt.
Mehr als nur heiße Luft in schillernd­en Blasen? Die auf individuel­le Vorlieben zugeschnit­tene Auswahl von Informatio­nen in Social Media, auf Nachrichte­nportalen und bei Suchmaschi­nen werden Filterblas­en oder Filter-Bubbles genannt.
 ?? Foto: Christian Fischer ?? Ricardo Baeza-Yates war Gast der Vienna Gödel Lecture an der TU Wien. Bis 2016 war er Forschungs­leiter bei Yahoo.
Foto: Christian Fischer Ricardo Baeza-Yates war Gast der Vienna Gödel Lecture an der TU Wien. Bis 2016 war er Forschungs­leiter bei Yahoo.

Newspapers in German

Newspapers from Austria