Wie verlässlich sind Wahlprognosen?
Panorama-Uni über die Möglichkeiten und Grenzen von Statistik und Big Data.
Wie viele Menschen wurden befragt? Das ist eine der Kernfragen, wenn es um die Vertrauenswürdigkeit von Umfrageergebnissen geht, z. B. zu bevorstehenden Wahlen. Gespannt wurden etwa in den letzten Wochen und Tagen die Umfragewerte der US-Präsidentschaftskandidaten verfolgt. Legendär ist ein Prognosedesaster bei den US-Wahlen vor 80 Jahren. Trotz Millionen Befragter.
In Österreich wächst das Umfrage-Interesse für die Bundespräsidentschaftswahl am 4. Dezember. Die Zahl Tausend gelte als eine gute Stichprobengröße, sagt Arne Bathke, Professor für Statistik am Fachbereich Mathematik der Universität Salzburg. Aus einer Zufallsstichprobe von 1000 Personen können Statistiker – mit plus/minus drei Prozent – das Ergebnis meist gut vorausberechnen. „Viele glauben, dass eine größere Stichprobe automatisch eine bessere Stichprobe ist. Das ist ein riesiger Irrtum, wie das sogenannte Literary-Digest-Desaster bei den US-Wahlen vor 80 Jahren beweist.“
Was war damals passiert? Am 3. November 1936 gewann der amtierende Präsident Franklin D. Roosevelt die Wahl haushoch. Es war der bis dahin höchste Sieg der Demokratischen Partei bei Präsidentschaftswahlen. Sein Gegenkandidat Alf Landon von den Republikanern konnte nur in zwei Staaten eine Mehrheit der Stimmen erzielen.
Die viel gelesene Zeitschrift „The Literary Digest“, der bei Wahlprognosen viel Gewicht beigemessen wurde, hatte das Gegenteil vorausgesagt. Ein Desaster. Dabei waren zehn Millionen Wähler angeschrieben bzw. angerufen worden, von denen 2,4 Millionen auch geantwortet hatten. Die Mehrheit von ihnen entschied sich für Alf Landon.
Was war der Grund für die falsche Prognose? Arne Bathke: „Es wurden Fehler bei der Stichprobenauswahl gemacht. Literary Digest hatte die Fragebögen an Personen geschickt, die als Telefon- oder Autobesitzer oder Zeitschriftenabonnenten registriert waren. Doch solche Luxusgüter besaßen kurz nach der Weltwirtschaftskrise nur privilegierte Gruppen, die eher republikanisch wählten.“
George Gallup, der Pionier der Markt- und Meinungsforschung hatte das Desaster kommen sehen. Er sagte voraus, dass Literary Digest den Kandidaten Landon fälschlicherweise als Sieger vermelden würde. Er selbst prognostizierte richtig den Sieg Roosevelts. Seine Basis waren eher kleine, aber repräsentative Stichproben, mit Armen, Reichen, Alten, Jungen, Frauen, Männern, Gebildeten, Ungebildeten etc. (wöchentlich 2000 Face-toFace-Interviews).
Für Arne Bathke hat dieses legendäre historische Beispiel einen starken Bezug zum momentanen Hype um Big Data. „Heute werden oft wie wild Daten gesammelt. Big Data heißt aber oft einfach nur viel Datenmüll. Ich höre immer öfter, dass Unternehmen von Big Data enttäuscht sind, weil es ihnen nicht das bringt, was sie erhofft haben. Die Nadel im Heuhaufen, nach der sie suchen, ist oft nicht zu finden.“
Der Salzburger Wissenschafter unterstreicht daher, dass man nur aus klug gesammelten Daten gute Schlüsse für die Zukunft ziehen könne. „Big Data ist nicht automatisch Good Data.“