Der Nutzen von Corona-Modellen bleibt ungeklärt
Mit der Ausbreitung der Omikron-Variante stieg auch wieder das öffentliche Interesse an Computer-Simulationen und Modellrechnungen, welche die Entwicklung der Omikron-Welle in Deutschland vorhersagen sollten.
Am 21. Dezember 2021 warnte ein saarländischer Professor vor einem Corona-Höhepunkt an Weihnachten und forderte sogleich einen „Lockdown für alle“. Seine Berechnungen ergaben für den 6. Januar bereits eine Inzidenz von fast 2000 (tatsächlich lag sie bei rund 300). In der Wissenschaftssendung „Quarks“wurde die Anzahl der täglichen Neuinfektionen für Mitte Januar ebenfalls weit überschätzt und auch in der „Süddeutschen Zeitung“stellt man eine Diskrepanz zwischen der Realität und Modellrechnung fest.
Prognosen über die Inzidenz liegen nicht das erste Mal daneben. Ihre Beliebtheit scheint darunter allerdings kaum zu leiden – je dramatischer, desto besser. In Medien fehlt dabei oft eine Einordnung
Modellrechnungen von Wissenschaftlern waren für die Corona-Politik immer wieder entscheidend. Gerrit Großmann von der Universität des Saarlandes befasst sich als Forscher mit solchen Prognosen. Er erklärt, wie sie funktionieren – und stellt ihren Nutzen in der Pandemie infrage.
dieser Modelle. So entsteht der Eindruck einer Sicherheit der Vorhersagen, die es so nicht gibt. Und auch im politischen Diskurs geben sie die Möglichkeit, eigene Positionen bequem hinter scheinbar objektiver Wissenschaft zu verstecken.
Aber von vorne: Was ist eigentlich ein Modell – und was macht eine Computer-Simulation?
Im Grunde ist es ganz einfach, man teilt eine Gesellschaft in verschiedene Gruppen, zum Beispiel „Infizierte“, „Geimpfte“, „Genesene“etc. oder, je nachdem, wie genau man sein will, „Infizierte über 50 auf der Intensivstation“. Dann stellt man Annahmen darüber auf, wie stark unterschiedliche Gruppen miteinander interagieren und wie die Verbreitung des Virus dadurch beeinflusst wird. Diese Annahmen werden dann in ein mathematisches Modell gegossen, welches gelöst (oder „simuliert“) wird. Zum Schluss lassen sich Parameter noch nachjustieren, sodass die Ausgabe des Modells gut zu den bereits bestehenden Daten passt.
Das bringt viele Probleme mit sich: Die gemessenen Daten sind oft stark verrauscht (zum Beispiel die Inzidenz durch die Dunkelziffer). Ein noch größeres Problem ist es allerdings, Annahmen über die Kontakte von Menschen zu machen. In einer heterogenen Gesellschaft mit vielen verschiedenen sozialen Realitäten ist es praktisch nicht messbar, wie soziale Kontaktstrukturen aufgebaut sind und wie sich diese ändern. Hinzu kommt, dass die Wirkungsmechanismen hinter etlichen Abhängigkeiten (zum Beispiel zwischen Infektionsdynamik und Temperatur) noch gar nicht ausreichend verstanden sind.
Je komplexer ein Modell wird, desto mehr Annahmen müssen von den Forschenden getätigt werden. Besonders problematisch ist dabei, dass Prognosemodelle oft extrem anfällig gegenüber ihren Vorannahmen sind. Kleine Änderungen in der Modellierung können also zu grundverschiedenen Ergebnissen führen. Gleichzeitig werden entscheidende Faktoren, wie der Einfluss der
Saisonalität oder der Effekt von Superspreadern, oft nicht in Modellen berücksichtigt.
Das Lieblingsargument zur Verteidigung fehlgeschlagener Prognosen ist das sogenannte Präventionsparadox, also die Vorstellung, die Vorhersagen selber hätten dazu geführt, dass die Kurve abflacht. Das ist gleich auf mehreren Ebenen problematisch. Erstens kann eine Vorhersage, die von Anfang an gar nicht recht haben wollte, nie widerlegt werden. Und Aussagen, die nicht überprüfbar sind, sind wissenschaftlich nicht viel wert.
Zweitens wurde die Ausbreitung teilweise stark unterschätzt oder es wurden ganze Wellen nicht vorhergesehen. Drittens entwickelt sich die reale Inzidenz manchmal sehr viel besser, als es in Simulationen vorhergesagt wurde, auch wenn diese explizit als „Best Case“-Szenarien dargestellt wurden.
Probleme wie diese haben den englischen Statistiker George Box zu seinem berühmten Bonmot verleitet „Alle Modelle sind falsch, aber einige sind nützlich“. Allein, worin die Nützlichkeit von Corona-Prognosemodellen besteht, bleibt weiterhin ungeklärt.
Computer-Modelle können natürlich trotzdem für bestimmte Fragestellungen sinnvoll sein, zum Beispiel um mathematische Eigenschaften von Ausbreitungsprozessen besser zu verstehen.
Dass sich Trends und Trendwenden so schlecht vorhersagen lassen, bedeutet aber nicht, dass es richtig wäre, strategielos „auf Sicht zu fahren“. Im Gegenteil:
Die Unsicherheit – ob sie nun die Inzidenz, Long Covid oder der Entstehung neuer Varianten betrifft – macht es gerade notwendig, auf alles vorbereitet zu sein: Hoffe auf das Beste, rechne mit dem Schlimmsten. Risikoethik und Entscheidungstheorie können dafür sinnvollere Eckpfeiler sein, als Computer-Simulationen.
Gerrit Großmann promoviert an der Universität des Saarlandes. Er forscht unter anderem an der Modellierung von Kontaktnetzwerken und deren Einfluss auf Ausbreitungsprozesse.