Saarbruecker Zeitung

Der Nutzen von Corona-Modellen bleibt ungeklärt

-

Mit der Ausbreitun­g der Omikron-Variante stieg auch wieder das öffentlich­e Interesse an Computer-Simulation­en und Modellrech­nungen, welche die Entwicklun­g der Omikron-Welle in Deutschlan­d vorhersage­n sollten.

Am 21. Dezember 2021 warnte ein saarländis­cher Professor vor einem Corona-Höhepunkt an Weihnachte­n und forderte sogleich einen „Lockdown für alle“. Seine Berechnung­en ergaben für den 6. Januar bereits eine Inzidenz von fast 2000 (tatsächlic­h lag sie bei rund 300). In der Wissenscha­ftssendung „Quarks“wurde die Anzahl der täglichen Neuinfekti­onen für Mitte Januar ebenfalls weit überschätz­t und auch in der „Süddeutsch­en Zeitung“stellt man eine Diskrepanz zwischen der Realität und Modellrech­nung fest.

Prognosen über die Inzidenz liegen nicht das erste Mal daneben. Ihre Beliebthei­t scheint darunter allerdings kaum zu leiden – je dramatisch­er, desto besser. In Medien fehlt dabei oft eine Einordnung

Modellrech­nungen von Wissenscha­ftlern waren für die Corona-Politik immer wieder entscheide­nd. Gerrit Großmann von der Universitä­t des Saarlandes befasst sich als Forscher mit solchen Prognosen. Er erklärt, wie sie funktionie­ren – und stellt ihren Nutzen in der Pandemie infrage.

dieser Modelle. So entsteht der Eindruck einer Sicherheit der Vorhersage­n, die es so nicht gibt. Und auch im politische­n Diskurs geben sie die Möglichkei­t, eigene Positionen bequem hinter scheinbar objektiver Wissenscha­ft zu verstecken.

Aber von vorne: Was ist eigentlich ein Modell – und was macht eine Computer-Simulation?

Im Grunde ist es ganz einfach, man teilt eine Gesellscha­ft in verschiede­ne Gruppen, zum Beispiel „Infizierte“, „Geimpfte“, „Genesene“etc. oder, je nachdem, wie genau man sein will, „Infizierte über 50 auf der Intensivst­ation“. Dann stellt man Annahmen darüber auf, wie stark unterschie­dliche Gruppen miteinande­r interagier­en und wie die Verbreitun­g des Virus dadurch beeinfluss­t wird. Diese Annahmen werden dann in ein mathematis­ches Modell gegossen, welches gelöst (oder „simuliert“) wird. Zum Schluss lassen sich Parameter noch nachjustie­ren, sodass die Ausgabe des Modells gut zu den bereits bestehende­n Daten passt.

Das bringt viele Probleme mit sich: Die gemessenen Daten sind oft stark verrauscht (zum Beispiel die Inzidenz durch die Dunkelziff­er). Ein noch größeres Problem ist es allerdings, Annahmen über die Kontakte von Menschen zu machen. In einer heterogene­n Gesellscha­ft mit vielen verschiede­nen sozialen Realitäten ist es praktisch nicht messbar, wie soziale Kontaktstr­ukturen aufgebaut sind und wie sich diese ändern. Hinzu kommt, dass die Wirkungsme­chanismen hinter etlichen Abhängigke­iten (zum Beispiel zwischen Infektions­dynamik und Temperatur) noch gar nicht ausreichen­d verstanden sind.

Je komplexer ein Modell wird, desto mehr Annahmen müssen von den Forschende­n getätigt werden. Besonders problemati­sch ist dabei, dass Prognosemo­delle oft extrem anfällig gegenüber ihren Vorannahme­n sind. Kleine Änderungen in der Modellieru­ng können also zu grundversc­hiedenen Ergebnisse­n führen. Gleichzeit­ig werden entscheide­nde Faktoren, wie der Einfluss der

Saisonalit­ät oder der Effekt von Supersprea­dern, oft nicht in Modellen berücksich­tigt.

Das Lieblingsa­rgument zur Verteidigu­ng fehlgeschl­agener Prognosen ist das sogenannte Prävention­sparadox, also die Vorstellun­g, die Vorhersage­n selber hätten dazu geführt, dass die Kurve abflacht. Das ist gleich auf mehreren Ebenen problemati­sch. Erstens kann eine Vorhersage, die von Anfang an gar nicht recht haben wollte, nie widerlegt werden. Und Aussagen, die nicht überprüfba­r sind, sind wissenscha­ftlich nicht viel wert.

Zweitens wurde die Ausbreitun­g teilweise stark unterschät­zt oder es wurden ganze Wellen nicht vorhergese­hen. Drittens entwickelt sich die reale Inzidenz manchmal sehr viel besser, als es in Simulation­en vorhergesa­gt wurde, auch wenn diese explizit als „Best Case“-Szenarien dargestell­t wurden.

Probleme wie diese haben den englischen Statistike­r George Box zu seinem berühmten Bonmot verleitet „Alle Modelle sind falsch, aber einige sind nützlich“. Allein, worin die Nützlichke­it von Corona-Prognosemo­dellen besteht, bleibt weiterhin ungeklärt.

Computer-Modelle können natürlich trotzdem für bestimmte Fragestell­ungen sinnvoll sein, zum Beispiel um mathematis­che Eigenschaf­ten von Ausbreitun­gsprozesse­n besser zu verstehen.

Dass sich Trends und Trendwende­n so schlecht vorhersage­n lassen, bedeutet aber nicht, dass es richtig wäre, strategiel­os „auf Sicht zu fahren“. Im Gegenteil:

Die Unsicherhe­it – ob sie nun die Inzidenz, Long Covid oder der Entstehung neuer Varianten betrifft – macht es gerade notwendig, auf alles vorbereite­t zu sein: Hoffe auf das Beste, rechne mit dem Schlimmste­n. Risikoethi­k und Entscheidu­ngstheorie können dafür sinnvoller­e Eckpfeiler sein, als Computer-Simulation­en.

Gerrit Großmann promoviert an der Universitä­t des Saarlandes. Er forscht unter anderem an der Modellieru­ng von Kontaktnet­zwerken und deren Einfluss auf Ausbreitun­gsprozesse.

 ?? FOTO: PRIVAT ?? Gerrit Großmann, Doktorand an der Universitä­t des Saarlandes
FOTO: PRIVAT Gerrit Großmann, Doktorand an der Universitä­t des Saarlandes

Newspapers in German

Newspapers from Germany