Warum “Fallzahlen” Quatsch sind – eine Erklärung für Nichtmathematiker
Die Medien sind voll mit “Fallzahlen”. In der Regel “steigen sie exponentiell an” oder “erreichen schwindelerregende Höhen”. Schwindel erzeugt bei mir jedoch nur solches Geschwätz. Ich verstehe, dass Mathematik von vielen nicht so geliebt wird. Aber Statistik ist etwas, das kann man durchaus in Umgangssprache erklären. Und dann kann man es auch verstehen, wenn man kein Mathematiker ist. Hier also eine Erklärung, was das Problem mit dem Überbieten in “Fallzahlen” ist, und was man stattdessen eigentlich machen müsste:
Absolute “Fallzahlen”
Nehmen wir mal an, 10% der Bevölkerung sind infiziert, und wir verfügten über einen fehlerfreien Test (was nicht der Fall ist, aber nur zur Annahme).
Wenn man jetzt 100'000 Personen auf Infektion testet, dann werden 10'000 Infizierte erkannt. Testet man danach weitere 200'000 Personen, dann werden 20'000 Infizierte erkannt. Arbeitet man mit absoluten Fallzahlen, so hat man scheinbar eine Verdoppelung der “Fallzahlen” vorliegen: erst waren es 10'000 Infizierte, und danach sind es schon 20'000. Aber tatsächlich sind 10% infiziert, nach wie vor. Absolute Fallzahlen sagen also rein gar nichts aus über den Anteil der Infizierten unter der Bevölkerung.
Relative “Fallzahlen”
Relative Fallzahlen sind nur wenig besser – und immer noch Quatsch. Verwendet man nun das Verhältnis zwischen 10'000 Infizierten auf 100'000 Getestete, also 10%, oder 20'000 Infizierte auf 200'000 Getestete, ebenfalls 10%, dann scheint zunächst alles zu stimmen. Leider ist man jedoch nur auf den nächsten Denkfehler in der Statistik hereingefallen. Denn der Schluss, dass wenn man auf 100'000 Getestete 10'000 Infizierte findet, dass dann auch in der Bevölkerung 10% Infizierte sein müssen, ist nur im allereinfachsten Beispiel richtig, das ich hier gewählt habe: dass die Verteilung der Infizierten genau gleich ist überall, dass also eine Gleichverteilung vorliegt, sowohl in der Grundgesamtheit (der Bevölkerung) als auch in der jeweiligen Stichprobe.
Das kann man für die Praxis jedoch ausschliessen.
Jeder hat schon von den sogenannten “Hotspots” gelesen, also von Gebieten, in denen sich anteilig viel mehr Personen infiziert haben als anderswo. Es liegt keine Gleichverteilung vor. Und wenn keine Gleichverteilung vorliegt, dann gilt nur dann für den Anteil der positiv Bestimmten (Infizierten) in der Stichprobe, dass er gleich gross ist wie der der Infizierten in der Grundgesamtheit (Bevölkerung) insofern, dass man darauf schliessen kann, wenn die Verteilung der Stichprobe gleich ist wie die der Grundgesamtheit.
Verteilung
Was ist eine Verteilung? Jeder hat mitbekommen: COVID-19 ist keine Krankheit, die die Bevölkerung völlig gleichmässig befällt. Jeder kann krank werden, das stimmt, aber viel mehr ältere Menschen werden krank als jüngere, viel mehr Diabetiker werden krank als Nichtdiabetiker, viel mehr Menschen mit Lungenvorerkrankung leiden unter COVID-19 als Menschen ohne, etc.
Die Verteilung bedeutet hierbei nun, dass eine Stichprobe dieselben Anteile an Jüngeren, Älteren, Diabetikern, Nicht-Diabetikern etc. haben muss, also dasselbe Verhältnis der für die Ausbreitung der Krankheit relevanten Gruppen wie sie auch die Grundgesamtheit hat. Denn ist das mit grosser Abweichung nicht der Fall, so bekommt man Verzerrungen. Man bekommt das Problem, dass man im Altenheim im Hotspot eben auch anteilig viel mehr Menschen findet, die an COVID-19 erkranken und sterben als z.B. im Kindergarten im ländlichen Gebiet. Misst man also im Altenheim im Hotspot, so bekommt man hohe “Fallzahlen”. Misst man im Kindergarten im ländlichen Gebiet, so bekommt man niedrige ”Fallzahlen” – und zwar auch völlig unterschiedlich hohe “relative Fallzahlen”.
Auch “relative Fallzahlen” eignen sich nicht, sinnvolle Aussagen über eine Pandemie zu machen. (Und die Medien sind trotzdem voll davon.)
Wie kann man überhaupt zu sinnvollen Zahlen kommen? Das geht in der Statistik sehr gut. Man nennt die Methode die Bestimmung einer repräsentativen Stichprobe.
Repräsentative Stichprobe
Man spricht vom sogenannten Design einer Stichprobe:
Man identifiziert die wesentlichen Einflussfaktoren
Man bestimmt die Verteilung
Man definiert eine Stichprobe mit derselben Verteilung, wie man sie für die Grundgesamtheit festgestellt hat.
Dann testet man diese Stichprobe.
Das erfordert jedoch, dass man diese Schritte durchlaufen hat. Denn nur wenn man das richtig macht, so lässt sich aus dem Messergebnis auf die Grundgesamtheit schliessen (plus eine Fehlerbetrachtung, weil Stichproben ja immer nur eine Auswahl darstellen per definitionem).
Fehlerkorrektur
Es gibt übrigens noch einen zweiten Weg:
Man identifiziert die wesentlichen Einflussfaktoren
Man bestimmt die Verteilung
Man zieht eine Stichprobe und bestimmt deren (abweichende) Verteilung
So geht es auch: man kann, wenn man die Verteilung der Grundgesamtheit und die abweichende Verteilung der Stichprobe kennt (und die Stichprobe immer noch alle Fälle und genügend Daten liefert, sonst auch nicht mehr) die Verzerrungen wieder herausrechnen. Aber dann muss man das auch machen.
“Fallzahlen” alleine, egal ob relativ oder sogar absolut, liefern nur eines: