Martins Menetekel Sinkt oder steigt der Reproduktionsfaktor R?

Können wir in absehbarer Zeit erreichen, dass der Reproduktionsfaktor R konstant unter 1 bleibt? – Vielleicht, wenn wir konsequent daran arbeiten. In seinem heutigen Beitrag erläutert Martin Lindner was passiert, wenn R größer als 1 ist, weshalb eine Annäherung durch Polynome bei der Zeitreihe nicht funktioniert und wagt einen Blick in den mathematischen Kaffeesatz.

Sinkt oder steigt der Reproduktionsfaktor R? (Bild: SNFV GmbH)

Die entscheidende Frage ist, ob wir in absehbarer Zeit R konstant unter 1 bekommen. Verkleinern von R bewirken unter anderem alle AHA-Maßnahmen, die Impfungen, ein konsequentes Herunterfahren aller Kontakte, umsichtige Kooperation der Bürger und Isolierung aller als positiv getestet Infizierten. R wird vergrößert durch Eintrag von außen, die aggressiveren Mutanten, Unvorsicht im Kleinen und Massenveranstaltungen im Großen, etc.

Wir wollen an Hand unserer Grundannahme diese Alternativen analysieren.

Die Grundannahme war, dass eine Zeitreihe von Fallzahlen eine geeignete Annäherung zulässt, die für wenige Tage (schlecht) oder sogar für Wochen (gut) Prognosen über den zukünftigen Verlauf der Zeitreihe zulässt.

Die zu untersuchende Zeitreihe besteht aus den geglätteten Zuwächsen der kumulierten Fallzahlen. Wir nennen sie N'(t), weil sie der ersten Ableitung entspricht.

Nun könnte man N'(T) auch durch Polynome annähern. Das wird zum Beispiel bei der Abschätzung, wieviel Impfstoff nach welcher Zeit nach der Impfung noch im Blut ist, gemacht.

Das geht in unserem Fall nicht.

Warum: Polynome wachsen für große Argumente grundsätzlich über alle Grenzen. Um das zu verhindern, für die Kenner: Taylorentwicklung einer Funktion, wo sie möglich ist, muss man sehr viele Stützpunkte oder Koeffizienten haben. Das wollen wir nicht. Wir benötigen Funktionen mit wenigen aussagekräftigen Parametern, deren Verhalten für große Argumente zum Beispiel nach 0 geht.

Hier helfen die Exponentialfunktionen oder Kombinationen von ihnen. Das entspricht genau dem Konzept, dass die Höhe der Nachkommen von der Population selbst abhängt:

N'(t) = k*N(t) , so weit so gut und allmählich sattsam bekannt und verstanden. Der Witz ist: Unser k ist nicht konstant!

Es ist k = k(t) und kann sowohl wachsen als auch kleiner werden.

Das Verhängnisvolle ist, wenn k > 0 mit der Zeit t wächst, wie wir es am R in den letzten Wochen gesehen haben.

Dann sieht Verhulst so aus: N'(t) = k*N(t)*(1 + H*N(t)) mit k > 0 und einem eventuell sehr kleinem aber positiven H > 0 aus k(t) = k*(1 + HN(t)). Löst man diese Differentialgleichung nach demselben Schema Partialbruchzerlegung, Integration und Anwenden von exp, so erhält man:

N(t) = (A*bt )/((1 - AHbt )

Wenn AH sehr klein ist, gilt N(0) = A/( 1 - AH) > 0 , aber der Term im Nenner (1 - AHbt ) wird immer größer, da b = exp(k) > 1 ist und erreicht in endlicher Zeit die 1, und damit wächst dieses N(t) in endlicher Zeit über alle Grenzen.

Das ist das Worst Case Szenario!

Stets, wenn R größer als 1 ist und wächst, haben wir hyperexponentielles Wachstum. Es ist unsere Aufgabe, einen solchen Trend sofort zu stoppen.

Deshalb hier die Entwicklung von R:

Wenn R gleichmäßig kleiner wird, haben wir limitiertes Wachstum à la Verhulst, wenn R konstant größer als 1 ist, rein exponentielles Wachstum, wenn es kleiner als 1 ist und fällt, haben wir Verhulst, wo N'(t) sehr viel schneller Richtung 0 fällt, als eine exponentielle Zerfallsreihe.

Das muss das Ziel sein: R muss stetig gegen 0 gehen, bei R = 0 ist die Pandemie zu Ende.

Kommen wir zu unseren Referenzkurven.

Ich habe nicht widerstehen können und die erste Verhulstapproximation berechnet, Kaffeesatz pur, ich weiß.

Reine E-Funktion als Ansatz:

und jetzt kommt Verhulst mit dem Sockel der E-Funktion, aber optimiert:

Man sieht, dass sich beide Ansätze wenig unterscheiden.

Um Verhulst mit einigermaßen Zuversicht anwenden zu können, muss der Wendepunkt erreicht sein, ist er aber noch nicht. Und ohne Wendepunkt ist die E-Funktion genau so gut. Die E-Funktion liefert aber überhaupt keine obere Schranke S. Das ist das Problem bei dem exponentiellem Ansatz..

Bei obigem Versuch mit Verhulst läge S bei über 6.125.000 Infizierten. Das wäre mehr als eine Verdoppelung der jetzigen Fallzahlen, die bei 2.828.000 liegen.

So unwahrscheinlich ist das nicht.

Martin Lindner
Martin Lindner ist promovierter und habilitierter Mathematikprofessor im Ruhestand und beschäftigt sich intensiv mit nachhaltiger Wirtschaft und der Zukunftsfähigkeit unserer heutigen Lebensformen. Zusätzlich hat er eine Ausbildung und auch Berufserfahrung in Wirtschaftsmediation.

Täglicher Newsletter der Insightsbranche

News +++ Jobs +++ Whitepaper +++ Webinare
Wir beliefern täglich mehr als 9.000 Abonnenten

/mvw

 

Diskutieren Sie mit!     

Noch keine Kommentare zu diesem Artikel. Machen Sie gerne den Anfang!

Um unsere Kommentarfunktion nutzen zu können müssen Sie sich anmelden.

Anmelden

Weitere Highlights auf marktforschung.de