Grenzwertsätze der Stochastik
Als Grenzwertsätze der Stochastik werden in der Mathematik gewisse Klassen von stochastischen Aussagen bezeichnet, die sich mit dem Grenzwertverhalten von Folgen von Zufallsvariablen und Zufallsmatrizen beschäftigen. Typischerweise werden dabei verschiedene Fragestellungen untersucht, die sich unter anderem auch durch ihre Konvergenzarten unterscheiden. In der Anwendung sind die Grenzwertsätze der Stochastik beispielsweise überall dort zu finden, wo sich viele zufällige Einflüsse überlagern. Exemplarisch sei hier die Finanzmathematik, die Versicherungsmathematik und die Statistik aufgeführt.
Die Theorie der Zufallsmatrizen liefert Grenzwertsätze in Situationen, wo klassische Grenzwertsätze der Stochastik nicht mehr anwendbar sind.
Einleitung
BearbeitenAlle der Grenzwertsätze der Stochastik untersuchen das asymptotische Verhalten einer Folge von Zufallsvariablen oder der Folge ihrer Partialsummen
- .
Dabei unterscheiden sich die untersuchten Fragestellungen ebenso wie die Konvergenzarten. Typische Fragestellungen hierbei sind:
- Was ist ein typischer Wert für eine Zufallsvariable?
- Wie groß ist die Abweichung von diesem Wert?
- Welche Wahrscheinlichkeiten nehmen die Abweichungen von diesem Wert an?
- Was sind die maximalen Fluktuationen, die auftreten können?
Die drei klassischen Grenzwertsätze beantworten diese Fragen. Dieser Artikel erläutert die zugrunde liegenden Ideen der Grenzwertsätze und wie diese miteinander zusammenhängen. Technische Details und präzise Ausformulierungen finden sich in den entsprechenden Hauptartikeln.
Gesetze der großen Zahlen
BearbeitenIdee
BearbeitenDie Gesetze der großen Zahlen untersuchen
- was der „typische“ Wert einer Summe von Zufallsvariablen ist und
- wie groß die Abweichungen von diesem typischen Wert sind.
Dabei unterscheidet man zwischen schwachen Gesetzen der großen Zahlen und starken Gesetzen der großen Zahlen. Diese unterscheiden sich im Wesentlichen durch ihren Konvergenzmodus: Die schwachen Gesetze der großen Zahlen betrachten die Konvergenz in Wahrscheinlichkeit, auch stochastische Konvergenz genannt. Die starken Gesetze der großen Zahlen hingegen verwenden eine stärkere Konvergenzart, die fast sichere Konvergenz.
Wird eine beliebige Zahlenfolge auf ihr asymptotisches Verhalten untersucht, so kann man anstelle nach der Konvergenz der Folge auch die Frage stellen, von welcher Ordnung die Folge ist (siehe auch Landau-Symbole). Das bedeutet es wird eine Funktion gesucht, so dass
ist. Dann heißt die Folge von der Ordnung . Solche Folgen wachsen also langsamer als . Interessiert man sich weitergehend dafür, um welchen typischen Wert die Folge von einer gewissen Ordnung ist, führt man noch eine zweite Funktion ein, so dass
Dabei gibt die Funktion dann an, mit welcher Ordnung sich die Folge von der Funktion entfernt.
Wendet man diese Idee auf Folgen von Summen von Zufallsvariablen an, so erhält man die Fragestellung: Für welche , gilt
Die Gesetze der großen Zahlen liefern als Antwort, dass (unter gewissen Voraussetzungen) der typische Wert der Summe durch
gegeben ist, und die Abweichungen von der Ordnung sind, also
- .
Umgekehrt formuliert ist der Erwartungswert der typische Wert für das arithmetische Mittel von Zufallsvariablen.
Geschichte
BearbeitenEin erstes schwaches Gesetz der großen Zahlen für unabhängig identisch Bernoulli-verteilte Zufallsvariablen wurde von Jakob I Bernoulli gezeigt und 1713 posthum in seiner Ars conjectandi veröffentlicht (Bernoullis Gesetz der großen Zahlen).[1] Eine erste Verallgemeinerung der Ergebnisse von Bernoulli wurde von Siméon Denis Poisson 1837 formuliert.[2] Er verwendete auch als erster die Bezeichnung „Gesetz der großen Zahlen“.[3] Eine bedeutsame Weiterentwicklung war das erste schwache Gesetz der großen Zahlen für Zufallsvariablen beliebiger Verteilung von Pafnuti Lwowitsch Tschebyschow aus dem Jahre 1867 (Tschebyscheffs schwaches Gesetz der großen Zahlen).[3] Es baut im Wesentlichen auf Ergebnissen von Irénée-Jules Bienaymé, insbesondere der Bienaymé-Tschebyscheff-Ungleichung und der Gleichung von Bienaymé, auf. Eine erste Formulierung des schwachen Gesetzes der großen Zahlen, die ohne zweite Momente auskommt, stammt von Alexander Jakowlewitsch Chintschin aus dem Jahre 1929.[3]
Das erste starke Gesetz der großen Zahlen wurde 1909 von Émile Borel bewiesen.[4] Es gilt nur für Folgen von unabhängigen, zum Parameter identisch Bernoulli-verteilten Zufallsvariablen und bildet somit das starke Pendant zu Bernoullis (schwachem) Gesetz der großen Zahlen. Eine erste allgemeine Aussage für die Gütigkeit des starken Gesetzes der großen Zahlen wurde 1917 von Francesco Paolo Cantelli bewiesen (Satz von Cantelli).[5] Sie benötigt noch die Existenz der vierten Momente. Eine weitere Verallgemeinerung wurde 1930 und 1933 von Andrei Nikolajewitsch Kolmogorow gezeigt (Kolmogorows erstes und zweites Gesetz der großen Zahlen), wobei die Voraussetzungen an die benötigten Momente auf die Existenz der zweiten bzw. ersten Momente reduziert wurde.[5]
Zentrale Grenzwertsätze
BearbeitenIdee
BearbeitenDie Gesetze der großen Zahlen identifizieren den Erwartungswert als typischen Wert des arithmetischen Mittels von Zufallsvariablen. Die zentralen Grenzwertsätze versuchen dann, Wahrscheinlichkeiten für die Abweichung vom Erwartungswert anzugeben.
Nach dem schwachen Gesetz der großen Zahlen gilt aber
für alle . Die Wahrscheinlichkeit konzentriert sich wie zu erwarten immer mehr um den Erwartungswert, die Verteilung des arithmetischen Mittels konvergiert in Verteilung gegen die Dirac-Verteilung auf dem Erwartungswert. Diese Verteilung ist aber für eine Quantisierung der Wahrscheinlichkeiten der Abweichungen von Mittelwert nicht nützlich.
Analog zum Vorgehen bei den Gesetzen der großen Zahlen versucht man daher, eine passende Reskalierung zu finden, so dass
- in Verteilung
für eine nicht degenerierte Wahrscheinlichkeitsverteilung . Für die Verteilungsfunktion von bedeutet dies
an jedem Stetigkeitspunkt von . Fordert man von der Reskalierung, dass die Wahrscheinlichkeitsverteilung auf der rechten Seite die Varianz 1 besitzen soll, so liefern die zentralen Grenzwertsätze, dass unter gewissen Umständen
ist, insbesondere ist die Grenzverteilung eine Standardnormalverteilung. Somit sind die „mittelgroßen“ Abweichungen von Erwartungswert von der Ordnung , wohingegen die großen nach den Gesetzen der großen Zahlen von der Ordnung sind.
Geschichte
BearbeitenDer erste zentrale Grenzwertsatz ist der zentrale Grenzwertsatz von de Moivre-Laplace. Er ist gültig für Summen von Bernoulli-verteilten Zufallsvariablen und wurde von Abraham de Moivre im Jahr 1730 für den Fall gezeigt und von Pierre-Simon Laplace 1812 für den allgemeinen Fall formuliert.[6] Erste allgemeine Ergebnisse zu den zentralen Grenzwertsätzen stammen von Pafnuti Lwowitsch Tschebyschow mit Korrekturen durch Andrei Andrejewitsch Markow. Im Jahre 1901 formulierte Alexander Michailowitsch Ljapunow die Ljapunow-Bedingung, welche eine hinreichende Bedingung für die Gültigkeit des zentralen Grenzwertsatzes ist (Satz von Ljapunow).[7] Eine weitere, etwas allgemeinere hinreichende Bedingung ist die Lindeberg-Bedingung von Jarl Waldemar Lindeberg aus dem Jahre 1922 (Lindeberg-Theorem). Eine weitere wichtige Aussage ist der Satz von Feller von William Feller aus dem Jahr 1935, der oft mit dem Lindeberg-Theorem zum zentralen Grenzwertsatz von Lindeberg-Feller zusammengefasst wird.[8]
Gesetze des iterierten Logarithmus
BearbeitenIdee
BearbeitenWährend sich die zentralen Grenzwertsätze mit den typischen Abweichungen beschäftigen, untersuchen die Gesetze des iterierten Logarithmus die maximale Abweichung über den gesamten Zeitraum. Betrachtet man die Abbildung
(in der Theorie der stochastischen Prozesse ein Pfad genannt), so ist dies eine reellwertige Funktion, definiert auf den ganzen Zahlen. Aufgrund der zufälligen Natur dieses Pfades kann man im Allgemeinen auch nach einer Reskalierung solch eines Pfades nicht mit einem eindeutigen nichttrivialen Grenzwert (d. h. ungleich oder ) des Pfades für rechnen. Daher wird anstelle dessen untersucht, welche Werte dieser Pfad (nach Reskalierung) noch unendlich oft erreicht.
Um somit eine Aussage über die größten Werte herzuleiten, die noch unendlich oft erreicht werden, sucht man ein , so dass
ist, da der Limes superior der größte Häufungspunkt einer Folge ist. Analoge Aussagen über die unendlich oft besuchten Minimalwerte erhält man über den Limes inferior.
Hier gibt die Reskalierung dann an, von welcher Größenordnung die maximalen Fluktuationen sind. Diese Größenordnung kann zwar überschritten werden, aber nur endlich oft. Konkret zeigen die Gesetze des iterierten Logarithmus, dass (unter gewissen Voraussetzungen)
für fast alle ist, woraus sich die Bezeichnung als iterierter Logarithmus ableitet.
Geschichte
BearbeitenEin erstes Gesetz des iterierten Logarithmus für unabhängig Bernoulli-Verteilte Zufallsvariablen zum Parameter zeigte Alexander Jakowlewitsch Chintschin im Jahr 1922.[4] Zwei Jahre darauf zeigte er die allgemeinere Fassung für Zufallsvariablen, die zwei verschiedene Werten annehmen.[9] Eine erste allgemeine Version des Gesetzes des iterierten Logarithmus wurde 1929 von Andrei Nikolajewitsch Kolmogorow gezeigt.[10] Weitere Versionen, beispielsweise von William Feller, wurden im Laufe der Zeit veröffentlicht.[11] Eine gängige Version des Gesetzes des iterierten Logarithmus ist der Satz von Hartman-Wintner, der 1941 von Philip Hartman und Aurel Wintner bewiesen wurde. Ebenso finden sich Formulierungen in stetiger Zeit für den Wiener-Prozess.
Weitere Konvergenzsätze
BearbeitenGroße Abweichungen
BearbeitenNach dem schwachen Gesetz der großen Zahlen konvergiert das arithmetische Mittel schwach gegen den Erwartungswert. Die Wahrscheinlichkeit, einen vom Erwartungswert abweichenden Wert zu erhalten konvergiert damit gegen Null. Die Theorie großer Abweichungen untersucht, wie schnell diese Konvergenz stattfindet.[12][13]
Lokale Grenzwertsätze
BearbeitenAls lokale Grenzwertsätze werden Aussagen bezeichnet, die sich aufbauend auf der Fragestellung der zentralen Grenzwertsätze damit beschäftigen, unter welchen Bedingungen die Wahrscheinlichkeitsdichten der Zufallsvariablen gegen die Wahrscheinlichkeitsdichte der Grenzverteilung konvergieren.[14]
Theorie der Zufallsmatrizen
BearbeitenWignersche Halbkreisgesetz
BearbeitenMarchenko-Pastur-Gesetz
BearbeitenWeblinks
Bearbeiten- Yu.V. Prokhorov: Limit theorems. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
Literatur
Bearbeiten- Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.
Einzelnachweise
Bearbeiten- ↑ Yu.V. Prokhorov: Bernoulli theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ A.V. Prokhorov: Poisson theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ a b c Yu.V. Prohorov: Law of large numbers. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ a b A.V. Prokhorov: Borel strong law of large numbers. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ a b Yu.V. Prokhorov: Strong law of large numbers. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ A.V. Prokhorov: Laplace theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ A.V. Prokhorov: Lyapunov theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ V.V. Petrov: Lindeberg-Feller theorem. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ A. Khintchine: Ueber einen Satz der Wahrscheinlichkeitsrechnung. In: Fund. Math. Nr. 6, 1924, S. 9–20 (edu.pl [PDF; abgerufen am 7. Oktober 2016]).
- ↑ A.N. Kolmogoroff: Ueber das Gesetz des iterierten Logarithmus. In: Math. Ann. Nr. 101, 1929, S. 126–135 (uni-goettingen.de [abgerufen am 7. Oktober 2016]).
- ↑ Law of the iterated logarithm. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ Klenke: Wahrscheinlichkeitstheorie. 2013, S. 529.
- ↑ V.V. Petrov, V.V. Yurinskii: Probability of large deviations. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- ↑ V.V. Petrov: local limit theorems. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).