Fast sichere Konvergenz
Die fast sichere Konvergenz, auch P-fast sichere Konvergenz oder fast sichere punktweise Konvergenz ist ein Begriff aus der Wahrscheinlichkeitstheorie, einem Teilgebiet der Mathematik. Die fast sichere Konvergenz ist neben der Konvergenz im p-ten Mittel, der stochastischen Konvergenz und der Konvergenz in Verteilung einer der vier wichtigsten Konvergenzbegriffe für Folgen von Zufallsvariablen und ist das wahrscheinlichkeitstheoretische Pendant zur Konvergenz fast überall der Maßtheorie. Die fast sichere Konvergenz findet beispielsweise Verwendung bei der Formulierung des starken Gesetzes der großen Zahlen.
Definition
BearbeitenAllgemeiner Fall
BearbeitenSei ein Wahrscheinlichkeitsraum und ein separabler, metrischer Raum (wie zum Beispiel der ) versehen mit der Borelschen σ-Algebra sowie Zufallsvariablen von nach . Die Folge von Zufallsvariablen konvergiert dann fast sicher oder P-fast sicher gegen , wenn eine Menge existiert mit und
für alle . Man schreibt dann auch , oder -f.s.
Für reelle Zufallsvariablen
BearbeitenAlternativ findet sich für reelle Zufallsvariablen auch die Formulierung, dass die Zufallsvariablen genau dann fast sicher konvergieren, wenn
ist.
Beispiele
BearbeitenBetrachte als Beispiel die Grundmenge der reellen Zahlen im Intervall von 0 bis 1, also , versehen mit der Borelschen σ-Algebra . Das Wahrscheinlichkeitsmaß sei das Diracmaß auf der 1, also
für . Gegeben seien zwei Zufallsvariablen von nach definiert durch
- .
und
Eine Folge von Zufallsvariablen sei definiert durch
- .
Dabei bezeichnet die charakteristische Funktion. Die Folge von Zufallsvariablen konvergiert für gegen unendlich für jedes gegen 1 und für gegen 0. Demnach ist
- ,
daher konvergieren die nicht fast sicher gegen , da für jedes Wahrscheinlichkeitsmaß gilt. Es ist aber
Da aber ist, konvergieren die fast sicher gegen , obwohl die punktweise Konvergenz nur in einem einzigen Punkt stattfindet. Dieser wird aber durch das Diracmaß maximal gewichtet.
Eigenschaften
BearbeitenDie fast sichere Konvergenz der Folge ist äquivalent dazu, dass
gilt. Mit der Bonferroni-Ungleichung erhält man dann das folgende hinreichende Kriterium für die fast sichere Konvergenz:
für alle . Die Terme der Form können dann beispielsweise mit der Markow-Ungleichung abgeschätzt werden.
Beziehung zu anderen Konvergenzarten der Stochastik
BearbeitenAllgemein gelten für die Konvergenzbegriffe der Wahrscheinlichkeitstheorie die Implikationen
und
- .
Die Fast sichere Konvergenz ist also einer der starken Konvergenzbegriffe der Wahrscheinlichkeitstheorie. In den unten stehenden Abschnitten sind die Beziehungen zu den andere Konvergenzarten genauer ausgeführt.
Konvergenz in Wahrscheinlichkeit
BearbeitenAus der fast sicheren Konvergenz folgt die Konvergenz in Wahrscheinlichkeit. Um dies zu sehen, definiert man die Mengen
- .
Die bilden eine monoton wachsende Mengenfolge, und die Menge enthält die Menge
der Elemente, auf denen die Folge punktweise konvergiert. Nach Voraussetzung ist und damit auch und demnach . Durch Komplementbildung folgt dann die Aussage.
Die Umkehrung gilt aber im Allgemeinen nicht. Ein Beispiel hierfür ist die Folge von unabhängigen Bernoulli-verteilten Zufallsvariablen zum Parameter , also . Dann ist
für alle und somit konvergiert die Folge in Wahrscheinlichkeit gegen 0. Die Folge konvergiert aber nicht fast sicher, man zeigt dies mit dem hinreichenden Kriterium für fast sichere Konvergenz und dem Borel-Cantelli-Lemma.
Bedingungen, unter denen aus der Konvergenz in Wahrscheinlichkeit die fast sichere Konvergenz folgt sind:
- Die Konvergenzgeschwindigkeit der Konvergenz in Wahrscheinlichkeit ist ausreichend schnell, sprich es gilt
- .
- Der Grundraum lässt sich als abzählbare Vereinigung von μ-Atomen darstellen. Dies ist bei Wahrscheinlichkeitsräumen mit höchstens abzählbarer Grundmenge immer möglich.
- Ist die Folge der Zufallsvariablen fast sicher streng monoton fallend und konvergiert in Wahrscheinlichkeit gegen 0, so konvergiert die Folge fast sicher gegen 0.
Allgemeiner besitzt jede in Wahrscheinlichkeit konvergierende Folge eine Teilfolge, die fast sicher konvergiert.
Konvergenz in Verteilung
BearbeitenDie Skorochod-Darstellung trifft eine Aussage darüber, unter welchen Bedingungen aus der Konvergenz in Verteilung auf die fast sichere Konvergenz geschlossen werden kann.
Konvergenz im p-ten Mittel
BearbeitenIm Allgemeinen folgt aus der Konvergenz im p-ten Mittel nicht die fast sichere Konvergenz. Betrachtet man beispielsweise eine Folge von Zufallsvariablen mit
- ,
so ist für alle
- ,
was gegen null konvergiert. Somit konvergieren die Zufallsvariablen im -ten Mittel gegen 0. Jedoch kann die Abhängigkeits-Struktur der untereinander (das heißt das Zusammenspiel der Träger der in ) so gestaltet sein, dass die nicht fast sicher konvergieren. Ein ähnliches aber detaillierteres und konkreteres Beispiel ist im Artikel Konvergenz (Stochastik) zu finden.
Konvergiert allerdings eine Folge von Zufallsvariablen im p-ten Mittel gegen und gilt
- ,
dann konvergiert die Folge auch fast sicher gegen . Die Konvergenz muss also „schnell genug“ sein. (Alternativ kann man auch nutzen, dass bei Gültigkeit des Konvergenzsatz von Vitali die Konvergenz nach Wahrscheinlichkeit und die fast sichere Konvergenz zusammenfallen. Sind somit die Voraussetzungen dieses Satzes erfüllt, so folgt aus Konvergenz im -ten Mittel die fast sichere Konvergenz, da aus der Konvergenz im -ten Mittel automatisch die Konvergenz in Wahrscheinlichkeit folgt.)
Umgekehrt folgt aus der fast sicheren Konvergenz auch nicht die Konvergenz im -ten Mittel. Betrachtet man beispielsweise auf dem Wahrscheinlichkeitsraum die Zufallsvariablen
- ,
so konvergiert diese für punktweise gegen 0 und damit auf ganz fast sicher gegen 0 ( bezeichnet hier die Gleichverteilung auf ).
Es ist aber und die Folge ist demnach unbeschränkt für alle , kann also nicht konvergieren.
Allerdings liefert der Satz von der majorisierten Konvergenz ein Kriterium, unter dem diese Folgerung korrekt ist. Konvergieren die fast sicher und existiert eine Zufallsvariable mit und ist fast sicher, so konvergieren die im -ten Mittel gegen und auch für gilt .
Literatur
Bearbeiten- Christian Hesse: Angewandte Wahrscheinlichkeitstheorie. 1. Auflage. Vieweg, Wiesbaden 2003, ISBN 3-528-03183-2, S. 216–238, doi:10.1007/978-3-663-01244-3.
- Achim Klenke: Wahrscheinlichkeitstheorie. 3. Auflage. Springer-Verlag, Berlin Heidelberg 2013, ISBN 978-3-642-36017-6, doi:10.1007/978-3-642-36018-3.