Wahrscheinlichkeitsmaß
Ein Wahrscheinlichkeitsmaß dient dazu, den Begriff der Wahrscheinlichkeit zu quantifizieren und Ereignissen, die durch Mengen modelliert werden, eine Zahl im Intervall zuzuordnen. Diese Zahl repräsentiert dann die Wahrscheinlichkeit, mit der das durch die Menge beschriebene eintritt. Man verwendet typischerweise die Notation , um dem Ereignis die Wahrscheinlichkeit zuzuordnen.
Ein einfaches Beispiel ist das Werfen eines fairen Würfels : Dem Ereignis , dass die Augenzahl 2 geworfen wird, wird die Wahrscheinlichkeit zugeordnet.
Das Bildmaß eines Wahrscheinlichkeitsmaßes unter einer Zufallsvariable nennt man Wahrscheinlichkeitsverteilung, Zufallsverteilung, Verteilung oder Wahrscheinlichkeitsgesetz.
Im Rahmen der Maßtheorie entsprechen die Wahrscheinlichkeitsmaße speziellen endlichen Maßen, die sich durch ihre Normiertheit auszeichnen.
Insbesondere in der Physik werden manche Wahrscheinlichkeitsverteilungen auch als Statistiken bezeichnet. Beispiel hierfür sind die Boltzmann-Statistik und die Bose-Einstein-Statistik.
Definition
BearbeitenGegeben sei
- eine Menge , der sogenannte Ergebnisraum,
- eine σ-Algebra auf dieser Menge, das Ereignissystem.
Dann heißt eine Abbildung
mit den Eigenschaften
- Normiertheit: Es ist
- σ-Additivität: Für jede abzählbare Folge von paarweise disjunkten Mengen aus gilt
ein Wahrscheinlichkeitsmaß oder eine Wahrscheinlichkeitsverteilung.
Die drei Forderungen Normiertheit, σ-Additivität und Werte im Intervall zwischen 0 und 1 werden auch die Kolmogorow-Axiome genannt.
Elementares Beispiel
BearbeitenEin elementares Beispiel für ein Wahrscheinlichkeitsmaß ist durch den Wurf eines fairen Würfels gegeben. Der Ergebnisraum ist gegeben durch
und enthält alle möglichen Ausgänge des Würfelns. Das Ereignissystem enthält alle Teilmengen des Ergebnisraumes, denen man eine Wahrscheinlichkeit zuordnen will. In diesem Fall will man jeder Teilmenge des Ergebnisraumes eine Wahrscheinlichkeit zuordnen, daher wählt man als Ereignissystem die Potenzmenge, also die Menge aller Teilmengen von
- .
Das Wahrscheinlichkeitsmaß lässt sich nun definieren als
- für alle ,
da man von einem fairen Würfel ausgeht. Jede Augenzahl ist demnach gleich wahrscheinlich. Interessiert man sich nun für die Frage, wie groß die Wahrscheinlichkeit ist, eine gerade Zahl zu würfeln, folgt aus der σ-Additivität
Wichtig ist hier, dass Wahrscheinlichkeitsmaße keine Zahlen, sondern nur Mengen als Argumente nehmen. Daher sind Schreibweisen wie streng genommen falsch und müssten korrekterweise lauten.
Wahrscheinlichkeitsverteilungen und Wahrscheinlichkeitsverteilungen einer Zufallsvariable
BearbeitenEine Wahrscheinlichkeitsverteilung (oder kurz Verteilung) ist eine Funktion, welche Ereignissen ihre Wahrscheinlichkeiten zuordnet. Wir können auf zwei Arten über Wahrscheinlichkeitsverteilungen sprechen:
- als einzelnes Objekt ohne Zufallsvariable,
- als Verteilung einer Zufallsvariable.
Da wir uns aber immer eine nicht näher bestimmte Zufallsvariable im Hintergrund vorstellen können, fallen die Begriffe schlussendlich zusammen.
Wahrscheinlichkeitsverteilung ohne Zufallsvariable
BearbeitenHier betrachtet man eine Menge , welche in der Regel die reellen Zahlen , eine diskrete Menge oder ist. Auf dieser Menge können wir nun die Wahrscheinlichkeitsverteilung durch
- ihre Wahrscheinlichkeitsdichte respektive Wahrscheinlichkeitsfunktion
- ihre Verteilungsfunktion
beschreiben. In manchen Fällen existiert die Dichte allerdings nicht. Da man für die formelle Definition der Verteilung die Maßtheorie benötigt, werden wir uns als Erstes auf einen wichtigen Spezialfall auf beschränken. Wir nehmen nämlich an, dass die Verteilung den Intervallen der Form für ihre Wahrscheinlichkeiten zuordnen kann.
Hat man dann eine Dichte, so erfüllt die Verteilung die Beziehung
Hat man eine Verteilungsfunktion, so erfüllt die Verteilung die Beziehung
Ob die Verteilung die Intervalle der Form quantifizieren kann, hängt von der gewählten σ-Algebra ab. In der Regel wählt man für die reellen Zahlen die borelsche σ-Algebra .
Formell handelt es sich bei einer Verteilung um ein Wahrscheinlichkeitsmaß auf einem messbaren Raum und man sollte die Menge durch eine abstrakte Menge ersetzen. Das heißt, es gilt dann bei einer Dichte
Bei einer diskreten Wahrscheinlichkeitsverteilung mit Wahrscheinlichkeitsfunktion ersetzt man das Integral durch eine Summe
Wahrscheinlichkeitsverteilung einer Zufallsvariable
BearbeitenHat man ein Wahrscheinlichkeitsmaß und eine Zufallsvariable auf einem Wahrscheinlichkeitsraum , so kann man die Wahrscheinlichkeitsverteilung der Zufallsvariable definieren.
Die Zufallsvariable ist eine Abbildung der Form
die Wahrscheinlichkeitsverteilung wird nun das Bildmaß von auf , dadurch betrachten wir eine Abbildung der Form
Die Wahrscheinlichkeitsverteilung ist dann definiert als
für alle .
Reelle Verteilungen
BearbeitenDa sich demnach abstrakte und komplizierte Wahrscheinlichkeitsmaße durch Zufallsexperimente als konkrete Verteilungen von Zufallsvariablen auffassen lassen, ergeben sich die üblichen Notationen
für die Verteilungsfunktion von . Diese entspricht also offensichtlich der Verteilung eingeschränkt auf das System der Halbstrahlen – ein konkreter schnittstabiler Erzeuger der Borelschen -Algebra. Über den Maßeindeutigkeitssatz ergibt sich unmittelbar, dass durch die Verteilungsfunktion einer Zufallsvariablen immer auch die Verteilung in eindeutiger Weise bestimmt wird.
Eigenschaften als Maß
BearbeitenDie folgenden Eigenschaften folgen aus der Definition.
- Es ist . Dies folgt aus der σ-Additivität und der Tatsache, dass die leere Menge disjunkt zu sich selbst ist.
- Subtraktivität: Für mit gilt
- .
- Monotonie: Ein Wahrscheinlichkeitsmaß ist eine monotone Abbildung von nach , das heißt, für gilt
- .
- Endliche Additivität: Aus der σ-Additivität folgt direkt, dass für paarweise disjunkte Mengen gilt:
- σ-Subadditivität: Für eine beliebige Folge von Mengen aus gilt
- .
- σ-Stetigkeit von unten: Ist eine monoton gegen wachsende Mengenfolge in , also , so ist .
- σ-Stetigkeit von oben: Ist eine monoton gegen fallende Mengenfolge in , also , so ist .
- Prinzip von Inklusion und Exklusion: Es gilt
- sowie
- .
- Im einfachsten Fall entspricht dies
Konstruktion von Wahrscheinlichkeitsmaßen
BearbeitenVerfahren bei Wahrscheinlichkeitsmaßen auf den ganzen oder reellen Zahlen
BearbeitenWahrscheinlichkeitsfunktionen
BearbeitenAuf einer endlichen oder abzählbar unendlichen Grundmenge , versehen mit der Potenzmenge als σ-Algebra, also lassen sich Wahrscheinlichkeitsmaße durch Wahrscheinlichkeitsfunktionen definieren. Dies sind Abbildungen
- .
Die zweite Forderung liefert die Normiertheit des Wahrscheinlichkeitsmaßes. Dieses wird dann definiert durch
- .
Beispielsweise wäre im Falle eines fairen Würfels die Wahrscheinlichkeitsfunktion definiert durch
- .
Ein Beispiel für eine Wahrscheinlichkeitsfunktion auf einer abzählbar unendlichen Menge liefert die geometrische Verteilung, eine ihrer Varianten besitzt die Wahrscheinlichkeitsfunktion
wobei und . Die Normiertheit folgt hier mittels der geometrischen Reihe. Aus formaler Sicht ist wichtig, dass Wahrscheinlichkeitsfunktionen nicht wie Wahrscheinlichkeitsmaße Mengen als Argumente nehmen, sondern Elemente der Grundmenge . Daher wäre die Schreibweise falsch, korrekterweise heißt es .
Aus maßtheoretischer Sicht lassen sich Wahrscheinlichkeitsfunktionen auch als Wahrscheinlichkeitsdichten auffassen. Sie sind dann die Wahrscheinlichkeitsdichten bezüglich des Zählmaßes. Daher werden Wahrscheinlichkeitsfunktionen auch als Zähldichten bezeichnet. Trotz dieser Gemeinsamkeit wird streng zwischen den Wahrscheinlichkeitsfunktionen (auf diskreten Grundräumen) und den Wahrscheinlichkeitsdichten (auf stetigen Grundräumen) unterschieden.
Wahrscheinlichkeitsdichtefunktionen
BearbeitenAuf den reellen Zahlen , versehen mit der Borelschen σ-Algebra lassen sich Wahrscheinlichkeitsmaße über Wahrscheinlichkeitsdichtefunktionen definieren. Dies sind integrierbare Funktionen , für die gilt:
- Positivität:
- Normiertheit:
Das Wahrscheinlichkeitsmaß wird dann für durch
definiert.
Das Integral ist hier ein Lebesgue-Integral. In vielen Fällen ist jedoch ein Riemann-Integral ausreichend, man schreibt dann anstelle von . Typisches Beispiel eines Wahrscheinlichkeitsmaßes, das auf diese Art definiert wird, ist die Exponentialverteilung. Sie besitzt die Wahrscheinlichkeitsdichtefunktion
Es ist dann beispielsweise
für einen Parameter . Das Konzept von Wahrscheinlichkeitsdichtefunktionen kann auch auf den ausgeweitet werden. Es lassen sich aber nicht alle Wahrscheinlichkeitsmaße durch eine Wahrscheinlichkeitsdichte darstellen, sondern nur diejenigen, die absolutstetig bezüglich des Lebesgue-Maßes sind.
Verteilungsfunktionen
BearbeitenAuf den reellen Zahlen , versehen mit der Borelschen σ-Algebra lassen sich Wahrscheinlichkeitsmaße auch mit Verteilungsfunktionen definieren. Eine Verteilungsfunktion ist eine Funktion
mit den Eigenschaften
- ist monoton wachsend.
- ist rechtsseitig stetig: Für alle gilt
- .
Für jede Verteilungsfunktion gibt es ein eindeutig bestimmtes Wahrscheinlichkeitsmaß mit
- .
Umgekehrt kann mittels der obigen Identität jedem Wahrscheinlichkeitsmaß eine Verteilungsfunktion zugeordnet werden. Die Zuordnung von Wahrscheinlichkeitsmaß und Verteilungsfunktion ist somit nach dem Korrespondenzsatz bijektiv. Die Wahrscheinlichkeiten eines Intervalles enthält man dann über
- .
Insbesondere lässt sich auch jedem Wahrscheinlichkeitsmaß auf oder eine Verteilungsfunktion zuordnen. So ist die Bernoulli-Verteilung auf der Grundmenge definiert durch für einen reellen Parameter . Aufgefasst als Wahrscheinlichkeitsmaß auf den reellen Zahlen besitzt sie die Verteilungsfunktion
- .
Verteilungsfunktionen können auch für den definiert werden, man spricht dann von multivariaten Verteilungsfunktionen.
Allgemeine Verfahren
BearbeitenVerteilungen
BearbeitenMittels der Verteilung einer Zufallsvariablen kann ein Wahrscheinlichkeitsmaß über eine Zufallsvariable in einen zweiten Messraum übertragen werden und erzeugt dort wieder eine entsprechend der Zufallsvariablen transformierte Wahrscheinlichkeitsverteilung. Dieses Vorgehen entspricht der Konstruktion eines Bildmaßes in der Maßtheorie und liefert viele wichtige Verteilungen wie beispielsweise die Binomialverteilung.
Normierung
BearbeitenJedes endliche Maß, welches nicht das Null-Maß ist, kann durch Normierung in ein Wahrscheinlichkeitsmaß umgewandelt werden. Ebenso kann man ein σ-endliches Maß in ein Wahrscheinlichkeitsmaß transformieren, dies ist aber nicht eindeutig. Ist eine Zerlegung des Grundraumes in Mengen endlichen Maßes wie in der Definition des σ-endlichen Maßes gefordert, so liefert beispielsweise
das Geforderte.
Produktmaße
BearbeitenEine wichtige Möglichkeit, Wahrscheinlichkeitsmaße auf großen Räumen zu definieren, sind die Produktmaße. Dabei bildet man das kartesische Produkt zweier Grundmengen und fordert, dass das Wahrscheinlichkeitsmaß auf dieser größeren Menge (auf gewissen Mengen) genau dem Produkt der Wahrscheinlichkeitsmaße auf den kleineren Mengen entspricht. Insbesondere unendliche Produktmaße sind wichtig für die Existenz stochastischer Prozesse.
Eindeutigkeit der Konstruktionen
BearbeitenBei der Konstruktion von Wahrscheinlichkeitsmaßen werden diese häufig nur durch ihre Werte auf wenigen, besonders einfach zu handhabenden Mengen definiert. Beispiel hierfür ist die Konstruktion mittels einer Verteilungsfunktion, die nur die Wahrscheinlichkeiten der Intervalle vorgibt. Die Borelsche σ-Algebra enthält aber weitaus komplexere Mengen als diese Intervalle. Um die Eindeutigkeit der Definitionen zu garantieren, muss man zeigen, dass kein zweites Wahrscheinlichkeitsmaß existiert, das auf den Intervallen die geforderten Werte annimmt, sich aber auf einer weiteren, möglicherweise sehr komplexen Menge der Borelschen σ-Algebra von dem ersten Wahrscheinlichkeitsmaß unterscheidet. Dies leistet der folgende Maßeindeutigkeitssatz aus der Maßtheorie:
Ist ein Wahrscheinlichkeitsmaß auf der σ-Algebra und ist ein durchschnittsstabiler Erzeuger dieser σ-Algebra, also , so ist bereits durch seine Werte auf eindeutig bestimmt. Genauer: Ist ein weiteres Wahrscheinlichkeitsmaß und sind die Einschränkungen auf gleich, gilt also
so ist . Typische Erzeuger von σ-Algebren sind
- für endliche oder abzählbar unendliche Mengen , versehen mit der Potenzmenge das Mengensystem der Elemente von , also
- ,
- für die Borelsche σ-Algebra auf das System der Intervalle
- ,
- für die Produkt-σ-Algebra das System der Zylindermengen.
Diese Erzeuger liefern somit die Eindeutigkeit der Konstruktion von Wahrscheinlichkeitsmaßen mittels Wahrscheinlichkeitsfunktionen, Verteilungsfunktionen und Produktmaßen.
Typen von Wahrscheinlichkeitsverteilungen
BearbeitenDiskrete Verteilungen
BearbeitenAls diskrete Verteilungen werden Wahrscheinlichkeitsverteilungen auf endlichen oder abzählbar unendlichen Grundräumen bezeichnet. Diese Grundräume werden fast immer mit der Potenzmenge als Mengensystem versehen, die Wahrscheinlichkeiten werden dann meist über Wahrscheinlichkeitsfunktionen definiert. Diskrete Verteilungen auf den natürlichen oder ganzen Zahlen können in den Messraum eingebettet werden und besitzen dann auch eine Verteilungsfunktion. Diese zeichnet sich durch ihre Sprungstellen aus.
Stetige Verteilungen
BearbeitenVerteilungen auf den reellen Zahlen, versehen mit der borelschen σ-Algebra werden als stetige Verteilung bezeichnet, wenn sie stetige Verteilungsfunktionen besitzen. Die stetigen Verteilungen lassen sich noch in absolutstetige und stetigsinguläre Wahrscheinlichkeitsverteilungen unterteilen.
Absolutstetige Wahrscheinlichkeitsverteilungen
BearbeitenAls absolutstetige Wahrscheinlichkeitsverteilungen bezeichnet man diejenigen Wahrscheinlichkeitsverteilungen, die eine Wahrscheinlichkeitsdichtefunktion besitzen, sich also in der Form
darstellen lassen für eine integrierbare Funktion . Hierbei handelt es sich um ein Lebesgue-Integral, das aber in den meisten Fällen durch ein Riemann-Integral ersetzt werden kann.
Diese Definition kann auch auf Verteilungen auf dem entsprechend ausgeweitet werden. Aus maßtheoretischer Sicht handelt es sich nach dem Satz von Radon-Nikodým bei den absolutstetigen Verteilungen genau um die absolutstetigen Maße bezüglich des Lebesgue-Maßes.
Stetigsinguläre Wahrscheinlichkeitsverteilungen
BearbeitenAls stetigsinguläre Verteilungen werden diejenigen Wahrscheinlichkeitsverteilungen bezeichnet, die zwar eine stetige Verteilungsfunktion, aber keine Wahrscheinlichkeitsdichtefunktion besitzen. Stetigsinguläre Wahrscheinlichkeitsverteilungen sind in der Anwendung selten und werden meist gezielt konstruiert. Beispiel hierfür ist das pathologische Beispiel der Cantor-Verteilung.
Mischformen und ihre Zerlegung
BearbeitenAußer den oben genannten Reinformen von Wahrscheinlichkeitsverteilungen existieren noch Mischformen. Diese entstehen beispielsweise, wenn man Konvexkombinationen von diskreten und stetigen Verteilungen bildet.
Umgekehrt kann man nach dem Darstellungssatz jede Wahrscheinlichkeitsverteilung eindeutig in ihre absolutstetigen, stetigsingulären und diskreten Anteile zerlegt werden.
Univariate und multivariate Verteilungen
BearbeitenWahrscheinlichkeitsverteilungen, die sich in mehrere Raumdimensionen erstrecken, werden multivariate Verteilungen genannt. Im Gegensatz dazu nennt man die eindimensionalen Verteilungen univariate Wahrscheinlichkeitsverteilungen. Die Dimensionalität bezieht sich hier nur auf den Grundraum, nicht auf die Parameter, welche die Wahrscheinlichkeitsverteilung beschreiben. So ist die (gewöhnliche) Normalverteilung eine univariate Verteilung, auch wenn sie durch zwei Formparameter bestimmt wird.
Des Weiteren existieren noch matrixvariate Wahrscheinlichkeitsverteilungen wie die Wishart-Verteilung.
Charakterisierung durch Kennzahlen
BearbeitenWahrscheinlichkeitsverteilungen können unterschiedliche Kennzahlen zugeordnet werden. Diese versuchen jeweils, eine Eigenschaft einer Wahrscheinlichkeitsverteilung zu quantifizieren und damit kompakte Aussagen über die Eigenheiten der Verteilung zu ermöglichen. Beispiele hierfür sind:
Kennzahlen, die auf den Momenten beruhen:
- Erwartungswert, die Kennzahl für die mittlere Lage einer Wahrscheinlichkeitsverteilung
- Varianz und die daraus berechnete Standardabweichung, Kennzahl für den Grad der „Streuung“ der Verteilung
- Schiefe, Kennzahl für die Asymmetrie der Verteilung
- Wölbung, Kennzahl für die „Spitzigkeit“ der Verteilung
Des Weiteren gibt es
- den Median, der sich über die verallgemeinerte inverse Verteilungsfunktion berechnen lässt
- allgemeiner die Quantile, beispielsweise die Terzile, Quartile, Dezile etc.
Allgemein unterscheidet man zwischen Lagemaßen und Dispersionsmaßen. Lagemaße wie der Erwartungswert geben an, „wo“ sich die Wahrscheinlichkeitsverteilung befindet und was „typische“ Werte sind, Dispersionsmaße wie die Varianz hingegen geben an, wie sehr die Verteilung um diese typischen Werte streut.
Wichtige Wahrscheinlichkeitsmaße
BearbeitenHier sind einige der wichtigen Wahrscheinlichkeitsverteilungen aufgezählt. Weitere finden sich in der Liste univariater Wahrscheinlichkeitsverteilungen sowie der Liste multivariater und matrixvariater Wahrscheinlichkeitsverteilungen oder über die Navigationsleiste am Artikelende einer beliebigen Wahrscheinlichkeitsverteilung.
Diskret
BearbeitenEine der elementaren Wahrscheinlichkeitsverteilungen ist die Bernoulli-Verteilung. Sie modelliert einen Münzwurf mit einer möglicherweise gezinkten Münze. Dementsprechend gibt es zwei Ausgänge: Kopf oder Zahl, häufig der Einfachheit halber mit 0 und 1 codiert. Darauf aufbauend ist die Binomialverteilung. Sie gibt die Wahrscheinlichkeit an, bei n Würfen mit einer Münze k-mal Kopf zu werfen.
Eine weitere wichtige Wahrscheinlichkeitsverteilung ist die diskrete Gleichverteilung. Sie entspricht dem Würfeln mit einem fairen, n-flächigen Würfel. Jede Fläche hat demnach dieselbe Wahrscheinlichkeit. Ihre Bedeutung kommt daher, dass sich aus der diskreten Gleichverteilung über das Urnenmodell eine große Anzahl weiterer Wahrscheinlichkeitsverteilungen als Verteilung von entsprechenden Zufallsvariablen erzeugen lassen. Auf diese Weise lassen sich beispielsweise die hypergeometrische Verteilung, die geometrische Verteilung und die negative Binomialverteilung erzeugen.
Stetig
BearbeitenHerausragend unter den stetigen Verteilungen ist die Normalverteilung. Diese Sonderstellung ist auf den zentralen Grenzwertsatz zurückzuführen. Er besagt, dass unter gewissen Umständen eine Überlagerung zufälliger Ereignisse sich immer mehr der Normalverteilung annähert. Dementsprechend wichtig ist die Normalverteilung in der Statistik. Direkt aus ihr abgeleitet sind die Chi-Quadrat-Verteilung und die Studentsche t-Verteilung, die zur Parameterschätzung in der Statistik verwendet werden.
Verteilungsklassen
BearbeitenAls Verteilungsklassen bezeichnet man eine Menge von Wahrscheinlichkeitsmaßen, die sich durch eine gemeinsame, mehr oder weniger allgemein formulierte Eigenschaft auszeichnen. Eine zentrale Verteilungsklasse in der Statistik ist die Exponentialfamilie, sie zeichnet sich durch eine allgemeine Dichtefunktion aus. Wichtige Verteilungsklassen in der Stochastik sind beispielsweise die unendlich teilbaren Verteilungen oder die alpha-stabilen Verteilungen.
Konvergenz von Wahrscheinlichkeitsmaßen
BearbeitenDie Konvergenz von Wahrscheinlichkeitsmaßen wird Konvergenz in Verteilung oder schwache Konvergenz genannt. Dabei betont die Benennung als
- Konvergenz in Verteilung, dass es sich um die Konvergenz von Verteilungen von Zufallsvariablen handelt,
- schwache Konvergenz, dass es sich um einen Spezialfall der schwachen Konvergenz von Maßen aus der Maßtheorie handelt.
Meist wird die Konvergenz in Verteilung als Bezeichnung bevorzugt, da dies einen besseren Vergleich mit den Konvergenzarten der Stochastik (Konvergenz in Wahrscheinlichkeit, Konvergenz im p-ten Mittel und fast sichere Konvergenz) ermöglicht, die alle Konvergenzarten von Zufallsvariablen und nicht von Wahrscheinlichkeitsmaßen sind.
Es existieren viele äquivalente Charakterisierungen der schwachen Konvergenz / Konvergenz in Verteilung. Diese werden im Portmanteau-Theorem aufgezählt.
Auf den reellen Zahlen
BearbeitenDie Konvergenz in Verteilung wird auf den reellen Zahlen über die Verteilungsfunktionen definiert:
- Eine Folge von Wahrscheinlichkeitsmaßen konvergiert genau dann schwach gegen das Wahrscheinlichkeitsmaß , wenn die Verteilungsfunktionen an jeder Stetigkeitsstelle der Verteilungsfunktion punktweise gegen diese konvergieren.
- Eine Folge von Zufallsvariablen heißt konvergent in Verteilung gegen , wenn die Verteilungsfunktionen an jeder Stetigkeitsstelle der Verteilungsfunktion punktweise gegen diese konvergieren.
Diese Charakterisierung der schwachen Konvergenz / Konvergenz in Verteilung ist eine Folgerung aus dem Satz von Helly-Bray, wird aber oft als Definition genutzt, da sie leichter zugänglich ist als die allgemeine Definition. Die obige Definition entspricht der schwachen Konvergenz von Verteilungsfunktionen für den Spezialfall von Wahrscheinlichkeitsmaßen, wo sie der Konvergenz bezüglich des Lévy-Abstandes entspricht. Der Satz von Helly-Bray liefert die Äquivalenz der schwachen Konvergenz von Verteilungsfunktionen und der schwachen Konvergenz / Konvergenz in Verteilung auf .
Allgemeiner Fall
BearbeitenIm allgemeinen Fall wird die schwache Konvergenz / Konvergenz in Verteilung durch eine trennende Familie charakterisiert. Ist ein metrischer Raum, sei als σ-Algebra immer die Borelsche σ-Algebra gewählt und sei die Menge der beschränkten stetigen Funktionen. Dann heißt
- eine Folge von Wahrscheinlichkeitsmaßen schwach konvergent gegen das Wahrscheinlichkeitsmaß , wenn
- eine Folge von Zufallsvariablen konvergent in Verteilung gegen , wenn
Meist werden noch weitere strukturelle Eigenschaften von der Grundmenge gefordert, um gewisse Eigenschaften der Konvergenz zu garantieren.
Räume von Wahrscheinlichkeitsmaßen
BearbeitenDie Eigenschaften der Menge von Wahrscheinlichkeitsmaßen hängen maßgeblich von den Eigenschaften des Grundraumes und der σ-Algebra ab. Im Folgenden wird eine Übersicht über die wichtigsten Eigenschaften der Menge der Wahrscheinlichkeitsmaße gegeben. Dabei sind die allgemeinsten Eigenschaften zuerst genannt und folgen, soweit nicht explizit anders erwähnt, auch für alle weiter unten stehenden Abschnitte. Als Notation sei vereinbart:
- ist die Borelsche σ-Algebra, falls mindestens ein topologischer Raum ist.
- ist die Menge der endlichen signierten Maße auf dem Messraum .
- ist die Menge der endlichen Maße auf dem entsprechenden Messraum.
- ist die Menge der Sub-Wahrscheinlichkeitsmaße auf dem entsprechenden Messraum.
- ist die Menge der Wahrscheinlichkeitsmaße auf dem entsprechenden Messraum.
Allgemeine Grundräume
BearbeitenAuf allgemeinen Mengen sind die Wahrscheinlichkeitsmaße eine Teilmenge des reellen Vektorraumes der endlichen signierten Maße. Es gelten demnach die Inklusionen
- .
Der Vektorraum der endlichen signierten Maße wird mit der Totalvariationsnorm zu einem normierten Vektorraum. Da die Wahrscheinlichkeitsmaße aber nur eine Teilmenge und kein Untervektorraum der signierten Maße sind, sind sie selbst kein normierter Raum. Anstelle dessen werden sie mit dem Totalvariationsabstand
zu einem metrischen Raum. Ist eine dominierte Verteilungsklasse, besitzen also alle Maße in dieser Menge eine Wahrscheinlichkeitsdichtefunktion bezüglich eines einzigen σ-endlichen Maßes, so ist die Konvergenz bezüglich des Totalvariationsabstandes äquivalent zur Konvergenz bezüglich des Hellingerabstandes.
Metrische Räume
BearbeitenIst ein metrischer Raum, so lässt sich auf die schwache Konvergenz definieren. Bezeichnet man die von der schwachen Konvergenz erzeugten Topologie mit und die entsprechenden Spurtopologie auf den Wahrscheinlichkeitsmaßen als , so wird zu einem topologischen Raum, der sogar ein Hausdorff-Raum ist. Außerdem sind Limites schwach konvergenter Folgen von Wahrscheinlichkeitsmaßen immer selbst Wahrscheinlichkeitsmaße (setze dazu in der Definition). Die Konvergenz bezüglich des Totalvariationsabstandes impliziert immer die schwache Konvergenz, die Umkehrung gilt aber im Allgemeinen nicht. Somit ist die vom Totalvariationsabstand erzeugte Topologie stärker als .
Des Weiteren lässt sich noch die Prochorow-Metrik auf definieren. Sie macht zu einem metrischen Raum. Außerdem impliziert die Konvergenz bezüglich der Prochorow-Metrik in allgemeinen metrischen Räumen die schwache Konvergenz. Die von ihr erzeugte Topologie ist demnach stärker als .
Separable metrische Räume
BearbeitenIst ein separabler metrischer Raum, so ist auch ein separabler metrischer Raum (tatsächlich gilt auch der Umkehrschluss). Da sich bei metrischen Räumen die Separabilität auf Teilmengen überträgt, ist auch separabel.
Außerdem sind auf separablen metrischen Räumen die schwache Konvergenz und die Konvergenz bezüglich der Prochorow-Metrik äquivalent. Die Prochorow-Metrik metrisiert also .
Polnische Räume
BearbeitenIst ein polnischer Raum, so ist auch ein polnischer Raum. Da abgeschlossen ist in , ist auch ein polnischer Raum.
Literatur
Bearbeiten- Ulrich Krengel: Einführung in die Wahrscheinlichkeitstheorie und Statistik. Für Studium, Berufspraxis und Lehramt. 8. Auflage. Vieweg, Wiesbaden 2005, ISBN 3-8348-0063-5, doi:10.1007/978-3-663-09885-0.
- Hans-Otto Georgii: Stochastik. Einführung in die Wahrscheinlichkeitstheorie und Statistik. 4. Auflage. Walter de Gruyter, Berlin 2009, ISBN 978-3-11-021526-7, doi:10.1515/9783110215274.
- David Meintrup, Stefan Schäffler: Stochastik. Theorie und Anwendungen. Springer-Verlag, Berlin Heidelberg New York 2005, ISBN 978-3-540-21676-6, doi:10.1007/b137972.
Weblinks
Bearbeiten- V. V. Sazonov: Probability measure. In: Michiel Hazewinkel (Hrsg.): Encyclopedia of Mathematics. Springer-Verlag und EMS Press, Berlin 2002, ISBN 1-55608-010-7 (englisch, encyclopediaofmath.org).
- Eric W. Weisstein: Probability Measure. In: MathWorld (englisch).
- Interaktive graphische Darstellungen verschiedener Wahrscheinlichkeitsfunktionen bzw. Dichten (Uni Konstanz)
- Katalog der Wahrscheinlichkeitsverteilungen in der GNU Scientific Library.
- Numerische Berechnung und Darstellung von Dichten und Verteilungsfunktionen einiger wichtiger Wahrscheinlichkeitsverteilungen
- Weitere Verteilungen aus dem Wiki der Uni Frankfurt ( vom 30. Mai 2009 im Internet Archive)