Wahrscheinlichkeitstheorie

Teilgebiet der Mathematik
(Weitergeleitet von Gegenwahrscheinlichkeit)

Die Wahrscheinlichkeitstheorie, auch Wahrscheinlichkeitsrechnung oder Probabilistik, ist ein Teilgebiet der Mathematik, das aus der Formalisierung, der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik.

Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.

Axiomatischer Aufbau

Bearbeiten

Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.

Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.

Definitionen

Bearbeiten

Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem Zufallsvorgang oder Zufallsexperiment ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der Ergebnismenge   zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis  , sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt, was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. Ein Ereignis ist also als eine Teilmenge von   definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es sich um ein Elementarereignis. Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.

Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem Ereignissystem   über  , einer Menge von Teilmengen von  , für die gilt: Sie enthält   und ist ein σ-Körper, d. h., sie ist gegenüber den Mengenoperationen der Vereinigung und der Komplementbildung (relativ bzgl.  ) abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung   des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. Das Tripel   wird als Wahrscheinlichkeitsraum bezeichnet.

Axiome von Kolmogorow

Bearbeiten

Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Kolmogorow entwickelt und 1933 publiziert.[1] Seine ursprünglich aus sechs Axiomen bestehende Axiomatik wird manchmal in folgender verkürzter Form dargestellt. Ein Wahrscheinlichkeitsmaß muss folgende drei Axiome erfüllen:

Axiome:

  1. Für jedes Ereignis   ist die Wahrscheinlichkeit von   eine reelle Zahl zwischen 0 und 1:  .
  2. Das sichere Ereignis   hat die Wahrscheinlichkeit 1:  .
  3. Die Wahrscheinlichkeit einer Vereinigung abzählbar vieler inkompatibler Ereignisse ist gleich der Summe der Wahrscheinlichkeiten der einzelnen Ereignisse. Dabei heißen Ereignisse   inkompatibel, wenn sie paarweise disjunkt sind, also bei   für alle  . Es gilt daher  . Diese Eigenschaft wird auch σ-Additivität genannt.

Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Quantifizierung der Wahrscheinlichkeiten von Ereignissen eines Münzwurfes angesetzt; die möglichen Ergebnisse mögen Zahl und Kopf lauten.

  • Dann ist die Ergebnismenge   mit zwei möglichen Ergebnissen.
  • Als Ereignisraum   kann die Potenzmenge   gewählt werden, also   mit vier Ereignissen.
  • Ein Wahrscheinlichkeitsmaß   weist den Ereignissen Wahrscheinlichkeiten (Zahlen im Intervall  ) zu. Dabei gilt aufgrund der Axiome:
    •  
    •  
    •  

Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können zur Wahl   führen.

Folgerungen

Bearbeiten

Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:

1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, dass komplementäre Ereignisse (Gegenereignisse) komplementäre Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben:  .

Beweis: Es ist   sowie  . Folglich nach Axiom (3):   und dann nach Axiom (2):  . Umgestellt ergibt sich:  .

2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die Wahrscheinlichkeit null hat:  .

Beweis: Es ist   und  , also nach Axiom (3):  . Hieraus folgt  .

3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt:  .

 
Beweis: Die für den Beweis erforderlichen Mengen sind im obigen Bild dargestellt. Die Menge   kann danach als Vereinigung von drei disjunkten Mengen dargestellt werden:
Hieraus folgt nach (3):  .
Andererseits ist nach (3) sowohl
  als auch
 .
Addition liefert:
 .
Umstellen ergibt  .
Die Siebformel von Poincaré-Sylvester verallgemeinert diese Behauptung im Falle n verschiedener (nicht notwendig disjunkter) Teilmengen.

Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.

Abzählbare Ergebnismenge

Bearbeiten
 
Beispiel: Ein Glücksrad mit Ergebnismenge  , Ereignisraum   (hier die Potenzmenge von  ) und Wahrscheinlichkeitsmaß  .

Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine positive Wahrscheinlichkeit zugewiesen werden. Wenn   endlich oder abzählbar unendlich ist, kann man für die σ-Algebra   die Potenzmenge von   wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus   ist hier 1.

Überabzählbare Ergebnismenge

Bearbeiten
 
Die Wahrscheinlichkeit, mit einer als punktförmig angenommenen Dartspitze einen bestimmten Punkt auf einer Scheibe zu treffen, ist null. Eine sinnvolle mathematische Theorie kann man nur auf der Wahrscheinlichkeit aufbauen, bestimmte Teilflächen zu treffen. Solche Wahrscheinlichkeiten lassen sich durch eine Wahrscheinlichkeitsdichte beschreiben.

Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche Mengen oder auch (Borel-)messbar. Wenn die Wahrscheinlichkeit   jeder Borelschen Menge   als Integral

 

über eine Wahrscheinlichkeitsdichte   geschrieben werden kann, wird   absolut stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte eines absolut stetigen Wahrscheinlichkeitsmaßes   ist nur fast überall eindeutig bestimmt, d. h., sie kann auf einer beliebigen Lebesgue-Nullmenge, also einer Menge vom Lebesgue-Maß 0, abgeändert werden, ohne dass   verändert wird. Wenn die erste Ableitung der Verteilungsfunktion von   existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten interpretiert.

Spezielle Eigenschaften im Fall diskreter Wahrscheinlichkeitsräume

Bearbeiten

Laplace-Experimente

Bearbeiten

Wenn man annimmt, dass nur endlich viele Elementarereignisse möglich und alle gleichberechtigt sind, d. h. mit der gleichen Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht man von einem Laplace-Experiment. Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine endliche Ergebnismenge   an, die die Mächtigkeit   besitzt, d. h., sie hat   Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach  .

Beweis: Wenn   ist, dann gibt es   Elementarereignisse  . Es ist dann einerseits   und andererseits sind je zwei Elementarereignisse disjunkt (inkompatibel: wenn das eine eintritt, kann das andere nicht eintreten). Also sind die Voraussetzungen für Axiom (3) erfüllt, und es gilt:
 
Da nun andererseits   sein soll, ist   und daher umgestellt:  , wie behauptet.

Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren Elementarereignissen zusammensetzen, die entsprechend vielfache Wahrscheinlichkeit gilt. Ist   ein Ereignis der Mächtigkeit  , so ist   die Vereinigung von   Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit  , also ist  . Man erhält somit den einfachen Zusammenhang

 

Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses also gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.

Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.

 ⚀,⚁,⚂,⚃,⚄,⚅ 
 ⚄,⚅ 
 

Das Ereignis   = Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.

Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel mit   Karten oder das Ziehen einer Kugel aus einer Urne mit   Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig Methoden der Kombinatorik verwendet.

Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.

Bedingte Wahrscheinlichkeit

Bearbeiten

Unter einer bedingten Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten eines Ereignisses   unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses   bereits bekannt ist. Natürlich muss   eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt dann   oder seltener   für „Wahrscheinlichkeit von   unter der Voraussetzung  “, kurz „  von  , vorausgesetzt  “.

Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt eine Herz-Karte zu ziehen (Ereignis  ), beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist  . Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die Wahrscheinlichkeit  .

 
Ergebnismenge beim Ziehen einer Karte aus einem Skatspiel

Wenn nun aber bereits das Ereignis   „Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch die Auswahl unter den 16 roten Karten hat, dann ist   die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.

Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall definiert man die bedingte Wahrscheinlichkeit von „ , vorausgesetzt  “ als

 

Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf   als neue Ergebnismenge beschränkt; d. h., dass gilt:

  1.  
  2.  
  3. Wenn   paarweise disjunkt sind, so ist  

Beweis:

  1.   ist Quotient zweier Wahrscheinlichkeiten, für welche nach Axiom (1) gilt   und  . Da   nicht das unmögliche Ereignis sein soll, ist sogar  . Also gilt auch für den Quotienten  . Ferner sind   und   disjunkt, und ihre Vereinigung ist  . Also ist nach Axiom (3):  .
    Da   ist, folgt   und daher  .
  2. Es ist  
  3. Des Weiteren ergibt sich:
 
Dies war zu zeigen.

Beispiel: Es sei wie oben   das Ereignis „Ziehen einer Herz-Karte“ und   das Ereignis „Es ist eine rote Karte“. Dann ist:

 

und

 

Folglich gilt:

 

Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:

Verbundwahrscheinlichkeit (Schnittmengen von Ereignissen)

Bearbeiten

Das gleichzeitige Eintreten zweier Ereignisse   und   entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses  . Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen Wahrscheinlichkeit oder Verbundwahrscheinlichkeit

 

Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits

 

und andererseits auch

 

Umstellen nach   liefert dann sofort die Behauptung.

Beispiel: Es wird eine Karte aus 32 Karten gezogen.   sei das Ereignis: „Es ist ein König“.   sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist   das gleichzeitige Eintreten von   und  , also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist  . Ferner ist  , denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann   die Wahrscheinlichkeit für den Herz-König.

Satz von Bayes

Bearbeiten

Die bedingte Wahrscheinlichkeit von   unter der Bedingung   lässt sich durch die bedingte Wahrscheinlichkeit von   unter der Bedingung   durch

 

ausdrücken, wenn man die totalen Wahrscheinlichkeiten   und   kennt (Satz von Bayes).

Abhängigkeit und Unabhängigkeit von Ereignissen

Bearbeiten

Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:

Zwei Ereignisse   und   sind unabhängig, wenn   gilt.
Ungenau, aber einprägsam formuliert: Bei unabhängigen Ereignissen kann man die Wahrscheinlichkeiten multiplizieren.

Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch Umstellen nach  :

 

Das bedeutet: Die totale Wahrscheinlichkeit für   ist ebenso groß wie die Wahrscheinlichkeit für  , vorausgesetzt  ; das Eintreten von   beeinflusst also die Wahrscheinlichkeit von   nicht.

Beispiel: Es wird eine aus 32 Karten gezogen.   sei das Ereignis „Es ist eine Herz-Karte“.   sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen Karten). Offenbar ist   und  .   ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist  . Und in der Tat stellt man fest, dass   ist.

Ein weiteres Beispiel für sehr kleine und sehr große Wahrscheinlichkeiten findet sich in Infinite-Monkey-Theorem.

Maßtheoretische Sichtweise

Bearbeiten

Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.

Wahrscheinlichkeitsräume

Bearbeiten

In dieser Sichtweise ist ein Wahrscheinlichkeitsraum   ein Maßraum mit einem Wahrscheinlichkeitsmaß  . Das bedeutet, die Ergebnismenge   ist eine beliebige Menge, der Ereignisraum   ist eine σ-Algebra mit Grundmenge   und   ist ein Maß, das durch   normiert ist.

Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:

  •   ist eine abzählbare Menge und   ist die Potenzmenge von  . Dann ist jedes Wahrscheinlichkeitsmaß   eindeutig festgelegt durch seine Werte   auf den einelementigen Teilmengen von   und für alle   gilt
 .
  •   ist eine Teilmenge von   und   ist die Borelsche σ-Algebra auf  . Ist das Wahrscheinlichkeitsmaß   absolut stetig bezüglich des Lebesgue-Maßes, dann besitzt   nach dem Satz von Radon-Nikodým eine Lebesgue-Dichte  , d. h., für alle   gilt
 .
Umgekehrt wird für eine nichtnegative messbare Funktion  , welche die Normierungsbedingung   erfüllt, durch diese Formel ein Wahrscheinlichkeitsmaß auf   definiert.
  •   ist ein kartesisches Produkt und   ist die Produkt-σ-Algebra von σ-Algebren   auf  . Sind Wahrscheinlichkeitsmaße   auf   gegeben, dann wird durch das Produktmaß   ein Wahrscheinlichkeitsmaß auf   definiert, das die unabhängige Hintereinanderausführung der Einzelexperimente   modelliert.

Zufallsvariable

Bearbeiten

Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion   auf einem Wahrscheinlichkeitsraum   in einen Messraum   bestehend aus einer Menge   und einer σ-Algebra   auf  . Messbarkeit bedeutet dabei, dass für alle   das Urbild   ein Element der σ-Algebra   ist. Die Verteilung von   ist dann nichts anderes als das Bildmaß

 ,

das von   auf dem Messraum   induziert wird und diesen zu einem Wahrscheinlichkeitsraum   macht.

Der Erwartungswert einer reellwertigen Zufallsvariable   mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von   bezüglich des Wahrscheinlichkeitsmaßes  :

 .

Wahrscheinlichkeitstheorie und Statistik

Bearbeiten

Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:

  • Statistische Verteilungen werden regelmäßig unter der Annahme modelliert, dass sie das Resultat zufälliger Prozesse sind.
  • Statistische Verfahren können auf numerische Weise Anhaltspunkte für das Verhalten von Wahrscheinlichkeitsverteilungen liefern.

Anwendungsgebiete

Bearbeiten

Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.

Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.

Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.

Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.

Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

Wahrscheinlichkeitstheorie in der Schule

Bearbeiten

Aufgrund ihrer vielseitigen Anwendungsbereiche und des Alltagsbezugs bereits junger Schüler wird die Wahrscheinlichkeitstheorie ab der ersten Klasse in allen Schulformen im Rahmen des Mathematikunterrichts gelehrt. Geht es in der Grundschule noch darum, Grundbegriffe der Wahrscheinlichkeitsrechnung kennenzulernen und erste Zufallsexperimente hinsichtlich ihrer Gewinnchancen zu bewerten[2], wird in der Sekundarstufe I zunehmend der Wahrscheinlichkeitsbegriff analytisch in seiner Vielseitigkeit betrachtet und es stehen zunehmend komplexere Zufallsexperimente im Zentrum des Interesses.[3] In der Sekundarstufe II werden die Vorkenntnisse um spezifische Aspekte wie Bernoulliketten, bedingte Wahrscheinlichkeit und Laplace-Experimente erweitert[4].

Siehe auch

Bearbeiten

Literatur (Auswahl)

Bearbeiten
Bearbeiten
Commons: Wahrscheinlichkeitstheorie – Sammlung von Bildern, Videos und Audiodateien

Einzelnachweise

Bearbeiten
  1. A. Kolmogoroff: Grundbegriffe der Wahrscheinlichkeitsrechnung. 1933, S. 2, 13.
  2. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/primarstufe/mathematik
  3. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/sekundarstufe-i/mathematik
  4. https://kultusministerium.hessen.de/schulsystem/bildungsstandards-kerncurricula-und-lehrplaene/kerncurricula/gymnasiale-oberstufe-12