1. Wahrscheinlichkeitsrechnung

1.4. Bedingte Wahrscheinlichkeiten und stochastiche Unabhängigkeit

Ein zentrales Ziel der Wahrscheinlichkeitslehre/Stochastik ist die Berechnung von („neuen“) Wahrscheinlichkeiten unter Verwendung bereits bekannter Wahrscheinlichkeiten.

So lassen sich beispielsweise viele komplexere Zufallsexperimente als Verkettung von einfacheren Zufallsexperimenten beschreiben, die dann als mehrstufige Zufallsexperimente bezeichnet werden.

So könnte bspw. das Werfen von drei Würfeln als dreimaliges Werfen des gleichen Würfels interpretiert werden. (Hierbei darf allerdings die Reihenfolge der Würfelergebnisse keine Rolle spielen!)

Im Fall der sogenannten bedingten Wahrscheinlichkeiten stellt sich die Frage, ob und wie sich zwei Ereignisse gegenseitig beeinflussen bzw. ob diese voneinander (stochastisch) unabhängig sind. Es stellt sich also die Frage, ob sich die Wahrscheinlichkeit für das Eintreten eines Ereignisses \(B\) ändert, wenn bereits bekannt ist, dass ein anderes Ereignis A eingetreten ist.

Beispiel

Im Fall einer Grippe-Impfung (Ereignis \(A\)) stellt sich die Frage, ob diese (so wie gewünscht) das Eintreten des Ereignisses \(B\) „Grippeerkrankung“ verringert.

Es interessiert also die Wahrscheinlichkeit, dass \(B\) eintritt unter der Bedingung, dass \(A\) eingetreten ist, was zum Begriff der Bedingten Wahrscheinlichkeit führt:

\[P(B│A)=P_A (B)\]

Da vorerst unklar ist, wie sich ein solcher qualitativer Zusammenhang quantifizieren lässt, soll dieser hergeleitet werden. Dazu wird das Laplace-Modell als Grundlage verwendet.

Die Ergebnisse einer Studie zur Wirksamkeit von Grippeschutzimpfungen werden in der folgenden Vierfelder-Tafel dargestellt:

erkranktnicht erkrankt
geimpft 117 389 506
nicht geimpft 289 165 454
406 554 960

Dabei wurden 960 Personen untersucht und die Befunde (s. Tabelle) auf entsprechenden Datenkarten notiert. Wird aus der Menge dieser Karten zufällig eine gezogen, dann lassen sich aus der Tabelle die entsprechenden „möglichen“ und „günstigen“ Fälle ablesen.

Für den Fall \(A\) – geimpft und \(B\) – hatte Grippe ergibt sich: \[P(A)=\frac{506}{960}\approx 53\%, P(B)=\frac{406}{960}\approx 43\%\] Die Ergebnismenge \(\Omega\) besteht dabei aus den 960 Datenkarten, \(A\) aus den 506 Karten der geimpften Personen und \(B\) aus den 406 Karten der erkrankten Personen.
Entsprechend ergeben sich auch die Laplace-Wahrscheinlichkeiten für andere Ereignisse:

\(P(\overline{A})=\frac{454}{960}\approx 47\%\), wobei \(\overline{A}\) das Gegenereignis „nicht geimpft“ von \(A\) ist, und
\(P(A\cap B)=\frac{117}{960}\approx 12\%\), wobei \(A\cap B\) für das Ereignis „geimpft und erkrankt“ steht

Mit der Frage „Aus \(\Omega\) wird eine geimpfte Person gezogen. Mit welcher Wahrscheinlichkeit ist diese an Grippe erkrankt?“ wird eine bedingte Wahrscheinlichkeit beschrieben, die sich durch die entsprechende Laplace-Wahrscheinlichkeit \(P(B│A)\) modellieren lässt.

Als „mögliche“ Fälle kommen nunmehr nur die 506 geimpften Personen in Frage, als „günstige“ Fälle die 117 geimpften und erkrankten Personen. Daher gilt:

\[P(B│A)=\frac{117}{506}\approx 23\%\]


Mit Hilfe des Laplace-Ansatzes ergibt sich dann:

\(P(B│A)=\frac{|A∩B|}{|A|} = \frac{\frac{|A\cap B|}{|\Omega|}}{\frac{|A|}{|Ω|}}=\frac{P(A\cap B)}{P(A)}\)

Damit wurde die Wahrscheinlichkeit \(P(B│A)\) mit Hilfe von Werten der Wahrscheinlichkeitsverteilung \(P\) ausgedrückt.

Definition (Bedingte Wahrscheinlichkeiten)

Seien \((\Omega, \wp (\Omega), P )\) ein endlicher Wahrscheinlichkeitsraum und \(B\) ein Ereignis mit \(P(B)>0\). Dann heißt

\(P(A│B)≔\frac{P(A∩B)}{P(B)}\)

bedingte Wahrscheinlichkeit von \(A\) unter der Bedingung \(B\). Alternativ wird die Schreibweise \(P_B (A)\) verwendet.

Satz

Seien \((\Omega, \wp (\Omega), P )\) ein endlicher Wahrscheinlichkeitsraum und \(B\) ein Ereignis mit \(P(B)>0\). Dann ist die Funktion

\[P(*│B)\colon P(\Omega)\longrightarrow\mathbb{R}^{\geq 0}\]

mit

\[P(A│B):= \frac{P(A∩B)}{P(B)}\]

die jedem Ereignis \(A\in P(\Omega)\) die Wahrscheinlichkeit \(P(A│B)\) zuordnet, ein Wahrscheinlichkeitsmaß auf \(P(\Omega)\).

Hierfür ist zu zeigen, dass die drei Kolmogorov-Axiome (vgl. Kapitel 2.3) erfüllt sind.

Hinweise:

  1. Auch bei den bislang in diesem Kurs untersuchten Wahrscheinlichkeiten \(P(A)\) handelt es sich um bedingte Wahrscheinlichkeiten. Es gilt \[P(A│\Omega):=\frac{P(A\cap\Omega)}{P(\Omega)} =\frac{P(A)}{1}=P(A)\] für alle \(A\in P(\Omega)\)
  2. Mit \(A|B\) wird keine Teilmenge von \(\Omega\) beschrieben. \(A|B\) ist also kein Ereignis und tritt nie eigenständig auf, sondern nur in Verbindung mit \(P(A│B)\) – der bedingten Wahrscheinlichkeit von \(A\) unter der Bedingung von \(B\). Die damit verbundene Interpretations-Schwierigkeit wird mit der Schreibweise \(P_B (A)\) gemindert.
  3. Für alle Ereignisse \(A\neq\emptyset\) mit \(P(A)>0\) gilt \(P(A|A)=1\), denn

    \(P(A│A)≔\frac{P(A\cap A)}{P(A)} = \frac{P(A)}{P(A)} = 1\)
  4. Für \(P(B)=0\) ergibt die Definition \(\frac{P(A∩B)}{P(B)}\) keinen Sinn.
  5. Gilt für \(A\) und \(B\) mit \(P(B)>0\), dass \(P(A\cap B)=0\), dann ist per Definition \(P(A│B)=0\).
  6. Durch Umformen der Definition ergibt sich die folgende Regel für Wahrscheinlichkeiten von Ereignissen der Form \(A\cap B\) für \(P(B)>0\):

    \[P(A\cap B)=P(B)\cdot P(A│B)\]

    Da \((A\cap B)=(B\cap A)\), ist aus Symmetriegründen auch für \(P(A)>0\)

    \[P(A\cap B)=P(A)\cdot P(B│A)\]
  7. Während (s. 4)) für \(P(B)=0\) die Definition der bedingten Wahrscheinlichkeit \(\frac{P(A∩B)}{P(B)}\) keinen Sinn ergibt, ist es dennoch sinnvoll, für die Multiplikationsregeln aus 6) zu vereinbaren, dass \(P(A\cap B)=0\) gelten soll, falls \(P(A)=0\) oder \(P(B)=0\) ist.

Stochastische Unabhängigkeit

Im vorherigen Anwendungs-Beispiel wird, inhaltlich gesehen, davon ausgegangen bzw. gehofft, dass Ereignis \(A\) (die Grippe-Impfung) Ereignis \(B\) (eine Grippe-Erkrankung) beeinflusst (also das Risiko einer solchen verringert).

In anderen Fällen beeinflussen sich Ereignisse hingegen nicht, bzw. sollen sich nicht gegenseitig beeinflussen, also voneinander unabhängig sein. Es soll dann also gelten: \[P(B)=P(B│A)\]. Dabei ist zu bemerken, dass die Forderung \(P(A)≠0\) keine Einschränkung darstellt. \(P(A)=0\) entspräche einem Nicht-Eintreten von \(A\). Die bedingte Wahrscheinlichkeit von \(B\) bei Eintreten von \(A\) wäre damit nicht sinnvoll (vgl. Hinweis 4 oben).

Ist also \(P(B)=P(B│A)\), dann gilt unter Verwendung der Formel für die Berechnung der bedingten Wahrscheinlichkeit aus: \[P(B)=P(B│A)= \frac{P(A\cap B)}{P(A)}\] Umformen führt zur folgenden Definition:

Definition (Stochastische Unabhängigkeit)

\((\Omega, \wp (\Omega), P )\) sei ein Wahrscheinlichkeitsraum. Zwei Ereignisse \(A\) und \(B\) werden als stochastisch unabhängig bezeichnet, wenn gilt:

\[P(A)\cdot P(B)=P(A\cap B)\] Sonst heißen \(A\) und \(B\) stochastisch abhängig.

Diese Definition ist rechnerisch handhabbar, zeigt die Symmetrie der „Beziehung“ und ist auch für die Fälle \(P(A)=0\) oder \(P(B)=0\) gültig.

Hinweis:

Sind \(A\) und \(B\) unabhängig, dann sind die folgenden Ereignisse jeweils unabhängig:

  1. \(A\) und \(\overline{B}\)
  2. \(\overline{A}\) und \(B\)
  3. \(\overline{A}\) und \(\overline{B}\)

Ob zwei Ereignisse \(A\) und \(B\) stochastisch unabhängig sind, lässt sich mittels einer Vierfeldertafel überprüfen.

\(P(B)\)\(P(\overline{B})\)
\(P(A)\) \(P(A\cap B)\) \(P(A\cap \overline{B})\)
\(P(\overline{A})\) \(P(\overline{A}\cap B)\) \(P(\overline{A}\cap \overline{B})\)

Sind \(A\) und \(B\) stochastisch unabhängig, so müssen die Werte in obiger Tafel mit denen der folgenden Multiplikationstafel übereinstimmen.

\(P(B)\)\(P(\overline{B})\)
\(P(A)\) \(P(A)\cdot P(B)\) \(P(A)\cdot P(\overline{B})\)
\(P(\overline{A})\) \(P(\overline{A})\cdot P(B)\) \(P(\overline{A})\cdot P(\overline{B})\)

Qualitativ betrachtet lässt sich sagen: Je stärker die Zahlenwerte differieren, desto größer ist die inhaltliche Abhängigkeit der Ereignisse.