Wahrscheinlichkeitstheorie - Cheatsheet
Axiome der Wahrscheinlichkeit nach Kolmogorow
Definition:
Grundlage der modernen Wahrscheinlichkeitstheorie.
Details:
- \textbf{Axiom 1 (Nicht-Negativität):} Für jedes Ereignis A gilt: \( P(A) \geq 0 \)
- \textbf{Axiom 2 (Normiertheit):} Für das sichere Ereignis \( \text{\Omega} \) gilt: \( P(\text{\Omega}) = 1 \)
- \textbf{Axiom 3 (Additivität):} Für paarweise disjunkte Ereignisse \( A_1, A_2, \ldots \) gilt: \( P\left(\bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i) \)
Laplace-Wahrscheinlichkeit und klassische Definitionen
Definition:
Laplace-Wahrscheinlichkeit beschreibt die Wahrscheinlichkeit eines Ereignisses bei unendlich vielen gleich wahrscheinlichen Ergebnissen. Klassische Definition: Das Verhältnis der Anzahl der günstigen Fälle zur Anzahl der möglichen Fälle.
Details:
- Formel: \( P(E) = \frac{|E|}{|\Omega|} \)
- \( |E| \) = Anzahl der günstigen Fälle
- \( |\Omega| \) = Anzahl der möglichen Fälle
- Voraussetzung: Alle möglichen Fälle sind gleich wahrscheinlich
- Beispiel: Würfeln eines sechsseitigen Würfels
Wichtige Verteilungen wie Binomial-, Poisson- und Normalverteilung
Definition:
Kernverteilungen in der Wahrscheinlichkeitstheorie, benutzt zur Modellierung diskreter und kontinuierlicher Zufallsvariablen.
Details:
- Binomialverteilung: Diskret, Modellierung von Anzahlen erfolgreicher Versuche in n unabhängigen Bernoulli-Versuchen. Beispiel: Münzwurf. Formel: \[ P(X = k) = \binom{n}{k} p^k (1-p)^{n-k} \]
- Poissonverteilung: Diskret, Modellierung von Ereignissen, die unabhängig und mit konstanter Rate in einem festen Intervall auftreten. Beispiel: Anrufeingänge bei einem Callcenter. Formel: \[ P(X = k) = \frac{\lambda^k e^{-\lambda}}{k!} \]
- Normalverteilung: Stetig, Modellierung von natürlichen Phänomenen, wo die Werte um einen Mittelwert herum streuen. Beispiel: Körpergröße. Formel: \[ f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]
Satz von Bayes
Definition:
Der Satz von Bayes beschreibt die Umkehrung von bedingten Wahrscheinlichkeiten.
Details:
- Sei A und B Ereignisse mit P(B) > 0
- Die Formel lautet: \[ P(A|B) = \frac{P(B|A) \, P(A)}{P(B)} \]
- Anwendung: Aktualisierung von Wahrscheinlichkeiten basierend auf neuen Informationen
- Wird oft in statistischen Modellen und maschinellem Lernen verwendet
Gesetz der großen Zahlen (schwach und stark)
Definition:
Gesetz der großen Zahlen beschreibt das Konvergenzverhalten von Folgen von Zufallsvariablen.
Details:
- Schwaches Gesetz der großen Zahlen (WLLN): \[ \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{n \rightarrow \infty} \mu \quad (\text{in Wahrscheinlichkeit}) \]
- Starkes Gesetz der großen Zahlen (SLLN): \[ \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{n \rightarrow \infty} \mu \quad (\text{fast sicher}) \]
- \(X_i\) unabhängige identisch verteilte Zufallsvariablen, \(\mathbb{E}[X_i] = \mu\)
- Starkes LLN impliziert schwaches LLN, aber nicht umgekehrt
Zentraler Grenzwertsatz
Definition:
Der zentrale Grenzwertsatz besagt, dass die Summe unabhängiger identisch verteilter Zufallsvariablen mit endlicher Varianz gegen eine Normalverteilung konvergiert.
Details:
- Sei \({X_1, X_2, ..., X_n}\) eine Folge von i.i.d. Zufallsvariablen mit endlicher Varianz \(\sigma^2\) und Mittelwert \(\mu\).
- Die standardisierte Summe \[ S_n = \frac{1}{\sqrt{n}} \sum_{i=1}^{n} (X_i - \mu) \] konvergiert in Verteilung gegen eine Normalverteilung \(N(0, \sigma^2)\).
- Formal: \[ \frac{\sum_{i=1}^{n} X_i - n\mu}{\sqrt{n}\sigma} \xrightarrow{d} N(0,1) \]
- Anwendung: Ermöglicht Approximation von Summen durch Normalverteilung in vielen praktischen Fällen.
Unabhängigkeit von Zufallsvariablen
Definition:
Unabhängigkeit von Zufallsvariablen bedeutet, dass das Eintreten eines Ereignisses einer Zufallsvariablen die Wahrscheinlichkeit eines Ereignisses einer anderen Zufallsvariablen nicht beeinflusst.
Details:
- Zwei Zufallsvariablen X und Y sind unabhängig, wenn für alle messbaren Mengen A und B gilt: \(P(X \in A \cap Y \in B) = P(X \in A) \cdot P(Y \in B)\)
- Verallgemeinerung: Eine Familie von Zufallsvariablen (\(X_i\)) ist unabhängig, wenn für alle endlichen Teilmengen und alle messbaren Mengen \(A_1, A_2, \dots, A_n\) gilt: \(P(X_{i_1} \in A_1, X_{i_2} \in A_2, \dots, X_{i_n} \in A_n) = P(X_{i_1} \in A_1) \cdot P(X_{i_2} \in A_2) \cdot \dots \cdot P(X_{i_n} \in A_n)\)
Erwartungswert und Varianz
Definition:
Erwartungswert ist der Durchschnittswert einer Zufallsvariablen in vielen Wiederholungen, Varianz misst die Streuung der Werte um den Erwartungswert.
Details:
- Erwartungswert einer diskreten Zufallsvariable: \( E(X) = \sum_{i} x_i p(x_i) \)
- Erwartungswert einer stetigen Zufallsvariable: \( E(X) = \int_{-\infty}^{\infty} x f(x) \, dx \)
- Varianz: \( Var(X) = E((X - E(X))^2) \)
- Varianz alternative Formel: \( Var(X) = E(X^2) - (E(X))^2 \)