Wahrscheinlichkeitstheorie - Cheatsheet.pdf

Wahrscheinlichkeitstheorie - Cheatsheet
Wahrscheinlichkeitstheorie - Cheatsheet Axiome der Wahrscheinlichkeit nach Kolmogorow Definition: Grundlage der modernen Wahrscheinlichkeitstheorie. Details: \textbf{Axiom 1 (Nicht-Negativität):} Für jedes Ereignis A gilt: \( P(A) \geq 0 \) \textbf{Axiom 2 (Normiertheit):} Für das sichere Ereignis \( \text{\Omega} \) gilt: \( P(\text{\Omega}) = 1 \) \textbf{Axiom 3 (Additivität):} Für paarweise di...

© StudySmarter 2024, all rights reserved.

Wahrscheinlichkeitstheorie - Cheatsheet

Axiome der Wahrscheinlichkeit nach Kolmogorow

Definition:

Grundlage der modernen Wahrscheinlichkeitstheorie.

Details:

  • \textbf{Axiom 1 (Nicht-Negativität):} Für jedes Ereignis A gilt: \( P(A) \geq 0 \)
  • \textbf{Axiom 2 (Normiertheit):} Für das sichere Ereignis \( \text{\Omega} \) gilt: \( P(\text{\Omega}) = 1 \)
  • \textbf{Axiom 3 (Additivität):} Für paarweise disjunkte Ereignisse \( A_1, A_2, \ldots \) gilt: \( P\left(\bigcup_{i=1}^{\infty} A_i \right) = \sum_{i=1}^{\infty} P(A_i) \)

Laplace-Wahrscheinlichkeit und klassische Definitionen

Definition:

Laplace-Wahrscheinlichkeit beschreibt die Wahrscheinlichkeit eines Ereignisses bei unendlich vielen gleich wahrscheinlichen Ergebnissen. Klassische Definition: Das Verhältnis der Anzahl der günstigen Fälle zur Anzahl der möglichen Fälle.

Details:

  • Formel: \( P(E) = \frac{|E|}{|\Omega|} \)
  • \( |E| \) = Anzahl der günstigen Fälle
  • \( |\Omega| \) = Anzahl der möglichen Fälle
  • Voraussetzung: Alle möglichen Fälle sind gleich wahrscheinlich
  • Beispiel: Würfeln eines sechsseitigen Würfels

Wichtige Verteilungen wie Binomial-, Poisson- und Normalverteilung

Definition:

Kernverteilungen in der Wahrscheinlichkeitstheorie, benutzt zur Modellierung diskreter und kontinuierlicher Zufallsvariablen.

Details:

  • Binomialverteilung: Diskret, Modellierung von Anzahlen erfolgreicher Versuche in n unabhängigen Bernoulli-Versuchen. Beispiel: Münzwurf. Formel: \[ P(X = k) = \binom{n}{k} p^k (1-p)^{n-k} \]
  • Poissonverteilung: Diskret, Modellierung von Ereignissen, die unabhängig und mit konstanter Rate in einem festen Intervall auftreten. Beispiel: Anrufeingänge bei einem Callcenter. Formel: \[ P(X = k) = \frac{\lambda^k e^{-\lambda}}{k!} \]
  • Normalverteilung: Stetig, Modellierung von natürlichen Phänomenen, wo die Werte um einen Mittelwert herum streuen. Beispiel: Körpergröße. Formel: \[ f(x) = \frac{1}{\sqrt{2\pi\sigma^2}} e^{-\frac{(x-\mu)^2}{2\sigma^2}} \]

Satz von Bayes

Definition:

Der Satz von Bayes beschreibt die Umkehrung von bedingten Wahrscheinlichkeiten.

Details:

  • Sei A und B Ereignisse mit P(B) > 0
  • Die Formel lautet: \[ P(A|B) = \frac{P(B|A) \, P(A)}{P(B)} \]
  • Anwendung: Aktualisierung von Wahrscheinlichkeiten basierend auf neuen Informationen
  • Wird oft in statistischen Modellen und maschinellem Lernen verwendet

Gesetz der großen Zahlen (schwach und stark)

Definition:

Gesetz der großen Zahlen beschreibt das Konvergenzverhalten von Folgen von Zufallsvariablen.

Details:

  • Schwaches Gesetz der großen Zahlen (WLLN): \[ \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{n \rightarrow \infty} \mu \quad (\text{in Wahrscheinlichkeit}) \]
  • Starkes Gesetz der großen Zahlen (SLLN): \[ \frac{1}{n} \sum_{i=1}^{n} X_i \xrightarrow{n \rightarrow \infty} \mu \quad (\text{fast sicher}) \]
  • \(X_i\) unabhängige identisch verteilte Zufallsvariablen, \(\mathbb{E}[X_i] = \mu\)
  • Starkes LLN impliziert schwaches LLN, aber nicht umgekehrt

Zentraler Grenzwertsatz

Definition:

Der zentrale Grenzwertsatz besagt, dass die Summe unabhängiger identisch verteilter Zufallsvariablen mit endlicher Varianz gegen eine Normalverteilung konvergiert.

Details:

  • Sei \({X_1, X_2, ..., X_n}\) eine Folge von i.i.d. Zufallsvariablen mit endlicher Varianz \(\sigma^2\) und Mittelwert \(\mu\).
  • Die standardisierte Summe \[ S_n = \frac{1}{\sqrt{n}} \sum_{i=1}^{n} (X_i - \mu) \] konvergiert in Verteilung gegen eine Normalverteilung \(N(0, \sigma^2)\).
  • Formal: \[ \frac{\sum_{i=1}^{n} X_i - n\mu}{\sqrt{n}\sigma} \xrightarrow{d} N(0,1) \]
  • Anwendung: Ermöglicht Approximation von Summen durch Normalverteilung in vielen praktischen Fällen.

Unabhängigkeit von Zufallsvariablen

Definition:

Unabhängigkeit von Zufallsvariablen bedeutet, dass das Eintreten eines Ereignisses einer Zufallsvariablen die Wahrscheinlichkeit eines Ereignisses einer anderen Zufallsvariablen nicht beeinflusst.

Details:

  • Zwei Zufallsvariablen X und Y sind unabhängig, wenn für alle messbaren Mengen A und B gilt: \(P(X \in A \cap Y \in B) = P(X \in A) \cdot P(Y \in B)\)
  • Verallgemeinerung: Eine Familie von Zufallsvariablen (\(X_i\)) ist unabhängig, wenn für alle endlichen Teilmengen und alle messbaren Mengen \(A_1, A_2, \dots, A_n\) gilt: \(P(X_{i_1} \in A_1, X_{i_2} \in A_2, \dots, X_{i_n} \in A_n) = P(X_{i_1} \in A_1) \cdot P(X_{i_2} \in A_2) \cdot \dots \cdot P(X_{i_n} \in A_n)\)

Erwartungswert und Varianz

Definition:

Erwartungswert ist der Durchschnittswert einer Zufallsvariablen in vielen Wiederholungen, Varianz misst die Streuung der Werte um den Erwartungswert.

Details:

  • Erwartungswert einer diskreten Zufallsvariable: \( E(X) = \sum_{i} x_i p(x_i) \)
  • Erwartungswert einer stetigen Zufallsvariable: \( E(X) = \int_{-\infty}^{\infty} x f(x) \, dx \)
  • Varianz: \( Var(X) = E((X - E(X))^2) \)
  • Varianz alternative Formel: \( Var(X) = E(X^2) - (E(X))^2 \)
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden