Einführung in die Wahrscheinlichkeitstheorie und Statistik - Cheatsheet.pdf

Einführung in die Wahrscheinlichkeitstheorie und Statistik - Cheatsheet
Axiomatische Definition von Wahrscheinlichkeit Definition: Beschreibung der Wahrscheinlichkeit basierend auf Kolmogorov-Axiomen. Details: Wahrscheinlichkeitsraum: \((\Omega, \mathcal{F}, P)\) \(\Omega\): Ergebnismenge \(\mathcal{F}\): \(\sigma\)-Algebra auf \(\Omega\) \(P\): Wahrscheinlichkeitsmaß Kolmogorov-Axiome: Axiom 1: \(P(A) \geq 0\) für alle \(A \in \mathcal{F}\) Axiom 2: \(P(\Omega) = 1\)...

© StudySmarter 2024, all rights reserved.

Axiomatische Definition von Wahrscheinlichkeit

Definition:

Beschreibung der Wahrscheinlichkeit basierend auf Kolmogorov-Axiomen.

Details:

  • Wahrscheinlichkeitsraum: \((\Omega, \mathcal{F}, P)\)
  • \(\Omega\): Ergebnismenge
  • \(\mathcal{F}\): \(\sigma\)-Algebra auf \(\Omega\)
  • \(P\): Wahrscheinlichkeitsmaß
  • Kolmogorov-Axiome:
  • Axiom 1: \(P(A) \geq 0\) für alle \(A \in \mathcal{F}\)
  • Axiom 2: \(P(\Omega) = 1\)
  • Axiom 3: Für disjunkte Mengen \(A_1, A_2, ... \) gilt: \(P\left( \bigcup_{i=1}^\infty A_i \right) = \sum_{i=1}^\infty P(A_i)\)

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Definition:

Bedingte Wahrscheinlichkeit bezeichnet die Wahrscheinlichkeit eines Ereignisses A unter der Bedingung, dass Ereignis B eingetreten ist. Unabhängigkeit bedeutet, dass das Eintreten eines Ereignisses A keinen Einfluss auf die Wahrscheinlichkeit des Eintretens von Ereignis B hat.

Details:

  • Bedingte Wahrscheinlichkeit: \( P(A|B) = \frac{P(A \cap B)}{P(B)} \)
  • Unabhängigkeit: \( P(A \cap B) = P(A) \cdot P(B) \)
  • \(P(A|B) = P(A)\) und \(P(B|A) = P(B)\) falls A und B unabhängig

Zentraler Grenzwertsatz

Definition:

Der Zentrale Grenzwertsatz besagt, dass die Summe von unabhängigen und identisch verteilten Zufallsvariablen mit endlichen Erwartungswert und Varianz, zum Normalverteilung konvergiert, wenn die Anzahl der Variablen gegen unendlich geht.

Details:

  • Seien \(X_1, X_2, \ldots, X_n\) unabhängige identisch verteilte Zufallsvariablen mit \(E[X_i] = \mu\) und \(Var(X_i) = \sigma^2\).
  • Die standardisierte Summe \(S_n\) dieser Zufallsvariablen ist gegeben durch: \[ S_n = \frac{\sum_{i=1}^{n} X_i - n \mu}{ \sigma \sqrt{n}} \]
  • Nach dem Zentralen Grenzwertsatz gilt: \[ S_n \xrightarrow{d} \mathcal{N}(0,1) \]
  • Dies bedeutet, dass die Verteilung von \(S_n\) für große \(n\) näherungsweise normalverteilt ist mit Mittelwert 0 und Varianz 1.
  • Wichtiges Werkzeug für approximative Berechnungen in der Statistik.

Diskrete und stetige Zufallsvariablen

Definition:

Zufallsvariablen können diskret oder stetig sein.

Details:

  • Diskrete Zufallsvariable: Nimmt abzählbar viele Werte an.
  • Wahrscheinlichkeitsfunktion: \( P(X = x_i) = p_i \) mit \( \sum_{i}p_i=1 \)
  • Wichtige Verteilungen: Binomial-, Poisson-Verteilung.
  • Stetige Zufallsvariable: Nimmt überabzählbar viele Werte an.
  • Dichtefunktion: \( f_X(x) \)
  • Verteilungsfunktion: \( F_X(x) = P(X \leq x) = \int_{-\infty}^{x} f_X(t) dt \)
  • Wichtige Verteilungen: Normal-, Exponentialverteilung.

Erwartungswert und Varianz

Definition:

Erwartungswert gibt den Mittelwert einer Zufallsvariablen an. Varianz misst die Streuung der Zufallsvariablen um den Erwartungswert.

Details:

  • Erwartungswert (diskrete Variable): \( E(X) = \sum_{i} x_i \cdot P(X = x_i) \)
  • Erwartungswert (stetige Variable): \( E(X) = \int_{-\infty}^{\infty} x \cdot f(x) \, dx \)
  • Varianz: \( \text{Var}(X) = E((X - E(X))^2) \)
  • Alternative Darstellung der Varianz: \( \text{Var}(X) = E(X^2) - (E(X))^2 \)

Schätzung und Konfidenzintervalle

Definition:

Schätzung: Bestimmung von Parametern einer Verteilung aus Stichprobendaten. Konfidenzintervalle: Bereich, der mit einer bestimmten Wahrscheinlichkeit den wahren Parameterwert enthält.

Details:

  • Punkt-Schätzung: Schätzung eines einzelnen Parameterwertes, z.B. Mittelwert \(\bar{x}\)
  • Intervallschätzung: Schätzung eines Bereiches, z.B. Konfidenzintervall
  • Konfidenzintervall für den Mittelwert (bei bekanntem \(\sigma\)): \(\bar{x} \pm z_{\alpha/2} \frac{\sigma}{\sqrt{n}}\)
  • Konfidenzintervall für den Mittelwert (bei unbekanntem \(\sigma\)): \(\bar{x} \pm t_{\alpha/2,n-1} \frac{s}{\sqrt{n}}\)
  • Normalverteilung: z-Score \( z_{\alpha/2} \)
  • t-Verteilung: t-Wert \( t_{\alpha/2,n-1} \)

P-Wert und Signifikanzniveaus

Definition:

P-Wert (p-value) ist die Wahrscheinlichkeit, unter der Nullhypothese ein Testergebnis zu erhalten, das mindestens so extrem ist wie das beobachtete Ergebnis. Signifikanzniveau (\u03B1) ist die Schranke, ab der ein Ergebnis als statistisch signifikant gilt.

Details:

  • Berechnung des P-Werts: Vergleich der Teststatistik mit theoretischer Verteilung unter Nullhypothese.
  • Häufig verwendete Signifikanzniveaus: 0,05 (5%), 0,01 (1%).
  • Äquivalent zu: P-Wert < α → H\textsubscript{0} ablehnen, sonst H\textsubscript{0} beibehalten.
  • Prinzip: Kleine P-Werte deuten auf inkonsistente Daten zur Nullhypothese hin.
  • Wichtige Faustregel: Je kleiner der P-Wert, desto stärker die Evidenz gegen H\textsubscript{0}.
  • Missinterpretationsgefahr: P-Wert ist nicht die Wahrscheinlichkeit, dass H\textsubscript{0} wahr ist.

Formulierung von Null- und Alternativhypothesen

Definition:

Formulierung von Null- (H_0) und Alternativhypothesen (H_1) bestimmt das Grundgerüst jeder Hypothesentests.

Details:

  • H_0: beschreibt einen Zustand der Gleichheit oder des Nichtvorhandenseins eines Effekts.
  • H_1: beschreibt einen Zustand der Ungleichheit oder das Vorhandensein eines Effekts.
  • H_0 und H_1 müssen sich gegenseitig ausschließen.
  • Formulierungen sollten genau und testbar sein.
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden