Modul MS: Mathematische Statistik - Cheatsheet.pdf

Modul MS: Mathematische Statistik - Cheatsheet
Modul MS: Mathematische Statistik - Cheatsheet Axiome der Wahrscheinlichkeit Definition: Axiome der Wahrscheinlichkeit sind grundlegende Regeln, die Wahrscheinlichkeitsverteilungen charakterisieren. Details: Nichtnegativität: Für jedes Ereignis A gilt: \(P(A) \geq 0\). Normiertheit: Für das sichere Ereignis \(\Omega\) gilt: \(P(\Omega) = 1\). Endliche Additivität: Für disjunkte Ereignisse \(A_1, A...

© StudySmarter 2024, all rights reserved.

Modul MS: Mathematische Statistik - Cheatsheet

Axiome der Wahrscheinlichkeit

Definition:

Axiome der Wahrscheinlichkeit sind grundlegende Regeln, die Wahrscheinlichkeitsverteilungen charakterisieren.

Details:

  • Nichtnegativität: Für jedes Ereignis A gilt: \(P(A) \geq 0\).
  • Normiertheit: Für das sichere Ereignis \(\Omega\) gilt: \(P(\Omega) = 1\).
  • Endliche Additivität: Für disjunkte Ereignisse \(A_1, A_2, ..., A_n\) gilt: \(P\left(\bigcup_{i=1}^{n} A_i\right) = \sum_{i=1}^{n} P(A_i)\).

Zentraler Grenzwertsatz

Definition:

Der Zentrale Grenzwertsatz besagt, dass die Summe einer großen Anzahl unabhängiger, identisch verteilter Zufallsvariablen näherungsweise normalverteilt ist, unabhängig von der ursprünglichen Verteilung der Variablen.

Details:

  • Gegeben eine Sequenz von unabhängigen und identisch verteilten Zufallsvariablen \(X_1, X_2, ..., X_n\).
  • Jede \(X_i\) hat denselben Erwartungswert \(\mu\) und dieselbe Varianz \(\sigma^2\).
  • Die normierte Summe \(\frac{1}{\sqrt{n}} \sum_{i=1}^{n} (X_i - \mu)\) konvergiert in Verteilung gegen eine Normalverteilung: \(\frac{1}{\sqrt{n}} \sum_{i=1}^{n} (X_i - \mu) \xrightarrow{d} N(0, \sigma^2)\).

Maximum-Likelihood-Schätzung

Definition:

Verfahren zur Parameterschätzung, das die Parameter eines Modells so bestimmt, dass die Wahrscheinlichkeit der beobachteten Daten maximiert wird.

Details:

  • Grundidee: Schätze Parameter \(\theta\) durch Maximierung der Likelihood-Funktion \(L(\theta|x_1, ..., x_n)\).
  • Die Likelihood-Funktion: \[L(\theta|x_1,...,x_n)=\prod_{i=1}^{n} f(x_i|\theta)\]
  • Log-Likelihood zur Vereinfachung: \[l(\theta)=\log L(\theta|x_1,...,x_n)=\sum_{i=1}^{n} \log f(x_i|\theta)\]
  • MLE durch Lösen: \(\frac{\partial l(\theta)}{\partial \theta} = 0\)
  • Eigenschaften: Konsistenz, Asymptotische Normalität, Effizienz (unter bestimmten Bedingungen).

Bayesianische Schätzung

Definition:

Bayesianische Schätzung: Methode zur Parameterbestimmung unter Verwendung der Bayesschen Statistik. Dabei werden Vorwissen (a priori) und neue Daten (a posteriori) kombiniert.

Details:

  • A priori-Verteilung: Vorwissen über den Parameter.
  • Likelihood-Funktion: Wahrscheinlichkeit der Daten gegeben den Parameter.
  • A posteriori-Verteilung: Aktualisierte Verteilung nach Berücksichtigung der neuen Daten. Formel: \[ P(\theta|x) = \frac{P(x|\theta)P(\theta)}{P(x)} \]
  • Bayes‘ Theorem: Basis der Methode. Formel: \[ P(\theta|x) = \frac{P(x|\theta)P(\theta)}{\int P(x|\theta)P(\theta)d\theta} \]
  • Interpretation: Kombination von Vorwissen und Daten führt zu besseren Schätzungen.

Typ-I und Typ-II Fehler

Definition:

Fehler, die bei Hypothesentests auftreten: Typ-I Fehler (Ablehnung einer wahren Nullhypothese) und Typ-II Fehler (Annahme einer falschen Nullhypothese).

Details:

  • Typ-I Fehler (Fehler erster Art): Nullhypothese wahr, abgelehnt. Wahrscheinlichkeit: Signifikanzniveau (\(\alpha\)).
  • Typ-II Fehler (Fehler zweiter Art): Nullhypothese falsch, angenommen. Wahrscheinlichkeit: \(\beta\).
  • Power (Teststärke): \(1 - \beta\), Wahrscheinlichkeit, eine falsche Nullhypothese korrekt abzulehnen.
  • Balancierung zwischen \(\alpha\) und \(\beta\) oft nötig.

Einfache lineare Regression

Definition:

Methode zur Modellierung der linearen Beziehung zwischen einer abhängigen Variablen und einer unabhängigen Variablen.

Details:

  • Lineares Modell: \( Y = \beta_0 + \beta_1X + \epsilon \)
  • \( \beta_0 \) (Achsenabschnitt) und \( \beta_1 \) (Steigung) mittels Kleinste-Quadrate-Schätzung bestimmt
  • Residuum: \( \epsilon = Y - (\beta_0 + \beta_1X) \)
  • Annahmen: Lineare Beziehung, Unabhängigkeit der Fehler, Homoskedastizität, Normalverteilung der Fehler
  • Bestimmtheitsmaß: \( R^2 \) zur Bewertung der Anpassungsgüte

Bootstrap-Methoden

Definition:

Methode zur Schätzung der Verteilung einer Statistik durch Resampling mit Zurücklegen.

Details:

  • Erzeugung von vielen Resamples von der Originalstichprobe
  • Berechnung der Statistik für jedes Resample
  • Verwendung der Resample-Statistiken zur Annäherung der Verteilung
  • Gängige Anwendung: Konfidenzintervalle, Hypothesentests
  • Annahme: Stichprobe repräsentativ für Population
  • Formel für Schätzung mit Bootstrap: \[\theta^* = \frac{1}{B} \sum_{b=1}^{B} \theta (\textbf{x}^*_b)\]

Kernelschätzung

Definition:

Schätzung einer Wahrscheinlichkeitsdichte durch Glättung eines Histogramms mithilfe einer Kernfunktion.

Details:

  • Zentrale Idee: Summe von verschobenen und skalierten kernfunktionen
  • Formel: \[ \hat{f}_h(x) = \frac{1}{nh} \sum_{i=1}^{n} K \left(\frac{x - X_i}{h}\right) \]
  • Parameter h (Bandbreite): bestimmt Glättungsgrad
  • Kernfunktion K: üblicherweise symmetrisch und stetig, z.B. Gauß-Kernel, Epanechnikov-Kernel
  • Eigenschaften: Konsistenz und Verzerrung-Bandbreiten Trade-Off
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden