Definition und Klassifikation stochastischer Prozesse
Definition:
Stochastische Prozesse: Zeitliche Abfolge zufälliger Variablen.
Details:
- Zeitdiskret vs. zeitkontinuierlich
- Zustandsdiskret vs. zustandskontinuierlich
- Markov-Prozess: Zukünftiger Zustand hängt nur vom aktuellen Zustand ab
- Martingal: Bedingter Erwartungswert des nächsten Zustands entspricht aktuellem Zustand
- Stationarität: Statistische Eigenschaften ändern sich nicht über die Zeit
- Unabhängige Inkremente: Veränderungen zu verschiedenen Zeitpunkten sind unabhängig
Markov-Ketten und deren Anwendungen
Definition:
Markov-Kette: stochastischer Prozess ohne Erinnerung; zukünftige Zustände unabhängig von der Vergangenheit, gegeben der Gegenwart.
Details:
- Übergangsmatrix: \(\textbf{P} = (p_{ij})\), wobei \(p_{ij} = P(X_{n+1}=j | X_n=i)\)
- Stationäre Verteilung: \( \boldsymbol{\bar{u}} \textbf{P} = \boldsymbol{\bar{u}} \)
- Langzeitverhalten durch Eigenwerte der Übergangsmatrix bestimmt
- Absorptionszustände: Zustände, die einmal erreicht, nie verlassen werden
- Anwendungen: Populationsdynamik, Epidemiologie, Genetik, Ökologie
Poisson-Prozesse und ihre Eigenschaften
Definition:
Poisson-Prozesse modellieren zufällige Ereignisse, die unabhängig voneinander und konstant über die Zeit auftreten, z.B. Anrufe oder Mutationen.
Details:
- Definiert durch die Intensitätsrate \( \lambda \).
- Die Anzahl der Ereignisse in einem Zeitintervall \([0,t]\) folgt einer Poisson-Verteilung mit Erwartungswert \(\lambda t\).
- Zeitabstände zwischen aufeinanderfolgenden Ereignissen sind exponentiell verteilt mit Parameter \( \lambda \).
- Gedächtnislosigkeitseigenschaft: Die Wahrscheinlichkeit eines Ereignisses hängt nicht von der Vergangenheit ab.
Grundlagen der Wahrscheinlichkeitsmaßen und -verteilungen
Definition:
Wahrscheinlichkeitsmaße und -verteilungen sind die Grundlagen der Stochastik und Statistik, fundamentale Konzepte zur Beschreibung und Analyse von Zufallsereignissen.
Details:
- Wahrscheinlichkeitsmaß: Funktion, die Ereignissen eines Zufallsexperiments eine Wahrscheinlichkeit zuordnet, repräsentiert durch \( P(A) \).
- Eigenschaften: 0 ≤ P(A) ≤ 1 für jedes Ereignis A, \( P(\text{gesamter Ereignisraum}) = 1 \).
- Wahrscheinlichkeitsverteilung: Funktion, die angibt, wie Wahrscheinlichkeiten über die möglichen Ergebnisse eines Zufallsprozesses verteilt sind.
- Diskrete Verteilungen: Wahrscheinlichkeitsmasse wird auf diskrete Ereignisse verteilt, z.B. Binomialverteilung, Poissonverteilung.
- Stetige Verteilungen: Wahrscheinlichkeitsdichtefunktion (PDF) \(f(x)\) beschreibt die Verteilung; Integrale der PDF geben Wahrscheinlichkeiten, z.B. Normalverteilung, Exponentialverteilung.
- Kumulative Verteilungsfunktion (CDF): \( F(x) = P(X \leq x) \), beschreibt die Wahrscheinlichkeit, dass eine Zufallsvariable einen Wert kleiner oder gleich x annimmt.
Gesetz der großen Zahlen und zentrale Grenzwertsätze
Definition:
Gesetz der großen Zahlen: Aussage über Langfristverhalten von Stichprobenmittelwerten. Zentraler Grenzwertsatz: Verteilung der Summe von unabhängigen Zufallsvariablen konvergiert zu Normalverteilung.
Details:
- Gesetz der großen Zahlen: \(\bar{X}_n = \frac{1}{n} \sum_{i=1}^n X_i \xrightarrow{n \to \infty} \mu\)
- Zentraler Grenzwertsatz: \(\frac{\bar{X}_n - \mu}{\sigma / \sqrt{n}} \xrightarrow{d} N(0,1)\)
- Annahmen: Unabhängige und identisch verteilte Zufallsvariablen (i.i.d.), Erwartungswert \(\mu\), Varianz \(\sigma^2\)
- Anwendung: Schätzer für Populationsparameter, Verteilung von Stichprobenmittelwerten
Regressionsanalyse und Korrelation
Definition:
Regressionsanalyse untersucht Beziehungen zwischen abhängigen und unabhängigen Variablen. Korrelation misst die Stärke und Richtung des linearen Zusammenhangs zweier Variablen.
Details:
- Korrelation: Korrelationskoeffizient (r) zwischen -1 und 1.
- Lineare Regression: Modell y = β₀ + β₁x + ε
- β₀: Achsenabschnitt, β₁: Steigung, ε: Fehlerterm.
- Residuenanalyse zur Modellvalidierung.
- Bestimmtheitsmaß (R²) zur Güte des Modells.
Bayessche Wahrscheinlichkeitstheorie und Konzepte
Definition:
Bayessche Wahrscheinlichkeitstheorie verwendet den Satz von Bayes zur Berechnung der Wahrscheinlichkeit von Hypothesen basierend auf neuen Daten.
Details:
- Satz von Bayes: \[ P(H|D) = \frac{P(D|H) \, P(H)}{P(D)} \]
- Prior: \[ P(H) \]
- Likelihood: \[ P(D|H) \]
- Posterior: \[ P(H|D) \]
- Normalisierungsfaktor: \[ P(D) = \sum_{i} P(D|H_{i}) \, P(H_{i}) \]