Axiomatische Definition von Wahrscheinlichkeit
Definition:
Beschreibung der Wahrscheinlichkeit basierend auf Kolmogorov-Axiomen.
Details:
- Wahrscheinlichkeitsraum: \((\Omega, \mathcal{F}, P)\)
- \(\Omega\): Ergebnismenge
- \(\mathcal{F}\): \(\sigma\)-Algebra auf \(\Omega\)
- \(P\): Wahrscheinlichkeitsmaß
- Kolmogorov-Axiome:
- Axiom 1: \(P(A) \geq 0\) für alle \(A \in \mathcal{F}\)
- Axiom 2: \(P(\Omega) = 1\)
- Axiom 3: Für disjunkte Mengen \(A_1, A_2, ... \) gilt: \(P\left( \bigcup_{i=1}^\infty A_i \right) = \sum_{i=1}^\infty P(A_i)\)
Bedingte Wahrscheinlichkeiten und Unabhängigkeit
Definition:
Bedingte Wahrscheinlichkeit bezeichnet die Wahrscheinlichkeit eines Ereignisses A unter der Bedingung, dass Ereignis B eingetreten ist. Unabhängigkeit bedeutet, dass das Eintreten eines Ereignisses A keinen Einfluss auf die Wahrscheinlichkeit des Eintretens von Ereignis B hat.
Details:
- Bedingte Wahrscheinlichkeit: \( P(A|B) = \frac{P(A \cap B)}{P(B)} \)
- Unabhängigkeit: \( P(A \cap B) = P(A) \cdot P(B) \)
- \(P(A|B) = P(A)\) und \(P(B|A) = P(B)\) falls A und B unabhängig
Zentraler Grenzwertsatz
Definition:
Der Zentrale Grenzwertsatz besagt, dass die Summe von unabhängigen und identisch verteilten Zufallsvariablen mit endlichen Erwartungswert und Varianz, zum Normalverteilung konvergiert, wenn die Anzahl der Variablen gegen unendlich geht.
Details:
- Seien \(X_1, X_2, \ldots, X_n\) unabhängige identisch verteilte Zufallsvariablen mit \(E[X_i] = \mu\) und \(Var(X_i) = \sigma^2\).
- Die standardisierte Summe \(S_n\) dieser Zufallsvariablen ist gegeben durch: \[ S_n = \frac{\sum_{i=1}^{n} X_i - n \mu}{ \sigma \sqrt{n}} \]
- Nach dem Zentralen Grenzwertsatz gilt: \[ S_n \xrightarrow{d} \mathcal{N}(0,1) \]
- Dies bedeutet, dass die Verteilung von \(S_n\) für große \(n\) näherungsweise normalverteilt ist mit Mittelwert 0 und Varianz 1.
- Wichtiges Werkzeug für approximative Berechnungen in der Statistik.
Diskrete und stetige Zufallsvariablen
Definition:
Zufallsvariablen können diskret oder stetig sein.
Details:
- Diskrete Zufallsvariable: Nimmt abzählbar viele Werte an.
- Wahrscheinlichkeitsfunktion: \( P(X = x_i) = p_i \) mit \( \sum_{i}p_i=1 \)
- Wichtige Verteilungen: Binomial-, Poisson-Verteilung.
- Stetige Zufallsvariable: Nimmt überabzählbar viele Werte an.
- Dichtefunktion: \( f_X(x) \)
- Verteilungsfunktion: \( F_X(x) = P(X \leq x) = \int_{-\infty}^{x} f_X(t) dt \)
- Wichtige Verteilungen: Normal-, Exponentialverteilung.
Erwartungswert und Varianz
Definition:
Erwartungswert gibt den Mittelwert einer Zufallsvariablen an. Varianz misst die Streuung der Zufallsvariablen um den Erwartungswert.
Details:
- Erwartungswert (diskrete Variable): \( E(X) = \sum_{i} x_i \cdot P(X = x_i) \)
- Erwartungswert (stetige Variable): \( E(X) = \int_{-\infty}^{\infty} x \cdot f(x) \, dx \)
- Varianz: \( \text{Var}(X) = E((X - E(X))^2) \)
- Alternative Darstellung der Varianz: \( \text{Var}(X) = E(X^2) - (E(X))^2 \)
Schätzung und Konfidenzintervalle
Definition:
Schätzung: Bestimmung von Parametern einer Verteilung aus Stichprobendaten. Konfidenzintervalle: Bereich, der mit einer bestimmten Wahrscheinlichkeit den wahren Parameterwert enthält.
Details:
- Punkt-Schätzung: Schätzung eines einzelnen Parameterwertes, z.B. Mittelwert \(\bar{x}\)
- Intervallschätzung: Schätzung eines Bereiches, z.B. Konfidenzintervall
- Konfidenzintervall für den Mittelwert (bei bekanntem \(\sigma\)): \(\bar{x} \pm z_{\alpha/2} \frac{\sigma}{\sqrt{n}}\)
- Konfidenzintervall für den Mittelwert (bei unbekanntem \(\sigma\)): \(\bar{x} \pm t_{\alpha/2,n-1} \frac{s}{\sqrt{n}}\)
- Normalverteilung: z-Score \( z_{\alpha/2} \)
- t-Verteilung: t-Wert \( t_{\alpha/2,n-1} \)
P-Wert und Signifikanzniveaus
Definition:
P-Wert (p-value) ist die Wahrscheinlichkeit, unter der Nullhypothese ein Testergebnis zu erhalten, das mindestens so extrem ist wie das beobachtete Ergebnis. Signifikanzniveau (\u03B1) ist die Schranke, ab der ein Ergebnis als statistisch signifikant gilt.
Details:
- Berechnung des P-Werts: Vergleich der Teststatistik mit theoretischer Verteilung unter Nullhypothese.
- Häufig verwendete Signifikanzniveaus: 0,05 (5%), 0,01 (1%).
- Äquivalent zu: P-Wert < α → H\textsubscript{0} ablehnen, sonst H\textsubscript{0} beibehalten.
- Prinzip: Kleine P-Werte deuten auf inkonsistente Daten zur Nullhypothese hin.
- Wichtige Faustregel: Je kleiner der P-Wert, desto stärker die Evidenz gegen H\textsubscript{0}.
- Missinterpretationsgefahr: P-Wert ist nicht die Wahrscheinlichkeit, dass H\textsubscript{0} wahr ist.
Formulierung von Null- und Alternativhypothesen
Definition:
Formulierung von Null- (H_0) und Alternativhypothesen (H_1) bestimmt das Grundgerüst jeder Hypothesentests.
Details:
- H_0: beschreibt einen Zustand der Gleichheit oder des Nichtvorhandenseins eines Effekts.
- H_1: beschreibt einen Zustand der Ungleichheit oder das Vorhandensein eines Effekts.
- H_0 und H_1 müssen sich gegenseitig ausschließen.
- Formulierungen sollten genau und testbar sein.