Statistical Signal Processing - Cheatsheet.pdf

Statistical Signal Processing - Cheatsheet
Statistical Signal Processing - Cheatsheet Grundlagen der Wahrscheinlichkeit und Statistik Definition: Definiton und grundlegende Konzepte zu Wahrscheinlichkeitsrechnung und Statistik. Details: Zufallsvariable: Variable mit einer bestimmten Verteilung Verteilungen: Normalverteilung, Exponentialverteilung, Binomialverteilung Erwartungswert: \(E[X] = \sum x_i p(x_i)\) Varianz: \(Var(X) = E[(X - E[X]...

© StudySmarter 2024, all rights reserved.

Statistical Signal Processing - Cheatsheet

Grundlagen der Wahrscheinlichkeit und Statistik

Definition:

Definiton und grundlegende Konzepte zu Wahrscheinlichkeitsrechnung und Statistik.

Details:

  • Zufallsvariable: Variable mit einer bestimmten Verteilung
  • Verteilungen: Normalverteilung, Exponentialverteilung, Binomialverteilung
  • Erwartungswert: \(E[X] = \sum x_i p(x_i)\)
  • Varianz: \(Var(X) = E[(X - E[X])^2]\)
  • Gesetz der großen Zahlen und zentraler Grenzwertsatz
  • Häufigkeit vs. Wahrscheinlichkeit
  • Schätzmethoden: Maximum-Likelihood, Methode der kleinsten Quadrate
  • Bayes-Theorem: \(P(A|B) = \frac{P(B|A) P(A)}{P(B)}\)
  • Korrelation und Kausalität

Maximum-Likelihood-Schätzung

Definition:

Schätzverfahren zur Parameterbestimmung, die die Wahrscheinlichkeit der beobachteten Daten maximiert.

Details:

  • Gegeben: Datensatz \(\boldsymbol{x} = [x_1, x_2, \ldots, x_n]\) und Wahrscheinlichkeitsdichtefunktion \(\boldsymbol{p(x | \theta)}\)
  • Ziel: Schätzung des Parameters \(\theta\) durch Maximierung der Likelihood-Funktion \( L( \theta; \boldsymbol{x}) = \prod_{i=1}^n p(x_i | \theta) \)
  • Log-Likelihood: \( \ln L( \theta; \boldsymbol{x}) = \sum_{i=1}^n \ln p(x_i | \theta) \)
  • Schätzparameter: \( \hat{\theta} = \arg\max_\theta \ln L( \theta; \boldsymbol{x}) \)

Bayessche Schätzung

Definition:

Stell eine Wahrscheinlichkeit ein, basierend auf vorherigen Daten und neuen Beobachtungen.

Details:

  • Bayessches Theorem: \[ P(A|B) = \frac{P(B|A) \, P(A)}{P(B)} \]
  • A-priori-Wahrscheinlichkeit: Wissen vor der Beobachtung, \( P(\theta) \).
  • Likelihood: Wahrscheinlichkeit der Beobachtungen basierend auf den Parametern, \( P(D|\theta) \).
  • A-posteriori-Wahrscheinlichkeit: Aktualisierte Wahrscheinlichkeit nach der Beobachtung, \( P(\theta|D) \).
  • Beispiel: Schätzwerte für Parameter basierend auf vorheriger Verteilung und neuen Daten.

ARMA- und ARIMA-Modelle

Definition:

ARMA- und ARIMA-Modelle: Stochastische Modelle zur Analyse und Vorhersage zeitlicher Daten, basierend auf Autoregression (AR) und gleitendem Durchschnitt (MA).

Details:

  • ARMA-Modell: Kombiniert Autoregressive (AR) und Moving Average (MA) Modelle.
  • AR-Modell: AR(p) beschreibt einen Wert als Linearkombination seiner vorherigen p Werte.
  • MA-Modell: MA(q) beschreibt einen Wert als Linearkombination der vorherigen q Fehler hinsichtlich eines weißen Rauschens.
  • Formel ARMA(p,q): \[x_t = \sum_{i=1}^p \varphi_i x_{t-i} + \sum_{i=1}^q \theta_i \epsilon_{t-i} + \epsilon_t\]
  • ARIMA-Modell: Integrierter ARMA-Prozess, beinhaltet Differenzierung zur Stationarisierung.
  • Formel ARIMA(p,d,q)\[(1 - \sum_{i=1}^p \varphi_i L^i) (1 - L)^d x_t = (1 + \sum_{i=1}^q \theta_i L^i) \epsilon_t\]
  • d = Differenzierungsgrad um Stationarität zu erreichen.
  • Verwendung: Zeitreihenanalyse, Prognose.

Spektrale Methoden in der Zeitreihenanalyse

Definition:

Spektrale Methoden analysieren frequenzbasierte Eigenschaften von Zeitreihen und nutzen Fourier-Transformationen zur Identifikation periodischer Muster.

Details:

  • Fourier-Transformation: Umwandlung von Zeit- in Frequenzdomäne
  • Leistungsspektrum (Power Spectrum): Verteilung der Signalenergie über Frequenzen
  • Periodogramm: Geschätztes Leistungsspektrum einer Zeitreihe
  • Spektraldichte: Smoothed Version des Periodogramms
  • Definition der Frequenzen: \( f = \frac{k}{N \Delta t} \) für \( k = 0, 1, ..., N-1 \)
  • Fourier-Koeffizienten: \( X(f) = \sum_{t=0}^{N-1} x(t) e^{-i 2 \pi f t} \)

Fourier-Transformation und ihre Anwendungen

Definition:

Fourier-Transformation wandelt zeitliche Signale in ihre Frequenzkomponenten um.

Details:

  • Direkte Transformation: \( X(f) = \int_{-\infty}^{\infty} x(t) e^{-i 2 \pi f t} dt \)
  • Inverse Transformation: \( x(t) = \int_{-\infty}^{\infty} X(f) e^{i 2 \pi f t} df \)
  • Eigenschaften: Linearität, Zeit- und Frequenzverschiebung, Faltungstheorem
  • Diskrete Fourier-Transformation (DFT): Verwendung in der digitalen Signalverarbeitung
  • Schnelle Fourier-Transformation (FFT): Algorithmus zur effizienten Berechnung der DFT

LMS-Algorithmus (Least Mean Squares)

Definition:

LMS-Algorithmus, auch bekannt als Least-Mean-Squares-Algorithmus, ist ein adaptives Filterungs- und Schätzverfahren, das zur Minimierung des Mittelwertquadrats des Fehlers zwischen dem geschätzten Signal und dem gewünschten Signal verwendet wird.

Details:

  • Ziel: Minimierung der Kostenfunktion \( E[e^2(n)] \)
  • Anwendbar bei adaptiven Filteralgorithmen in Echtzeitsystemen
  • Aktualisierungsregel für die Filterkoeffizienten: \[ w(n+1) = w(n) + \mu \cdot e(n) \cdot x(n) \]
  • \( e(n) = d(n) - y(n) \): Fehlerterm
  • \( y(n) = w(n)^T \cdot x(n) \): Ausgangssignal
  • \( \mu \): Schrittweite, bestimmt Konvergenzgeschwindigkeit und Stabilität
  • Kompromiss zwischen schneller Konvergenz und geringem Überschwingen notwendig

RLS-Algorithmus (Recursive Least Squares)

Definition:

RLS-Algorithmus wird verwendet zur adaptiven Filterung und für Online-Schätzungen von Parametern.

Details:

  • Minimiert die quadratische Fehlerfunktion: \( J(n) = \frac{1}{2} \boldsymbol{e}^T(n) \boldsymbol{e}(n) \) mit \( \boldsymbol{e}(n) = \boldsymbol{d}(n) - \boldsymbol{X}(n)^T \boldsymbol{w}(n) \)
  • Aktualisierung der Gewichtungsvektoren: \( \boldsymbol{w}(n+1) = \boldsymbol{w}(n) + \boldsymbol{K}(n) [\boldsymbol{d}(n) - \boldsymbol{X}^T(n) \boldsymbol{w}(n)] \)
  • Gain-Vektor: \( \boldsymbol{K}(n) = \frac{\boldsymbol{P}(n-1) \boldsymbol{X}(n)}{\boldsymbol{\tau} + \boldsymbol{X}^T(n) \boldsymbol{P}(n-1) \boldsymbol{X}(n)} \)
  • Update der P-Matrix: \( \boldsymbol{P}(n) = \frac{1}{\boldsymbol{\tau}} (\boldsymbol{P}(n-1) - \boldsymbol{K}(n) \boldsymbol{X}^T(n) \boldsymbol{P}(n-1)) \)
  • Verwendet eine Exponentialgewichtung der Fehler: \( \tau \rightarrow 1 \) für wenig Vergessen, \( \tau < 1 \) für mehr Vergessen.
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden