Music Processing Analysis - Lecture and Exercise - Cheatsheet.pdf

Music Processing Analysis - Lecture and Exercise - Cheatsheet
Music Processing Analysis - Lecture and Exercise - Cheatsheet Grundlagen der Fourier-Transformation und Filter Definition: Transformation von Zeit- in Frequenz-Domäne für Signalverarbeitung; Filter modifizieren bestimmte Frequenzanteile. Details: Fourier-Transformation: \(\mathcal{F}\{f(t)\} = F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-j\omega t} dt\) Inverse Fourier-Transformation: \(\mathcal{F...

© StudySmarter 2024, all rights reserved.

Music Processing Analysis - Lecture and Exercise - Cheatsheet

Grundlagen der Fourier-Transformation und Filter

Definition:

Transformation von Zeit- in Frequenz-Domäne für Signalverarbeitung; Filter modifizieren bestimmte Frequenzanteile.

Details:

  • Fourier-Transformation: \(\mathcal{F}\{f(t)\} = F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-j\omega t} dt\)
  • Inverse Fourier-Transformation: \(\mathcal{F}^{-1}\{F(\omega)\} = f(t) = \frac{1}{2\pi} \int_{-\infty}^{\infty} F(\omega) e^{j\omega t} d\omega\)
  • Diskrete Fourier-Transformation (DFT) für digitale Signale
  • Typen von Filtern: Tiefpass, Hochpass, Bandpass, Bandsperre
  • Filtercharakteristik: Übertragungsfunktion (\(H(\omega)\))
  • Faltungstheorem: \(y(t) = f(t) * h(t)\)

Diskrete Fourier-Transformation (DFT) und schnelle Fourier-Transformation (FFT)

Definition:

DFT wandelt ein zeitdiskretes Signal in seine Frequenzkomponenten um. FFT ist ein effizienter Algorithmus zur Berechnung der DFT.

Details:

  • DFT: \(X[k] = \sum_{n=0}^{N-1} x[n] e^{-i \frac{2\pi}{N} kn}\)
  • FFT: DFT-Algorithmus mit verringerter Rechenzeit (\(O(N \log N)\))
  • Wird in der Musikerkennung und -analyse häufig verwendet
  • FFT-basierte Algorithmen: Cooley-Tukey, Radix-2, und mehr
  • Reduzierung von Aliasing und Spektralleckage durch Fensterfunktionen

Notenerkennung und -transkription

Definition:

Automatische Erkennung und Umwandlung von gespielten Musiknoten in eine schriftliche Form.

Details:

  • Notenerkennung: Algorithmus extrahiert Musiknoten aus einer Audioaufnahme.
  • - Methode: Fourier-Transformation zur Frequenzanalyse
  • - Konzept: Tonhöhe, Dauer und Lautstärke
  • Notentranskription: Umsetzung der erkannten Noten in eine lesbare Notation.
  • - Schritte: Identifikation von Tonhöhen-Events, Zeitsegmentierung, Notenaggregation
  • - Herausforderung: Polyphonie, Hintergräusche, Instrumentencharakteristik
  • Wichtige Algorithmen und Verfahren: Hidden-Markov-Modelle, maschinelles Lernen

Rhythmus- und Tempoerkennung

Definition:

Analyse von Musiksignalen zur Bestimmung des Tempos und der Rhythmen. Verwendung in Musiksynchronisation, automatischer Transkription und Musikklassifikation.

Details:

  • Tempobestimmung: Frequenzanalyse zur Detektion von Beats pro Minute (BPM)
  • Rhythmuserkennung: Identifikation von rhythmischen Mustern anhand von Timing und Akzentierung
  • Algorithmen: Fourier-Transformation, Autokorrelation
  • Musikalische Metadaten: Nützlich für Datenbankabfragen und Empfehlungssysteme
  • Software: LibROSA, Essentia

Extraktion akustischer Merkmale

Definition:

Prozess der Gewinnung bedeutender Merkmale aus Audiosignalen zur weiteren Verarbeitung und Analyse.

Details:

  • Frequenzmerkmale: \textit{Spektrale Merkmale} wie z.B. Mel-Frequenz Cepstrum-Koeffizienten (MFCC) zur Darstellung der kurzzeitigen Leistungsspektren.
  • Zeitraummerkmale: \textit{Hüllkurve}, \textit{Null-Crossing Rate} - relevante Informationen über Amplitudenverläufe.
  • Weitere Merkmale: \textit{Chromagramme}, \textit{Tonhöhenverlauf}, \textit{RMS-Energie}.
  • Anwendungen in \textbf{Klangklassifikation}, \textbf{Musikinformation-Retrieval} (MIR), \textbf{Spracherkennung}.

Neurale Netzwerke und tiefe Lernmodelle

Definition:

Neurale Netzwerke: Modelle aus verbundenen Knoten (Neuronen) inspiriert vom menschlichen Gehirn. Tiefe Lernmodelle (Deep Learning): Mehrschichtige neuronale Netze für komplexe Datenverarbeitung und Mustererkennung.

Details:

  • Perzeptron: Grundlegende Neuroneneinheit
  • Vorwärtspropagation: Berechnung des Outputs durch Schichten hindurch
  • Aktivierungsfunktionen: \textbf{sigmoid}, \textbf{tanh}, \textbf{Relu}
  • Fehlerfunktion: \textbf{MSE} (Mittlerer quadratischer Fehler), \textbf{Cross-Entropy}
  • Gradientenabstieg: Optimierungsalgorithmus zur Minimierung der Fehlerfunktion
  • Backpropagation: Anpassung der Gewichte durch Rückpropagation des Fehlers
  • Hyperparameter: Lernrate, Anzahl der Epochen, Batch-Größe
  • Überanpassung verhindern: Regularisierung, Dropout
  • Anwendungen in Musikverarbeitung: Genre-Klassifizierung, Stimmungsanalyse, Instrumentenerkennung

Grundlagen des MIDI-Protokolls

Definition:

MIDI (Musical Instrument Digital Interface): Standard zur Kommunikation zwischen digitalen Musikinstrumenten und Computern.

Details:

  • Datenformat: Überträgt Ereignisse (z.B.: Note on/off, Control Change).
  • MIDI-Datenpaket: Statusbyte gefolgt von bis zu zwei Datenbytes.
  • Statusbytes: Kennzeichnen Nachrichtentyp (z.B.: 0x80 für Note off).
  • Kanäle: 16 MIDI-Kanäle (1-16).
  • Übertragung: MIDI-Kabel oder USB.
  • Auflösung: 7-Bit-Wert (0-127) für Datenbytes.

Implementierung von DSP-Algorithmen in Software

Definition:

Implementierung von standardisierten Verfahren zur Signalverarbeitung auf Softwarebasis unter Berücksichtigung von Echtzeit-Anforderungen und Effizienz.

Details:

  • DSP = Digitale Signalverarbeitung
  • Verwendung von Mathematischen Operationen wie DFT, IDFT, FFT
  • Echtzeit-Anforderungen bedeutend für Audioverarbeitung
  • Effiziente Algorithmen: z.B. FFT beschleunigt DFT-Berechnung
  • Fokus auf niedrigere Latenz und Speicherverbrauch
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden