Hauptseminar Messtechnik - Cheatsheet
Theoretische Grundlagen der Messtechnik
Definition:
Grundlagen zur theoretischen Herleitung und Analyse von Messverfahren und -systemen in der Informatik und Ingenieurwissenschaften.
Details:
- Messunsicherheit: \( u = \frac{1}{\rho}\frac{dI}{dV} \)
- Messabweichung: systematische vs. zufällige Abweichungen
- Kalibrierung: Anpassung der Messgeräte an Referenzstandards
- Fehlerfortpflanzung: \( \frac{dy}{dx} = \frac{dy}{du} \frac{du}{dx} \)
- Abtasttheorem (Nyquist): Mind. doppelte Abtastrate der höchsten Signalfrequenz
- Signal-Rausch-Verhältnis (SNR): Verhältnis von Nutzsignal zu Rauschsignalleistung
Messfehler und Unsicherheiten
Definition:
Messfehler sind Abweichungen des gemessenen Werts vom wahren Wert. Unsicherheiten quantifizieren das Vertrauen in ein Messergebnis.
Details:
- Systematische Fehler: verursachen konstante oder systematische Abweichungen. Bsp.: Kalibrierfehler.
- Zufällige Fehler: variieren bei wiederholten Messungen. Bsp.: Rauschen.
- Berechnung der Unsicherheit: Kombiniere einzelne Unsicherheiten durch \[\text{Gesamtunsicherheit} = \sqrt{\sum_i u_i^2}\].
- Absolute Unsicherheit: Differenz in den Einheiten der Messgröße.
- Relative Unsicherheit: Verhältnis der absoluten Unsicherheit zum Messwert \( \delta x = \frac{\Delta x}{x} \ ).
- Signifikante Stellen: Anzahl der Stellen, die die Präzision und den Fehler einer Messung angeben.
Kalibrierung und Justierung von Messgeräten
Definition:
Kalibrierung: Vergleich Messgerät mit Referenz. Justierung: Messgerät wird angepasst, um Abweichungen zu minimieren.
Details:
- Zweck: Genauigkeit und Zuverlässigkeit sicherstellen
- Kalibrierprotokoll führt Unsicherheitsberechnung durch
- ISO/IEC 17025 Normen beachten
- Messabweichung: \Delta = M_x - M_s
- Justierung verändert physische/elektronische Parameter
- Regelmäßige Kalibrierintervalle festlegen
Signalumwandlung und -verarbeitung
Definition:
Umwandlung und Verarbeitung von Signalen zur Gewinnung nützlicher Informationen
Details:
- Signalumwandlung: ADC/DAC (Analog-Digital-Wandlung, Digital-Analog-Wandlung)
- Wichtige Begriffe: Abtastrate, Quantisierungsfehler, Nyquist-Theorem
- Signalverarbeitung: Filterung, Transformationen, Modulation
- Diskrete Fourier-Transformation (DFT) \[ X_k = \sum_{n=0}^{N-1} x_n e^{-i 2 \pi k n / N } \]
- Zeit- und Frequenzbereichsanalyse
- Algorithmen: FFT (Fast Fourier Transform), FIR (Finite Impulse Response), IIR (Infinite Impulse Response)
- Anwendungen: Sprachverarbeitung, Bildverarbeitung, Kommunikationssysteme
Diskrete Fourier-Transformation (DFT) und schnelle Fourier-Transformation (FFT)
Definition:
Umwandlung einer endlichen, diskreten Zeitreihe in eine endliche, diskrete Frequenzreihe. FFT ist ein Algorithmus zur effizienten Berechnung der DFT.
Details:
- DFT basiert auf Fourier-Transformation für diskrete, periodische Signale:
- Mathematische Definition der DFT: \[ X[k] = \frac{1}{N} \times \sum_{n=0}^{N-1} x[n] \times e^{-i 2 \pi kn / N} \]
- IDFT für Rücktransformation:
- Mathematische Definition der IDFT: \[ x[n] = \frac{1}{N} \times \sum_{k=0}^{N-1} X[k] \times e^{i 2 \pi kn / N} \]
- FFT reduziert Berechnungskomplexität von O(N^2) (DFT) auf O(N log N)
- Berühmte FFT-Algorithmen: Cooley-Tukey, Radix-2
Abtasttheorem und Quantisierung
Definition:
Abtasttheorem und Quantisierung sind grundlegende Konzepte in der digitalen Signalverarbeitung, die beschreiben, wie kontinuierliche Signale in diskrete Signale umgewandelt und durch endliche Wertebereiche dargestellt werden können.
Details:
- Abtasttheorem: Ein Signal kann ohne Informationsverlust rekonstruiert werden, wenn die Abtastfrequenz mindestens doppelt so hoch ist wie die höchste Frequenz des Signals. (Nyquist-Frequenz: \(f_s \geq 2f_{max}\))
- Quantisierung: Umwandlung kontinuierlicher Werte in diskrete Werte. Je höher die Anzahl der Quantisierungsstufen, desto geringer der Quantisierungsfehler.
- Quantisierungsfehler: Differenz zwischen dem Originalsignal und dem quantisierten Signal.
- Praktische Anwendungen: Digitale Audio- und Videoverarbeitung, Kommunikationssysteme, Messtechnik.
Innovationen in der Sensortechnik
Definition:
Innovationen in der Sensortechnik beziehen sich auf moderne Technologien und Entwicklungen zur Verbesserung der Messung, Erfassung und Verarbeitung von Daten.
Details:
- Integration von Künstlicher Intelligenz (KI) für verbesserte Datenverarbeitung.
- Fortschritte bei der Miniaturisierung von Sensorsystemen.
- Einsatz von drahtlosen Sensornetzwerken und IoT (Internet der Dinge).
- Verbesserung der Energieeffizienz und Batterielebensdauer.
- Anwendung in verschiedenen Bereichen wie Medizin, Automobilindustrie und Umweltüberwachung.
- Verwendung von MEMS (Micro-Electro-Mechanical Systems) Technologien.
- Erhöhte Sensitivität und Genauigkeit durch neue Materialien.
Automatisierte Messsysteme
Definition:
Automatisierte Messsysteme sind Systeme, die den Prozess der Messdatenerfassung und -verarbeitung ohne manuelle Eingriffe durchführen.
Details:
- Verwendung von Software zur Steuerung und Datenerfassung
- Schnittstellen: GPIB, USB, Ethernet
- Integration von Sensoren und Aktoren zur Automatisierung
- Beispielanwendungen: Qualitätssicherung, Prozessüberwachung
- Vorteile: Effizienz, Präzision, Datendurchsatz
- Herausforderungen: Kalibrierung, Synchronisation, Datenverarbeitung