Computerorientierte Mathematik II - Cheatsheet
Numerische Integration und Differentiation
Definition:
Numerische Methoden zur Integration und Differentiation approximieren analytische Verfahren, wenn eine exakte Lösung schwer oder unmöglich ist.
Details:
- Numerische Integrationstechniken umfassen Rechteck-, Trapez- und Simpson-Regeln.
- Rechteckregel: \[ \text{I} \approx \sum_{i=0}^{n-1} f(x_i) \Delta x \]
- Trapezregel: \[ \text{I} \approx \frac{\text{b} - \text{a}}{2n} [f(x_0) + 2 \sum_{i=1}^{n-1} f(x_i) + f(x_n)] \]
- Simpson-Regel: \[ \text{I} \approx \frac{\text{b} - \text{a}}{3n} [f(x_0) + 4 \sum_{i=1, \text{odd}}^{n-1} f(x_i) + 2 \sum_{i=2, \text{even}}^{n-2} f(x_i) + f(x_n)] \]
- Numerische Differentiationsmethoden umfassen Vorwärts-, Rückwärts- und Zentrale Differenzen.
- Vorwärtsdifferenz (erste Ableitung): \[ f'(x) \approx \frac{f(x+h) - f(x)}{h} \]
- Rückwärtsdifferenz (erste Ableitung): \[ f'(x) \approx \frac{f(x) - f(x-h)}{h} \]
- Zentrale Differenz (erste Ableitung): \[ f'(x) \approx \frac{f(x+h) - f(x-h)}{2h} \]
- Anwendung bei Funktionskurven und Differentialgleichungen.
Lösungsmethoden für nichtlineare Gleichungen
Definition:
Methoden zur Bestimmung von Lösungen für Gleichungen der Form \(f(x) = 0\), wobei \(f\) eine nichtlineare Funktion ist.
Details:
- Iteration: Wiederholte Anwendung einer Vorschrift zur Annäherung an die Lösung.
- Newton-Verfahren: Iteratives Verfahren, basierend auf der Taylorreihe, \(x_{n+1} = x_n - \frac{f(x_n)}{f'(x_n)}\).
- Fixpunktiteration: Forme die Gleichung um zu \(x = g(x)\) und iteriere \(x_{n+1} = g(x_n)\).
- Bisektion: Halbiert den Intervall, in dem die Lösung liegt, und wählt das neue Intervall gemäß dem Vorzeichen von \(f\).
- Regula Falsi: Kombination von Sekanten- und Bisektionsverfahren, um die Nullstelle zu finden.
- Konvergenz: Überprüfung der Konvergenzkriterien und -geschwindigkeit für die Methoden.
Matrixoperationen und deren Implementierung
Definition:
Operationen auf Matrizen und ihre Implementierung in numerischer Software.
Details:
- Matrixaddition: \[ (A + B)_{ij} = A_{ij} + B_{ij} \]
- Matrixmultiplikation: \[ (AB)_{ij} = \sum_{k} A_{ik} B_{kj} \]
- Transponierte Matrix: \[ (A^T)_{ij} = A_{ji} \]
- Inverse Matrix: \[ A^{-1} \text{ s.t. } A A^{-1} = I \]
- Determinante: \[ \text{det}(A) \]
- Implementation in Python: z.B. mit NumPy-Bibliothek: \[ \text{import numpy as np} \]
Numerische Verfahren zur Lösung von Differentialgleichungen
Definition:
Numerische Verfahren sind Techniken zur Approximation der Lösungen von Differentialgleichungen, wenn keine analytischen Lösungen verfügbar sind oder diese zu komplex sind.
Details:
- Euler-Verfahren: Explizites Verfahren; einfache Implementierung, aber geringe Genauigkeit.
- Runge-Kutta-Verfahren: Verbesserungen der Euler-Verfahren; bessere Genauigkeit bei ähnlicher Komplexität.
- Fehlberg-Verfahren: Adaptive Runge-Kutta-Methoden mit automatischer Schrittweitenkontrolle.
- Mehrschrittverfahren (z.B. Adams-Bashforth, Adams-Moulton): Verwenden mehrere vorherige Schritte, um aktuelle Werte zu berechnen.
- Finite-Differenzen-Methode: Diskretisierung der Differentialgleichung auf einem Gitter.
- Stabilität und Konvergenz: Wichtige Kriterien zur Bewertung der Verfahren.
- Ablehnungsgründe: Stabilitätsprobleme, numerische Diffusion oder Dispersion können auftreten.
Fehleranalyse und Stabilität von Algorithmen
Definition:
Untersuchung der Fehler, die bei numerischen Berechnungen auftreten, und Beurteilung, wie kleine Störungen der Eingangsdaten die Ergebnisse beeinflussen.
Details:
- Runde- und Abschneidefehler: Fehler bei der Begrenzung der Dezimalstellen.
- Gaußsches Eliminationsverfahren: Anfällig für Rundungsfehler ohne Pivotisierung.
- Bedingungszahl \(\kappa(A)\): Maß für die Empfindlichkeit gegenüber Störungen in den Eingangsdaten.
- Vorwärts- und Rückwärtsfehler: Unterschied in den Ergebnissen und den Eingangsdaten.
- Stabilität: Algorithmen stabil, wenn kleiner Fehler im Algorithmus keinen großen Fehler im Resultat erzeugt.
- Absolute und relative Fehler: Absolut \(\Delta x = x_{approx} - x\), Relativ \(\delta x = \frac{\Delta x}{x}\).
- Fehlerfortpflanzung: Untersuchung, wie Eingabefehler sich auf das Endergebnis auswirken.
Fourier-Reihen und -Transformationen
Definition:
Fourier-Reihen analysieren periodische Funktionen durch Zerlegung in Sinus- und Kosinusfunktionen. Fourier-Transformationen erweitern dies auf nicht-periodische Funktionen, indem sie diese in Frequenzraumdarstellungen umwandeln.
Details:
- Eine periodische Funktion kann mit der Fourier-Reihe als Summe von Sinus- und Kosinusfunktionen dargestellt werden: \[ f(x) = a_0 + \sum_{n=1}^{\infty} \, \left( a_n \cos(nx) + b_n \sin(nx) \right) \]
- Für die Koeffizienten gilt: \[ a_n = \frac{2}{T} \int_{0}^{T} f(x) \cos\left(\frac{2n\pi}{T} x\right) \, dx \] \[ b_n = \frac{2}{T} \int_{0}^{T} f(x) \sin\left(\frac{2n\pi}{T} x\right) \, dx \]
- Die Fourier-Transformation einer Funktion \( f(t) \) wird durch \[ F(\omega) = \int_{-\infty}^{\infty} f(t) e^{-i\omega t} \, dt \] dargestellt.
- Die inverse Fourier-Transformation erfolgt durch \[ f(t) = \frac{1}{2\pi} \int_{-\infty}^{\infty} F(\omega) e^{i\omega t} \, d\omega \]
- Wichtig für Signalanalyse und Lösungsfindung von Differentialgleichungen.
Projektarbeit mit numerischen Methoden
Definition:
Anwendung numerischer Methoden zur Lösung mathematischer Probleme in Projekten.
Details:
- Anwendungsorientiert, oft mit Implementierung in Programmiersprachen (z.B. Python, MATLAB)
- Typische Aufgaben: Numerische Integration, Lösung von Differentialgleichungen, Optimierungsprobleme
- Wichtige Methoden: Iterationsverfahren, Splines, Finite-Differenzen-Methoden
- Ziel: Vermittlung praktischer Fähigkeiten im Umgang mit numerischen Algorithmen und Tools