Einführung in die Numerik - Cheatsheet.pdf

Einführung in die Numerik - Cheatsheet
Einführung in die Numerik - Cheatsheet Gauß-Verfahren Definition: Verfahren zur Lösung linearer Gleichungssysteme durch Umformung der Koeffizientenmatrix in eine obere Dreiecksform. Details: 3 Schritte: Vorwärtselimination, Rückwärtssubstitution, Pivotisierung. Ziel: Matrix in obere Dreiecksform mit Nullen unter der Diagonalen. Vorwärtselimination: Subtrahiere passende Vielfache der Zeilen. Rückwä...

© StudySmarter 2024, all rights reserved.

Einführung in die Numerik - Cheatsheet

Gauß-Verfahren

Definition:

Verfahren zur Lösung linearer Gleichungssysteme durch Umformung der Koeffizientenmatrix in eine obere Dreiecksform.

Details:

  • 3 Schritte: Vorwärtselimination, Rückwärtssubstitution, Pivotisierung.
  • Ziel: Matrix in obere Dreiecksform mit Nullen unter der Diagonalen.
  • Vorwärtselimination: Subtrahiere passende Vielfache der Zeilen.
  • Rückwärtssubstitution: Löse das System von oben nach unten.
  • Pivotisierung: Tausche Zeilen, um nullte Diagonalelemente zu vermeiden.
  • Kosten: \(O(n^3)\) Operationen für \(n\) Gleichungen

Jacobi-Verfahren und Gauss-Seidel-Verfahren

Definition:

Jacobi-Verfahren und Gauss-Seidel-Verfahren sind iterative Methoden zur Lösung von linearen Gleichungssystemen der Form \( Ax = b \).

Details:

  • Jacobi-Verfahren: Update der Lösung erfolgt für jede Variable simultan durch Isolation der Variablen in den Gleichungen.
  • Formel: \( x^{(k+1)} = D^{-1} (b - (L + U)x^{(k)}) \)
  • Konvergenzbedingung: Matrix \( A \) muss diagonaldominant oder positiv definit sein.
  • Gauss-Seidel-Verfahren: Verbesserung basiert auf sukzessive Aktualisierung neuer Werte in den Gleichungen.
  • Formel: \( x_i^{(k+1)} = \frac{1}{a_{ii}} \left(b_i - \sum_{j < i} a_{ij} x_j^{(k+1)} - \sum_{j > i} a_{ij} x_j^{(k)}\right) \)
  • Schnellere Konvergenz als Jacobi, aber Reihenfolge der Berechnungen wichtig.

LU-, QR- und Cholesky-Zerlegung

Definition:

LU-, QR- und Cholesky-Zerlegung sind wichtige Matrixzerlegungen in der numerischen Mathematik, die zur Lösung von linearen Gleichungssystemen und zur Eigenwertbestimmung verwendet werden.

Details:

  • LU-Zerlegung: Zerlegt eine Matrix A in das Produkt zweier Matrizen L (untere Dreiecksmatrix) und U (obere Dreiecksmatrix), sodass gilt: \(A = LU\).
  • QR-Zerlegung: Zerlegt eine Matrix A in das Produkt einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R, sodass gilt: \(A = QR\).
  • Cholesky-Zerlegung: Zerlegt eine symmetrische, positiv definite Matrix A in das Produkt einer unteren Dreiecksmatrix L und deren Transponierte \(L^T\), sodass gilt: \(A = LL^T\).

Polynominterpolation: Newton und Lagrange

Definition:

Polynominterpolation mithilfe von Newton- und Lagrange-Polynomen, um einen gegebenen Datensatz genau zu approximieren.

Details:

  • Lagrange-Polynom: \[ P(x) = \sum_{i=0}^{n} y_i \frac{(x-x_0) \cdots (x-x_{i-1})(x-x_{i+1}) \cdots (x-x_n)}{(x_i-x_0) \cdots (x_i-x_{i-1})(x_i-x_{i+1}) \cdots (x_i-x_n)} \]
  • Newton-Polynom: \[ P(x) = a_0 + a_1(x-x_0) + a_2(x-x_0)(x-x_1) + \cdots + a_n(x-x_0)(x-x_1) \cdots (x-x_{n-1}) \]
  • Interpolationsfehler: \[ f(x) - P(x) = \frac{f^{(n+1)}(\xi)}{(n+1)!} (x-x_0)(x-x_1) \cdots (x-x_n) \]

Numerische Differentiation: Vorwärts-, Rückwärts- und Zentrale Differenzen

Definition:

Numerische Differentiation verwendet Diskretisierungen, um Ableitungen zu berechnen.

Details:

  • Vorwärts-Differenz: \( f'(x) \approx \frac{f(x+h) - f(x)}{h} \)Fehler: \( O(h) \)
  • Rückwärts-Differenz: \( f'(x) \approx \frac{f(x) - f(x-h)}{h} \)Fehler: \( O(h) \)
  • Zentrale Differenz: \( f'(x) \approx \frac{f(x+h) - f(x-h)}{2h} \)Fehler: \( O(h^2) \)

QR-Algorithmus und Schur-Zerlegung bei Eigenwertproblemen

Definition:

QR-Algorithmus zur Berechnung von Eigenwerten einer Matrix durch wiederholte Anwendung der QR-Zerlegung; Schur-Zerlegung zur Darstellung einer Matrix in obere Dreiecksform durch unitäre Transformation.

Details:

  • QR-Zerlegung: \( A = QR \), wobei \(Q\) orthogonal und \(R\) eine obere Dreiecksmatrix ist.
  • Iterativer Ablauf des QR-Algorithmus: \( A_{k+1} = R_k Q_k \), die Eigenwerte stehen auf der Diagonalen von \( A_k \) im Limes.
  • Schur-Zerlegung: Jede quadratische Matrix \(A\) kann in der Form \( A = UTU^H \) mit unitärer Matrix \(U\) und oberer Dreiecksmatrix \(T\) zerlegt werden.

Adaptive Quadraturverfahren: Romberg-Integration

Definition:

Romberg-Integration ist eine Methode zur numerischen Integration, die Trapezregel und Richardson-Extrapolation kombiniert.

Details:

  • Kombiniert Trapezregel mit Richardson-Extrapolation für höhere Genauigkeit.
  • Hierarchie von Trapezregel-Näherungen.
  • Extrapolationsschema: \( R_{k,j} = \frac{4^j R_{k+1,j-1} - R_{k,j-1}}{4^j - 1} \)
  • Matrix von Näherungen \( R_{0,0}, R_{1,0}, R_{0,1}, \text{...} \)
  • Erfordert adaptive Kontrolle um Fehler zu minimieren.

Fehlerschranken und Konditionszahlen

Definition:

Fehlerschranken: obere Grenze für den bestehenden Fehler in einer numerischen Berechnung. Konditionszahlen: Maß für die Empfindlichkeit der Lösung einer numerischen Problemstellung gegenüber kleinen Änderungen in den Eingangsdaten.

Details:

  • Absolute Fehlerschranke: \[ |E(x)| \leq \text{obere Schranke} \]
  • Relative Fehlerschranke: \[ |r(x)| = \frac{|E(x)|}{|x|} \leq \text{obere Schranke} \]
  • Konditionszahl bei Funktion f: \[ \kappa(f) = \frac{|f'(x)|}{|f(x)|} |x| \]
  • Schlecht konditioniertes Problem: hohe Konditionszahl (empfindlich gegenüber Fehlern)
  • Gut konditioniertes Problem: niedrige Konditionszahl (weniger empfindlich gegenüber Fehlern)
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden