Numerisches Programieren - Cheatsheet.pdf

Numerisches Programieren - Cheatsheet
Numerische Lösung linearer Gleichungssysteme Definition: Numerische Methoden zur Approximation der Lösung von linearen Gleichungssystemen. Oftmals notwendig, wenn analytische Lösungen nicht praktikabel sind. Details: Häufige Methoden: Gauss-Algorithmus, LU-Zerlegung, Jacobi-Verfahren, Gauss-Seidel-Verfahren Vorgehensweise: Transformiere Matrix in eine einfachere Form oder abstrahiere über iterativ...

© StudySmarter 2024, all rights reserved.

Numerische Lösung linearer Gleichungssysteme

Definition:

Numerische Methoden zur Approximation der Lösung von linearen Gleichungssystemen. Oftmals notwendig, wenn analytische Lösungen nicht praktikabel sind.

Details:

  • Häufige Methoden: Gauss-Algorithmus, LU-Zerlegung, Jacobi-Verfahren, Gauss-Seidel-Verfahren
  • Vorgehensweise: Transformiere Matrix in eine einfachere Form oder abstrahiere über iterative Verfahren
  • Fehleranalyse und Konvergenz sind kritische Punkte
  • Matrix-Vektor-Multiplikationen im Fokus zur Reduktion von Rechenlast
  • Spezielle Algorithmen für große und dünn besetzte Matrizen
  • Anwendung in verschiedenen Bereichen wie Simulationen, Datenanalyse

Fehleranalyse, insbesondere Rundungsfehler und Fehlerfortpflanzung

Definition:

Fehleranalyse untersucht, wie Fehler in numerischen Berechnungen entstehen und sich ausbreiten. Konzentriere Dich vor allem auf Rundungsfehler und deren Auswirkungen.

Details:

  • Rundungsfehler: Entstehen durch Begrenzung der Stellenanzahl im Computer, z. B. bei der Darstellung von Gleitkommazahlen.
  • Absolute Fehler: \[ E_A = | x - x' | \]
  • Relative Fehler: \[ E_R = \frac{| x - x' |}{| x |} \]
  • Fehlerfortpflanzung: Analyse, wie Eingabefehler das Endergebnis beeinflussen.
  • Fehlerfortpflanzung in Addition/Subtraktion: \[ E_{(A+B)} \approx E_A + E_B \]
  • Fehlerfortpflanzung in Multiplikation/Division: \[ E_{(A \times B)} \approx E_A + E_B \]
  • Schätzwert für die Fehlerfortpflanzung bei komplexen Algorithmen durch Varianten der Fehleranalyse.

Polynomiale und Spline-Interpolation

Definition:

Polynomiale und Spline-Interpolation sind numerische Methoden zur Annäherung von Funktionen durch Polynomien bzw. Splines.

Details:

  • Polynomiale Interpolation verwendet ein Polynom n-ten Grades zur Durchgang durch n+1 gegebene Punkte.
  • Generelle Form: P(x) = a_0 + a_1 x + a_2 x^2 + ... + a_n x^n.
  • Vorteile: Einfach zu implementieren, glatte Funktion.
  • Nachteile: Runge-Phänomen bei hohen Graden.
  • Spline-Interpolation unterteilt Intervall in kleinere Stücke und verwendet Niedriggrad-Polynome.
  • Kubische Splines sind Standard: S_i(x) = a_i + b_i (x - x_i) + c_i (x - x_i)^2 + d_i (x - x_i)^3.
  • Vorteile: Bessere Stabilität und Genauigkeit, keine Oszillationen.
  • Notwendige Bedingungen für Kubische Splines: Stetigkeit der ersten und zweiten Ableitung.

Least-Squares-Approximation

Definition:

Least-Squares-Approximation dient zur Minimierung der Summe der Quadrate der Differenzen zwischen den beobachteten und den geschätzten Werten.

Details:

  • Ziel: Bestimme die Koeffizientenvektoren \(\beta\), die die Fehlerquadrate minimieren
  • Formel: \[ \beta = (X^TX)^{-1}X^Ty \]
  • Fehlerquadratsumme: \(\text{RSS} = \text{min} \sum_{i=1}^n (y_i - (\beta_0 + \beta_1 x_i + ... + \beta_p x_i^p))^2 \)
  • Anwendung in Regressionsanalyse
  • Für lineare Modelle: \(\beta = (X^TX)^{-1}X^Ty\)
  • Matrixnotation: \(\text{RSS} = (y - X\beta)^T(y - X\beta)\)

Numerische Differentiationsmethoden und Fehlerquellen

Definition:

Numerische Differentiationsmethoden dienen zur Approximation der Ableitung einer Funktion, wenn die analytische Berechnung schwierig oder unmöglich ist.

Details:

  • Zentrale Differenzenmethode: \[ f'(x) \approx \frac{f(x+h) - f(x-h)}{2h} \]
  • Vorwärtssatzdifferenzenmethode: \[ f'(x) \approx \frac{f(x+h) - f(x)}{h} \]
  • Rückwärtssatzdifferenzenmethode: \[ f'(x) \approx \frac{f(x) - f(x-h)}{h} \]
  • Fehlerquellen: Rundungsfehler und Abschätzfehler
  • Optimierung von h: Balance zwischen Rundungs- und Abschätzfehler

Numerische Integrationstechniken wie Trapezformel und Simpsons Regel

Definition:

Numerische Integrationstechniken wie Trapezformel und Simpsons Regel werden verwendet, um Integrale von Funktionen näherungsweise zu berechnen, wenn eine analytische Integration schwierig oder unmöglich ist.

Details:

  • Trapezformel: Approximiert das Integral durch Aufteilung des Intervalls in kleinere Trapeze.
  • Formel der Trapezregel: \[ \int_{a}^{b} f(x) \, dx \approx \frac{b-a}{2} \left[ f(a) + f(b) \right] \]
  • Simpsons Regel: Näherung durch die Summe von Parabeln über Unterintervalle.
  • Formel der Simpsons Regel: \[ \int_{a}^{b} f(x) \, dx \approx \frac{b-a}{6} \left[ f(a) + 4f \left( \frac{a+b}{2} \right) + f(b) \right] \]
  • Beide Methoden erfordern die Unterteilung des Integrationsintervalls und die Summation der Einzelergebnisse.

Explizite und implizite Methoden zur Lösung von Differentialgleichungen

Definition:

Explizite und implizite Methoden zur numerischen Lösung von Differentialgleichungen; unterscheiden sich in der Behandlung des Zeitpunkts der Berechnung

Details:

  • Explizite Methoden: Berechnung der nächsten Zeitstufe nur auf Basis bekannter Informationen
  • Implizite Methoden: Einbindung zukünftiger Werte in die Berechnung, oft durch Lösung eines Gleichungssystems
  • Explizit: z.B. Euler-Verfahren: \( y_{n+1} = y_n + h f(t_n, y_n) \)
  • Implizit: z.B. Rückwärts-Euler: \( y_{n+1} = y_n + h f(t_{n+1}, y_{n+1}) \)
  • Stabilität: Implizite Methoden oft stabiler, für steife Gleichungen geeignet
  • Rechenaufwand: Implizite Methoden meist rechenintensiver

Konvergenz und Stabilität numerischer Verfahren

Definition:

Konvergenz bezieht sich darauf, dass numerische Verfahren eine Lösung immer näher an die exakte Lösung bringen, wenn die Schrittweite verkleinert wird. Stabilität bedeutet, dass Fehler nicht exponentiell wachsen.

Details:

  • Konvergenzbedingung: Ein Verfahren konvergiert, wenn \(\forall \epsilon > 0, \exists h_0 > 0 \) so dass \(|x_n - x| < \epsilon\) für \(h < h_0\).
  • Stabilitätsbedingung: Ein Verfahren ist stabil, wenn kleine Anfangsfehler nicht zu drastischen Fehlern während der Iteration führen.
  • Consistency: Ein Verfahren ist konsistent, wenn der lokale Fehler \( \tau(h) \) für \( h \to 0 \) verschwindet.
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden