Seminar Approximationstheorie - Cheatsheet.pdf

Seminar Approximationstheorie - Cheatsheet
Seminar Approximationstheorie - Cheatsheet Historische Entwicklung der Approximationstheorie Definition: Geschichte der Approximation von Funktionen durch Polynome und andere einfache Funktionen. Details: Antike: Heron von Alexandria und Ptolemäus - frühe Annäherungen für numerische Berechnungen. Mittelalter: Al-Biruni und Madhava - Genauere Methoden zur Annäherung von Kreisbögen. 17. Jh.: Isaac N...

© StudySmarter 2024, all rights reserved.

Seminar Approximationstheorie - Cheatsheet

Historische Entwicklung der Approximationstheorie

Definition:

Geschichte der Approximation von Funktionen durch Polynome und andere einfache Funktionen.

Details:

  • Antike: Heron von Alexandria und Ptolemäus - frühe Annäherungen für numerische Berechnungen.
  • Mittelalter: Al-Biruni und Madhava - Genauere Methoden zur Annäherung von Kreisbögen.
  • 17. Jh.: Isaac Newton und Blaise Pascal - Entwicklung des Kalküls und der Polynominterpolation.
  • 18. Jh.: Joseph-Louis Lagrange - Lagrange-Interpolation.
  • 19. Jh.: Carl Friedrich Gauß - Methode der kleinsten Quadrate.
  • 20. Jh.: Weierstraß'scher Approximationssatz: Jede stetige Funktion kann durch Polynome approximiert werden.
  • Aktuell: Entwicklungen in Splines, Wavelets und anderen modernen Techniken.

Kubische Splines und ihre Anwendungen

Definition:

Kubische Splines: stückweise kubische Polynome für glatte Approximation.

Details:

  • Knoten: Punkte, an denen die Polynom-Stücke sich treffen.
  • Glattheit: Stetig in Funktionen, erster und zweiter Ableitung.
  • Anwendungen: Interpolation, Grafikdesign, Computergrafik.
  • Typische Form:
    • Für jeden Abschnitt \(i\) gilt: \[S_i(x) = a_i + b_i(x - x_i) + c_i(x - x_i)^2 + d_i(x - x_i)^3\]
    • Bedingungen an den Knoten: \[S_i(x_{i+1}) = S_{i+1}(x_{i+1}), \, S'_i(x_{i+1}) = S'_{i+1}(x_{i+1}), \, S''_i(x_{i+1}) = S''_{i+1}(x_{i+1})\]

Fehlermaße und -typen in der Approximation

Definition:

Beschreibung der verschiedenen Fehlermaße und Typen von Fehlern, die bei der Approximation verwendet werden.

Details:

  • Fehlermaße quantifizieren Abweichung zwischen Funktion und Approximation.
  • Häufige Fehlermaße:
    • \textit{Relativer Fehler:} \( \frac{\text{Approximation - Exakter Wert}}{\text{Exakter Wert}} \)
    • \textit{Absoluter Fehler:} \( | \text{Approximation - Exakter Wert} | \)
    • \textit{L-Fehler:} \( L^p = \big( \int |f(x) - g(x)|^p \big)^{1/p} \)
  • Fehlertypen:
    • \textit{Globaler Fehler:} Fehler über gesamte Definitionsbereich.
    • \textit{Lokaler Fehler:} Fehler an einem bestimmten Punkt oder lokalen Bereich.
    • \textit{Maximaler Fehler:} \( L^\infty = \max |f(x) - g(x)| \)

Theorie der Konvergenz und Stabilität

Definition:

Untersuchung der Bedingungen zur Konvergenz einer Folge von Funktionen sowie deren Stabilität und Robustheit gegenüber Störungen.

Details:

  • Konvergenztypen: Punktweise, gleichmäßig, normierte
  • Stabilität: Verhalten bei kleinen Störungen in Daten oder Modellen
  • Fehleranalyse: Abschätzung der Genauigkeit der Näherung
  • Satz von Banach-Steinhaus: Beschreibt die gleichmäßige Beschränktheit
  • Lax-Richtmyer-Äquivalenzsatz: Verbindung zwischen Konsistenz, Stabilität und Konvergenz
  • Störungstheorie: Untersuchung der Wirkung kleiner Änderungen auf das System

Numerische Analysis und Differentialgleichungen

Definition:

Numerische Verfahren zur Lösung von Differentialgleichungen.

Details:

  • Diskretisierungsmethoden: Finite-Differenzen, Finite-Elemente, Finite-Volumen.
  • Explizite und implizite Verfahren für Anfangs- und Randwertprobleme.
  • Fehleranalyse: Konsistenz, Stabilität, Konvergenz.
  • Adaptive Methoden für eine verbesserte Effizienz.
  • Iterative und direkte Lösungsverfahren für lineare und nichtlineare Gleichungssysteme.

Maschinelles Lernen und neuronale Netze

Definition:

Maschinelles Lernen: adaptive Algorithmen, die aus Daten lernen. Neuronale Netze: spezielle ML-Modelle, inspiriert vom menschlichen Gehirn.

Details:

  • ML-Typen: Überwachtes Lernen, Unüberwachtes Lernen, Verstärkendes Lernen
  • Neuron: Grundbaustein, führt gewichtete Summe mit Aktivierungsfunktion aus
  • Schichten: Eingabeschicht, versteckte Schichten, Ausgabeschicht
  • Gradientenabstieg: Optimierungsverfahren zur Minimierung des Fehlers
  • Aktivierungsfunktionen: \(\text{sigmoid}(x) = \frac{1}{1 + e^{-x}} \), \(\text{ReLU}(x) = \text{max}(0, x)\)
  • Kostenfunktion: \(\text{MSE} = \frac{1}{n} \sum_{i=1}^{n}(y_i - \hat{y}_i)^2\)

Verwendung von LaTeX für mathematische Dokumente

Definition:

Verwendung von LaTeX zur Erstellung mathematischer Dokumente; eingesetzt für die präzise Darstellung mathematischer Formeln und Strukturen.

Details:

  • Speziell entwickelt für die Mathematik und Naturwissenschaften
  • Hochwertiger Satz von Formeln und Text
  • Nutzt eine Vielzahl von Paketen, z.B. \texttt{amsmath} für erweiterte mathematische Symbolik
  • Beispiele: \begin{equation} E = mc^2 \end{equation} für nummerierte Gleichung, \[ a^2 + b^2 = c^2 \] für nicht nummerierte Gleichung
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden