Diskretisierung und numerische Optimierung - Cheatsheet.pdf

Diskretisierung und numerische Optimierung - Cheatsheet
Diskretisierung und numerische Optimierung - Cheatsheet Diskretisierung von Differentialgleichungen Definition: Umwandlung stetiger Differentialgleichungen (DGL) in algebraische Gleichungen für numerische Berechnungen Details: Ziel: Lösung von DGLs mit Computer Methoden: Finite Differenzen, Finite Elemente, Finite Volumen Finite Differenzen: Approximation der Ableitungen durch Differenzenquotiente...

© StudySmarter 2024, all rights reserved.

Diskretisierung und numerische Optimierung - Cheatsheet

Diskretisierung von Differentialgleichungen

Definition:

Umwandlung stetiger Differentialgleichungen (DGL) in algebraische Gleichungen für numerische Berechnungen

Details:

  • Ziel: Lösung von DGLs mit Computer
  • Methoden: Finite Differenzen, Finite Elemente, Finite Volumen
  • Finite Differenzen: Approximation der Ableitungen durch Differenzenquotienten
  • Finite Elemente: Zerlegung des Gebiets in Elemente, Interpolation der Lösung
  • Finite Volumen: Integration der DGL über Kontrollvolumen
  • Zeitdiskretisierung: Explizite vs. implizite Verfahren
  • Acht auf Stabilität und Konvergenz der numerischen Lösung

Finite-Differenzen-Methode

Definition:

Näherungsverfahren zur Lösung von Differentialgleichungen durch Diskretisierung.

Details:

  • Ersetzt Ableitungen durch Differenzquotienten
  • Anwendung auf einem diskretem Gitter
  • Vorwärtsdifferenzen: \( f'(x) \approx \frac{f(x+h) - f(x)}{h} \)
  • Rückwärtsdifferenzen: \( f'(x) \approx \frac{f(x) - f(x-h)}{h} \)
  • Zentrale Differenzen: \( f'(x) \approx \frac{f(x+h) - f(x-h)}{2h} \)
  • Höhere Genauigkeit durch Reduktion von \(h\)

Newton-Methoden

Definition:

Newton-Methoden nutzen Ableitungen, um Näherungen für Lösungen nichtlinearer Gleichungen/Optimierungsprobleme zu finden. Zentrales Element: Iterationsverfahren.

Details:

  • Ziel: Lösung von \(f(x) = 0\) oder Minimierung von \(f(x)\).
  • Iteration: \[x_{k+1} = x_k - \frac{f(x_k)}{f'(x_k)}\]
  • Newton-Raphson-Verfahren für Wurzeln und nichtlineare Gleichungen.
  • Erweiterung für Vektoren: Newtons Methode für Systeme nichtlinearer Gleichungen \[x_{k+1} = x_k - J_f(x_k)^{-1} f(x_k)\]
  • Hessian-Matrix in der Optimierung nötig.
  • Quadratische Konvergenz unter bestimmten Bedingungen.
  • Anwendung: Numerische Optimierung und Approximation.

Lineare Programmierung (LP)

Definition:

Optimierungsverfahren, bei dem eine lineare Zielfunktion unter linearen Nebenbedingungen maximiert oder minimiert wird.

Details:

  • Zielfunktion: z.B. \( c^T x \)
  • Nebenbedingungen: z.B. \( Ax \leq b \)
  • Methode: Simplex-Algorithmus oder Innere-Punkte-Methoden
  • Lösungsmenge: Polyeder

Simplex-Algorithmus

Definition:

Verfahren zur Lösung linearer Optimierungsprobleme in Standardform.

Details:

  • Ziel: Maximierung der Zielfunktion \(c^T x\) unter Nebenbedingungen \(Ax \leq b\) und \(x \geq 0\).
  • Startet an einer Ecke des zulässigen Bereichs, bewegt sich entlang von Kanten zu benachbarten Ecken.
  • Iteriert bis zur optimalen Lösung oder Feststellung der Unbeschränktheit.
  • Pivot-Operation wählt die beste Kante basierend auf dem höchsten Gradient.
  • In seltenen Fällen exponentielle Laufzeit, meist jedoch polynomiell im Durchschnitt.
  • Standardformen: Primal, Dual und Primal-Dual Simplexverfahren.
  • Stabilität und Genauigkeit durch numerische Methoden wie z.B. Schreiber-Methoden verbessert.

Konvexitätsbedingungen für Funktionen

Definition:

Bedingungen, die eine Funktion erfüllen muss, um konvex zu sein.

Details:

  • Eine Funktion \( f: \mathbb{R}^n \to \mathbb{R} \) ist konvex, wenn für alle \( x, y \in \mathbb{R}^n \) und \( \lambda \in [0,1] \): \[ f(\lambda x + (1-\lambda) y) \leq \lambda f(x) + (1-\lambda) f(y) \]
  • Zweite Ableitung (Hessematrix) \( H \) einer zweimal differenzierbaren Funktion \( f \) muss positiv semidefinit sein: \[ H \geq 0 \]

Bellman'sche Optimalitätsgleichung

Definition:

Die Bellman'sche Optimalitätsgleichung ist eine rekursive Gleichung, die in der Dynamischen Programmierung verwendet wird, um den optimalen Entscheidungsprozess zu bestimmen.

Details:

  • Stellt die Grundlage für viele Optimierungsalgorithmen in der Informatik dar.
  • Formulierung: \( V(s) = \max_{a} \left \{ R(s, a) + \gamma \sum_{s'} P(s'|s, a) V(s') \right \} \)
  • \( V(s) \): Wertfunktion
  • \( a \): Aktion
  • \( R(s, a) \): Belohnung für Aktion a im Zustand s
  • \( \gamma \): Diskontfaktor
  • \( P(s'|s, a) \): Übergangswahrscheinlichkeit zum Zustand s' bei Aktion a im Zustand s
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden