Methods and applications of mathematical optimization - Cheatsheet.pdf

Methods and applications of mathematical optimization - Cheatsheet
Methods and applications of mathematical optimization - Cheatsheet Simplex-Algorithmus und Dualitätstheorie Definition: Methode zur Lösung linearer Optimierungsprobleme und dazugehörige Analyse der Beziehung zwischen Primal- und Dualproblem Details: Simplex-Algorithmus: Iteratives Verfahren zur Lösung von LP-Problemen Schrittweise Verbesserung der Zielfunktion entlang der Kanten des zulässigen Ber...

© StudySmarter 2024, all rights reserved.

Methods and applications of mathematical optimization - Cheatsheet

Simplex-Algorithmus und Dualitätstheorie

Definition:

Methode zur Lösung linearer Optimierungsprobleme und dazugehörige Analyse der Beziehung zwischen Primal- und Dualproblem

Details:

  • Simplex-Algorithmus: Iteratives Verfahren zur Lösung von LP-Problemen
  • Schrittweise Verbesserung der Zielfunktion entlang der Kanten des zulässigen Bereichs
  • Kriterium zur Wahl der Pivot-Elemente: Eingangs- und Ausgangsvariablen
  • Dualität: Jedes LP-Problem hat ein zugehöriges Dualproblem
  • Schwache Dualität: Wert des Dualproblems ist Schranke für den Wert des Primalproblems
  • Starke Dualität: Optimale Lösungen beider Probleme haben gleiche Zielfunktionswerte
  • Dualitätssätze: Verbindung zwischen Lösungen von Primal- und Dualproblem
  • Primal und Dual - Lösungen liefern Sensitivitätsanalysen und ökonomische Interpretationen

Schattenpreise und Sensitivitätsanalyse

Definition:

Schattenpreise spiegeln den impliziten Wert einer Knotenpunktressource wider, Sensitivitätsanalyse zeigt, wie optimale Lösungen auf Änderungen der Inputparameter reagieren.

Details:

  • Schattenpreise: Lagrange-Multiplikatoren \(\lambda\) für Nebenbedingungen
  • Geben an, wie sich der Zielfunktionswert ändert, wenn sich die rechte Seite einer Nebenbedingung um eine Einheit ändert
  • Sensitivitätsanalyse untersucht Robustheit des Optimierungsproblems
  • Analyse der zulässigen Wertebereiche für Parameteränderungen: Rechtsseiten- und Zielfunktionskoeffizienten
  • Sensitivitätsintervalle: \[ b_i^- , b_i^+ \] , \[ c_j^- , c_j^+ \]

Lokale vs. globale Optima

Definition:

Lokales Optimum: Extremwert (Minimum oder Maximum) einer Funktion innerhalb eines bestimmten Bereichs. Globales Optimum: Extremwert (Minimum oder Maximum) der gesamten Funktion.

Details:

  • Lokales Minimum: \[ f(x) \text{ hat ein lokales Minimum bei } x = a \text{, wenn } f(a) \text{ kleiner ist als } f(x) \text{ für alle } x \text{ in der Umgebung von } a. \]
  • Globales Minimum: \[ f(x) \text{ hat ein globales Minimum bei } x = a \text{, wenn } f(a) \text{ kleiner ist als } f(x) \text{ für alle } x \text{ im gesamten Definitionsbereich.} \]
  • Lokales Maximum: \[ f(x) \text{ hat ein lokales Maximum bei } x = a \text{, wenn } f(a) \text{ größer ist als } f(x) \text{ für alle } x \text{ in der Umgebung von } a. \]
  • Globales Maximum: \[ f(x) \text{ hat ein globales Maximum bei } x = a \text{, wenn } f(a) \text{ größer ist als } f(x) \text{ für alle } x \text{ im gesamten Definitionsbereich.} \]
  • Unterschied: Lokale Optima sind nur in einem eingeschränkten Bereich optimal, während globale Optima im gesamten Definitionsbereich der Funktion optimal sind.
  • Methoden zum Finden: Gradient Descend (lokales Optimum), Genetische Algorithmen (globales Optimum).

Branch-and-Bound-Methoden

Definition:

Verfahren zur ganzzahligen und kombinatorischen Optimierung, das systematisch den Lösungsraum durch Zerlegung in Teilprobleme durchsucht und durch Schrankenbildung Unzulässigkeiten eliminiert.

Details:

  • Wichtig für Integer-Programmierung und NP-schwere Probleme
  • Verzweigung: Problem wird in kleinere Teilprobleme zerlegt
  • Schranken: Obere und untere Schranken zur Bewertung der Teilprobleme
  • Bounding: Wenn Schranken die optimale Lösung ausschließen, wird das Teilproblem verworfen
  • Ziel: Reduzierung der Anzahl der zu prüfenden Lösungen
  • Anwendungsbeispiel: Traveling Salesman Problem (TSP)

Bellmansche Gleichungen und dynamische Programmierung

Definition:

Betrifft eine Methode zur Lösung von Optimierungsproblemen über mehrere Perioden hinweg durch Zerlegung in einfachere Teilprobleme.

Details:

  • Dynamische Programmierung: Technik zur Lösung komplexer Probleme durch Aufteilung in einfachere Teilprobleme.
  • Bellmansche Gleichung: Rekursive Gleichung, die den optimalen Wert an jedem Entscheidungszeitpunkt beschreibt.
  • Formel: \[ V(s) = \max_{a} \{R(s, a) + \gamma V(T(s, a))\} \]
  • \( V(s) \): Wertfunktion im Zustand \( s \).
  • \( R(s, a) \): Sofortige Belohnung bei Aktion \( a \) im Zustand \( s \).
  • \( \gamma \): Diskontfaktor (\( 0 < \gamma < 1 \)).
  • \( T(s, a) \): Übergangsfunktion (neuer Zustand nach Aktion \( a \) in Zustand \( s \)).

Nash-Gleichgewichte in der Spieltheorie

Definition:

Strategisches Gleichgewicht, in dem kein Spieler durch einseitige Strategieänderung profitieren kann.

Details:

  • Für jedes Spieler-Paar (i,j), Strategien (s_i, s'_i): U_i(s_i, s_{-i}) ≥ U_i(s'_i, s_{-i})
  • U = Nutzenfunktion
  • s = Strategie
  • Voraussetzung: Rationalität und vollständige Informationen

Evolutionäre Spieltheorie

Definition:

Untersucht die Anpassung und das Verhalten von Strategien in Populationen.

Details:

  • Zentral: Replikatordynamik - beschreibt Veränderung der Strategiehäufigkeit
  • Gleichgewicht: Evolutionär stabiles Gleichgewicht (ESG)
  • Formel: Replikatordynamik \(\frac{dx_i}{dt} = x_i [f_i(x) - \bar{f}(x)]\)
  • Beispiele: Gefangenendilemma, Falken-Tauben-Spiel
  • Anwendung: Analyse von Wettbewerb, Kooperation und Evolution in Märkten
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden