Modul SemApprTh: Seminar Approximationstheorie - Exam.pdf

Modul SemApprTh: Seminar Approximationstheorie - Exam
Modul SemApprTh: Seminar Approximationstheorie - Exam Aufgabe 1) In dieser Aufgabe wirst Du lineare und nichtlineare Approximationsmethoden vergleichen und anwenden. Lineare Approximationen nutzen eine Kombination von Basisfunktionen und Gewichtungen, z.B. Polynominterpolation. Nichtlineare Approximationen erlauben komplexere Formen durch Nutzung übergeordneter nichtlinearer Beziehungen, wie z.B. ...

© StudySmarter 2024, all rights reserved.

Modul SemApprTh: Seminar Approximationstheorie - Exam

Aufgabe 1)

In dieser Aufgabe wirst Du lineare und nichtlineare Approximationsmethoden vergleichen und anwenden. Lineare Approximationen nutzen eine Kombination von Basisfunktionen und Gewichtungen, z.B. Polynominterpolation. Nichtlineare Approximationen erlauben komplexere Formen durch Nutzung übergeordneter nichtlinearer Beziehungen, wie z.B. RBF-Netzwerke.

c)

Teil c) Vergleiche die Genauigkeit der linearen und nichtlinearen Approximationen, die Du in Teil a) und Teil b) gefunden hast. Bestimme die maximale Abweichung der beiden Approximationen von \(f(x) = e^x\) im Intervall \([-1, 1]\). Welche Methode zeigt eine geringere maximale Abweichung und warum?

Lösung:

Teil c)

Vergleichen wir die Genauigkeit der linearen und nichtlinearen Approximationen, die wir in Teil a) und Teil b) gefunden haben:

  • Lineare Approximation (Teil a)Die lineare Approximation der Funktion \( f(x) = e^x \) im Bereich um \( x = 0 \) lautet: \( T_1(x) = 1 + x \)
  • Nichtlineare Approximation (Teil b)Die nichtlineare Approximation der Funktion \( f(x) = e^x \) im Intervall \([-1, 1] \) lautet: \( y(x) = 0.3195 e^{-(x + 1)^2} + 2.6002 e^{-x^2} + 6.5809 e^{-(x - 1)^2} \)

Um die Genauigkeit der beiden Approximationen zu vergleichen, berechnen wir die maximale Abweichung von \( f(x) = e^x \) im Intervall \([-1, 1] \). Dazu berechnen wir die Differenzen \( |f(x) - T_1(x)| \) und \( |f(x) - y(x)|\) für verschiedene Werte von \( x \).

Maximale Abweichung der linearen Approximation:

  • \( x = -1: \ \( |f(-1) - T_1(-1)| = |e^{-1} - (1 - 1)| = e^{-1} - 0 = 0.3679\ \)
  • \( x = 0: \ \( |f(0) - T_1(0)| = |1 - 1| = 0\ \)
  • \( x = 1: \ \( |f(1) - T_1(1)| = |e^1 - (1 + 1)| = e - 2 ≈ 0.7183 \)

Daraus folgt, dass die maximale Abweichung der linearen Approximation \( ≈ 0.7183 \) beträgt.

Maximale Abweichung der nichtlinearen Approximation:

  • \( x = -1: \ \( |f(-1) - y(-1)| = |e^{-1} - (0.3195 e^0 + 2.6002 e^{-1} + 6.5809 e^{-4})| = |0.3679 - (0.3195 + 0.95718 + 0.0995)| = |0.3679 - 1.37618| ≈ 1.0083 \)
  • \( x = 0: \ \( |f(0) - y(0)| = |1 - (0.3195 e^{-1} + 2.6002 e^0 + 6.5809 e^{-1})| = |1 - (0.11849 + 2.6002 + 0.11849)| = |1 - 2.83718| ≈ 1.8372 \)
  • \( x = 1: \ \( |f(1) - y(1)| = |e - (0.3195 e^{-4} + 2.6002 e^{-1} + 6.5809 e^0)| = |2.71828 - (0.00147 + 0.9571 + 6.5809)| = |2.71828 - 7.53947| ≈ 4.8212 \)

Daraus folgt, dass die maximale Abweichung der nichtlinearen Approximation \( ≈ 4.8212 \) beträgt.

Zusammenfassung:

  • Die lineare Approximation zeigt eine geringere maximale Abweichung (\( ≈ 0.7183 \)) als die nichtlineare Approximation (\( ≈ 4.8212 \)) im Intervall \([-1, 1]\).
  • Ursache: Die lineare Approximation wurde auf einen engen Bereich um \(x = 0\) optimiert, wodurch sie in diesem speziellen Bereich präziser ist. Die nichtlineare Approximation deckt einen größeren Bereich ab (\(-1\) bis \(1\)), was zu höheren Abweichungen führen kann. Außerdem hängt die Genauigkeit der nichtlinearen Approximation von der Wahl der Stützstellen und der Basisfunktion ab. Eine bessere Anpassung könnte durch die Wahl anderer Stützstellen oder Basisfunktionen erzielt werden.

Aufgabe 2)

Betrachte die Fehlerabschätzung bei der Polynomial- und Spline-Approximation. Gegeben sei eine Funktion f und deren Polynomialapproximation P_n(f) sowie Spline-Approximation S_n(f). Es gilt:

  • Der Fehler der Approximation durch ein Polynom vom Grad n ist gegeben durch: E_n(f) = \|f - P_n(f)\|
  • Fehler können in verschiedenen Normen ausgedrückt werden, z.B. in der \| \cdot \|_p-Norm oder in der \| \cdot \|_{\text{sup}}-Norm.
  • Für die Polynomialapproximation gilt: E_n(f) \leq C \omega\left( f, \frac{1}{n} \right), wobei \omega die Modulfunktion der Stetigkeit ist.
  • Bei der Verwendung von Splines hängt der Fehler von der Intervallaufteilung ab.
  • Der Fehler bei der linearen Interpolation beträgt: E_n(f) \leq M \cdot h^k für ein Polynom vom Grad k.
  • Chebyshev-Knoten minimieren den Interpolationsfehler bei der Polynominterpolation.

a)

Sei f(x) = e^x auf dem Intervall [0, 1]. Berechne die Polynomialapproximation P_2(f) der Funktion f mit Chebyshev-Knoten und bestimme die Fehlerabschätzung E_2(f) in der \| \cdot \|_{\text{sup}}-Norm. Verwende dazu die Modulfunktion der Stetigkeit \omega(f, t).

Lösung:

Um die Polynomialapproximation P2(f) der Funktion f(x) = e^x auf dem Intervall [0, 1] mit Chebyshev-Knoten zu berechnen und die Fehlerabschätzung E2(f) in der \| \cdot \|_{\text{sup}}-Norm zu bestimmen, gehst Du folgendermaßen vor:

  • Bestimmung der Chebyshev-Knoten auf dem Intervall [0, 1]
  • Berechnung des Polynoms P2(f) unter Verwendung der Chebyshev-Knoten
  • Fehlerabschätzung durch die Modulfunktion der Stetigkeit in der \| \cdot \|_{\text{sup}}-Norm

Schritt 1: Bestimmung der Chebyshev-Knoten

Die Chebyshev-Knoten für ein Intervall \textit{[-1, 1]} und \textit{n=2} sind gegeben durch:

  • \[xk = \cos \left( \frac{2k + 1}{2n + 2} \pi \right), \quad k = 0, 1, 2\]

Für das Intervall \textit{[0, 1]} transformieren wir die Knoten:

  • \[x_0 = 0.5 \left(1 + \cos \left( \frac{\pi}{6} \right) \right) = 0.5 \left( 1 + \frac{\sqrt{3}}{2} \right) \approx 0.933\]
  • \[x_1 = 0.5 \left( 1 + \cos \left( \frac{\pi}{2} \right) \right) = 0.5 \left( 1 + 0 \right) = 0.5\]
  • \[x_2 = 0.5 \left( 1 + \cos \left( \frac{5\pi}{6} \right) \right) = 0.5 \left( 1 - \frac{\sqrt{3}}{2} \right) \approx 0.067\]

Schritt 2: Berechnung des Polynoms P2(f)

Das Polynom P2(f) wird durch Interpolation der Werte von f an den Chebyshev-Knoten berechnet:

  • \[f(x_0) = e^{0.933} \approx 2.543\]
  • \[f(x_1) = e^{0.5} \approx 1.649\]
  • \[f(x_2) = e^{0.067} \approx 1.069\]

Die allgemeine Form eines Polynoms zweiten Grades lautet:

  • \[P_2(x) = a_0 + a_1 x + a_2 x^2\]

Berechnung der KoeffizientenUm die Koeffizienten \(a_0, a_1, a_2\) zu bestimmen, lösen wir das folgende lineare Gleichungssystem:

  • \[a_0 + a_1 x_0 + a_2 x_0^2 = f(x_0)\]
  • \[a_0 + a_1 x_1 + a_2 x_1^2 = f(x_1)\]
  • \[a_0 + a_1 x_2 + a_2 x_2^2 = f(x_2)\]

Schritt 3: Fehlerabschätzung in der \| \cdot \|_{\text{sup}}-Norm

Die Fehlerabschätzung E_2(f) mit Hilfe der Modulfunktion der Stetigkeit lautet:

  • \[E_2(f) \leq C \omega \left(f, \frac{1}{2}\right)\]
  • Die Modulfunktion der Stetigkeit \(\omega(f, t)\) ist definiert als:
  • \[\omega(f, t) = \sup_{0 \leq x, y \leq 1, \vert x - y \vert \leq t} \vert f(x) - f(y) \vert\]

Für \(f(x) = e^x\) ist die Modulfunktion:

  • \[\omega(f, t) = e^t - 1\]
  • Somit ergibt sich:
  • \[E_2(f) \leq C \left(e^{0.5} - 1\right)\]

Hierbei ist \(C\) eine Konstante, die vom Typ der Approximation abhängt.

b)

Sei g(x) = \sin(x) auf dem Intervall [0, \pi]. Betrachte die Spline-Approximation S_n(g) und diskutiere die Auswirkungen der Intervallaufteilung auf den Approximationsfehler E_n(g). Berechne den Fehler E_1(g) für eine gleichmäßige Intervallaufteilung und vergleiche diesen mit einer alternativen, nicht gleichmäßigen Aufteilung.

Lösung:

Um die Spline-Approximation S_n(g) der Funktion g(x) = \sin(x) auf dem Intervall [0, \pi] zu betrachten und die Auswirkungen der Intervallaufteilung auf den Approximationsfehler E_n(g) zu diskutieren, gehst Du wie folgt vor:

  • Beschreibung der Spline-Approximation und des Approximationsfehlers
  • Berechnung des Fehlers E_1(g) für eine gleichmäßige Intervallaufteilung
  • Vergleich des Fehlers mit einer nicht gleichmäßigen Intervallaufteilung

Schritt 1: Beschreibung der Spline-Approximation und des Approximationsfehlers

Bei der Spline-Approximation wird die Funktion g(x) durch Splines approximiert, die stückweise polynomiale Funktionen sind. Die Intervallaufteilung hat dabei einen großen Einfluss auf den Approximationsfehler. Eine gleichmäßige Intervallaufteilung bedeutet, dass die Knotenpunkte der Splines gleichmäßig im Intervall verteilt sind. Eine nicht gleichmäßige Aufteilung könnte z.B. bedeuten, dass mehr Knotenpunkte in Bereichen hoher Krümmung der Funktion platziert werden.

Schritt 2: Berechnung des Fehlers E_1(g) für eine gleichmäßige Intervallaufteilung

Die gleichmäßige Intervallaufteilung auf dem Intervall [0, \pi] mit n = 1 führt zu den Knotenpunkten:

  • \[ x_i = \frac{i \pi}{1}, \quad i = 0, 1 \]

Für n = 1 bedeutet dies, dass die Knotenpunkte bei x_0 = 0 und x_1 = \pi sind.

Der lineare Spline S_1(g) ist eine stückweise lineare Approximation zwischen diesen Punkten:

  • \[ S_1(x) = \frac{\sin(\pi) - \sin(0)}{\pi - 0} (x - 0) + \sin(0) = 0 \]

Da \( \sin(0) = 0 \) und \( \sin(\pi) = 0 \), ist der lineare Spline in diesem Fall einfach die x-Achse:

  • \[ S_1(x) = 0 \]

Der Fehler E_1(g) in der \| \cdot \|_{\text{sup}}-Norm ist:

  • \[ E_1(g) = \| g - S_1 \|_{\text{sup}} = \sup_{0 \leq x \leq \pi} \vert \sin(x) - 0 \vert = \sup_{0 \leq x \leq \pi} \vert \sin(x) \vert = 1 \]

Der maximale Fehler beträgt also 1.

Schritt 3: Vergleich des Fehlers mit einer nicht gleichmäßigen Intervallaufteilung

Nun betrachten wir eine nicht gleichmäßige Intervallaufteilung. Angenommen, wir wählen eine Aufteilung, die mehr Knotenpunkte in der Nähe von \( \pi/2 \) platziert, wo \( \sin(x) \) seinen Maximalwert erreicht:

  • Knotenpunktauswahl: \( x_0 = 0 \), \( x_1 = \pi / 4 \), \( x_2 = \pi/2 \), \( x_3 = 3\pi/4 \), \( x_4 = \pi \)

Der kubische Spline S_4(g) würde zwischen diesen Punkten besser approximieren:

  • Der Fehler in diesem Fall wäre kleiner als 1, weil der Spline durch die Punkte geht, wo die Funktion \( \sin(x) \) ihren Maximalwert und die kritischen Punkte erreicht.
  • Die exakte Berechnung des Fehlers kann durch die Konstruktion und Analyse des kubischen Splines erfolgen, aber intuitiv ist der Fehler kleiner, da der Spline mehr Informationen aus den kritischen Bereichen der Funktion verwendet.

Daher sehen wir, dass eine nicht gleichmäßige Intervallaufteilung, die mehr Knotenpunkte in Bereichen höherer Krümmung platziert, den Approximationsfehler signifikant verringern kann.

Aufgabe 3)

Das Gram-Schmidt-Orthogonalisierungsverfahren ist ein wesentliches Vorgehen, um ein System von linear unabhängigen Vektoren im \( \mathbb{R}^n \) oder \( \mathbb{C}^n \) in ein orthogonales Vektorsystem umzuwandeln. Dieser Prozess ist besonders bei der Untersuchung von Vektorräumen und der Lösung linearer Gleichungssysteme nützlich. Ausgangsvektoren: \( v_1, v_2, \ldots, v_n \) Ziel: Orthogonales (nicht normalisiertes) Vektorsystem \( u_1, u_2, \ldots, u_n \)

Schritte des Gram-Schmidt-Verfahrens:

  • Setze \( u_1 = v_1 \)
  • Für \( k = 2, 3, \ldots, n \: \[ u_k = v_k - \sum_{j=1}^{k-1} \frac{ \langle v_k, u_j \rangle}{ \langle u_j, u_j \rangle}u_j \]

Normalisierung: \( e_i = \frac{u_i}{\|u_i\|} \)

a)

Gegeben sei der Vektorraum \( \mathbb{R}^3 \) mit den Vektoren:

  • \( v_1 = \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} \)
  • \( v_2 = \begin{pmatrix} 1 \ 0 \ 1 \end{pmatrix} \)
  • \( v_3 = \begin{pmatrix} 0 \ 1 \ 1 \end{pmatrix} \)

Wende das Gram-Schmidt-Verfahren an, um ein orthogonales System \( u_i \) zu erzeugen. Zeige alle Rechenschritte und Ergebnissen.

Lösung:

Um das Gram-Schmidt-Orthogonalisierungsverfahren auf die gegebenen Vektoren im Vektorraum \( \mathbb{R}^3 \) anzuwenden, folgen wir den beschriebenen Schritten:

  • Setze \( u_1 = v_1 = \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} \)
  • Berechne \( u_2 \):\( u_2 = v_2 - \frac{ \langle v_2, u_1 \rangle}{ \langle u_1, u_1 \rangle}u_1 \)Schritte:- Zuerst berechnen wir das innere Produkt \( \langle v_2, u_1 \rangle \):\( \langle v_2, u_1 \rangle = \begin{pmatrix} 1 \ 0 \ 1 \end{pmatrix} \cdot \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = 1 \)- Dann berechnen wir \( \langle u_1, u_1 \rangle \):\( \langle u_1, u_1 \rangle = \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} \cdot \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = 2 \)- Schließlich erhalten wir:\( u_2 = \begin{pmatrix} 1 \ 0 \ 1 \end{pmatrix} - \frac{1}{2} \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = \begin{pmatrix} 1 \ 0 \ 1 \end{pmatrix} - \begin{pmatrix} \frac{1}{2} \ \frac{1}{2} \ 0 \end{pmatrix} = \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} \)
  • Berechne \( u_3 \):\( u_3 = v_3 - \sum_{j=1}^{2} \frac{\langle v_3, u_j \rangle}{\langle u_j, u_j \rangle}u_j \)Schritte:- Zuerst berechnen wir das innere Produkt \( \langle v_3, u_1 \rangle \):\( \langle v_3, u_1 \rangle = \begin{pmatrix} 0 \ 1 \ 1 \end{pmatrix} \cdot \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = 1 \)- Dann berechnen wir \( \frac{\langle v_3, u_1 \rangle}{\langle u_1, u_1 \rangle}u_1 \):\( \frac{1}{2} \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = \begin{pmatrix} \frac{1}{2} \ \frac{1}{2} \ 0 \end{pmatrix} \)- Jetzt berechnen wir das innere Produkt \( \langle v_3, u_2 \rangle \):\( \langle v_3, u_2 \rangle = \begin{pmatrix} 0 \ 1 \ 1 \end{pmatrix} \cdot \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} = -\frac{1}{2} + 1 = \frac{1}{2} \)- Und schließlich berechnen wir \( \frac{\langle v_3, u_2 \rangle}{\langle u_2, u_2 \rangle}u_2 \):\( \langle u_2, u_2 \rangle = \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} \cdot \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} = \frac{1}{4} + \frac{1}{4} + 1 = \frac{3}{2} \)\( \frac{\frac{1}{2}}{\frac{3}{2}} \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} = \frac{1}{3} \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} = \begin{pmatrix} \frac{1}{6} \ -\frac{1}{6} \ \frac{1}{3} \end{pmatrix} \)- Schließlich erhalten wir:\( u_3 = \begin{pmatrix} 0 \ 1 \ 1 \end{pmatrix} - \begin{pmatrix} \frac{1}{2} \ \frac{1}{2} \ 0 \end{pmatrix} - \begin{pmatrix} \frac{1}{6} \ -\frac{1}{6} \ \frac{1}{3} \end{pmatrix} = \begin{pmatrix} -\frac{2}{3} \ \frac{2}{3} \ \frac{2}{3} \end{pmatrix} \)

Das orthogonale (nicht normalisierte) Vektorsystem \( u_1, u_2, u_3 \) ist:

  • \( u_1 = \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} \)
  • \( u_2 = \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} \)
  • \( u_3 = \begin{pmatrix} -\frac{2}{3} \ \frac{2}{3} \ \frac{2}{3} \end{pmatrix} \)

b)

Nach der Orthogonalisierung aus der ersten Teilaufgabe sollen die erhaltenen orthogonalen Vektoren normalisiert werden. Berechne die normierten Vektoren \( e_i \) und überprüfe, ob die Orthogonalität erhalten bleibt.

Lösung:

Nachdem wir in der ersten Teilaufgabe das orthogonale Vektorsystem erhalten haben, normalisieren wir nun diese Vektoren. Die normalisierten Vektoren \( e_i \) berechnen sich nach der Beziehung:

\( e_i = \frac{u_i}{\|u_i\|} \)

Die orthogonalen Vektoren waren:

  • \( u_1 = \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} \)
  • \( u_2 = \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} \)
  • \( u_3 = \begin{pmatrix} -\frac{2}{3} \ \frac{2}{3} \ \frac{2}{3} \end{pmatrix} \)

Die Normen dieser Vektoren berechnen sich wie folgt:

Norm von \( u_1 \):

\( \|u_1\| = \sqrt{1^2 + 1^2 + 0^2} = \sqrt{2} \)

Norm von \( u_2 \):

\( \|u_2\| = \sqrt{\left(\frac{1}{2}\right)^2 + \left(-\frac{1}{2}\right)^2 + 1^2} = \sqrt{\frac{1}{4} + \frac{1}{4} + 1} = \sqrt{\frac{3}{2}} = \frac{\sqrt{6}}{2} \)

Norm von \( u_3 \):

\( \|u_3\| = \sqrt{\left(-\frac{2}{3}\right)^2 + \left(\frac{2}{3}\right)^2 + \left(\frac{2}{3}\right)^2} = \sqrt{\frac{4}{9} + \frac{4}{9} + \frac{4}{9}} = \sqrt{\frac{12}{9}} = \sqrt{\frac{4}{3}} = \frac{2}{\sqrt{3}} = \frac{2\sqrt{3}}{3} \)

Jetzt normalisieren wir die Vektoren:

Normalisierter Vektor \( e_1 \):

\( e_1 = \frac{u_1}{\|u_1\|} = \frac{1}{\sqrt{2}} \begin{pmatrix} 1 \ 1 \ 0 \end{pmatrix} = \begin{pmatrix} \frac{1}{\sqrt{2}} \ \frac{1}{\sqrt{2}} \ 0 \end{pmatrix} \)

Normalisierter Vektor \( e_2 \):

\( e_2 = \frac{u_2}{\|u_2\|} = \frac{2}{\sqrt{6}} \begin{pmatrix} \frac{1}{2} \ -\frac{1}{2} \ 1 \end{pmatrix} = \frac{1}{\sqrt{6}} \begin{pmatrix} 1 \ -1 \ 2 \end{pmatrix} = \begin{pmatrix} \frac{1}{\sqrt{6}} \ \frac{-1}{\sqrt{6}} \ \frac{2}{\sqrt{6}} \end{pmatrix} = \begin{pmatrix} \frac{1}{\sqrt{6}} \ \frac{-1}{\sqrt{6}} \ \frac{2}{\sqrt{6}} \end{pmatrix} \)

Normalisierter Vektor \( e_3 \):

\( e_3 = \frac{u_3}{\|u_3\|} = \frac{3}{2\sqrt{3}} \begin{pmatrix} -\frac{2}{3} \ \frac{2}{3} \ \frac{2}{3} \end{pmatrix} = \frac{1}{\sqrt{3}} \begin{pmatrix} -1 \ 1 \ 1 \end{pmatrix} = \begin{pmatrix} \frac{-1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \end{pmatrix} \)

Die normalisierten Vektoren sind:

  • \( e_1 = \begin{pmatrix} \frac{1}{\sqrt{2}} \ \frac{1}{\sqrt{2}} \ 0 \end{pmatrix} \)
  • \( e_2 = \begin{pmatrix} \frac{1}{\sqrt{6}} \ \frac{-1}{\sqrt{6}} \ \frac{2}{\sqrt{6}} \end{pmatrix} \)
  • \( e_3 = \begin{pmatrix} \frac{-1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \end{pmatrix} \)

Um die Orthogonalität der normalisierten Vektoren zu überprüfen, berechnen wir ihre Skalarprodukte:

  • \( e_1 \cdot e_2 = \begin{pmatrix} \frac{1}{\sqrt{2}} \ \frac{1}{\sqrt{2}} \ 0 \end{pmatrix} \cdot \begin{pmatrix} \frac{1}{\sqrt{6}} \ \frac{-1}{\sqrt{6}} \ \frac{2}{\sqrt{6}} \end{pmatrix} = \frac{1}{\sqrt{2}} \cdot \frac{1}{\sqrt{6}} + \frac{1}{\sqrt{2}} \cdot \frac{-1}{\sqrt{6}} + 0 \cdot \frac{2}{\sqrt{6}} = \frac{1}{\sqrt{12}} - \frac{1}{\sqrt{12}} = 0 \)
  • \( e_1 \cdot e_3 = \begin{pmatrix} \frac{1}{\sqrt{2}} \ \frac{1}{\sqrt{2}} \ 0 \end{pmatrix} \cdot \begin{pmatrix} \frac{-1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \end{pmatrix} = \frac{1}{\sqrt{2}} \cdot \frac{-1}{\sqrt{3}} + \frac{1}{\sqrt{2}} \cdot \frac{1}{\sqrt{3}} + 0 \cdot \frac{1}{\sqrt{3}} = -\frac{1}{\sqrt{6}} + \frac{1}{\sqrt{6}} = 0 \)
  • \( e_2 \cdot e_3 = \begin{pmatrix} \frac{1}{\sqrt{6}} \ \frac{-1}{\sqrt{6}} \ \frac{2}{\sqrt{6}} \end{pmatrix} \cdot \begin{pmatrix} \frac{-1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \ \frac{1}{\sqrt{3}} \end{pmatrix} = \frac{1}{\sqrt{6}} \cdot \frac{-1}{\sqrt{3}} + \frac{-1}{\sqrt{6}} \cdot \frac{1}{\sqrt{3}} + \frac{2}{\sqrt{6}} \cdot \frac{1}{\sqrt{3}} = -\frac{1}{\sqrt{18}} - \frac{1}{\sqrt{18}} + \frac{2}{\sqrt{18}} = 0 \)

Da alle Skalarprodukte null sind, bleibt die Orthogonalität der normalisierten Vektoren erhalten.

Aufgabe 4)

  • Legendre-Polynome: Lösen der Differentialgleichung \[(1 - x^2)P_n''(x) - 2xP_n'(x) + n(n + 1)P_n(x) = 0\], orthogonal bzgl. Gewichtsfunktion \(w(x) = 1\) im Intervall \([-1, 1]\).
  • Chebyshev-Polynome: Zwei Typen, erster und zweiter Art. Erster Art \( T_n(x) = \cos(n \,\arccos(x)) \) , orthogonal bzgl. Gewichtsfunktion \(w(x) = (1 - x^2)^{-0.5} \) auf \([-1, 1]\).
  • Hermite-Polynome: Lösen der Differentialgleichung \[ H_n''(x) - 2xH_n'(x) + 2nH_n(x) = 0\], orthogonal bzgl. Gewichtsfunktion \( w(x) = e^{-x^2} \) auf \([-\infty, \infty]\).

b)

Berechne das zweite Chebyshev-Polynom erster Art \( T_2(x) \) und überprüfe dessen Orthogonalität für den gegebenen Gewichtsoperator \((1 - x^2)^{-0.5} \) im Intervall \([-1, 1]\) mit Hilfe des Skalarprodukts:\[ \langle T_2, T_0 \rangle = \int_{-1}^{1}T_2(x) \cdot T_0(x) \cdot (1 - x^2)^{-0.5}\,dx \].

Lösung:

Berechnung des zweiten Chebyshev-Polynoms erster Art \( T_2(x) \) und Überprüfung der OrthogonalitätDie Chebyshev-Polynome erster Art sind definiert durch:

  • \( T_n(x) = \cos(n \, \arccos(x)) \)
Für \( n = 2 \) erhalten wir:
  • \( T_2(x) = \cos(2 \, \arccos(x)) \)
Mit Hilfe der doppelten Winkelidentität des Kosinus ergibt sich:
  • \( \cos(2 \theta) = 2 \cos^2(\theta) - 1 \)
Da \( x = \cos(\theta) \), erhalten wir:
  • \( T_2(x) = 2x^2 - 1 \)
Überprüfung der Orthogonalität für den Gewichtsoperator \((1 - x^2)^{-0.5}\) im Intervall \([-1, 1]\)Das Skalarprodukt \( \langle T_2, T_0 \rangle \) lautet:
  • \( \langle T_2, T_0 \rangle = \int_{-1}^{1}(2x^2 - 1) \, 1 \, (1 - x^2)^{-0.5} \, dx \)
Um die Orthogonalität zu beweisen, müssen wir zeigen, dass das Skalarprodukt null ist.Berechnung des Integrals:Wir verwenden die Substitution \( x = \sin(\theta) \) und \( dx = \cos(\theta) \, d\theta \). Die Integrationsgrenzen ändern sich von \( x = -1 \) bis \( x = 1 \) zu \( \theta = -\frac{\pi}{2} \) bis \( \theta = \frac{\pi}{2} \).Unter der Substitution gilt \( 1 - x^2 = \cos^2(\theta) \) und \( (1 - x^2)^{-0.5} = \cos^{-1}(\theta) \). Somit ergibt sich:
  • \( \langle T_2, T_0 \rangle = \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} (2 \sin^2(\theta) - 1) \, \cos^{-1}(\theta) \, \cos(\theta) \, d\theta \)
Da \( \cos^{-1}(\theta) \, \cos(\theta) = 1 \), ergibt sich:
  • \( \langle T_2, T_0 \rangle = \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} (2 \sin^2(\theta) - 1) \, d\theta \)
Dies ergibt zwei separate Integrale:
  • \( \langle T_2, T_0 \rangle = 2 \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \sin^2(\theta) \, d\theta - \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} d\theta \)
Das Integral von \( 1 \) über den Bereich \( [-\frac{\pi}{2}, \frac{\pi}{2}] \) ist einfach \( \pi \):
  • \( \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} d\theta = \pi \)
Um das Integral von \( \sin^2(\theta) \) zu berechnen, verwenden wir die Identität \( \sin^2(\theta) = \frac{1 - \cos(2\theta)}{2} \):
  • \( \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \sin^2(\theta) \, d\theta = \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \frac{1 - \cos(2\theta)}{2} \, d\theta \)
Teilen wir das Integral auf:
  • \( \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \sin^2(\theta) \, d\theta = \frac{1}{2} \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} d\theta - \frac{1}{2} \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \cos(2\theta) \, d\theta \)
  • \( = \frac{1}{2} \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} d\theta - \frac{1}{2} \left[ \frac{\sin(2\theta)}{2} \right]_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \)
  • \( = \frac{1}{2} \pi - \frac{1}{4} \left[ \sin(\pi) - \sin(-\pi) \right] \)
Da \( \sin(\pi) = 0 \) und \( \sin(-\pi) = 0 \), ergibt dies:
  • \( \int_{-\frac{\pi}{2}}^{\frac{\pi}{2}} \sin^2(\theta) \, d\theta = \frac{1}{2} \pi \)
Setzen wir dies in das ursprüngliche Integral ein:
  • \( \langle T_2, T_0 \rangle = 2 \cdot \frac{1}{2} \pi - \pi = \pi - \pi = 0 \)
Fazit: Da \( \langle T_2, T_0 \rangle = 0 \), ist gezeigt, dass \( T_2(x) \) und \( T_0(x) \) orthogonal sind für die Gewichtsfunktion \((1 - x^2)^{-0.5}\) im Intervall \([-1, 1]\).

c)

Löse die Differentialgleichung für das Hermite-Polynom \( H_2(x) \). Berechne dazu zunächst die ersten beiden Ableitungen von \( H_2(x) \) und setze diese zusammen mit der Gewichtsfunktion \( w(x) = e^{-x^2} \) in die Differentialgleichung ein.

Lösung:

Lösen der Differentialgleichung für das Hermite-Polynom \(H_2(x)\)Die Differentialgleichung für Hermite-Polynome lautet:

  • \( H_n''(x) - 2xH_n'(x) + 2nH_n(x) = 0 \)
Für \( n = 2 \) ergibt sich die Differentialgleichung:
  • \( H_2''(x) - 2xH_2'(x) + 4H_2(x) = 0 \)
Wir nehmen an, dass \( H_2(x) \) die Form eines Hermite-Polynoms hat:
  • \( H_2(x) = 4x^2 - 2 \)
Nun berechnen wir die ersten beiden Ableitungen von \( H_2(x) \):
  • Erste Ableitung:\( H_2'(x) = \frac{d}{dx}(4x^2 - 2) = 8x \)
  • Zweite Ableitung:\( H_2''(x) = \frac{d}{dx}(8x) = 8 \)
Setzen wir die Ableitungen in die Differentialgleichung ein:
  • \( H_2''(x) - 2xH_2'(x) + 4H_2(x) = 0 \)\( 8 - 2x(8x) + 4(4x^2 - 2) = 0 \)
Vereinfachen wir den Ausdruck:
  • \( 8 - 16x^2 + 16x^2 - 8 = 0 \)
Dies reduziert sich zu:
  • \( 0 = 0 \)
Da die Gleichung wahr ist, zeigt dies, dass \( H_2(x) = 4x^2 - 2 \) eine Lösung der Differentialgleichung ist.Überprüfung der Orthogonalität mit der Gewichtsfunktion \( w(x) = e^{-x^2}\) Die Hermite-Polynome sind orthogonal bzgl. der Gewichtsfunktion \( w(x) = e^{-x^2}\) im Intervall \( [-\infty, \infty] \). Da wir die Differentialgleichung bereits gelöst und die Form des Hermite-Polynoms bestätigt haben, können wir davon ausgehen, dass die orthogonalen Bedingungen eingehalten werden. Fazit: Das Hermite-Polynom \( H_2(x) = 4x^2 - 2 \) erfüllt die gegebene Differentialgleichung und ist orthogonal bzgl. der Gewichtsfunktion \( w(x) = e^{-x^2}\).
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden