Definition und Eigenschaften von Vektorräumen
Definition:
Ein Vektorraum (oder linearer Raum) ist eine algebraische Struktur, bestehend aus einer Menge von Vektoren, auf denen die Operationen Vektoraddition und Skalarmultiplikation definiert sind, die bestimmten Axiomen genügen.
Details:
- Ein Vektorraum V über einem Körper K besitzt zwei Operationen: Vektoraddition (+) und Skalarmultiplikation (\times).
- Axiome:
- Assoziativgesetz der Addition: Für alle u, v, w aus V, gilt (u + v) + w = u + (v + w)
- Kommutativgesetz der Addition: Für alle u, v aus V, gilt u + v = v + u
- Neutrales Element der Addition: Es gibt ein Element 0 in V, sodass für alle v in V gilt v + 0 = v
- Additives Inverses: Für jedes v in V gibt es ein -v in V, sodass v + (-v) = 0
- Assoziativgesetz der Skalarmultiplikation: Für alle a, b aus K und v aus V gilt a(bv) = (ab)v
- Distributivgesetz der Skalarmultiplikation bezüglich der Vektoraddition: Für alle a aus K und u, v aus V gilt a(u + v) = au + av
- Distributivgesetz der Skalarmultiplikation bezüglich der Körperaddition: Für alle a, b aus K und v aus V gilt (a + b)v = av + bv
- Neutrales Element der Skalarmultiplikation: Für alle v in V gilt 1v = v, wobei 1 das neutrale Element von K ist.
Matrixdarstellung und Matrizenoperationen
Definition:
Matrixdarstellung: Darstellen von linearen Abbildungen durch Matrizen.Matrizenoperationen: Rechenoperationen mit Matrizen, wie Addition, Multiplikation und Inversion.
Details:
- Matrixdarstellung: Eine lineare Abbildung \( f: V \to W \) wird durch eine Matrix \( A \) bezüglich Basen von \( V \) und \( W \) beschrieben.
- Matrixaddition: \( A + B \), wobei \( A \) und \( B \) gleiche Dimensionen haben.
- Matrixmultiplikation: \( (AB)_{ij} = \sum_{k} a_{ik} b_{kj} \) für Matrizen \( A \text{ und } B \).
- Skalarmultiplikation: \( cA = \left(c a_{ij}\right) \).
- Transponierte Matrix: \( A^T = \left(a_{ji}\right) \).
- Inverse Matrix: \( A^{-1}A = I \text{ und } AA^{-1} = I \), falls \( A \) invertierbar.
- Determinante: \( \text{det}(A) = \sum (-1)^{i+j}a_{ij} \text{det}(A_{ij}) \) für \( n \times n \)-Matrix \( A \).
Diagonalisierung von Matrizen
Definition:
Umwandlung einer Matrix in eine Diagonalmatrix durch Ähnlichkeitstransformation, wenn eine Basis aus eigenen Vektoren existiert.
Details:
- Matrix A ist diagonalisierbar, wenn \(A = P D P^{-1}\), wobei D eine Diagonalmatrix und P die Matrix der Eigenvektoren ist.
- Finde Eigenwerte \(\lambda\) über die Charakteristische Gleichung \(\det(A - \lambda I) = 0\)
- Berechne zugehörige Eigenvektoren für jeden Eigenwert über \((A - \lambda I)v = 0\)
- Diagonalmatrix D hat Eigenwerte auf der Hauptdiagonalen.
- Falls A nicht diagonalisierbar: Jordan-Normalform verwenden.
Gramm-Schmidt-Verfahren
Definition:
Verfahren zur Orthonormalisierung eines gegebenen Systems linear unabhängiger Vektoren in einem euklidischen Raum.
Details:
- Eingabe: Linear unabhängige Vektoren \( v_1, v_2, ..., v_n \)
- Ausgabe: Orthonormalbasis \( (u_1, u_2, ..., u_n) \)
- Berechnung:
- Setze \( u_1 = \frac{v_1}{\| v_1 \|} \)
- Für \( k = 2 \text{ bis } n \):
- Berechne \( w_k = v_k - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k) \)
- Setze \( u_k = \frac{w_k}{\| w_k \|} \)
- Projektion: \( \text{proj}_{u_j}(v_k) = \frac{\langle v_k, u_j \rangle}{\langle u_j, u_j \rangle} u_j \)
LU-Zerlegung
Definition:
Zerlegung einer Matrix A in das Produkt einer unteren Dreiecksmatrix L und einer oberen Dreiecksmatrix U. Erleichtert die Lösung linearer Gleichungssysteme.
Details:
- A = LU
- Voraussetzung: A ist eine quadratische Matrix.
- Existenz und Eindeutigkeit: Wenn A regulär ist.
- L: untere Dreiecksmatrix mit Diagonaleinträgen 1 (falls LU-Zerlegung ohne Pivotisierung)
- U: obere Dreiecksmatrix
- Anwendung: Lösung von Ax = b durch LUx = b, erst Ly = b (vorwärts) und dann Ux = y (rückwärts).
Jordan-Normalform
Definition:
Dient zur Vereinfachung von Matrizen zur leichteren Analyse linearer Transformationen.
Details:
- Jede quadratische Matrix lässt sich zu einer Jordan-Normalform (JNF) transformieren.
- Für eine Matrix A existiert eine invertierbare Matrix P, sodass A = PJP^{-1} wobei J die Jordan-Normalform ist.
- J ist eine Blockdiagonalmatrix mit Jordan-Blöcken auf der Diagonalen.
- In einem Jordan-Block stehen der Eigenwert λ auf der Diagonalen und Einsen auf der oberen Nebendiagonalen.
- Jede Nilpotenzmatrix in JNF ist strikte obere Dreiecksmatrix.
Spektralsatz
Definition:
Der Spektralsatz besagt, dass jede selbstadjungierte (Hermitesche) Matrix diagonalisierbar ist und ihre Eigenwerte reell sind.
Details:
- Sei \( A \in \mathbb{C}^{n \times n} \) selbstadjungiert, dann existiert eine unitäre Matrix \( U \) und eine reelle Diagonalmatrix \( \Lambda \) mit \( A = U \Lambda U^* \).
- Eigenwerte von \( A \) sind auf der Diagonalen von \( \Lambda \).
- Eigenvektoren von \( A \) bilden eine orthonormale Basis von \( \mathbb{C}^n \).
Singulärwertzerlegung
Definition:
Zerlegung einer Matrix in ein Produkt aus drei Matrizen: orthogonale Matrizen und Diagonalmatrix.
Details:
- Jede Matrix \(A\in\mathbb{R}^{m\times n}\) kann als \(A = U\Sigma V^T\) geschrieben werden, wobei \(U\in\mathbb{R}^{m\times m}\) und \(V\in\mathbb{R}^{n\times n}\) orthogonal sind, und \(\Sigma\) eine \(m\times n\) Diagonalmatrix ist.
- Die Diagonaleinträge von \(\Sigma\) sind die Singulärwerte von \(A\), geordnet in absteigender Reihenfolge.
- Spalten von \(U\) sind die linken Singulärvektoren, Spalten von \(V\) die rechten Singulärvektoren.
- Anwendung: Datenreduktion, Lösung überbestimmter Gleichungssysteme, Pseudoinverse.