Lineare Algebra 2 - Cheatsheet.pdf

Lineare Algebra 2 - Cheatsheet
Definition und Eigenschaften von Vektorräumen Definition: Ein Vektorraum (oder linearer Raum) ist eine algebraische Struktur, bestehend aus einer Menge von Vektoren, auf denen die Operationen Vektoraddition und Skalarmultiplikation definiert sind, die bestimmten Axiomen genügen. Details: Ein Vektorraum V über einem Körper K besitzt zwei Operationen: Vektoraddition (+) und Skalarmultiplikation (\ti...

© StudySmarter 2024, all rights reserved.

Definition und Eigenschaften von Vektorräumen

Definition:

Ein Vektorraum (oder linearer Raum) ist eine algebraische Struktur, bestehend aus einer Menge von Vektoren, auf denen die Operationen Vektoraddition und Skalarmultiplikation definiert sind, die bestimmten Axiomen genügen.

Details:

  • Ein Vektorraum V über einem Körper K besitzt zwei Operationen: Vektoraddition (+) und Skalarmultiplikation (\times).
  • Axiome:
    • Assoziativgesetz der Addition: Für alle u, v, w aus V, gilt (u + v) + w = u + (v + w)
    • Kommutativgesetz der Addition: Für alle u, v aus V, gilt u + v = v + u
    • Neutrales Element der Addition: Es gibt ein Element 0 in V, sodass für alle v in V gilt v + 0 = v
    • Additives Inverses: Für jedes v in V gibt es ein -v in V, sodass v + (-v) = 0
    • Assoziativgesetz der Skalarmultiplikation: Für alle a, b aus K und v aus V gilt a(bv) = (ab)v
    • Distributivgesetz der Skalarmultiplikation bezüglich der Vektoraddition: Für alle a aus K und u, v aus V gilt a(u + v) = au + av
    • Distributivgesetz der Skalarmultiplikation bezüglich der Körperaddition: Für alle a, b aus K und v aus V gilt (a + b)v = av + bv
    • Neutrales Element der Skalarmultiplikation: Für alle v in V gilt 1v = v, wobei 1 das neutrale Element von K ist.

    Matrixdarstellung und Matrizenoperationen

    Definition:

    Matrixdarstellung: Darstellen von linearen Abbildungen durch Matrizen.Matrizenoperationen: Rechenoperationen mit Matrizen, wie Addition, Multiplikation und Inversion.

    Details:

    • Matrixdarstellung: Eine lineare Abbildung \( f: V \to W \) wird durch eine Matrix \( A \) bezüglich Basen von \( V \) und \( W \) beschrieben.
    • Matrixaddition: \( A + B \), wobei \( A \) und \( B \) gleiche Dimensionen haben.
    • Matrixmultiplikation: \( (AB)_{ij} = \sum_{k} a_{ik} b_{kj} \) für Matrizen \( A \text{ und } B \).
    • Skalarmultiplikation: \( cA = \left(c a_{ij}\right) \).
    • Transponierte Matrix: \( A^T = \left(a_{ji}\right) \).
    • Inverse Matrix: \( A^{-1}A = I \text{ und } AA^{-1} = I \), falls \( A \) invertierbar.
    • Determinante: \( \text{det}(A) = \sum (-1)^{i+j}a_{ij} \text{det}(A_{ij}) \) für \( n \times n \)-Matrix \( A \).

    Diagonalisierung von Matrizen

    Definition:

    Umwandlung einer Matrix in eine Diagonalmatrix durch Ähnlichkeitstransformation, wenn eine Basis aus eigenen Vektoren existiert.

    Details:

    • Matrix A ist diagonalisierbar, wenn \(A = P D P^{-1}\), wobei D eine Diagonalmatrix und P die Matrix der Eigenvektoren ist.
    • Finde Eigenwerte \(\lambda\) über die Charakteristische Gleichung \(\det(A - \lambda I) = 0\)
    • Berechne zugehörige Eigenvektoren für jeden Eigenwert über \((A - \lambda I)v = 0\)
    • Diagonalmatrix D hat Eigenwerte auf der Hauptdiagonalen.
    • Falls A nicht diagonalisierbar: Jordan-Normalform verwenden.

    Gramm-Schmidt-Verfahren

    Definition:

    Verfahren zur Orthonormalisierung eines gegebenen Systems linear unabhängiger Vektoren in einem euklidischen Raum.

    Details:

    • Eingabe: Linear unabhängige Vektoren \( v_1, v_2, ..., v_n \)
    • Ausgabe: Orthonormalbasis \( (u_1, u_2, ..., u_n) \)
    • Berechnung:
      • Setze \( u_1 = \frac{v_1}{\| v_1 \|} \)
      • Für \( k = 2 \text{ bis } n \):
        • Berechne \( w_k = v_k - \sum_{j=1}^{k-1} \text{proj}_{u_j}(v_k) \)
        • Setze \( u_k = \frac{w_k}{\| w_k \|} \)
    • Projektion: \( \text{proj}_{u_j}(v_k) = \frac{\langle v_k, u_j \rangle}{\langle u_j, u_j \rangle} u_j \)

    LU-Zerlegung

    Definition:

    Zerlegung einer Matrix A in das Produkt einer unteren Dreiecksmatrix L und einer oberen Dreiecksmatrix U. Erleichtert die Lösung linearer Gleichungssysteme.

    Details:

    • A = LU
    • Voraussetzung: A ist eine quadratische Matrix.
    • Existenz und Eindeutigkeit: Wenn A regulär ist.
    • L: untere Dreiecksmatrix mit Diagonaleinträgen 1 (falls LU-Zerlegung ohne Pivotisierung)
    • U: obere Dreiecksmatrix
    • Anwendung: Lösung von Ax = b durch LUx = b, erst Ly = b (vorwärts) und dann Ux = y (rückwärts).

    Jordan-Normalform

    Definition:

    Dient zur Vereinfachung von Matrizen zur leichteren Analyse linearer Transformationen.

    Details:

    • Jede quadratische Matrix lässt sich zu einer Jordan-Normalform (JNF) transformieren.
    • Für eine Matrix A existiert eine invertierbare Matrix P, sodass A = PJP^{-1} wobei J die Jordan-Normalform ist.
    • J ist eine Blockdiagonalmatrix mit Jordan-Blöcken auf der Diagonalen.
    • In einem Jordan-Block stehen der Eigenwert λ auf der Diagonalen und Einsen auf der oberen Nebendiagonalen.
    • Jede Nilpotenzmatrix in JNF ist strikte obere Dreiecksmatrix.

    Spektralsatz

    Definition:

    Der Spektralsatz besagt, dass jede selbstadjungierte (Hermitesche) Matrix diagonalisierbar ist und ihre Eigenwerte reell sind.

    Details:

    • Sei \( A \in \mathbb{C}^{n \times n} \) selbstadjungiert, dann existiert eine unitäre Matrix \( U \) und eine reelle Diagonalmatrix \( \Lambda \) mit \( A = U \Lambda U^* \).
    • Eigenwerte von \( A \) sind auf der Diagonalen von \( \Lambda \).
    • Eigenvektoren von \( A \) bilden eine orthonormale Basis von \( \mathbb{C}^n \).

    Singulärwertzerlegung

    Definition:

    Zerlegung einer Matrix in ein Produkt aus drei Matrizen: orthogonale Matrizen und Diagonalmatrix.

    Details:

    • Jede Matrix \(A\in\mathbb{R}^{m\times n}\) kann als \(A = U\Sigma V^T\) geschrieben werden, wobei \(U\in\mathbb{R}^{m\times m}\) und \(V\in\mathbb{R}^{n\times n}\) orthogonal sind, und \(\Sigma\) eine \(m\times n\) Diagonalmatrix ist.
    • Die Diagonaleinträge von \(\Sigma\) sind die Singulärwerte von \(A\), geordnet in absteigender Reihenfolge.
    • Spalten von \(U\) sind die linken Singulärvektoren, Spalten von \(V\) die rechten Singulärvektoren.
    • Anwendung: Datenreduktion, Lösung überbestimmter Gleichungssysteme, Pseudoinverse.
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden