Lineare Algebra 2 - Cheatsheet.pdf

Lineare Algebra 2 - Cheatsheet
Basis und Dimension eines Vektorraums Definition: Basis eines Vektorraums: Linearkombinationen ergeben jede Menge im Vektoraum, linear unabhängig. Dimension: Anzahl der Basisvektoren. Details: Basis: Menge von Vektoren \(B = \{v_1, v_2, ..., v_n\}\), die den Vektorraum aufspannen und linear unabhängig sind. Ein Vektorraum der Dimension \(n\) hat eine Basis mit \(n\) Vektoren. Jeder Vektor im Raum ...

© StudySmarter 2024, all rights reserved.

Basis und Dimension eines Vektorraums

Definition:

Basis eines Vektorraums: Linearkombinationen ergeben jede Menge im Vektoraum, linear unabhängig. Dimension: Anzahl der Basisvektoren.

Details:

  • Basis: Menge von Vektoren \(B = \{v_1, v_2, ..., v_n\}\), die den Vektorraum aufspannen und linear unabhängig sind.
  • Ein Vektorraum der Dimension \(n\) hat eine Basis mit \(n\) Vektoren.
  • Jeder Vektor im Raum kann eindeutig als Linearkombination der Basisvektoren geschrieben werden.
  • Dimension: Anzahl der Vektoren in einer Basis, \(\dim V = n\).
  • Wenn \(V\) endlich-dimensional, ist jedes Erzeugendensystem mit \(n\) linear unabhängigen Vektoren eine Basis.

Isomorphismen zwischen Vektorräumen

Definition:

Isomorphismen zwischen Vektorräumen sind bijektive lineare Abbildungen, die die Struktur von Vektorräumen erhalten.

Details:

  • Zwei Vektorräume V und W sind isomorph, wenn es einen Isomorphismus \(f: V \to W\) gibt.
  • Vektorräume sind isomorph, wenn sie dieselbe Dimension haben.
  • Für einen Isomorphismus \(f\) gilt: \(f(u + v) = f(u) + f(v)\) und \(f(\beta u) = \beta f(u)\).
  • Existenz eines Inversen: \(f^{-1}: W \to V\) ist auch ein Isomorphismus.

Kern und Bild einer linearen Abbildung

Definition:

Kern und Bild einer linearen Abbildung

Details:

  • Sei \( V \) und \( W \) Vektorräume und \( f: V \to W \) eine lineare Abbildung.
  • Kern (Kernel): \( \ker(f) = \{v \in V \mid f(v) = 0_W\} \)
  • Der Kern ist ein Untervektorraum von \( V \).
  • Der Rang einer linearen Abbildung ist die Dimension des Bildes.
  • Bild (Image): \( \operatorname{im}(f) = \{w \in W \mid w = f(v) \text{ für ein } v \in V\} \)
  • Das Bild ist ein Untervektorraum von \( W \).
  • Erstes Isomorphismus-Theorem: \( V / \ker(f) \cong \operatorname{im}(f) \)
  • Rang-Nullitätssatz: \( \dim(V) = \dim(\ker(f)) + \dim(\operatorname{im}(f)) \)

Charakteristisches Polynom und Eigenwertgleichung

Definition:

Charakteristisches Polynom liefert die Eigenwerte einer Matrix, indem es Nullstellen bestimmt. Eigenwertgleichung zur Berechnung der Eigenvektoren.

Details:

  • Charakteristisches Polynom: \( p(\lambda) = \det(A - \lambda I) \)
  • Eigenwertgleichung: \( A v = \lambda v \)
  • Eigenwert: \( \lambda \) ist Nullstelle von \( p(\lambda) \)
  • Eigenvektor: Vektor \( v \) der zugehörigen Gleichung

Diagonalisation von Matrizen

Definition:

Zurückführung einer Matrix auf Diagonalform mittels einer Ähnlichkeitstransformation.

Details:

  • Eine Matrix A ist diagonalisierbar, wenn es eine invertierbare Matrix P und eine Diagonalmatrix D gibt, sodass:
  • A = PDP^{-1}
  • Existenz von n linear unabhängigen Eigenvektoren erforderlich
  • Eigenwerte von A sind die Diagonaleinträge von D
  • Geometrische und algebraische Vielfachheit der Eigenwerte müssen übereinstimmen

Spektralsatz für symmetrische Matrizen

Definition:

Spektralsatz besagt, dass eine symmetrische Matrix orthogonal diagonalisierbar ist.

Details:

  • Sei A eine symmetrische Matrix:
  • Existiert eine orthogonale Matrix Q und eine Diagonalmatrix D , sodass: A = QDQ^T
  • Die Diagonalelemente von D sind die Eigenwerte von A .
  • Die Spalten von Q sind die normierten Eigenvektoren von A .

Singulärwertzerlegung

Definition:

Faktorisierung einer Matrix in die Form \( A = U \Sigma V^T \), wobei \( U \) und \( V \) orthogonale Matrizen und \( \Sigma \) eine Diagonalmatrix ist.

Details:

  • \( A \in \mathbb{R}^{m\times n} \)
  • \( U \in \mathbb{R}^{m\times m} \), \( V \in \mathbb{R}^{n\times n} \) - orthogonale Matrizen
  • \( \Sigma \in \mathbb{R}^{m\times n} \) - Diagonalmatrix mit Singulärwerten
  • Singulärwerte: Diagonalelemente von \( \Sigma \), alle \( \sigma_i \geq 0 \)
  • Nutzen: Hauptkomponentenanalyse, Pseudoinverse, Lösen von überbestimmten GL-Systemen
  • Berechnung: Meist über numerische Verfahren

Jordan-Normalform

Definition:

Die Jordan-Normalform einer Matrix gibt eine kanonische Form an, in die jede quadratische Matrix über den komplexen Zahlen transformiert werden kann. Besonders nützlich zur Vereinfachung der Analyse von Matrizen und linearen Abbildungen.

Details:

  • Jede quadratische Matrix ist ähnlich zu einer Jordan-Normalform.
  • Eine Jordan-Matrix hat Blöcke auf der Diagonale, sogenannte Jordan-Blöcke.
  • Ein Jordan-Block hat Eigenwerte auf der Diagonale und eventuell Einsen auf der Nebendiagonale.
  • Form einer Jordan-Matrix: \[ J = \begin{pmatrix} J_{n_1}(\lambda_1) & & 0 \ & \ddots & \ 0 & & J_{n_k}(\lambda_k) \end{pmatrix} \] \(J_{n_i}(\lambda_i)\) - Jordan-Block zu \( \lambda_i \)
  • Eine Matrix A und ihre Jordan-Normalform J sind ähnlich: \[ \exists P : A = PJP^{-1} \]
  • Zur Berechnung: Eigenwerte und Jordan-Ketten bestimmen.
  • Multiplizität der Eigenwerte berücksichtigen: algebraische und geometrische Vielfachheit.
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden