Basis und Dimension eines Vektorraums
Definition:
Basis eines Vektorraums: Linearkombinationen ergeben jede Menge im Vektoraum, linear unabhängig. Dimension: Anzahl der Basisvektoren.
Details:
- Basis: Menge von Vektoren \(B = \{v_1, v_2, ..., v_n\}\), die den Vektorraum aufspannen und linear unabhängig sind.
- Ein Vektorraum der Dimension \(n\) hat eine Basis mit \(n\) Vektoren.
- Jeder Vektor im Raum kann eindeutig als Linearkombination der Basisvektoren geschrieben werden.
- Dimension: Anzahl der Vektoren in einer Basis, \(\dim V = n\).
- Wenn \(V\) endlich-dimensional, ist jedes Erzeugendensystem mit \(n\) linear unabhängigen Vektoren eine Basis.
Isomorphismen zwischen Vektorräumen
Definition:
Isomorphismen zwischen Vektorräumen sind bijektive lineare Abbildungen, die die Struktur von Vektorräumen erhalten.
Details:
- Zwei Vektorräume V und W sind isomorph, wenn es einen Isomorphismus \(f: V \to W\) gibt.
- Vektorräume sind isomorph, wenn sie dieselbe Dimension haben.
- Für einen Isomorphismus \(f\) gilt: \(f(u + v) = f(u) + f(v)\) und \(f(\beta u) = \beta f(u)\).
- Existenz eines Inversen: \(f^{-1}: W \to V\) ist auch ein Isomorphismus.
Kern und Bild einer linearen Abbildung
Definition:
Kern und Bild einer linearen Abbildung
Details:
- Sei \( V \) und \( W \) Vektorräume und \( f: V \to W \) eine lineare Abbildung.
- Kern (Kernel): \( \ker(f) = \{v \in V \mid f(v) = 0_W\} \)
- Der Kern ist ein Untervektorraum von \( V \).
- Der Rang einer linearen Abbildung ist die Dimension des Bildes.
- Bild (Image): \( \operatorname{im}(f) = \{w \in W \mid w = f(v) \text{ für ein } v \in V\} \)
- Das Bild ist ein Untervektorraum von \( W \).
- Erstes Isomorphismus-Theorem: \( V / \ker(f) \cong \operatorname{im}(f) \)
- Rang-Nullitätssatz: \( \dim(V) = \dim(\ker(f)) + \dim(\operatorname{im}(f)) \)
Charakteristisches Polynom und Eigenwertgleichung
Definition:
Charakteristisches Polynom liefert die Eigenwerte einer Matrix, indem es Nullstellen bestimmt. Eigenwertgleichung zur Berechnung der Eigenvektoren.
Details:
- Charakteristisches Polynom: \( p(\lambda) = \det(A - \lambda I) \)
- Eigenwertgleichung: \( A v = \lambda v \)
- Eigenwert: \( \lambda \) ist Nullstelle von \( p(\lambda) \)
- Eigenvektor: Vektor \( v \) der zugehörigen Gleichung
Diagonalisation von Matrizen
Definition:
Zurückführung einer Matrix auf Diagonalform mittels einer Ähnlichkeitstransformation.
Details:
- Eine Matrix A ist diagonalisierbar, wenn es eine invertierbare Matrix P und eine Diagonalmatrix D gibt, sodass:
-
A = PDP^{-1}
- Existenz von n linear unabhängigen Eigenvektoren erforderlich
- Eigenwerte von A sind die Diagonaleinträge von D
- Geometrische und algebraische Vielfachheit der Eigenwerte müssen übereinstimmen
Spektralsatz für symmetrische Matrizen
Definition:
Spektralsatz besagt, dass eine symmetrische Matrix orthogonal diagonalisierbar ist.
Details:
- Sei A eine symmetrische Matrix:
- Existiert eine orthogonale Matrix Q und eine Diagonalmatrix D , sodass: A = QDQ^T
- Die Diagonalelemente von D sind die Eigenwerte von A .
- Die Spalten von Q sind die normierten Eigenvektoren von A .
Singulärwertzerlegung
Definition:
Faktorisierung einer Matrix in die Form \( A = U \Sigma V^T \), wobei \( U \) und \( V \) orthogonale Matrizen und \( \Sigma \) eine Diagonalmatrix ist.
Details:
- \( A \in \mathbb{R}^{m\times n} \)
- \( U \in \mathbb{R}^{m\times m} \), \( V \in \mathbb{R}^{n\times n} \) - orthogonale Matrizen
- \( \Sigma \in \mathbb{R}^{m\times n} \) - Diagonalmatrix mit Singulärwerten
- Singulärwerte: Diagonalelemente von \( \Sigma \), alle \( \sigma_i \geq 0 \)
- Nutzen: Hauptkomponentenanalyse, Pseudoinverse, Lösen von überbestimmten GL-Systemen
- Berechnung: Meist über numerische Verfahren
Jordan-Normalform
Definition:
Die Jordan-Normalform einer Matrix gibt eine kanonische Form an, in die jede quadratische Matrix über den komplexen Zahlen transformiert werden kann. Besonders nützlich zur Vereinfachung der Analyse von Matrizen und linearen Abbildungen.
Details:
- Jede quadratische Matrix ist ähnlich zu einer Jordan-Normalform.
- Eine Jordan-Matrix hat Blöcke auf der Diagonale, sogenannte Jordan-Blöcke.
- Ein Jordan-Block hat Eigenwerte auf der Diagonale und eventuell Einsen auf der Nebendiagonale.
- Form einer Jordan-Matrix: \[ J = \begin{pmatrix} J_{n_1}(\lambda_1) & & 0 \ & \ddots & \ 0 & & J_{n_k}(\lambda_k) \end{pmatrix} \] \(J_{n_i}(\lambda_i)\) - Jordan-Block zu \( \lambda_i \)
- Eine Matrix A und ihre Jordan-Normalform J sind ähnlich: \[ \exists P : A = PJP^{-1} \]
- Zur Berechnung: Eigenwerte und Jordan-Ketten bestimmen.
- Multiplizität der Eigenwerte berücksichtigen: algebraische und geometrische Vielfachheit.