Definition und Beispiele von Vektorräumen
Definition:
Ein Vektorraum (oder linearer Raum) ist eine Menge von Vektoren, die unter Vektoraddition und Skalarmultiplikation abgeschlossen ist.
Details:
- Sei \( V \) ein Vektorraum über einem Körper \( K \).
- Für alle \( \textbf{u}, \textbf{v}, \textbf{w} \in V \) und \( a, b \in K \) gelten:
- Assoziativgesetz der Addition: \( (\textbf{u} + \textbf{v}) + \textbf{w} = \textbf{u} + (\textbf{v} + \textbf{w}) \).
- Kommutativgesetz der Addition: \( \textbf{u} + \textbf{v} = \textbf{v} + \textbf{u} \).
- Existenz eines neutralen Elements: Es gibt ein \( \textbf{0} \in V \) mit \( \textbf{v} + \textbf{0} = \textbf{v} \) für alle \( \textbf{v} \in V \).
- Existenz eines inversen Elements: Für jedes \( \textbf{v} \in V \) gibt es ein \( -\textbf{v} \in V \) mit \( \textbf{v} + (-\textbf{v}) = \textbf{0} \).
- Distributivgesetz I: \( a(\textbf{u} + \textbf{v}) = a\textbf{u} + a\textbf{v} \).
- Distributivgesetz II: \( (a + b)\textbf{v} = a\textbf{v} + b\textbf{v} \).
- Assoziativgesetz der Skalarmultiplikation: \( a(b\textbf{v}) = (ab)\textbf{v} \).
- Existenz eines Einselements: \( 1\textbf{v} = \textbf{v} \) für alle \( \textbf{v} \in V \).
- Beispiele:
- \( \textbf{R}^n \) mit Komponentensumme und Skalarmultiplikation.
- Der Raum aller \( m \times n \)-Matrizen über \( K \).
- Der Raum der polynome mit Koeffizienten in \( K \).
Lineare Unabhängigkeit und Basen
Definition:
Lineare Unabhängigkeit: Vektoren sind linear unabhängig, wenn keine Kombination der anderen Vektoren zu einem anderen Vektor führt. Basen: Eine Basis eines Vektorraums ist eine Menge linear unabhängiger Vektoren, die den gesamten Raum aufspannen.
Details:
- Vektoren \(\{v_1, v_2, \dots, v_k\}\) sind linear unabhängig, wenn \(c_1 v_1 + c_2 v_2 + \dots + c_k v_k = 0\) impliziert, dass \(c_1 = c_2 = \dots = c_k = 0\)
- Maximale Anzahl linear unabhängiger Vektoren in \(\mathbb{R}^n\) ist n
- Eine Basis eines Vektorraums V hat die Eigenschaften:
- Linear unabhängig
- Spannt V auf: Jeder Vektor in V kann als Linearkombination der Basisvektoren geschrieben werden
- Dimension eines Vektorraums: Anzahl der Vektoren in einer Basis
Kern und Bild einer linearen Abbildung
Definition:
Kern und Bild einer linearen Abbildung sind fundamentale Konzepte in der linearen Algebra, die Eigenschaften einer linearen Transformation charakterisieren.
Details:
- Kern: Menge aller Vektoren, die auf den Nullvektor abgebildet werden.Formal: \( \text{Kern}(T) = \{ v \in V \mid T(v) = 0 \} \).Eigenschaften: Unterraum des Ausgangsraums \( V \).
- Bild: Menge aller Vektoren, die durch die Abbildung getroffen werden.Formal: \( \text{Bild}(T) = \{ T(v) \mid v \in V \} \).Eigenschaften: Unterraum des Zielraums \( W \).
- Wichtige Beziehungen: Dimensionssatz - \( \text{dim}(\text{Kern}(T)) + \text{dim}(\text{Bild}(T)) = \text{dim}(V) \).
Inversen von Matrizen
Definition:
Eine Matrix ist invertierbar, wenn es eine Matrix gibt, die mit der ursprünglichen Matrix multipliziert die Einheitsmatrix ergibt.
Details:
- Sei A eine Matrix, dann ist ihre Inverse durch A-1 dargestellt
- Es gilt: A * A-1 = I und A-1 * A = I, wobei I die Einheitsmatrix ist
- Nur quadratische Matrizen können eine Inverse haben
- Eine Matrix ist genau dann invertierbar, wenn ihr Determinant ungleich null ist
- Berechnung der Inversen über Gauss-Algorithmus oder Adjunkte und Determinante
Laplace-Entwicklung
Definition:
Laplace-Entwicklung: Methode zur Berechnung der Determinante einer quadratischen Matrix durch Rekursionsschritte anhand von Minoren.
Details:
- Entwicklung nach einer Zeile oder Spalte
- Determinante einer Matrix A: \[ \det(A) = \sum_{j=1}^{n} (-1)^{i+j} a_{ij} \det(A_{ij}) \]
- \( A_{ij} \) ist die (i,j)-Kofaktormatrix
- Rekursive Anwendung für kleinere Matrizen
- Häufig für schmale Matrixfamilien oder diagonale Elemente nützlich
Diagonalisierbarkeit von Matrizen
Definition:
Eine Matrix A ist diagonalisierbar, wenn es eine invertierbare Matrix P und eine Diagonalmatrix D gibt, sodass gilt: \[ A = P D P^{-1} \]
Details:
- Die Eigenwerte von A stehen auf der Diagonalen von D.
- Die Spalten von P sind die Eigenvektoren von A.
- Voraussetzung: A hat n linear unabhängige Eigenvektoren.
- Bsp.: Symmetrische Matrizen sind stets diagonalisierbar.
Geometrische und algebraische Vielfachheit
Definition:
Geometrische Vielfachheit: Anzahl der linear unabhängigen Eigenvektoren zu einem Eigenwert. Algebraische Vielfachheit: Vorkommen eines Eigenwerts als Nullstelle des charakteristischen Polynoms.
Details:
- Geometrische Vielfachheit (GV) ist immer kleiner oder gleich der algebraischen Vielfachheit (AV): \(\text{GV}(\rho) \leq \text{AV}(\rho)\).
- Algebraische Vielfachheit: Wurzelmultiplikation des Eigenwerts im charakteristischen Polynom.
- Geometrische Vielfachheit: Dimension des Eigenraums zum Eigenwert.
- Eigenraum: \[E_{\rho} = \{v \in V \mid (A - \rho I) v = 0\}\]