Definition und Beispiele von Vektorräumen
Definition:
Struktur, die Addition und skalare Multiplikation erlaubt, gehorcht bestimmten Axiomen.
Details:
- Ein Vektorraum über einem Körper \(K\) ist eine Menge \(V\) mit zwei Operationen: Addition (+) und skalare Multiplikation (⋅).
- Axiome:
- (V1) Assoziativität der Addition: \[ \forall u,v,w \in V: (u+v)+w = u+(v+w) \]
- (V2) Kommutativität der Addition: \[ \forall u,v \in V: u+v = v+u \]
- (V3) Neutrales Element: \[ \text{Es existiert ein Element 0} \in V, \text{so dass} \forall v \in V, 0 + v = v \]
- (V4) Inverses Element: \[ \text{Zu jedem } v \in V, \text{existiert ein } -v \in V \text{so dass} v + (-v) = 0 \]
- (V5) Assoziativität der skalaren Multiplikation: \[ \forall a,b \in K, \forall v \in V: a(bv) = (ab)v \]
- (V6) Distributivität der skalaren Multiplikation bezüglich der Vektoraddition: \[ \forall a \in K, \forall u,v \in V: a(u+v) = au + av \]
- (V7) Distributivität der skalaren Multiplikation bezüglich der Körperaddition: \[ \forall a,b \in K, \forall v \in V: (a+b)v = av + bv \]
- (V8) Multiplikation mit dem Einselement des Körpers: \[ \forall v \in V: 1v = v \]
- Beispiele: \[ \mathbb{R}^n, \mathbb{C}^n, \mathbb{R}[x], \mathbb{M}_{m,n}(K)\]
- Jeder Untervektorraum erfüllt ebenfalls alle Axiome eines Vektorraums.
Lineare Unabhängigkeit und Basis
Definition:
Eine Menge von Vektoren ist linear unabhängig, wenn keine der linearen Kombinationen der Vektoren den Nullvektor ergibt, außer der trivialen Kombination. Eine Basis ist eine maximal linear unabhängige Menge von Vektoren, die den gesamten Vektorraum aufspannt.
Details:
- Lineare Unabhängigkeit: \( \sum_{i=1}^{n} \, c_i \mathbf{v}_i = 0 \) mit \( c_i = 0 \) für alle \( i \)
- Basis: Sei \( V \) ein Vektorraum, dann ist eine Basis von \( V \) eine Menge \( \{\mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_n\} \) so dass:
- Die Vektoren sind linear unabhängig.
- Die Vektoren spannen den Vektorraum auf.
Kern und Bild einer linearen Abbildung
Definition:
Kern und Bild einer linearen Abbildung - kurz und präzise erklärend; kenntnisreich formuliert, wie es in einer Spickzettel steht
Details:
- Sei \( T: V \rightarrow W \) eine lineare Abbildung.
- Kern (Kernel): \( \text{Kern}(T) = \text{Ker}(T) = \{ v \in V \,|\, T(v) = 0_W \} \)
- Bild (Image): \( \text{Bild}(T) = \text{Im}(T) = T(V) = \{ w \in W \;|\; w = T(v) \, \text{für ein} \, v \in V \} \)
- Fundamentalsatz der linearen Algebra: \( \text{dim(V)} = \text{dim(Ker}(T)) + \text{dim(Im}(T)) \)
Rang und Homomorphiesatz
Definition:
Rang und Homomorphiesatz beschreibt den Zusammenhang zwischen dem Rang eines linearen Homomorphismus und den Dimensionen des Bild- und Kernraums.
Details:
- Sei \(f: V \to W\) ein linearer Homomorphismus.
- Zerlegung: \(\dim(V) = \text{Rang}(f) + \dim(\ker(f))\)
- Folge: \(\text{Rang}(f) = \dim(V) - \dim(\ker(f))\)
Eigenschaften von Eigenwerten und Eigenvektoren
Definition:
Bei einer Matrix A sind Eigenvektoren Vektoren, die durch A nur skaliert und nicht in andere Richtungen gedreht werden; die Skalierungsfaktoren sind die Eigenwerte.
Details:
- Eigenwert-Gleichung: \(A \vec{v} = \lambda \vec{v}\)
- Determinante: \(\det(A - \lambda I) = 0\)
- Charakteristisches Polynom: \(p(\lambda) = \det(A - \lambda I)\)
- Geometrische Vielfachheit: Dimension des Eigenraums
- Algebraische Vielfachheit: Vielfachheit eines Eigenwerts als Nullstelle des charakteristischen Polynoms
- Diagonalisierbarkeit: A ist diagonalisierbar, wenn die Summe der geometrischen Vielfachheiten aller Eigenwerte gleich n ist (Dimension von A).
- Orthogonalität: Für reelle symmetrische Matrizen sind Eigenvektoren zu verschiedenen Eigenwerten orthogonal.
Diagonalisierung von Matrizen
Definition:
Matrix durch ähnliche Diagonalmatrix ersetzen.
Details:
- Eine Matrix A ist diagonalisierbar, wenn es eine invertierbare Matrix P und eine Diagonalmatrix D gibt, sodass gilt: A = P D P^{-1}.
- Eigenwerte von A sind die Diagonalelemente von D
- Diagonalisierungsschritte:
- Eigenwerte von A bestimmen (Nullstellen des charakteristischen Polynoms)
- Zu jedem Eigenwert Eigenvektoren bestimmen
- Matrix P aus den Eigenvektoren zusammensetzen
- A ist genau dann diagonalisierbar, wenn die algebraische Vielfachheit jedes Eigenwerts gleich der geometrischen Vielfachheit ist.
Laplacescher Entwicklungssatz
Definition:
Berechnung der Determinante einer Matrix durch Entwicklung nach einer Zeile oder Spalte
Details:
- Formel: \det(A) = \sum_{j=1}^{n} (-1)^{i+j} a_{ij} \cdot \det(A_{ij})
- \(a_{ij}\): Element der Matrix in der i-ten Zeile und j-ten Spalte
- \(A_{ij}\): Unterdeterminante nach Streichen der i-ten Zeile und j-ten Spalte
- Entwicklung ist möglich nach jeder Zeile oder Spalte
- Optimal: Wähle Zeile oder Spalte mit den meisten Nullen
Gaußsches Eliminationsverfahren
Definition:
Verfahren zur Lösung von linearen Gleichungssystemen durch Umformung der Koeffizientenmatrix in eine obere Dreiecksform.
Details:
- Schritte: Vorwärtselimination, Rückwärtseinsetzen
- Vorwärtselimination: Matrix in obere Dreiecksform transformieren
- Rückwärtseinsetzen: Variable von unten nach oben berechnen
- Elementarumformungen: Zeilenvertauschung, Zeilenmultiplikation, Addition eines Vielfachen einer Zeile zu einer anderen
- Dreiecksform: Null unter der Hauptdiagonale