Definition von Vektorräumen und Untervektorräumen
Definition:
Ein Vektorraum ist eine Menge von Vektoren zusammen mit zwei Operationen (Addition und skalare Multiplikation), die bestimmten Axiomen genügen.
Details:
- Ein Untervektorraum ist eine Teilmenge eines Vektorraums, die selbst ein Vektorraum ist.
- Vektorraumaxiome: Assoziativität, Kommutativität der Addition; Existenz eines Nullvektors und eines inversen Elements; Distributivität der skalaren Multiplikation bezüglich Vektoraddition und Skalaraddition; Existenz eines Einselements für die skalare Multiplikation; Kompatibilität der skalaren Multiplikation.
- Untervektorraumkriterien: Nichtleer, abgeschlossen bezüglich Addition und skalare Multiplikation.
Basis und Dimension
Definition:
Eine Basis eines Vektorraums ist eine Menge von Vektoren, die den Raum aufspannen und linear unabhängig sind.
Details:
- Ein Vektorraum \( V \) hat eine Basis \( \{v_1, v_2, \ldots, v_n\} \).
- Jeder Vektor in \( V \) lässt sich eindeutig als Linearkombination der Basisvektoren darstellen.
- Die Dimension eines Vektorraums \( V \) ist die Anzahl der Vektoren in einer Basis von \( V \), bezeichnet als \( \dim(V) \).
- Wichtige Eigenschaft: Jede Basis eines Vektorraums hat gleich viele Elemente.
Darstellung linearer Abbildungen durch Matrizen
Definition:
Lineare Abbildungen zwischen Vektorräumen können durch Matrizen dargestellt werden, wenn Basen gewählt sind.
Details:
- Sei \(T: V \rightarrow W\) eine lineare Abbildung.
- Wähle Basen \(B_V = \{v_1, v_2, \ldots, v_n\}\) und \(B_W = \{w_1, w_2, \ldots, w_m\}\).
- Matrix \(A\) mit Komponenten \(a_{ij}\) ermittelt durch \(T(v_j) = \sum_{i=1}^m a_{ij} w_i\).
- Darstellung in Matrixform: \([T]_B = A\).
- Lineare Abbildung dann durch Matrix-Vektor-Produkt: \(T(v) = A[v]_B\).
Inversion und Rang von Matrizen
Definition:
Inversion und Rang von Matrizen beschäftigen sich mit der Bestimmung der Umkehrbarkeit und der Dimensionsbestimmung des Spalten- oder Zeilenraums einer Matrix.
Details:
- Eine Matrix \(A\) ist invertierbar, wenn es eine Matrix \(A^{-1}\) gibt, sodass \(A \cdot A^{-1} = I\).
- Der Rang einer Matrix ist die Anzahl der linear unabhängigen Zeilen oder Spalten.
- Rang \leq\ Anzahl der Zeilen und Spalten.
- Eine quadratische Matrix ist genau dann invertierbar, wenn ihr Rang gleich ihrer Dimension ist.
- Rang einer Matrix mit der Gaußschen Eliminationsmethode bestimmen.
Laplace-Entwicklung zur Berechnung von Determinanten
Definition:
Laplace-Entwicklung zur Berechnung einer Determinante $|A|$ eines $n \times n$-Matrix.
Details:
- Entwicklung entlang einer Zeile oder Spalte.
- Wähle eine Zeile/Spalte: $i$ oder $j$.
- Determinante $A_{ij}$ der Untermatrix durch Streichen der $i$-ten Zeile und $j$-ten Spalte.
- Formel für Zeilenentwicklung: \[|A| = \textstyle \sum_{j=1}^{n} (-1)^{i+j} a_{ij} |A_{ij}| \] für Spaltenentwicklung: \[|A| = \textstyle \sum_{i=1}^{n} (-1)^{i+j} a_{ij} |A_{ij}| \]
Charakteristische Gleichung und Diagonalisierung
Definition:
Charakteristische Gleichung bestimmt Eigenwerte von Matrizen. Diagonalisierung: Matrix wird durch diagonalisierbare Matrix ersetzt.
Details:
- Charakteristische Gleichung: \[ \text{det}(A - \lambda I) = 0 \]
- Eigenwerte \lambda durch Nullstellen der charakteristischen Gleichung
- Diagonalisierbarkeit: Matrix A ist diagonalisierbar, wenn sie n linear unabhängige Eigenvektoren hat
- Diagonalisierung: \[ A = PDP^{-1} \] wobei D eine Diagonalmatrix und P eine Matrix der Eigenvektoren ist
Eigenwerte und Eigenvektoren: Berechnung und Anwendungen
Definition:
Eigenwerte sind Skalare \(\lambda\), für die gilt, dass es einen Vektor \(\mathbf{v}\) gibt, der durch eine Matrix \(A\) nur skaliert wird: \(A\mathbf{v} = \lambda\mathbf{v}\). Dieser Vektor \(\mathbf{v}\) ist der Eigenvektor.
Details:
- Berechnung: Lösen von \(\det(A - \lambda I) = 0\) für \(\lambda\)
- Eigenvektoren: Lösen von \(A\mathbf{v} = \lambda\mathbf{v}\)
- Verwendung in der Diagonalisierung: \(A = PDP^{-1}\), wobei \(P\) die Matrix der Eigenvektoren und \(D\) die Diagonalmatrix der Eigenwerte ist
- Stabilitätsanalyse: Untersuchung des Verhaltens dynamischer Systeme
- PCA (Hauptkomponentenanalyse): Reduktion der Daten dimensionalität