Definition und Eigenschaften von Vektorräumen
Definition:
Ein Vektorraum ist eine algebraische Struktur, bestehend aus einer Menge von Vektoren, auf der Vektoraddition und Skalarmultiplikation definiert sind.
Details:
- Vektoraddition: Für alle \( \textbf{u}, \textbf{v} \in V \) gilt \( \textbf{u} + \textbf{v} \in V \)
- Kommutativität: \( \textbf{u} + \textbf{v} = \textbf{v} + \textbf{u} \)
- Assoziativität der Addition: \( \textbf{u} + (\textbf{v} + \textbf{w}) = (\textbf{u} + \textbf{v}) + \textbf{w} \)
- Existenz des neutralen Elements: Es gibt ein \( \textbf{0} \in V \) sodass \( \textbf{v} + \textbf{0} = \textbf{v} \) für alle \( \textbf{v} \in V \)
- Existenz des inversen Elements: Für jedes \( \textbf{v} \in V \) gibt es ein \( -\textbf{v} \in V \) sodass \( \textbf{v} + (-\textbf{v}) = \textbf{0} \)
- Skalarmultiplikation: Für alle \( a \in \mathbb{R} \) und \( \textbf{v} \in V \) gilt \( a\textbf{v} \in V \)
- Distributivität der Skalarmultiplikation: \( a(\textbf{u} + \textbf{v}) = a\textbf{u} + a\textbf{v} \)
- Distributivität über die Addition der Skalare: \( (a + b)\textbf{v} = a\textbf{v} + b\textbf{v} \)
- Assoziativität der Skalarmultiplikation: \( a(b\textbf{v}) = (ab)\textbf{v} \)
- Existenz des Einselements: \( 1\textbf{v} = \textbf{v} \) für alle \( \textbf{v} \in V \)
Nullraum und Bild linearer Abbildungen
Definition:
Nullraum und Bild linearer Abbildungen sind fundamentale Begriffe in der linearen Algebra, die die Struktur und Eigenschaften von linearen Abbildungen beschreiben.
Details:
- Nullraum (Kern) einer linearen Abbildung: Menge aller Vektoren, die auf den Nullvektor abgebildet werden. Für eine Abbildung \(T: V \rightarrow W\): \(\text{ker}(T) = \{ \mathbf{v} \in V \mid T(\mathbf{v}) = \mathbf{0} \}\).
- Eigenschaften des Nullraums: Untervektorraum von \(V\).
- Bild einer linearen Abbildung: Menge aller erreichbaren Vektoren in \(W\). Für eine Abbildung \(T: V \rightarrow W\): \(\text{im}(T) = \{ T(\mathbf{v}) \mid \mathbf{v} \in V \}\).
- Eigenschaften des Bildes: Untervektorraum von \(W\).
- Rang und Dimensionsformel: \(\text{dim}(\text{im}(T)) + \text{dim}(\text{ker}(T)) = \text{dim}(V)\).
Matrizen-Darstellung linearer Abbildungen
Definition:
Lineare Abbildungen können durch Matrizen dargestellt werden. Die Wirkung der linearen Abbildung auf Vektoren erfolgt mittels Matrixmultiplikation.
Details:
- Sei \( T: V \to W \) eine lineare Abbildung.
- Wähle Basen \( \{v_1, v_2, \ldots, v_n\} \) von \( V \) und \( \{w_1, w_2, \ldots, w_m\} \) von \( W \).
- Die Matrixdarstellung von \( T \) ist \( [T]_B = [T(v_1), T(v_2), \ldots, T(v_n)] \).
- Matrixelemente: \( T(v_j) = \sum_{i=1}^m a_{ij} w_i \), wobei \( [T]_B = (a_{ij}) \).
- Anwendung: \[ T(v) = [T]_B [v]_B \] für Vektoren \( v \) in \( V \).
Determinanten und ihre Eigenschaften
Definition:
Determinanten sind skalare Werte, die sich aus quadratischen Matrizen berechnen lassen und Informationen über deren Eigenschaften liefern, wie z.B. die Invertierbarkeit.
Details:
- Eine Matrix \[ A \] hat eine Determinante, wenn sie quadratisch ist.
- Berechnung für 2x2-Matrizen: \[ \text{det}(A) = ad - bc, A = \begin{pmatrix} a & b \ c & d \end{pmatrix} \]
- Eigenschaften der Determinanten:
- \( \text{det}(I) = 1 \) (Einheitsmatrix)
- Wenn zwei Zeilen oder Spalten vertauscht werden, ändert sich das Vorzeichen der Determinante.
- Eine Matrix ist genau dann invertierbar, wenn ihre Determinante ungleich Null ist.
- \( \text{det}(AB) = \text{det}(A) \cdot \text{det}(B) \)
- \( \text{det}(A^\text{T}) = \text{det}(A) \)
- Für Linearkombinationen: \[ \text{det}(cA) = c^n \text{det}(A) \] für eine n x n-Matrix \[ A \]
Diagonalisierung von Matrizen
Definition:
Methode, um eine Matrix in eine Diagonalmatrix zu transformieren, sofern dies möglich ist.
Details:
- Es sei \( A \) eine \( n \times n \)-Matrix.
- \( A \) ist diagonalisierbar, wenn es eine invertierbare Matrix \( P \) und eine Diagonalmatrix \( D \) gibt, so dass: \[ A = PDP^{-1} \]
- Die Diagonaleinträge von \( D \) sind die Eigenwerte von \( A \).
- Die Spalten von \( P \) sind die Eigenvektoren von \( A \).
- Ein notwendiges und hinreichendes Kriterium: \( A \) hat \( n \) linear unabhängige Eigenvektoren.
Gram-Schmidt-Verfahren zur Orthogonalisierung
Definition:
Verfahren zur Umwandlung einer gegebenen Menge von Vektoren in eine orthogonale oder orthonormale Menge.
Details:
- Eingang: Lineare unabhängige Vektoren \( \{ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_n \} \) aus einem Vektorraum.
- Ausgang: Orthogonale bzw. orthonormale Vektoren \( \{ \mathbf{u}_1, \mathbf{u}_2, \ldots, \mathbf{u}_n \} \).
- Rekursive Berechnung der orthogonalen Basisvektoren:
- \[ \mathbf{u}_1 = \mathbf{v}_1 \]
- \[ \mathbf{u}_i = \mathbf{v}_i - \sum_{j=1}^{i-1} \frac{\mathbf{v}_i \cdot \mathbf{u}_j}{\mathbf{u}_j \cdot \mathbf{u}_j} \mathbf{u}_j \]
- Orthogonale Basisvektoren normalisieren: \( \mathbf{e}_i = \frac{\mathbf{u}_i}{\|\mathbf{u}_i\|} \)
Singulärwertzerlegung
Definition:
Singulärwertzerlegung (SVD) einer Matrix ist eine ihrer Eigenschaft zur Zerlegung in drei spezielle Matrizen.
Details:
- Jede Matrix A lässt sich zerlegen in: \[A = U\Sigma V^T\]
- \(U\) und \(V\) sind orthogonale Matrizen.
- \(\Sigma\) ist eine Diagonalmatrix mit den Singulärwerten.
- Singulärwerte sind die Quadratwurzeln der Eigenwerte von \(A^TA\) bzw. \(AA^T\).
- Ermöglicht Dimensionseichung und Rauschunterdrückung.