Algebra - Cheatsheet
Gauss-Algorithmus zur Lösung linearer Gleichungssysteme
Definition:
Der Gauss-Algorithmus dient zur Lösung von linearen Gleichungssystemen durch Umformen der Koeffizientenmatrix in eine obere Dreiecksform.
Details:
- Matrix umformen mit elementaren Zeilenumformungen
- Koeffizientenmatrix in eine obere Dreiecksform überführen
- Rückwärtseinsetzen zur Lösung der Unbekannten
- Ziel: Lösen von Ax = b mit A als Koeffizientenmatrix und b als Vektor
- Zwei Hauptphasen: Vorwärtssubstitution und Rückwärtssubstitution
Eigenwerte und Eigenvektoren
Definition:
Eigenwerte λ und Eigenvektoren v erfüllen die Gleichung: A * v = λ * v.
Details:
- Eigenwert λ: Skalierungsfaktor
- Eigenvektor v: Nicht-null Vektor, der durch A nur skaliert, nicht gedreht wird
- Berechnung: Lösen von det(A - λI) = 0 für λ
- Für λ in (A - λI) * v = 0 die Eigenvektoren finden
- Eigenschaften: Transformationsmatrix A, Diagonalisierung, Spektralzerlegung
Inverse Matrizen und Berechnung der Inversen
Definition:
Inverse Matrix A einer quadratischen Matrix A ist die Matrix, die mit A multipliziert die Einheitsmatrix ergibt: A * A^(-1) = I.
Details:
- Nur quadratische Matrizen, die regulär sind (det(A) ≠ 0), haben eine Inverse.
- Berechnung der Inversen durch Gauss-Jordan-Elimination:
- Erweitere A zu [A | I] und transformiere zu [I | A^(-1)].
- Berechnung über die adjungierte Matrix: A^(-1) = (1/det(A)) * adj(A).
Satz von Laplace und Entwicklung nach einer Zeile oder Spalte
Definition:
Formel zur Berechnung der Determinante einer Matrix durch Entwicklung entlang einer Zeile oder Spalte.
Details:
- Für eine n x n Matrix A: Wähle Zeile i oder Spalte j
- Determinante von A: entwickle nach Element a_{ij}
- Formel: \ \text{det}(A) = \sum_{j=1}^{n} (-1)^{i+j} a_{ij} \text{det}(A_{ij})
- A_{ij} ist die (n-1)x(n-1)-Untermatrix von A mit Zeile i und Spalte j entfernt
- Erleichtert die Berechnung der Determinante größerer Matrizen
Definition und Eigenschaften von Vektorräumen
Definition:
Vektorraum: Menge mit zwei Operationen (Addition und Skalarmultiplikation), die bestimmten Axiomen genügt.
Details:
- Abgeschlossenheit unter Addition und Skalarmultiplikation
- Assoziativ- und Kommutativgesetz der Addition
- Existenz eines Nullvektors: \(\forall \mathbf{v} \in V, \exists \mathbf{0} \in V \) so dass \(\mathbf{v} + \mathbf{0} = \mathbf{v}\)
- Existenz inverser Elemente: \(\forall \mathbf{v} \in V, \exists -\mathbf{v} \in V \) so dass \(\mathbf{v} + (-\mathbf{v}) = \mathbf{0} \)
- Distributivgesetze der Multiplikation: \(\forall a, b \in \mathbb{K}, \mathbf{v}, \mathbf{w} \in V \), \((a + b) \mathbf{v} = a \mathbf{v} + b \mathbf{v}\)
- Skalare Einheitsmultiplikation: \(\forall \mathbf{v} \in V \), \(1 \mathbf{v} = \mathbf{v}\)
Lineare Unabhängigkeit und Basen
Definition:
Lineare Unabhängigkeit einer Menge von Vektoren bedeutet, dass keiner der Vektoren als Linearkombination der anderen dargestellt werden kann. Eine Basis eines Vektorraums ist eine linear unabhängige Menge von Vektoren, die den gesamten Raum aufspannt.
Details:
- Vektoren \(v_1, v_2, ..., v_n\) sind linear unabhängig, wenn nur die triviale Linearkombination zur Null führt: \(a_1 v_1 + a_2 v_2 + ... + a_n v_n = 0\) für \(a_1 = a_2 = ... = a_n = 0\).
- Eine Basis \(B\) eines Vektorraums \(V\) erfüllt: 1) Linear unabhängig, 2) Aufspannungsbedingung: Jeder Vektor in \(V\) lässt sich als Linearkombination der Basisvektoren schreiben.
- Für einen \(n\)-dimensionalen Raum hat jede Basis \(n\) Vektoren.
- Bsp.: Im \( \mathbb{R}^3 \) wären \{(1,0,0), (0,1,0), (0,0,1)\} eine Basis.
- Spalten einer invertierbaren Matrix bilden eine Basis des \( \mathbb{R}^n \).
Orthogonalität und Orthogonalisierung (z.B., Gram-Schmidt-Prozess)
Definition:
Vektoren sind orthogonal, wenn ihr Skalarprodukt null ist. Orthogonalisierung transformiert eine Menge linear unabhängiger Vektoren in eine orthonormale Menge.
Details:
- Orthogonalität: Zwei Vektoren \( \mathbf{u} \) und \( \mathbf{v} \) sind orthogonal, wenn \( \mathbf{u} \cdot \mathbf{v} = 0 \).
- Orthogonalbasis: Basis aus orthogonalen Vektoren.
- Orthonormalbasis: Basis aus orthogonalen und normierten Vektoren.
- Gram-Schmidt-Prozess:
- Start mit einer Menge linear unabhängiger Vektoren \( \{ \mathbf{v}_1, \mathbf{v}_2, \ldots, \mathbf{v}_n \} \).
- Erzeugt orthogonale Vektoren \( \{ \mathbf{u}_1, \mathbf{u}_2, \ldots, \mathbf{u}_n \} \) durch: \[ \mathbf{u}_k = \mathbf{v}_k - \sum_{j=1}^{k-1} \frac{ \mathbf{v}_k \cdot \mathbf{u}_j }{ \mathbf{u}_j \cdot \mathbf{u}_j } \mathbf{u}_j \]
- Normiere: \[ \mathbf{e}_k = \frac{\mathbf{u}_k}{ \| \mathbf{u}_k \| } \]
Anwendungen der linearen Algebra in der Informatik (z.B., Grafikdarstellung, Netzwerktheorie)
Definition:
Anwendungen der linearen Algebra in der Informatik umfassen Grafikdarstellung, Netzwerktheorie, maschinelles Lernen und Kryptographie.
Details:
- Grafikdarstellung: Transformationen von 3D-Objekten (Rotationen, Skalierungen, Translationen) werden durch Matrizenmultiplikation beschrieben.
- Netzwerktheorie: Adjazenz- und Laplace-Matrizen für die Analyse von Graphen und Netzwerken.
- Maschinelles Lernen: Lineare Modelle, Dimensionalitätsreduktion (z.B. Principal Component Analysis).
- Kryptographie: Verschlüsselungsalgorithmen wie RSA basieren auf linearer Algebra.