Primfaktorzerlegung in den ganzen Zahlen
Definition:
Zerlegung einer ganzen Zahl in ein Produkt aus Primzahlen.
Details:
- Jede ganze Zahl größer als 1 hat eine eindeutige Primfaktorzerlegung.
- Sei n eine ganze Zahl, dann gibt es Primzahlen p1, p2, ..., pk und positive ganze Zahlen α1, α2, ..., αk, sodass gilt:
-
- Beispiel: 60 = 2^2 * 3 * 5
- Die Eindeutigkeit der Zerlegung folgt aus dem Fundamentalsatz der Arithmetik.
Homomorphismen und Isomorphismen
Definition:
Homomorphismus: Struktur erhaltende Abbildung zwischen zwei algebraischen Strukturen; Isomorphismus: Bijektiver Homomorphismus.
Details:
- Homomorphismus: Abbildung \[ f: (G, \bullet) \rightarrow (H, \bullet) \] mit \[ f(a \bullet b) = f(a) \bullet f(b) \] für alle \( a, b \in G \).
- Isomorphismus: Bijektiver Homomorphismus, d.h., es existiert eine Umkehrabbildung \( f^{-1} \), die ebenfalls ein Homomorphismus ist.
- Beispiel: Gruppen, Ringe, Körper.
- Eigenschaften: Strukturtreue Abbildungen bewahren Operationen und Identitäten.
Gaußscher Eliminationsalgorithmus
Definition:
Vereinfachung von linearen Gleichungssystemen durch Umformung zur Stufenform zur späteren Rücksubstitution.
Details:
- Ergebnis: Dreiecksform der Matrix.
- Schritte: Vorwärtselimination, Rücksubstitution.
- Vorwärtselimination: Führende Nullen unterhalb der Pivot-Elemente erzeugen.
- Rücksubstitution: Von unten nach oben lösen.
- Matrixdarstellung: Ausgangs- und Zielmatrizen in Zeilenstufenform.
Inverse Matrizen
Definition:
Matrix A ist eine invertierbare (nichtsinguläre) Matrix, wenn es eine Matrix B gibt, sodass AB = BA = I (Einheitsmatrix).
Details:
- Nur quadratische Matrizen haben Inverse.
- Eine Matrix A ist invertierbar, wenn Det(A) ≠ 0.
- Die Inverse A-1 kann durch Gauß-Jordan-Elimination bestimmt werden.
- (A-1)-1 = A
- (AB)-1 = B-1A-1
Fundamentalsatz der Algebra
Definition:
Fundamentalsatz der Algebra: Jede nicht-konstante polynomialische Gleichung mit komplexen Koeffizienten hat mindestens eine komplexe Lösung.
Details:
- Polynom:
- Form:
- Jede Nullstelle
Eigenwerte und Eigenvektoren
Definition:
Eigenschaften von Matrizen, bei denen ein Vektor nur um einen Skalar skaliert wird.
Details:
- Eigensystem: Ax = λx, wobei A eine Matrix, x ein Eigenvektor und λ ein Eigenwert ist.
- Eigenwerte: Lösungen der Charakteristischen Gleichung det(A - λI) = 0
- Eigenvektoren: Lösungen des Gleichungssystems (A - λI)x = 0
- Jede Matrix hat bis zu n Eigenwerte, wobei n die Dimension der Matrix ist.
Lineare Unabhängigkeit
Definition:
Ein Vektorsystem ist linear unabhängig, wenn keine Vektoren als Linearkombination der anderen dargestellt werden können.
Details:
- Gegeben sei ein Vektorraum V mit Vektoren \(\textbf{v}_1, \textbf{v}_2, \textbf{v}_3, ... , \textbf{v}_n\).
- Die Vektoren \(\textbf{v}_1, \textbf{v}_2, \textbf{v}_3, ... , \textbf{v}_n\) sind linear unabhängig, wenn die Gleichung \(\textbf{0} = c_1 \textbf{v}_1 + c_2 \textbf{v}_2 + ... + c_n \textbf{v}_n\) nur die triviale Lösung \(c_1 = c_2 = ... = c_n = 0\) hat.
- Linear abhängige Vektoren erfüllen obige Gleichung auch für \(c_1, c_2, ..., c_n\), die nicht alle null sind.
Lineare Abbildungen und deren Matrizen
Definition:
Lineare Abbildungen: Abbildungen zwischen Vektorräumen, die Addition und Skalarenmultiplikation respektieren. Matrizen: Repräsentation linearer Abbildungen.
Details:
- Definition: Eine Abbildung \(f: V \rightarrow W\) ist linear, wenn \(f(u+v) = f(u) + f(v)\) und \(f(\lambda v) = \lambda f(v)\) für alle \(u, v \in V\) und \(\lambda \in \mathbb{K}\).
- Matrixdarstellung: Jeder linearen Abbildung \(f: \mathbb{K}^n \rightarrow \mathbb{K}^m\) entspricht eine eindeutige Matrix \({A}\in \mathbb{K}^{m \times n}\).
- Matrix-Vektor-Multiplikation: \(f(v) = A \cdot v\) für \(v \in \mathbb{K}^n\).
- Darstellung: Wahl von Basis \(B_V\) für \(V\) und \(B_W\) für \(W\) liefert Matrixdarstellung \(A\) über \((B_V, B_W)\).
- Komposition: Matrixdarstellung von \(g \circ f\) ist \(B \cdot A\), wobei \(A\) und \(B\) die Matrixdarstellungen von \(f\) und \(g\) sind.