Künstliche Intelligenz II - Cheatsheet.pdf

Künstliche Intelligenz II - Cheatsheet
Künstliche Intelligenz II - Cheatsheet Architektur und Training von neuronalen Netzwerken Definition: Strukturen und Prozesse zur Entwicklung und Optimierung von neuronalen Netzwerken. Details: Architektur: Organisation von Layern (Eingabe, versteckte, Ausgabe). Feedforward: Daten durchlaufen Netz nach vorne. Backpropagation: Fehlerausbreitung zur Gewichtsaktualisierung. Optimierungsverfahren: z.B...

© StudySmarter 2024, all rights reserved.

Künstliche Intelligenz II - Cheatsheet

Architektur und Training von neuronalen Netzwerken

Definition:

Strukturen und Prozesse zur Entwicklung und Optimierung von neuronalen Netzwerken.

Details:

  • Architektur: Organisation von Layern (Eingabe, versteckte, Ausgabe).
  • Feedforward: Daten durchlaufen Netz nach vorne.
  • Backpropagation: Fehlerausbreitung zur Gewichtsaktualisierung.
  • Optimierungsverfahren: z.B. SGD, Adam.
  • Aktivierungsfunktionen: z.B. ReLU, Sigmoid, Tanh.
  • Loss Functions: z.B. MSE, Cross-Entropy.
  • Regularisierung: Vermeidung von Überanpassung (Dropout, L2).
  • Hyperparameter: Lernrate, Batchgröße, Anzahl der Epochen.
  • Formeln: \[ y = f(W \times x + b) \] (Vorhersage), \[ L = \frac{1}{n} \times \text{sum}(y_{pred} - y_{true})^2 \] (MSE).

Overfitting und Regularisierungstechniken

Definition:

Overfitting ist, wenn ein Modell die Trainingsdaten zu gut lernt, wodurch es schlecht auf neuen, ungesehenen Daten generalisiert. Regularisierungstechniken helfen, Overfitting zu vermeiden und die Generalisierungsfähigkeit zu verbessern.

Details:

  • Overfitting: Modell passt zu genau auf Trainingsdaten, unabhängig von Datenrauschen.
    • Indikator: hohe Trainingsgenauigkeit und niedrige Testgenauigkeit.
  • Regularisierungsarten:
    • L1-Regularisierung: Hinzufügen eines \ell_1-Norm Begriffs zur Verlustfunktion.
    • L2-Regularisierung (Ridge): Hinzufügen eines \ell_2-Norm Begriffs zur Verlustfunktion.
    • Dropout: Zufälliges Deaktivieren von Neuronen während des Trainings.
    • Early Stopping: Beenden des Trainings, wenn sich die Validierungsleistung verschlechtert.
    • Data Augmentation: Erhöhung der Trainingsdatengröße durch Transformationen.

Policy-, Value- und Q-Learning

Definition:

Policy-Learning, Value-Learning und Q-Learning sind Methoden des Reinforcement Learnings, bei denen Agenten lernen, optimale Entscheidungen zu treffen.

Details:

  • Policy-Learning: Direkte Optimierung der Verhaltensstrategie (policy) \( \pi \).
  • Value-Learning: Bewertung von Zuständen oder Zustand-Aktions-Paaren zur schrittweisen Annäherung an einen optimalen Wert \( V(s) \).
  • Q-Learning: Off-Policy-Methode, die Q-Werte \( Q(s, a) \) für Zustand-Aktions-Paare aktualisiert, um eine optimale Policy zu bestimmen.
  • Policy-Gradient-Verfahren: Verwenden Gradientenabstieg zur Optimierung der Policy-Funktion
  • Bellman-Gleichung: Grundlage zur Berechnung der Werte in Value- und Q-Learning

Markov-Entscheidungsprozesse (MDPs)

Definition:

Formalismus zur Modellierung von Entscheidungsproblemen, bei denen das Ergebnis sowohl von den aktuellen Entscheidungen als auch vom Zufall abhängt.

Details:

  • Definitionselemente: Zustände (S), Aktionen (A), Übergangswahrscheinlichkeiten (T), Belohnungsfunktion (R)
  • Ziel: Optimalen Politik \(\pi\) finden, die den erwarteten kumulierten Nutzen maximiert
  • Bellman-Gleichung: \[ V^{\pi}(s) = R(s) + \gamma \sum_{s'} T(s,\pi(s),s')V^{\pi}(s') \]
  • Diskontierungsfaktor: \(\gamma \in [0,1]\) gewichtet zukünftige Belohnungen
  • Policy Iteration und Value Iteration als Lösungsmethoden

Ensemble-Methoden im maschinellen Lernen

Definition:

Ensemble-Methoden kombinieren mehrere Modelle, um die Gesamtleistung zu verbessern.

Details:

  • Bagging: Reduziert Varianz durch parallele Kombination von Modellen, z.B. Random Forests.
  • Boosting: Reduziert Bias durch sequentielle Kombination von Modellen, z.B. AdaBoost, Gradient Boosting.
  • Stacking: Kombiniert Vorhersagen mehrerer Modelle durch ein Meta-Modell.
  • Voting: Aggregiert Vorhersagen verschiedener Modelle durch Mehrheitsvotum (Classifier) oder Mittelwert (Regressor).
  • Wichtige Parameter: Anzahl der Modelle, Art und Tiefe der Basislernmodelle.

Multi-Agenten-Systeme und deren Interaktionen

Definition:

System, das aus mehreren autonomen, verteilten Agenten besteht, die zusammenarbeiten oder konkurrieren, um Aufgaben zu erfüllen.

Details:

  • Agent: autonome Entität, die Umgebung wahrnimmt und darauf reagiert
  • Interaktion: Kommunikation und Kooperation der Agenten
  • Kooperation: Agenten arbeiten zusammen für gemeinsames Ziel
  • Wettbewerb: Agenten konkurrieren gegeneinander
  • Koordinationsmechanismen: Strategien zur Steuerung der Zusammenarbeit
  • Beispielanwendungen: Robotik, verteilte Systeme, Verkehrssteuerung

Deep Learning für Spracherkennung

Definition:

Verwendung von tiefen neuronalen Netzwerken zur Verarbeitung und Interpretation von Sprachdaten.

Details:

  • Architekturen: RNN, LSTM, GRU, Transformer
  • Vorverarbeitung: Sprachaufnahmen -> Merkmalsextraktion (MFCC, Mel-Spektrogramm)
  • Training: Nutzung von großen, gekennzeichneten Datensätzen
  • Klassifikation: Ausgabe einer Wahrscheinlichkeitsverteilung über mögliche Wörter oder Phoneme
  • Anwendungen: Sprachassistenzsysteme, automatische Übersetzung, Transkription

Evaluierung von Modellen und Leistungsmetriken

Definition:

Metriken und Methoden zur Bewertung der Performance von Machine Learning-Modellen anhand vorher festgelegter Kriterien. Evaluierung beurteilt die Generalisierungsfähigkeit und Genauigkeit des Modells.

Details:

  • Trainings-Daten vs. Test-Daten: Modell auf Trainingsdaten trainieren, auf unabhängigen Testdaten validieren
  • Kreuzvalidierung (Cross-Validation): Datensatz in k-Folds aufteilen, Modell k-Mal trainieren und validieren
  • Konfusionsmatrix: True Positives (TP), False Positives (FP), True Negatives (TN), False Negatives (FN)
  • Accuracy: \(\text{Accuracy} = \frac{TP + TN}{TP + FN + TN + FP}\)
  • Precision: \(\text{Precision} = \frac{TP}{TP + FP}\)
  • Recall: \(\text{Recall} = \frac{TP}{TP + FN}\)
  • F1-Score: Harmonisches Mittel von Precision und Recall \(\text{F1-Score} = 2 \times \frac{\text{Precision} \times \text{Recall}}{\text{Precision} + \text{Recall}}\)
  • ROC-Kurve und AUC: Grafische Darstellung der Trade-offs zwischen TPR (True Positive Rate) und FPR (False Positive Rate)
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden