Künstliche Intelligenz II - Cheatsheet.pdf

Künstliche Intelligenz II - Cheatsheet
Künstliche Intelligenz II - Cheatsheet A*-Algorithmus Definition: A* (A-Stern) ist ein Suchalgorithmus, der in Graphen die kostengünstigste Route von einem Startknoten zu einem Zielknoten sucht. Nutzt eine Kombination aus g(n) und h(n). Details: g(n): Kosten vom Startknoten bis zum Knoten n h(n): Heuristische Schätzung der Kosten von n zum Ziel f(n) = g(n) + h(n): geschätzte Gesamtkosten Verwendet...

© StudySmarter 2024, all rights reserved.

Künstliche Intelligenz II - Cheatsheet

A*-Algorithmus

Definition:

A* (A-Stern) ist ein Suchalgorithmus, der in Graphen die kostengünstigste Route von einem Startknoten zu einem Zielknoten sucht. Nutzt eine Kombination aus g(n) und h(n).

Details:

  • g(n): Kosten vom Startknoten bis zum Knoten n
  • h(n): Heuristische Schätzung der Kosten von n zum Ziel
  • f(n) = g(n) + h(n): geschätzte Gesamtkosten
  • Verwendet eine Prioritätswarteschlange (Open-List)
  • Starte mit dem initialen Knoten; verschiebe nach Open-List
  • Wiederhole: Nimm Knoten mit kleinstem f(n) aus der Open-List, verschiebe nach Closed-List
  • Überprüfe Nachbarn des aktuellen Knotens
  • Beende: Zielknoten erreicht oder Open-List leer

Convolutional Neural Networks (CNN)

Definition:

Convolutional Neural Networks (CNN) sind eine Klasse von tiefen, neuronalen Netzwerken, die hauptsächlich für die Verarbeitung von Bilddaten verwendet werden.

Details:

  • Besteht aus Faltungs- und Pooling-Schichten.
  • Faltungsschicht: Wendet Filter an, um Merkmale zu extrahieren.
  • Pooling-Schicht: Reduziert die Dimensionalität (z.B. Max-Pooling).
  • Aktivierungsfunktion: Häufig ReLU.
  • Fully-Connected-Schicht am Ende für Klassifikation.
  • Wichtige Parameter: Filtergröße, Stride, Padding.

Tokenisierung und Wortvektoren

Definition:

Tokenisierung segmentiert Text in kleinere Einheiten (Tokens), Wortvektoren wandeln Wörter in numerische Vektoren um.

Details:

  • Tokenisierung zerlegt Text in Wörter, Phrasen oder Symbole.
  • Wortvektoren repräsentieren semantische Beziehungen zwischen Wörtern.
  • Populäre Modelle: Word2Vec, GloVe, FastText.
  • Wortvektoren in niedriger Dimension: \vec{w} \in \mathbb{R}^n
  • Kollokationen und Kontext durch umgebende Wörter erfasst.

Maschinelle Übersetzung

Definition:

Automatisierte Übersetzung von Text oder Sprache von einer natürlichen Sprache in eine andere mithilfe von Algorithmen und Modellen der künstlichen Intelligenz.

Details:

  • Verfahren: Statistische MT (SMT), Neuronale MT (NMT), Regelbasierte MT
  • NMT-Modell: Encoder-Decoder-Struktur
  • Verwendung von Rekurrenten Neuronalen Netzwerken (RNN) und Long Short-Term Memory (LSTM)
  • Aktuelle Modelle nutzen Transformer-Architekturen: Multi-Head Attention, Positionskodierung
  • Wichtig: Training mit umfangreichen, annotierten Datensätzen; Qualität der Daten entscheidend
  • Evaluation: BLEU-Score als Standard-Metrik

Supervised Learning (überwachtes Lernen)

Definition:

Form von maschinellem Lernen, bei der ein Modell aus gekennzeichneten Trainingsdaten lernt, um auf neue, ungekennzeichnete Daten zu schließen.

Details:

  • Trainingsdaten bestehen aus Eingabe-Ausgabe-Paaren \((x, y)\).
  • Ziel: Vorhersagemodell \(h: X \rightarrow Y\).
  • Typische Algorithmen: Lineare Regression, Entscheidungsbäume, Neuronale Netze.
  • Fehlerfunktion \({J(\theta)}\) zur Optimierung verwenden.
  • Überwachtes Lernen umfasst Klassifikation (diskret) und Regression (kontinuierlich).

Reinforcement Learning

Definition:

Lernmethode, bei der ein Agent durch Handlungen in einer Umgebung Belohnungen maximiert.

Details:

  • Agent wählt Aktionen basierend auf einer Politik \(\pi\)
  • State \(s\), Aktion \(a\), Belohnung \(r\), Transition-Funktion \(P(s'|s,a)\)
  • Q-Learning und SARSA als Beispiele
  • Q-Funktion: \[Q(s,a) = E[\sum_{t=0}^\infty \gamma^t r_t|s_0 = s, a_0 = a]\]
  • Erkundung vs. Ausnutzung
  • \(\alpha\): Lernrate, \(\gamma\): Diskontfaktor

Nash-Gleichgewicht

Definition:

Situation in einem Spiel, in der kein Spieler seinen Nutzen durch einseitige Änderung der Strategie verbessern kann. Jede Strategie eines Spielers ist die beste Antwort auf die Strategien der anderen Spieler.

Details:

  • Formale Definition: Strategiekombination \(s_1, s_2, ..., s_n\) ist ein Nash-Gleichgewicht, wenn keine Spielerstrategie \(s_i\) so geändert werden kann, dass der Nutzen \(u_i\) zunimmt, gegeben die anderen Strategien \(s_{-i}\).
  • Mathematisch: \[ \forall i, \forall s_i' : u_i(s_i, s_{-i}) \geq u_i(s_i', s_{-i}) \]
  • Relevanz in KI: Verwendung in Multi-Agenten-Systemen zur Vorhersage stabiler Zustände.
  • Beispiele: Gefangenendilemma, Cournot-Wettbewerb.
  • Existenz: Jedes endliche Spiel mit gemischten Strategien hat mindestens ein Nash-Gleichgewicht (Nashs Existenztheorem).

Markov-Entscheidungsprozesse (MDP)

Definition:

Formales Modell zur Entscheidungsfindung in stochastischen Umgebungen.

Details:

  • MDP durch Tupel \(S, A, P, R\) definiert:
  • S: Zustandsraum
  • A: Aktionsraum
  • P: Übergangswahrscheinlichkeiten, \(P(s'|s, a)\)
  • R: Belohnungsfunktion, \(R(s, a)\)
  • Ziel: Policy \(\pi: S \rightarrow A\) finden, die erwarteten kumulativen Belohnungen maximiert.
  • Bellman-Gleichungen für Wertfunktion \(V(s)\) und Q-Funktion \(Q(s, a)\):
  • Wertfunktion: \[ V(s) = \mathbb{E}[R(s, \pi(s)) + \gamma V(s')] \]
  • Q-Funktion: \[ Q(s, a) = R(s, a) + \gamma \sum_{s'} P(s'|s, a) V(s') \]
  • Diskontfaktor \(0 \leq \gamma < 1\)
Sign Up

Melde dich kostenlos an, um Zugriff auf das vollständige Dokument zu erhalten

Mit unserer kostenlosen Lernplattform erhältst du Zugang zu Millionen von Dokumenten, Karteikarten und Unterlagen.

Kostenloses Konto erstellen

Du hast bereits ein Konto? Anmelden