AI and Data in Business and Management - Cheatsheet
Geschichte und Entwicklung der Künstlichen Intelligenz
Definition:
Entwicklung und Meilensteine von KI-Technologien und -Forschung im Laufe der Zeit
Details:
- 1956: Dartmouth Conference – Geburtsstunde der KI
- 1960er Jahre: Erste Expertensysteme und frühe Algorithmen
- 1970er Jahre: Forschungskrise („KI-Winter“)
- 1980er Jahre: Aufschwung der Expertensysteme
- 1997: IBM Deep Blue schlägt Schachweltmeister
- 2010er Jahre: Durchbrüche im maschinellen Lernen und Deep Learning
- 2016: AlphaGo besiegt Go-Weltmeister
- Aktuelle Trends: Künstliche neuronale Netze, natürliche Sprachverarbeitung (NLP), Autonome Systeme
Data Warehousing und ETL-Prozesse
Definition:
Datenintegration und -Speicherung für Analyse und Berichterstattung in Unternehmen.
Details:
- Daten-Warehouse: Zentrale Datenbank zur Speicherung großer Datenmengen aus verschiedenen Quellen.
- ETL-Prozess: Extract, Transform, Load - Extrahieren, Transformieren und Laden von Daten in das Warehouse.
- Extract: Daten aus diversen Quellen extrahieren (\texttt{SQL, APIs, Flat Files}).
- Transform: Daten bereinigen, anreichern und harmonisieren (\texttt{Filterung, Aggregation, Konvertierung}).
- Load: Transformierte Daten in Ziel-Datenbank laden.
- Zweck: Unterstützung von Entscheidungsfindung, Business Intelligence und Datenanalyse.
- Tools: \texttt{Talend, Informatica, Microsoft SSIS, Apache NiFi}.
Training, Validierung und Testen von ML-Modellen
Definition:
Prozess zur Erstellung, Bewertung und Feinabstimmung von Machine-Learning-Modellen.
Details:
- Training: Modell wird mit Trainingsdaten trainiert, um Muster zu erkennen.
- Validierung: Modell wird mit Validierungsdaten getestet, um Hyperparameter zu optimieren und Überanpassung (Overfitting) zu verhindern. Validierungsfehler: \[E_{val} = \frac{1}{n_{val}} \sum_{i=1}^{n_{val}} (y_i - \hat{y}_i)^2 \]
- Testen: Modell wird mit Testdaten getestet, um die endgültige Leistungsfähigkeit zu bewerten. Testfehler: \[E_{test} = \frac{1}{n_{test}} \sum_{i=1}^{n_{test}} (y_i - \hat{y}_i)^2 \]
Fairness und Transparenz bei der Nutzung von KI-Modellen
Definition:
Fokus auf ethische Aspekte und verantwortungsvolle Nutzung von KI, um unfaire Vorurteile und Intransparenz zu vermeiden.
Details:
- Fairness: Vermeidung von Diskriminierung und Vorurteilen in Daten und Algorithmen.
- Transparenz: Klare, nachvollziehbare Entscheidungen und Prozesse in KI-Modellen.
- Erklärbarkeit: Modelle müssen interpretierbar und verständlich sein.
- Bias-Überprüfung: Kontinuierliche Prüfung und Korrektur von Verzerrungen in Daten und Algorithmen.
- Regulierungen: Einhalten von rechtlichen und ethischen Standards.
- Verantwortung: Klärung der Verantwortlichkeiten bei Fehlern und Fehlentscheidungen von KI-Modellen.
Grundlagen des überwachten und unüberwachten Lernens
Definition:
Grundlagen des überwachten und unüberwachten Lernens: Kernthemen im maschinellen Lernen. Überwachtes Lernen: Modelle aus gekennzeichneten Daten. Unüberwachtes Lernen: Muster in unbeschrifteten Daten finden.
Details:
- Überwachtes Lernen: Input-Output-Paare, Ziel ist Funktion \( f : X \rightarrow Y \).
- Beispiele: Regression (z.B. lineare Regression) und Klassifikation (z.B. Entscheidungsbäume).
- Verlustfunktion \(L(y, \, f(x))\) minimieren.
- Unüberwachtes Lernen: Keine Zielvariablen, Fokus auf Datenstruktur.
- Beispiele: Clustering (z.B. k-Means) und Dimensionsreduktion (z.B. PCA).
- Datenexploration und Mustererkennung.
Einsatz von KI zur Optimierung öffentlicher Dienstleistungen
Definition:
Einsatz von KI zur Verbesserung von Effizienz, Genauigkeit und Servicequalität in öffentlichen Dienstleistungen
Details:
- Prozessautomatisierung: Verwaltungsvorgänge effizienter gestalten
- Datenanalyse: Bürgerdaten analysieren für bedarfsgerechte Lösungen
- Vorhersagemodelle: Nachfrage und Ressourcenbedarf prognostizieren
- Chatbots: Bürgeranfragen automatisiert beantworten
- Sicherheitsüberwachung: Anomalieerkennung in öffentlichen Räumen
- Verkehrsmanagement: Optimierung von Verkehrsflüssen durch Echtzeitanalysen
Umsetzung in produktive Systeme
Definition:
Integration von KI-Modellen und Datenanalysetools in bestehende betriebliche Systeme zur Optimierung von Geschäftsprozessen.
Details:
- Wichtige Schritte: Modellvalidierung, Sicherheitsüberprüfung, Skalierbarkeitstest.
- Rolle von IT-Infrastruktur: Notwendigkeit einer robusten und skalierbaren Plattform.
- Datensicherheit und Datenschutz: Einhaltung von Vorschriften wie DSGVO.
- Change Management: Schulung der Mitarbeiter und Anpassung der Geschäftsprozesse.
- Kontinuierliche Überwachung: Performance-Tracking und Anpassung der Modelle im Echtzeitbetrieb.
Natural Language Processing (NLP) Techniken
Definition:
NLP befasst sich mit der Interaktion zwischen Computern und menschlicher Sprache, hauptsächlich um Text zu analysieren und zu verstehen.
Details:
- Textextraktion: Informationen aus unstrukturiertem Text extrahieren.
- Sentiment-Analyse: Erkennung der Stimmung in Texten.
- Spracherkennung: Umwandlung von gesprochener Sprache in Text.
- Übersetzung: Automatisierte Übersetzung zwischen Sprachen.
- Wichtige Modelle: BERT, GPT, Word2Vec, RNN, LSTM.
- Anwendungen: Chatbots, Empfehlungssysteme, Textzusammenfassung.
- Tokenisierung: Text in kleinere Bestandteile (Tokens) zerlegen. Beispiel: „Das ist ein Satz.“ wird zu [„Das“, „ist“, „ein“, „Satz“, „.“]