Künstliche Intelligenz I - Exam
Aufgabe 1)
Beschreibe die Definition und die historischen Phasen der Künstlichen Intelligenz (KI). Gehe dabei auf die grundlegenden Theorien, die Einführung des Begriffs und die Entwicklungen in den jeweiligen Phasen ein. Verwende dabei spezifische Beispiele, die den jeweiligen Phasen zugeordnet werden können.
a)
Erkläre detailliert die erste Phase der Künstlichen Intelligenz (1950er-1970er). Gehe dabei auf den Turing-Test und die Entwicklung von einfachen Spiele-KIs ein. Diskutiere, warum es zu einem Rückgang der Finanzierung kam und welche Erwartungen möglicherweise überbewertet wurden.
Lösung:
Die erste Phase der Künstlichen Intelligenz (1950er-1970er)
Die erste Phase der Künstlichen Intelligenz (KI) reicht von den 1950er bis zu den 1970er Jahren und wird oft als die Geburtszeit der KI-Forschung betrachtet. In dieser Periode wurden wichtige Grundlagen und Theorien der KI entwickelt und untersucht.
- Der Turing-Test: Ein bedeutender Meilenstein am Anfang dieser Phase war die Einführung des Turing-Tests durch den britischen Mathematiker und Informatiker Alan Turing im Jahr 1950. Der Turing-Test wurde entwickelt, um zu beurteilen, ob eine Maschine intelligentes Verhalten aufweist, das von dem eines Menschen nicht zu unterscheiden ist. Ein System besteht den Test, wenn ein menschlicher Befrager keinen Unterschied zwischen den Antworten der Maschine und denen eines Menschen erkennen kann.
- Entwicklung von einfachen Spiele-KIs: Ein weiteres bedeutendes Gebiet der frühen KI-Forschung lag in der Entwicklung von KIs, die in der Lage waren, einfache Spiele zu spielen. Ein prominentes Beispiel ist das Schachprogramm von Arthur Samuel, das in den späten 1950er Jahren entwickelt wurde. Dieses Programm war in der Lage, Schach zu spielen und von seinen Erfahrungen zu lernen, indem es eine primitive Form des maschinellen Lernens anwendete. Ein weiteres Beispiel ist die Schach-KI von IBM, Deep Blue, die jedoch zu einem späteren Zeitpunkt entwickelt wurde, aber auf den frühen Arbeiten dieser Periode aufbaute.
- Rückgang der Finanzierung: Trotz der anfänglichen Begeisterung für das Potenzial der Künstlichen Intelligenz kam es in den 1970er Jahren zu einem Rückgang der Finanzierung. Einer der Hauptgründe hierfür war die Überbewertung der Fähigkeiten und des Fortschritts der KI-Technologie. Die Erwartungen an die KI waren oft unrealistisch hoch, und als diese Erwartungen nicht erfüllt wurden, wuchs die Skepsis und damit die Zurückhaltung bei der Finanzierung weiterer KI-Forschung. Viele Probleme, die zunächst als lösbar galten, wie etwa die Verarbeitung natürlicher Sprache und das allgemeine Denken, stellten sich als wesentlich schwieriger heraus als erwartet. Dies führte dazu, dass viele frühe KI-Projekte ins Stocken gerieten und weniger Mittel zur Verfügung hatten.
Insgesamt war die erste Phase der Künstlichen Intelligenz eine Zeit des aufregenden Neuanfangs und der bedeutenden theoretischen Beiträge, jedoch auch eine Phase der Ernüchterung, als die Herausforderungen und Grenzen der Technologie deutlich wurden.
b)
Diskutiere die Bedeutung von Neuronalen Netzen in der zweiten Phase (1980er-1990er) der Künstlichen Intelligenz. Erkläre, warum Expertensysteme populär wurden und analysiere, was zum erneuten KI-Winter führte. Inwiefern unterscheiden sich die Entwicklungen der dritten Phase (2000er-heute) von denen der vorherigen Phasen? Nenne konkrete Anwendungsbereiche, die durch moderne KI-Technologien ermöglicht wurden.
Lösung:
Die zweite Phase der Künstlichen Intelligenz (1980er-1990er)
Die zweite Phase der Künstlichen Intelligenz war durch einige bedeutende Entwicklungen und Technologien geprägt, darunter besonders die Bedeutung von Neuronalen Netzen und Expertensystemen.
- Bedeutung von Neuronalen Netzen: Neuronale Netze, inspiriert durch die Struktur und Funktionsweise des menschlichen Gehirns, gewannen in den 1980er Jahren an Bedeutung. Durch die Einführung des Backpropagation-Algorithmus, der es ermöglichte, Gewichte innerhalb des Netzes effizient anzupassen, wurde das Training von Neuronalen Netzen praktikabler. Die Fähigkeit dieser Netze, komplexe Muster in Daten zu erkennen und zu verarbeiten, machte sie zu einem wichtigen Werkzeug in der KI-Forschung.
- Populärwerden von Expertensystemen: Ein weiteres Kernthema dieser Phase war der Aufstieg der Expertensysteme. Diese Systeme wurden entwickelt, um Entscheidungen basierend auf spezifischem Wissen und Regeln zu treffen, die von menschlichen Experten stammen. Sie waren besonders in der Medizin, im Finanzwesen und in der Fertigungsindustrie populär. Ein bekanntes Beispiel ist das Expertensystem MYCIN, das zur Diagnose von bakteriellen Infektionen und zur Auswahl von Antibiotika verwendet wurde. Expertensysteme boten praktische Lösungen für spezialisierte Probleme, was ihre Beliebtheit und schnelle Verbreitung erklärte.
- Erneuter KI-Winter: Trotz der Fortschritte führte die zweite Phase erneut zu einem KI-Winter gegen Ende der 1980er und Anfang der 1990er Jahre. Die Ursachen hierfür lagen in der begrenzten Leistung von Expertensystemen, die Schwierigkeiten hatten, mit unvollständigen oder unsicheren Informationen umzugehen. Zudem stellten sich die Erwartungen an die Fähigkeiten Neuronaler Netze als zu hoch heraus. Die Hardware-Beschränkungen und die mangelnde Rechenleistung jener Zeit verhinderten, dass größere und tiefere Netzwerke effektiv trainiert werden konnten.
Die dritte Phase der Künstlichen Intelligenz (2000er-heute)
Die dritte Phase der KI unterscheidet sich erheblich von den vorherigen Phasen und wird oft als das Zeitalter des „maschinellen Lernens“ und der „tiefen Neuronalen Netze“ bezeichnet. Mehrere Schlüsselentwicklungen und Technologien sind kennzeichnend für diese Ära:
- Leistungsfähigere Hardware: Fortschritte in der Rechenleistung, insbesondere durch die Nutzung von GPUs und TPUs, haben es ermöglicht, sehr große Neuronale Netze zu trainieren. Dies hat zu bedeutenden Durchbrüchen in Bereichen wie der Bild- und Spracherkennung geführt.
- Verfügbarkeit großer Datenmengen: Die Explosion der digitalen Daten, die durch das Internet und mobile Geräte produziert wird, liefert die notwendigen Daten für das Training von fortschrittlichen maschinellen Lernalgorithmen.
- Moderne KI-Anwendungen: Zu den konkreten modernen Anwendungsbereichen gehören:
- Bild- und Spracherkennung: Systeme wie Google's DeepMind und Sprachassistenten wie Siri und Alexa nutzen tiefes Lernen zur Erkennung und Verarbeitung von Sprache und Bildern.
- Autonome Fahrzeuge: Unternehmen wie Tesla und Waymo entwickeln autonome Fahrzeuge, die auf fortschrittlichen KI-Technologien basieren.
- Personalisierte Empfehlungen: Plattformen wie Netflix und Amazon verwenden maschinelles Lernen, um personalisierte Empfehlungen zu erstellen.
- Gesundheitswesen: KI wird zur Diagnose von Krankheiten, zur Analyse medizinischer Bilder und zur Vorhersage von Patientenverläufen eingesetzt.
Insgesamt zeigt die dritte Phase eine erhebliche Reife hinsichtlich der Technologie und Anwendungsbreite und überwindet viele der Einschränkungen, die in den früheren Phasen vorhanden waren.
Aufgabe 2)
Du bist beauftragt, verschiedene Suchalgorithmen auf einen gegebenen Problemraum anzuwenden und deren Effizienz zu vergleichen. Der Problemraum ist als Baumstruktur mit den folgenden Knoten und Kanten dargestellt:
- Startknoten A.
- Knoten B, C, dann D und E von A erreichbar.
- Knoten F und G von B erreichbar.
- Knoten H und I von C erreichbar.
Die Kosten der Kanten sind jeweils:
- A zu B: 1
- A zu C: 2
- B zu D: 4
- B zu E: 5
- C zu F: 1
- C zu G: 3
- D zu H: 2
- E zu I: 3
Die geschätzten Kosten
h(n) vom Knoten
n zum Ziel (Zielknoten Z) sind wie folgt:
- h(A) = 7
- h(B) = 6
- h(C) = 2
- h(D) = 3
- h(E) = 5
- h(F) = 3
- h(G) = 3
- h(H) = 2
- h(I) = 1
Der Zielknoten ist I.
a)
Verwende den Breitensuchalgorithmus, um den kürzesten Pfad vom Startknoten A zum Zielknoten I zu finden. Gib die Reihenfolge der besuchten Knoten und den resultierenden Pfad an. Berechne die Gesamtkosten des Pfades.
Lösung:
Um den Breitensuchalgorithmus (Breadth-First Search, BFS) zu verwenden, um den kürzesten Pfad vom Startknoten A zum Zielknoten I zu finden, befolgen wir diese Schritte:
- Der BFS Algorithmus durchsucht die Knoten Ebene für Ebene und benutzt hierzu eine Warteschlange.
Schritte des BFS Algorithmus:- Füge den Startknoten A zur Warteschlange hinzu und markiere ihn als besucht.
- Entferne den ersten Knoten aus der Warteschlange und füge alle benachbarten Knoten, die noch nicht besucht wurden, zur Warteschlange hinzu.
- Wiederhole Schritt 2, bis der Zielknoten I erreicht ist oder die Warteschlange leer ist.
Reihenfolge der besuchten Knoten:- 1. A
- 2. B, C
- 3. D, E, F, G
- 4. H, I
Pfad von A nach I:Gesamtkosten des Pfades:- A nach B: 1
- B nach E: 5
- E nach I: 3
- Gesamtkosten: 1 + 5 + 3 = 9
Zusammengefasst hat der Breitensuchalgorithmus den kürzesten Pfad A → B → E → I mit Gesamtkosten von 9 evaluiert.
b)
Wende den A* Algorithmus auf denselben Problemraum an. Gib die Reihenfolge der besuchten Knoten und den resultierenden Pfad an. Berechne die Gesamtkosten des Pfades sowie die Werte der Funktion f(n) = g(n) + h(n) für die besuchten Knoten.
Lösung:
Der A* Algorithmus kombiniert die Merkmale der Breitensuche und der Tiefensuche und verwendet sowohl die realen Kosten vom Startknoten als auch die geschätzten Kosten vom aktuellen Knoten bis zum Zielknoten. Wir definieren den Funktion f(n) als:
- \tf(n) = g(n) + h(n)\t
- wo g(n) die realen Kosten vom Startknoten bis zum aktuellen Knoten und h(n) die geschätzten Kosten vom aktuellen Knoten bis zum Zielknoten ist.
Folgende Schritte sind dabei zu befolgen:
- 1. Starte beim Startknoten A und füge ihn zur offenen Liste hinzu.
- 2. Entferne den Knoten mit dem niedrigsten f(n) Wert aus der offenen Liste und füge ihn zur geschlossenen Liste hinzu.
- 3. Überprüfe alle Nachbarknoten des aktuellen Knotens und berechne deren f(n) Werte.
- 4. Wenn ein Nachbarknoten das Ziel ist, stoppe. Andernfalls füge die Nachbarknoten zur offenen Liste hinzu, wenn sie nicht schon in der geschlossenen Liste sind.
- 5. Wiederhole Schritt 2 bis 4.
Reihenfolge der besuchten Knoten und ihre f(n) Werte:
- 1. A: f(A) = g(A) + h(A) = 0 + 7 = 7
- 2. B: f(B) = g(B) + h(B) = 1 + 6 = 7
- 3. C: f(C) = g(C) + h(C) = 2 + 2 = 4
- 4. F: f(F) = g(F) + h(F) = 3 + 3 = 6
- 5. G: f(G) = g(G) + h(G) = 5 + 3 = 8
- 6. I: f(I) = g(I) + h(I) = 6 + 1 = 7
Resultierender Pfad:
- A → C → F (Gesamtkosten: 3)
- Der Pfad endet jedoch nicht beim Zielknoten I. Deshalb gehen wir weiter.
- B → E → I (Gesamtkosten: 9)
- Die Gesamtkosten werden bis 6 berechnet bis zum Knoten I und die f(I) Werte sind wie folgt:
- f-Werte:
- f(A) = 7
- f(B) = 7
- f(C) = 4
- f(F) = 6
- f(G) = 8
- f(I) = 7
- Deshalb sind die Gesamtkosten 6 bis Knoten I und der resultierende Weg ist A → C → F → I und hat Gesamtkosten 6.
Aufgabe 3)
Maschinelles Lernen: Automatisierte Erkennung von Mustern in Daten, meist zur Vorhersage (überwachtes Lernen) oder Clusteranalyse (unüberwachtes Lernen).
- Überwachtes Lernen: Modell trainiert mit gelabelten Daten (Bsp.: Klassifikation, Regression).
- Unüberwachtes Lernen: Modell findet Muster ohne gelabelte Daten (Bsp.: Clustering, Dimensionalitätsreduktion).
- Beispiele: Bilderkennung, Sprachverarbeitung, Empfehlungssysteme.
- Anwendungen: Personalisierte Werbung, Betrugserkennung, Diagnostik.
- Algorithmen: K-Means (Clustering), SVM (Klassifikation), PCA (Dimensionalitätsreduktion).
a)
Angenommen, Du hast einen Datensatz mit Kundendaten, der die Parameter Alter, Einkommen und Kaufhistorie enthält. Du möchtest herausfinden, welche Kundensegmente es gibt, um maßgeschneiderte Markenkampagnen zu erstellen.
- Beschreibe einen geeigneten unüberwachten Lernalgorithmus, den Du anwenden würdest, und erkläre warum.
- Erläutere die Schritte, die Du unternehmen müsstest, um den Algorithmus auf die Daten anzuwenden.
Lösung:
Subexercise Lösung
- Unüberwachter Lernalgorithmus: Ein geeigneter unüberwachter Lernalgorithmus zur Kundensegmentierung ist K-Means Clustering. Der Grund dafür ist, dass K-Means einfach zu implementieren ist und gute Ergebnisse bei der Gruppierung von Datenpunkten nach ihrer Ähnlichkeit liefert. Speziell für Kundendaten wie Alter, Einkommen und Kaufhistorie kann K-Means helfen, natürliche Segmente innerhalb der Kundenbasis zu identifizieren.
Schritte zur Anwendung von K-Means auf die Kundendaten
- Datenvorbereitung:
- Verfügbarkeit und Format der Daten überprüfen.
- Eventuelle fehlende Werte behandeln (Imputation oder Löschung).
- Skalieren der Daten, da K-Means empfindlich auf unterschiedliche Skalierungen der Merkmale reagiert (z.B. Standardisierung).
- Algorithmusauswahl und -parameter:
- Anzahl der Cluster (\textit{k}) bestimmen. Dies kann durch Methoden wie den Elbow-Plot oder Silhouette-Analyse geschehen.
- Anwendung des Algorithmus:
- Den K-Means-Algorithmus initialisieren und auf die Daten anwenden.
- Den Algorithmus iterativ laufen lassen, bis die Zuteilung der Datenpunkte zu den Clustern konvergiert.
- Auswertung der Ergebnisse:
- Clusteranalysen durchführen, um die Charakteristiken der einzelnen Cluster zu verstehen.
- Visualisieren der Cluster, zum Beispiel durch eine 2D- oder 3D-Darstellung nach einer Dimensionsreduktion (z.B., mittels PCA).
- Interpretation und Anwendung:
- Erkenntnisse nutzen, um maßgeschneiderte Marketingkampagnen für die unterschiedlichen Kundensegmente zu entwickeln.
b)
Du hast außerdem Zugriff auf historische Daten, die aufzeigen, ob ein Kunde auf eine vergangene Kampagne reagiert hat oder nicht.
- Beschreibe, wie man den Übergang vom unüberwachten zum überwachten Lernen durchführen kann, um zukünftige Kampagnenreaktionen vorherzusagen.
- Welche Metriken würdest Du zur Bewertung des Modells verwenden und warum?
Lösung:
Subexercise Lösung
- Übergang vom unüberwachten zum überwachten Lernen: Um vom unüberwachten Lernen (Clustering von Kunden) zum überwachten Lernen (Vorhersage der Kampagnenreaktion) zu wechseln, kann man folgende Schritte unternehmen:
- Labels erstellen: Nutze die historischen Daten, um Labels zu generieren, die anzeigen, ob ein Kunde auf eine frühere Kampagne reagiert hat oder nicht. Die Labels können binär sein (1 für reagiert und 0 für nicht reagiert).
- Feature Engineering: Verwende die Kundendatensätze und gegebenenfalls zusätzliche Merkmale, die aus den Clustering-Ergebnissen stammen (z.B. Clusterzugehörigkeit), um relevante Features zu erstellen. Diese Features könnten Alter, Einkommen, Kaufhistorie sowie Informationen aus den gefundenen Clustern umfassen.
- Trainings- und Testdatensätze: Teile die Daten in Trainings- und Testdatensätze auf. Der Trainingsdatensatz wird verwendet, um das Modell zu trainieren, während der Testdatensatz verwendet wird, um die Leistung des Modells zu bewerten.
- Algorithmusauswahl: Wähle einen geeigneten überwachten Lernalgorithmus zur Vorhersage, z.B. Logistische Regression, Random Forest oder Support Vektor Maschine (SVM). Trainiere das Modell mit dem Trainingsdatensatz.
- Modelltraining: Trainiere das Modell, indem es die Beziehungen zwischen den Features und den Labels lernt. Das Ziel ist es, ein Modell zu erstellen, das die Wahrscheinlichkeit vorhersagt, dass ein Kunde auf eine nächste Kampagne reagiert.
- Modellbewertung: Bewerte das Modell mit dem Testdatensatz anhand geeigneter Metriken (siehe nächster Punkt).
- Metriken zur Bewertung des Modells: Um die Leistung des Modells zur Vorhersage der Kampagnenreaktion zu bewerten, sollten geeignete Metriken verwendet werden:
- Genauigkeit (Accuracy): Der Anteil der korrekt vorhergesagten Labels zu allen Vorhersagen. \[\text{Accuracy} = \frac{TP + TN}{TP + TN + FP + FN}\]
- Präzision (Precision): Der Anteil der korrekt vorhergesagten positiven Labels zu allen als positiv klassifizierten Labels. \[\text{Precision} = \frac{TP}{TP + FP}\]
- Recall (Trefferquote): Der Anteil der korrekt vorhergesagten positiven Labels zu allen tatsächlich positiven Labels. \[\text{Recall} = \frac{TP}{TP + FN}\]
- F1-Score: Der harmonische Mittelwert von Präzision und Recall, um ein ausgewogenes Bild der Modellleistung zu geben. \[\text{F1-Score} = 2 \times \frac{\text{Precision} \times \text{Recall}}{ \text{Precision} + \text{Recall}}\]
- AUC-ROC: Die Fläche unter der Receiver Operating Characteristic (ROC) Kurve, die die Trennfähigkeit des Modells zwischen den Klassen zeigt.
Warum diese Metriken: - Adequate Bewertung: Diese Metriken bieten eine umfassende Bewertung der Modellleistung und helfen, die Vor- und Nachteile des Modells zu verstehen.
- Anwendungsrelevant: Im Kontext von Marketingkampagnen ist es wichtig, sowohl falsch positive Vorhersagen (unnötige Marketingkosten) als auch falsch negative Vorhersagen (verpasste Gelegenheiten) zu vermeiden. Daher sind Metriken wie Präzision, Recall und F1-Score besonders relevant.
- Balancierte Bewertung: Da Marketingkampagnen oft ein ungleiches Verteilungsverhältnis zwischen positiven und negativen Reaktionen haben, bieten Metriken wie F1-Score und AUC-ROC eine balanciertere Bewertung der Modellleistung.
Aufgabe 4)
In einem Überwachungssystem für ein Gebäude wird ein Alarm ausgelöst, entweder durch einen Einbruch oder durch ein Erdbeben. Die Wahrscheinlichkeit für einen Einbruch im Gebäude beträgt 0.003 und die Wahrscheinlichkeit für ein Erdbeben beträgt 0.002. Die Wahrscheinlichkeit, dass der Alarm ausgelöst wird, wenn ein Einbruch stattfindet, beträgt 85%, und die Wahrscheinlichkeit, dass der Alarm beim Auftreten eines Erdbebens ausgelöst wird, beträgt 75%. Außerdem beträgt die Wahrscheinlichkeit, dass der Alarm ohne Einbruch oder Erdbeben ausgelöst wird, 1%. Basierend auf diesen Daten sollst Du logische und probabilistische Schlussfolgerungsmethoden anwenden, um verschiedene Aspekte dieses Überwachungssystems zu analysieren.
a)
1. Formuliere die gegebenen Informationen in Form von Prädikatenlogik. Definiere dazu geeignete Prädikate und schreibe die logischen Aussagen auf, die die Wahrscheinlichkeiten und Bedingungen abbilden.
Lösung:
Um die Informationen in Form von Prädikatenlogik zu formulieren, definieren wir zunächst geeignete Prädikate und schreiben dann die logischen Aussagen, die die Wahrscheinlichkeiten und Bedingungen abbilden. Wir verwenden dabei die folgenden Prädikate:
- E(x): x ist ein Einbruch
- B(x): x ist ein Erdbeben
- A(x): x ist ein Alarm
Nun formulieren wir die logischen Aussagen:
- P(E) = 0.003: Die Wahrscheinlichkeit für einen Einbruch beträgt 0.003.
P(E) = 0.003
- P(B) = 0.002: Die Wahrscheinlichkeit für ein Erdbeben beträgt 0.002.
P(B) = 0.002
- P(A | E) = 0.85: Die Wahrscheinlichkeit, dass der Alarm ausgelöst wird, wenn ein Einbruch stattfindet, beträgt 85%.
P(A | E) = 0.85
- P(A | B) = 0.75: Die Wahrscheinlichkeit, dass der Alarm beim Auftreten eines Erdbebens ausgelöst wird, beträgt 75%.
P(A | B) = 0.75
- P(A | ¬E ∧ ¬B) = 0.01: Die Wahrscheinlichkeit, dass der Alarm ohne Einbruch oder Erdbeben ausgelöst wird, beträgt 1%.
P(A | ¬E ∧ ¬B) = 0.01
Zusätzlich gelten die Gesetze der Wahrscheinlichkeitstheorie:
b)
2. Zeichne das entsprechende Bayessche Netz unter Verwendung der gegebenen Wahrscheinlichkeiten und Abhängigkeiten. Beschrifte die Knoten und Kanten entsprechend.
Lösung:
Um das Bayessche Netz für das gegebene Überwachungssystem zu zeichnen, müssen wir zunächst Knoten definieren, die die Zufallsvariablen repräsentieren, und Kanten, die die Abhängigkeiten zwischen diesen Variablen darstellen. Basierend auf den gegebenen Wahrscheinlichkeiten und Bedingungen, haben wir die folgenden Knoten und Kanten:
- Knoten:
- E: Einbruch
- B: Erdbeben
- A: Alarm
- Kanten:
- E → A (Einbruch beeinflusst Alarm)
- B → A (Erdbeben beeinflusst Alarm)
Das Bayessche Netz zeigt also die Anordnung und die Abhängigkeiten durch die Richtung der Kanten. Die Wahrscheinlichkeiten, die mit diesen Knoten und Kanten verbunden sind, sind wie folgt:
- P(E) = 0.003
- P(B) = 0.002
- P(A | E) = 0.85
- P(A | B) = 0.75
- P(A | ¬E ∧ ¬B) = 0.01
Hier ist das visuelle Bayessche Netz:
Bayessches Netz:
E B (Einbruch) (Erdbeben) \t| \t| \tV \tV A (Alarm)
Das Bayessche Netz zeigt, dass sowohl ein Einbruch (E) als auch ein Erdbeben (B) den Alarm (A) beeinflussen. Die Kanten von E und B zu A beinhalten die gegebenen Wahrscheinlichkeiten, die die Bedingungen und Abhängigkeiten widerspiegeln.
c)
3. Berechne die bedingte Wahrscheinlichkeit, dass ein Einbruch stattgefunden hat, wenn der Alarm ausgelöst wird. Verwende dazu die Bayessche Formel: \[ P(Anbruch|Alarm) = \frac{P(Alarm|Anbruch) \, P(Anbruch)}{P(Alarm)} \]
Lösung:
Um die bedingte Wahrscheinlichkeit zu berechnen, dass ein Einbruch stattgefunden hat, wenn der Alarm ausgelöst wird, verwenden wir die Bayessche Formel:
\[ P(E|A) = \frac{P(A|E) \, P(E)}{P(A)} \]
Wir haben bereits die folgenden Wahrscheinlichkeiten:
- \(P(E) = 0.003\) (Wahrscheinlichkeit für einen Einbruch).
- \(P(B) = 0.002\) (Wahrscheinlichkeit für ein Erdbeben).
- \(P(A|E) = 0.85\) (Wahrscheinlichkeit, dass der Alarm bei einem Einbruch ausgelöst wird).
- \(P(A|B) = 0.75\) (Wahrscheinlichkeit, dass der Alarm bei einem Erdbeben ausgelöst wird).
- \(P(A|¬E \land ¬B) = 0.01\) (Wahrscheinlichkeit, dass der Alarm ohne Einbruch oder Erdbeben ausgelöst wird).
Nun berechnen wir zunächst \(P(A)\), die totale Wahrscheinlichkeit, dass der Alarm ausgelöst wird:
\[ P(A) = P(A \land E) + P(A \land B) + P(A \land ¬E \land ¬B) \]
Da \(P(A \land E) = P(A|E) \cdot P(E)\), \(P(A \land B) = P(A|B) \cdot P(B)\) und \(P(A \land ¬E \land ¬B) = P(A|¬E \land ¬B) \cdot P(¬E \land ¬B)\), können wir die Werte einsetzen:
\[ P(¬E \land ¬B) = 1 - P(E) - P(B) = 1 - 0.003 - 0.002 = 0.995 \]
Daher:
\[ P(A \land ¬E \land ¬B) = 0.01 \cdot 0.995 = 0.00995 \]
Nun setzen wir die Werte ein:
\[ P(A) = (0.85 \cdot 0.003) + (0.75 \cdot 0.002) + 0.00995 \]
\[ P(A) = 0.00255 + 0.0015 + 0.00995 = 0.014 \]
Jetzt können wir die Bayessche Formel anwenden:
\[ P(E|A) = \frac{P(A|E) \, P(E)}{P(A)} \]
Setzen wir die Werte ein:
\[ P(E|A) = \frac{0.85 \cdot 0.003}{0.014} \]
\[ P(E|A) = \frac{0.00255}{0.014} \approx 0.182 \]
Die bedingte Wahrscheinlichkeit, dass ein Einbruch stattgefunden hat, wenn der Alarm ausgelöst wird, beträgt also ungefähr 0.182 oder 18.2%.
d)
4. Erkläre, wie sich die Ergebnisse bei Verwendung eines logikbasierten Ansatzes im Vergleich zu einem probabilistischen Ansatz unterscheiden. Diskutiere die Vor- und Nachteile beider Methoden in diesem Szenario.
Lösung:
Beim Vergleich eines logikbasierten Ansatzes mit einem probabilistischen Ansatz in einem Überwachungssystem gibt es deutliche Unterschiede in Bezug auf die Ansätze, Ergebnisse, Vorteile und Nachteile. Hier ist eine Erklärung, wie sich diese beiden Methoden unterscheiden und welche Vor- und Nachteile sie haben.
Logikbasierter Ansatz
Ein logikbasierter Ansatz verwendet Prädikatenlogik und boolesche Ausdrücke, um Schlussfolgerungen zu ziehen. In diesem Szenario könnte der logikbasierte Ansatz Prädikate wie 'Einbruch', 'Erdbeben' und 'Alarm' verwenden und Regeln aufstellen, die beschreiben, wann ein Alarm ausgelöst wird.
Vorteile:
- Deterministisch: Logikbasierte Systeme liefern eindeutige und klare Antworten basierend auf den vordefinierten Regeln. Es gibt keine Unsicherheit in den Ergebnissen.
- Einfachheit: Der logikbasierte Ansatz ist oft einfacher zu implementieren und zu verstehen, da er direkt auf Regeln und Bedingungen basiert.
Nachteile:
- Keine Unsicherheitsbehandlung: Ein logikbasierter Ansatz kann Unsicherheiten und Wahrscheinlichkeiten nicht direkt handhaben. Es gibt keine Möglichkeit, Wahrscheinlichkeiten zu berücksichtigen oder zu berechnen.
- Wenig Flexibilität: Logikbasierte Systeme sind oft starr und nicht gut darin, mit unvollständigen oder mangelnden Informationen umzugehen. Neue Regeln oder Änderungen erfordern oft signifikante Überarbeitungen des Systems.
Probabilistischer Ansatz
Ein probabilistischer Ansatz verwendet Wahrscheinlichkeiten und statistische Methoden (wie zum Beispiel Bayes'sche Netze), um Schlussfolgerungen zu ziehen. In diesem Szenario haben wir Wahrscheinlichkeiten für Einbruch, Erdbeben und verschiedene bedingte Wahrscheinlichkeiten verwendet, um die Wahrscheinlichkeit eines Ereignisses zu berechnen.
Vorteile:
- Behandlung von Unsicherheiten: Probabilistische Ansätze sind in der Lage, Unsicherheiten direkt zu modellieren und zu berechnen. Sie können mit unvollständigen und unsicheren Informationen arbeiten.
- Flexibilität: Diese Systeme sind oft flexibler und anpassungsfähiger, da Wahrscheinlichkeiten aktualisiert und neue Berechnungen durchgeführt werden können, ohne das gesamte System neu zu gestalten.
Nachteile:
- Komplexität: Probabilistische Ansätze können komplexer zu verstehen und zu implementieren sein, insbesondere wenn es um die Modellierung und Berechnung vieler bedingter Wahrscheinlichkeiten geht.
- Rechenaufwand: Oft erfordern diese Ansätze mehr Rechenleistung und können bei großen oder komplizierten Netzen langsam sein.
Zusammenfassung
Im Szenario des Überwachungssystems bietet der probabilistische Ansatz klar die Möglichkeit, realistische, unsichere Bedingungen zu modellieren und fundierte Wahrscheinlichkeiten zu berechnen. Dadurch kann man nicht nur feststellen, ob ein Alarm ausgelöst wurde, sondern auch die Wahrscheinlichkeit berechnen, dass dieser Alarm tatsächlich durch einen Einbruch oder ein Erdbeben verursacht wurde. Der logikbasierte Ansatz hingegen gibt klare, deterministische Antworten, ist jedoch weniger geeignet, um Unsicherheiten und Wahrscheinlichkeiten zu berücksichtigen. Die Wahl zwischen beiden Ansätzen hängt stark vom genauen Bedarf und den spezifischen Anforderungen des Überwachungssystems ab.