Wie die Wahrscheinlichkeit in der Wahrscheinlichkeitsrechnung definiert ist, wie Du sie berechnen kannst, was der Unterschied zwischen statistischer und klassischer Wahrscheinlichkeit ist und vieles mehr erfährst Du in dieser Erklärung.
Wahrscheinlichkeitsrechnung – Wahrscheinlichkeit
Um den Begriff Wahrscheinlichkeit in der Wahrscheinlichkeitsrechnung zu definieren, zunächst kurz zurück zum Würfelspiel:
Du kannst einen sechsseitigen Würfel in der Stochastik für Experimente nutzen, bei denen Du zu Beginn nicht weißt, welches Ergebnis herauskommt. Jede Augenzahl von \(1\) bis \(6\) ist als Versuchsausgang möglich.
Der Ausgang des Versuchs ist rein zufällig, weshalb diese Art Experiment als Zufallsexperiment bezeichnet.
Alle möglichen Ergebnisse des Experiments (sogenannte Elementarereignisse \(\omega_i\)) werden in der Ergebnismenge \(\Omega\) angegeben: \(\Omega=\{\omega_1;\, \omega_2;\,...\,;\, \omega_i\}\).
Interessiert Dich beispielsweise das „Würfeln einer ungeraden Zahl“ bei einem sechsseitigen Würfel, dann fasst Du ein oder mehrere Versuchsausgänge zu einem Ereignis \(E\) zusammen, das beim Experiment eintreten kann, aber nicht muss.
\begin{align}E=\{1; \,3;\,5\} \hspace{1cm} E:\text{„Würfeln einer ungeraden Zahl“}\end{align}
Alles rund um das Thema der Ereignisse findest Du in der Erklärung „Ereignis“. Die Artikel „Mengenalgebra“ und „Venn-Diagramm“ zeigen Dir außerdem, wie Du Ereignisse miteinander verknüpfen und veranschaulichen kannst.
Und wie „sicher“ wird beim nächsten Würfelwurf eine ungerade Zahl geworfen? Das gibt die sogenannte Wahrscheinlichkeit an.
Eine zahlenmäßige Erfassung, wie „sicher“ oder „unsicher“ ein Ereignis \(E\) im Rahmen eines Zufallsexperiments eintritt, entspricht der Wahrscheinlichkeit \(P(E)\).
Der Mathematiker Andrej N. Kolmogorow hat in der Wahrscheinlichkeitsrechnung gewisse Wahrscheinlichkeitsaxiome festgelegt, die der Wahrscheinlichkeit bestimmte Eigenschaften zuteilen. Hier siehst Du einen kleinen Ausschnitt:
- Die Wahrscheinlichkeit \(P(E)\) eines Ereignis \(E\) liegt zwischen \(0\) und \(1\): \(0 \leq P(E) \leq 1\)
- Das sichere Ereignis (Ergebnismenge \(\Omega\)) tritt mit \(100\,\%\)-tiger Sicherheit ein: \(P(\Omega)=1\)
- Das unmögliche Ereignis \(\emptyset\) tritt mit \(0\,\%\)-tiger Sicherheit ein: \(P(\emptyset)=0\)
- In Summe ergeben die Wahrscheinlichkeiten aller Ausgänge \(\omega_i\) des Experiments \(1\): \(\sum P(\{\omega_i\})=1\)
In der Erklärung „Axiome von Kolmogorow“ findest Du ausführlichere Informationen zu diesen Eigenschaften und Wahrscheinlichkeitsaxiomen sowie entsprechende Beispiele und Übungen.
Die Eigenschaften legen zwar Bedingungen für die Wahrscheinlichkeit auf, zeigen aber nicht, wie hoch die Wahrscheinlichkeit \(P(E)\) für ein Ereignis \(E\) bei einem Zufallsexperiment ist.
Wahrscheinlichkeit berechnen – einfach erklärt
Wie die Höhe der Wahrscheinlichkeit \(P(E)\), dass ein Ereignis \(E\) eintritt, berechnet wird, hängt davon ab, welche Art Wahrscheinlichkeit betrachtet wird. In dieser Erklärung werden hauptsächlich zwei Formen von Wahrscheinlichkeiten behandelt:
- Statistische Wahrscheinlichkeit näherungsweise als relative Häufigkeit
- Klassische Wahrscheinlichkeit als exakte Berechnung bei Laplace-Experimenten
Zunächst zum Zusammenhang zwischen Wahrscheinlichkeit und Häufigkeit.
Wahrscheinlichkeit relative und absolute Häufigkeit
Die statistische Wahrscheinlichkeit verknüpft den Wert der relativen Häufigkeit \(h_n(E)\) eines Ereignisses \(E\) bei sehr großen Versuchsreihen mit der Wahrscheinlichkeit \(P(E)\) eines Ereignisses \(E\).
Sind in einem Zufallsexperiment die Wahrscheinlichkeiten also nicht bekannt, dann kannst Du den Zufallsversuch sehr sehr oft wiederholen und überprüfen, wie oft ein gewisses Ereignis \(E\) eintritt (absolute Häufigkeit \(H_n(E)\)). Wird die absolute Häufigkeit \(H_n(E)\) durch die Gesamtanzahl der Wiederholungen \(n\) geteilt, ergibt sich zudem noch die relative Häufigkeit \(h_n(E)\).
In der Praxis wird die Wahrscheinlichkeit \(P(E)\) bei einer hinreichend großen Anzahl \(n\) von Versuchen näherungsweise über die relative Häufigkeit \(h_n(E)\) angegeben (statistische Wahrscheinlichkeit):
\begin{align}P(E) ≈ h_n(E)\end{align}
Mathematisch lässt sich die Wahrscheinlichkeit \(P(E)\) jedoch nicht als Grenzwert der relativen Häufigkeit \(h_n(E)\) für \(n → \infty \) angeben. Mehr zum Thema findest Du in der Erklärung „Gesetz der großen Zahlen“.
Um den Zusammenhang besser zu verstehen, sieh Dir das folgende Beispiel dazu an!
Statistische Wahrscheinlichkeit Beispiel
Um die statistische Wahrscheinlichkeit in einem Zufallsexperiment zu ermitteln, wird das Experiment sehr oft wiederholt.
Schnapp Dir gerne einen Würfel, wenn Du einen Würfel Zuhause hast und experimentiere gleich mit!
Würfelst Du \(12\) Mal hintereinander mit einem sechsseitigen, nicht manipulierten Würfel, wie oft tritt dabei das Ereignis \(E\) „Würfeln der Augenzahl \(3\)“ ein? Wie oft bei \(1\,200\) Würfen? Das lässt sich über ein kleines Experiment ermitteln.
Für eine bestimmte Anzahl \(n\) an Würfen wird notiert, wie oft das Ereignis \(E\) „Würfeln der Augenzahl \(3\)“ eintritt.
Abbildung 1: Würfelwurf
In der folgenden Tabelle ist die Anzahl \(n\) aufgelistet und die absolute Häufigkeit \(H_n(\{3\})\), was der Anzahl der Fälle entspricht, bei denen die Augenzahl „drei“ gewürfelt wurde.
\(n\) | \(H_n(\{3\})\) | \(h_n(\{3\})=\dfrac{H_n(\{3\})}{n}\) |
\(12\) | \(3\) | \(0,25\) |
\(120\) | \(17\) | \(\text{~}0,14\) |
\(1\,200\) | \(196\) | \(\text{~}0,163\) |
\(12\,000\) | \(2\,002\) | \(\text{~}0,167\) |
Die Tabelle zeigt, je höher die Anzahl \(n\) der Würfe ist, desto mehr nähert sich die relative Häufigkeit \(h_n(\{3\})\) einem konstanten Wert an, der in diesem Fall etwa bei \(h_n(\{3\})\,\text{≈}\,0,1\overline{6}\,\text{≈}\,\frac{1}{6}\) liegt. Demnach wird etwa bei jedem \(6.\) Wurf die Augenzahl „drei“ erwartet.
Musst Du also bei einem Zufallsexperiment mit unbekannter Wahrscheinlichkeit die Wahrscheinlichkeit eines Ereignisses ermitteln, so gelingt dies in der Praxis nur über ausreichend große Versuchsreihen, es sei denn, bei Deinem Zufallsexperiment handelt es sich um ein sogenanntes Laplace-Experiment.
Laplace Wahrscheinlichkeit – Klassische Wahrscheinlichkeit
Nimm Dir doch noch einmal Deinen Würfel zur Hand und betrachte ihn genauer. Er besitzt sechs gleich große Seiten, mit unterschiedlichen Augenzahlen. Führst Du damit einen Wurf aus, so kann die Augenzahl „drei“ genauso sicher bzw. unsicher eintreten, wie die Augenzahl „fünf“.
Jeder Versuchsausgang bzw. jedes Elementarereignis \(\omega_i\) (Augenzahlen \(1\) bis \(6\)) des Würfelwurfs tritt mit gleich großer Wahrscheinlichkeit ein. So eine Art Zufallsexperiment wird als Laplace-Experiment bezeichnet.
In einem Laplace-Experiment mit endlicher Ergebnismenge \(\Omega\) und \(|\Omega|\) Elementarereignissen tritt jedes Elementarereignis \(\omega_i\) mit der Laplace-Wahrscheinlichkeit \(P(\{\omega_i\})\) ein.
\begin{align}P(\{\omega_i\})=\dfrac{1}{|\Omega|}\end{align}
Genau genommen erreichen nur professionell hergestellte Würfel diese Bedingung, da jede noch so kleine Kerbe oder Unebenheit dazu führt, dass nicht mehr alle Seiten mit gleich großer Wahrscheinlichkeit gewürfelt werden und der Würfel somit gezinkt ist.
Handelt es sich bei Deinem Zufallsexperiment also um ein Laplace-Experiment, so kannst Du die Wahrscheinlichkeit \(P(E)\) für ein Ereignis \(E\) über eine Formel berechnen.
Die klassische Wahrscheinlichkeit nach der Laplace-Regel ist definiert als Quotient der Anzahl der günstigen Fälle \(|E|\) für das Ereignis \(E\) und der Anzahl der insgesamt möglichen Fälle \(|\Omega|\) bei einem Laplace-Experiment.
\begin{align}P(E)=\dfrac{|E|}{|\Omega|}\end{align}
Schaue gerne in der Erklärung „Laplace Experiment“ vorbei, um mehr darüber zu erfahren.
Wie kannst Du dieses Wissen über die Wahrscheinlichkeit nun konkret nutzen und wie gehst Du bei der Bestimmung vor? Das erfährst Du im nächsten Kapitel!
Wahrscheinlichkeit bestimmen – Beispiele
Hast Du eine Münze zur Hand? Lege Dir gerne eine Münze bereit, um das nachfolgende Zufallsexperiment zu Hause nachzumachen.
Bei einem zweimaligen Münzwurf mit einer Münze soll die Wahrscheinlichkeit \(P(E)\) ermittelt werden, bei der mindestens einmal „Kopf“ geworfen wird.
Lösung
Der zweimalige Wurf einer Münze liefert vier mögliche Ergebnisse (Elementarereignisse), die alle gleich wahrscheinlich eintreten. Es handelt sich hierbei um ein Laplace-Experiment.
Ein Hilfsmittel bei der Berechnung von Wahrscheinlichkeiten in mehrstufigen Zufallsexperimenten ist ein Ereignisbaum, der das Zufallsexperiment visualisiert. Mehr dazu findest Du in der Erklärung „Baumdiagramm“.
Abbildung 2: Mögliche Ergebnisse bei zweimaligem Würfeln
In der Ergebnismenge \(\Omega\) kannst Du alle möglichen Ergebnisse zusammenfassen.
\begin{align} \Omega = \{KK;\,KZ;\,ZK;\,ZZ\} \end{align}
Nach der Laplace-Regel kannst Du nun die Wahrscheinlichkeit \(P(E)\) für das Ereignis \(E\) „Mindestens einmal Kopf“ berechnen. In \(3\) von insgesamt \(4\) möglichen Ergebnissen ist mindestens einmal „Kopf“ enthalten, wodurch gilt:
\begin{align} P(E)=\dfrac{|E|}{|\Omega|}=\dfrac{3}{4}=0{,}75\end{align}
Demnach erhältst Du bei einem zweimaligen Münzwurf mit einer Wahrscheinlichkeit von etwa \(75\,\%\) mindestens einmal „Kopf“.
Statt über die Laplace-Regel kannst Du die Wahrscheinlichkeit \(P(E)\) auch über verschiedene Rechenregeln zu Wahrscheinlichkeiten bestimmen. Mehr dazu erfährst Du in der Erklärung „Regeln Wahrscheinlichkeitsrechnung“.
Bei mehrmaligem Werfen einer Münze verändert sich die Wahrscheinlichkeit für das Werfen von „Kopf“ oder „Zahl“ nicht, egal, wie oft Du den Wurf wiederholst.
In manchen mehrstufigen Zufallsexperimenten kann sich die Wahrscheinlichkeit von Stufe zu Stufe verändern. Dann ist die Wahrscheinlichkeit eines Ereignisses \(B\) in Stufe \(2\) „bedingt“ durch die Wahrscheinlichkeit eines vorangegangenen Ereignisses \(A\) in Stufe \(1\).
Mehr zur Wahrscheinlichkeit \(P(B|A)\) von Ereignis \(B\) bedingt durch Ereignis \(A\) kannst Du im Artikel „Bedingte Wahrscheinlichkeit“ lesen.
In den zugehörigen Karteikarten zur Wahrscheinlichkeit in den Grundlagen Wahrscheinlichkeitsrechnung kannst Du Dein Wissen bei verschiedenen Übungsaufgaben testen!
Wahrscheinlichkeit – Das Wichtigste
- Ein Ereignis \(E\) fasst in einem Zufallsexperiment ein oder mehrere Versuchsausgänge (Elementarereignisse \(\omega_i\)) zusammen.
- Die Wahrscheinlichkeit \(P(E)\) erfasst zahlenmäßig, wie „sicher“ oder „unsicher“ ein Ereignis \(E\) bei einem Zufallsexperiment eintritt.
- Der Zahlenwert der Wahrscheinlichkeit \(P(E)\) bewegt sich zwischen \(0\) und \(1\).
- Bei \(P(E)=1\) tritt ein Ereignis \(E\) mit \(100\,\%\)-tiger Sicherheit ein, bei \(P(E)=0\) mit \(0\,\%\)-tiger Sicherheit.
- Wird ein Zufallsexperiment hinreichend oft wiederholt, kann die Wahrscheinlichkeit P(E) über die relative Häufigkeit \(h_n(E)\) angegeben werden (statistische Wahrscheinlichkeit): \[P(E)\,\text{≈}\,h_n(E)\]
- Bei Laplace-Experimenten wird die Wahrscheinlichkeit \(P(E)\) über die Laplace-Regel berechnet (klassische Wahrscheinlichkeit): \[P(E)=\dfrac{|E|}{|\Omega|}\]
Wie stellen wir sicher, dass unser Content korrekt und vertrauenswürdig ist?
Bei StudySmarter haben wir eine Lernplattform geschaffen, die Millionen von Studierende unterstützt. Lerne die Menschen kennen, die hart daran arbeiten, Fakten basierten Content zu liefern und sicherzustellen, dass er überprüft wird.
Content-Erstellungsprozess:
Lily Hulatt ist Digital Content Specialist mit über drei Jahren Erfahrung in Content-Strategie und Curriculum-Design. Sie hat 2022 ihren Doktortitel in Englischer Literatur an der Durham University erhalten, dort auch im Fachbereich Englische Studien unterrichtet und an verschiedenen Veröffentlichungen mitgewirkt. Lily ist Expertin für Englische Literatur, Englische Sprache, Geschichte und Philosophie.
Lerne Lily
kennen
Content Quality Monitored by:
Gabriel Freitas ist AI Engineer mit solider Erfahrung in Softwareentwicklung, maschinellen Lernalgorithmen und generativer KI, einschließlich Anwendungen großer Sprachmodelle (LLMs). Er hat Elektrotechnik an der Universität von São Paulo studiert und macht aktuell seinen MSc in Computertechnik an der Universität von Campinas mit Schwerpunkt auf maschinellem Lernen. Gabriel hat einen starken Hintergrund in Software-Engineering und hat an Projekten zu Computer Vision, Embedded AI und LLM-Anwendungen gearbeitet.
Lerne Gabriel
kennen