Wahrscheinlichkeit und relative Häufigkeit
Ohne Frames
Bayes'scher und frequentistischer Wahrscheinlichkeitsbegriff

Wahrscheinlichkeit und relative Häufigkeit sind das selbe? Ja und nein. 

zurück zum Glossar (Wahrscheinlichkeit)

 

Wahrscheinlichkeit   

Masszahl für das Auftreten eines Ereignisses.

Normiert auf Werte zwischen 0 (=Ereignis tritt "fast sicher" nicht ein) und 1 (Ereignis tritt fast sicher ein).

Konkret angegebene Wahrscheinlichkeitswerte inplizieren immer eine genauere Kenntnis über das Auftreten des zugehörenden Ereignisses, d.h.: Der Wahrscheinlichkeitswert muss entweder aus theoretischen Betrachtungen berechenbar, oder empirisch „hinreichend sicher“ ermittelt worden sein. 

 

Wahrscheinlichkeit bezieht sich auf künftige Ereignisse.

In Abgrenzung dazu steht der Begriff „Relative Häufigkeit“. Relative Häufigkeiten beziehen sich auf experimentell ermittelte Ergebnisse, adressieren also die Frage: „Wie oft ist dieses oder jenes Ereignis eingetreten?“, ohne unbedingt eine konkrete Theorie über die Eintrittswahrscheinlichkeit bei der Hand zu haben.

Relative Häufigkeit bezieht sich auf zurückliegende Ereignisse.

Oft werden die Begriffe „Wahrscheinlichkeit“ und „relative Häufigkeit“ synonym verwendet.

 

Der statistische Wahrscheinlichkeitsbegriff  (von-Mises) sieht die Wahrscheinlichkeit für das Auftreten eines Zufallsereignisses als die relative Häufigkeit, die sich nach unendlich vielen unabhängigen Wiederholungen unter identischen Bedingungen einstellen würde.

 

Ein paar grundlegende Sätze zu kombinierten unabhängigen Wahrscheinlichkeiten

 

1. (Additionssatz der Wahrscheinlichkeitsrechnung)

Die Wahrscheinlichkeit , dass von 2 voneinander unabhängigen Ereignissen mindestens eines eintritt, ist gleich der Summe beider Wahrscheinlichkeiten minus dem Produkt beider Wahrscheinlichkeiten. 

Das kann man sich anhand zweier sich überschneidender Kreise vorstellen. Bei der Summe beider Wahrscheinlichkeiten wird diejenige Fläche,  die von beiden Kreisen überlappt wird, 2 Mal berechnet, folglich muss sie einmal wieder abgezogen werden. 

    

Verallgemeinerungen

1. Bonferroni Ungleichung, oder Boole'sche Ungleichung:

Die Summenwahrscheinlichkeit für das Eintreten einer Gruppe von Ereignissen ist gleich oder kleiner als die Summe der einzelnen Eintrittswahrscheinlickeiten. 

2. Bonferroni Ungleichung: 

Die Wahrscheinlichkeit, dass mehrere Ereignisse gleichzeitig eintreten ist gleich oder grösser als Eins minus die Summe der einzelnen Anti-Ereignisse 

(Also Eins minus die Summe der einzelnen Nicht-Eintritts-Wahrscheinlichkeiten).

 

2. (Multiplikationssatz der Wahrscheinlichkeitsrechnung) 

Die Wahrscheinlichkeit, dass 2 voneinander unabhängige Ereignisse gleichzeitig eintreten, ist gleich dem Produkt beider Wahrscheinlichkeiten. Bei abhängigen Ereignissen siehe Bayes'sches Theorem.

Es gibt im Wesentlichen 2 Wahrscheinlichkeitsbegriffe, die für statistische Hypothesentests von Relevanz (also nicht unbedingt richtig!) sind:

Unter dem "Klassischen Wahrscheinlichkeitsbegriff" , oder auch "Laplace'scher Wahrscheinlichkeitsbegriff" wird Folgendes verstanden:

          {Zahl der günstigen Fälle} / {Zahl der möglichen Fälle}, wobei gilt

Für den Wahrscheinlichkeitsbegriff von Kolmogoroff siehe Axiom

 

Für bedingte Wahrscheinlichkeiten siehe Bayes Theorem

Siehe auch Null-Eins Gesetz von Kolmogoroff.

 

zurück zum Glossar (Wahrscheinlichkeit)

13.03.2006

Datenschutzhinweise