A   

 

Beginn: 12.10.2003

 

3D_Modell

 

3D Modelle gelten heute (2013) im Rahmen von Hardware-Entwicklungsprojekten als Stand der Technik. Sie sind relativ schnell verfügbar und helfen bereits in frühen Entwicklungsphasen als Prototypen potentielle Schwachstellen oder ggfs. Verbesserungspotential zu identifizieren. Mittlerweile haben sich spezielle Firmen auf dem Markt etabliert, die 3D Modelle im Kundenauftrag zeitnah herstellen können.

3D Modelle sind vereinfachte Nachbildungen (Prototypen) von in Entwicklung befindlichen Produkten, die jedoch die wesentlichen Merkmale erkennen lassen, wobei sich dies nicht nur das äussere Erscheinungsbild, sondern durchaus auch technische Merkmale einbeziehen kann. Manche Prototypen können im Einzelfall auch den vollen Funktionsumfang des späteren Serienproduktes wiederspiegeln.

Das trifft insbesondere bei Leiterplatten zu, die als Prototyp bereits die kompletten schaltungstechnischen  Funktionen beinhalten.

22.07.2013


80/20 Regel 

Bezeichnung für den in der Praxis sehr häufig anzutreffenden Fall dass 20% der möglichen Elemente 80% des Gesamteffektes ausmachen.

Die Zahlenwerte 80 und 20 sind jedoch nicht wörtlich zu nehmen. Gemeint ist im Grunde, dass von vielen beitragenden Elementen zu einem Gesamteffekt

der grösste Teil des Gesamteffektes von relativ wenigen Elementen beigesteuert wird.

Siehe Pareto Prinzip

19.01.2013


abc-Analyse.

Methode zum Auffinden der wenigen Elemente, die den Grossteil des Gesamtergebnisses ausmachen (80/20 Regel).

Dem zugrunde liegt das Pareto Prinzip

14.11.2005


Abhängige Stichprobe 

Stichprobe, deren Elemente in irgendeiner Weise miteinander zusammenhängen (verbunden sind).

Durch Abhängigkeit wird der Informationsgehalt i.d.R. erhöht.

Siehe Stichprobe.

04.11.2012


Abhängige Variable

Variable, die sich durch Auswertung der unabhängigen Variablen ergibt. 

Die abhängigen Variablen werden aus den unabhängigen Variablen berechnet, oder: 

Die Ausprägungen der abhängigen Variablen werden durch die Ausprägungen der unabhängigen Variablen vorhergesagt.

 

In der aus der Schule hinreichend bekannten Funktions-Darstellungsform y = f(x) ist x die unabhängige und y die abhängige Variable.

 

Unabhängige Variablen sind "Messwertlieferanten", die in ein Modell eingespeist werden, woraus dann die zugehörigen Werte der abhängigen Variablen berechnet werden.

Je genauer das Modell die Werte der abhängigen Variablen wiedergibt, desto besser ist es.

Die abhängigen Variablen sind die eigentlich interessierenden Grössen, aus denen man neue Erkenntnisse oder Bestätigung (eines bereits früher aufgestellten Modells) erhalten möchte. 

 

Das folgende Beispiel macht deutlich, dass die Festlegung "Was sind abhängige, und was unabhängige Variablen?" von der Fragestellung abhängen kann. 

 

Beispiel: 

Untersuchung unabhängige Variable abhängige Variable

Messung der Körpergrösse in Abhängigkeit von Alter und Geschlecht. 

Alter, 

Geschlecht

Grösse
Messung des Alters in Abhängigkeit von Grösse und Geschlecht

Grösse, 

Geschlecht

Alter
Feststellung des Geschlechts in Abhängigkeit von Alter und Grösse

Alter, 

Grösse

Geschlecht

 

Alternative Bezeichnungen

unabhängige Variable

abhängige Variable

Regressor

Regressand

Prädiktor

Kriterium

Faktor

Zielgrösse

exogene Variable endogene Variable

 

05.11.2012


Ablehnungsbereich

Teilmenge des Wertebereichs einer Prüfgrösse. Liegt nach einem durchgeführten statistischen Hypothesentest der Wert der Prüfgröße innerhalb dieses Bereichs, dann wird die vor dem Test formulierte Nullhypothese abgelehnt. 

Siehe auch Annahmebereich

19.08.2005


Abnehmerrisiko  

Bei Los-zu Los Systemen in der Industrie übliche Bezeichnung für das Risiko, mit dem der Kunde ein in Wirklichkeit schlechtes Los annimmt, obwohl die vorangegangene Stichprobe für gut befunden worden ist.

Siehe Beta Risiko und die Tabelle unter statistischer Hypothesentest

Siehe auch Lieferantenrisiko.

19.08.2005


Adäquation

= Operationalisierung

Dafür sorgen, dass die Ergebnisse der Messmethode mit den damit verbundenen Wahrnehmungen im Einklang stehen. 

07.10.2005


Additionssatz der Wahrscheinlichkeitsrechnung

Die Wahrscheinlichkeit , dass von 2 voneinander unabhängigen Ereignissen mindestens eines eintritt, ist gleich der Summe beider Wahrscheinlichkeiten minus dem Produkt beider Wahrscheinlichkeiten. 

Genauere Erklärung siehe Wahrscheinlichkeit

05.11.2012


Additives Modell  

 

Modell, das bei Datenmaterial mit mindestens Intervallskala Anwendung findet. 

Bei intervallskalierten Daten ist der Begriff "Mittelwert" sinnvoll: Intervallskalierte Daten lassen sich nämlich mitteln. 

Dies gilt auch für Teilgruppen (--> Gruppenmittelwerte)

Man kann also bei intervallskalierten Daten (Teil-)Gruppen bilden und für jede Gruppe den Gruppenmittelwert berechnen. 

Ausserdem kann man alle Gruppenmittelwerte zu einem Gesamtmittelwert zusammenfassen. 

Die Unterschiede der Gruppenmittelwerte zum Gesamtmittelwert werden als Effektgrössen bezeichnet. 

 

Alles zuvor Gesagte mag "simpel" klingen; bei kategorial- und ordinalskalierten Daten funktionieren diese Überlegungen jedoch überhaupt nicht, wie man unter Multiplikatives Modell sehen kann. 

 

Das additive Modell lässt sich allgemein formulieren: 

Jeder Gruppenmittelwert hat "seine eigene" Effektgrösse.

 

Das additive Modell ist weniger ein echtes Modell, sondern ein "Zustand", der die Anwendung entsprechender statistischer Methoden erlaubt.

Bekanntestes Beispiel ist ANOVA.

 

Siehe auch multiplikatives Modell.

05.11.2012


Adjustiertes Bestimmtheitsmass  

Modifiziertes Bestimmtheitsmass, das bei linearer Regression mit mehreren Variablen (-->multiple lineare Regression) bedeutsam wird. 

Durch Hinzunahme von weiteren Modellparametern in das Regressionsmodell kann das gemeinsame Bestimmtheitsmass nämlich nur zunehmen (bis hin zu 1), selbst wenn die dadurch gewonnene Zunahme an Erklärungskraft völlig unbedeutend ist. 

Die Adjustierung wirkt dem entgegen.

 

Vertiefung

05.11.2012


Aktivierungsenergie 

Konstante in der Arrheniusgleichung, die charakteristisch ist für einen bestimmten Fehlermechanismus eines Bauteils oder einer Baugruppe. 

Aktivierungsenergien sind einerseits schwer (wenn überhaupt) bestimmbar und andererseits wirken sich selbst kleine Unsicherheiten gross aus, da die Aktivierungsenergie im Exponenten der Arrheniusgleichung steht.

Siehe Arrheniusgleichung.

05.11.2012


Allgemeines lineares Modell (ALM, General linear Model, GLM) 

Im Allgemeinen Linearen Modell wird davon ausgegangen, dass sich mehrere abhängige Variablen y durch Linearkombination von gewichteten unabhängigen Variablen x beschreiben lassen. 

 

Vertiefung

19.08.2005


Allokierung 

"Zuweisung von Zuverlässigkeiten"

Bei grösseren Systemen mit vielen unterschiedlichen Lieferanten ist es üblich dass jeder Lieferant für sein zu lieferndes (Teil-)System ein Mindestmass an Zuverlässigkeit zugewiesen bekommt. 

Wenn das Gesamtsystem für eine festgelegte Mission z.B. eine maximale Fehlerrate von 100/1000.000h haben soll und es aus 100 Teilsystemen besteht, dann darf jedes Teilsystem (im Durchschnitt) eine maximale Fehlerrate von 1/1000.000h haben. 

In realen Fällen wird das Mass an zugebilligter Fehlerrate natürlich die tatsächliche Komplexität des Teilsystems berücksichtigen.

 

Diese Vorgehendweise ist zwar eine Einschränkung in der zuverlässigkeitstechnischen Gestaltung des Gesamtsystems, erspart jedoch die (nahezu unmögliche) vernetzte Kommunikation von 100 Lieferanten untereinander.

05.11.2012


Alphafehler 

Vereinfacht: Die Wahrscheinlichkeit, einen Zusammenhang zu erkennen, wenn in Wirklichkeit keiner besteht.

Siehe Alpha Risiko 

05.11.2012


Alpha Risiko 

= (1-Signifikanzniveau), oder (1- p-Wert)

(Kleines) Risiko, mit dem der statistische Hypothesentest auf einen Sachverhalt "hindeutet", der in Wahrheit gar nicht vorhanden ist (was man jedoch nicht weiss). 

Besonders wichtige Risikoart bei: 

Anmerkung: 

Genau genommen ist das Alpha Risiko (sehr oft 10%, 5% oder kleiner, selten grösser als 10%) die Wahrscheinlichkeit dafür, dass das Datenmaterial eine entsprechend "extreme" oder "noch extremere" Ausprägung aus reinem Zufall annimmt, obwohl die Grundgesamtheit eigentlich in Ordnung ist.

Oder anders formuliert:

Wenn ausschliesslich Zufall im Spiel ist, dann wird der Test mit beispielsweise 5% Wahrscheinlichkeit einen nicht Sachverhalt vortäuschen, wenn tatsächlich kein Sachverhalt vorliegt.

Man kann jedoch nicht den Umkehrschluss ziehen, dass mit einer gewissen Wahrscheinlichkeit tatsächlich ein Sachverhalt vorliegt, wenn das Testergebnis signifikant ausgefallen ist. Dies ist ein extrem häufiger Denkfehler der sich durch alle Wissensgebiete zieht.

Auf dieses Dilemma wird in der Vertiefung der Rubrik Statistischer Hypothesentest näher eingegangen.

 

Siehe auch Beta Risiko und statistischer Hypothesentest.

Zur Visualisierung des Alpha Risikos siehe die Diagramme in dieser Tabelle.

05.11.2012


Alpha Inflation

"Aufblasen" des Alpha Risikos bei

Das Problem ist hier, dass je mehr Tests durchgeführt werden, desto eher gibt es rein zufällig signifikante Ergebnisse.

Legt man das Signifikanzniveau beispielsweise auf 90%, dann wird man bei 100 Tests im Mittel -abhängig von der wirklichen (unbekannten) Sachlage- mit 10 rein zufällig zustande gekommenen signifikanten Testergebnissen rechnen müssen.

Zur Umgehung dieses Problems siehe Bonferroni.

05.11.2012


ALT  

Accelerated Lifetime Test

Beschleunigter Test zur Ermittlung der Lebensdauer von Produkten.

Folgende Tabelle enthält Erklärungen sowie Abgrenzungen zu AST (Accelerated Stress Test): 

 

ALT AST
Accelerated Lifetime Test Accelerated Stress Test
Beschleunigter Test zur Ermittlung der Lebensdauer von Produkten. Beschleunigter Test zur schnellen Aufdeckung von vermuteten Schwachstellen in Produkten.
Es muss ein Zuverlässigkeitsmodell vorliegen, welches eine Abschätzung der Stresswirkung auf die Lebensdauer gestattet. Der grundsätzliche Fehlermechanismus sollte einigermassen bekannt sein.
Bei beiden Methoden besteht die Gefahr, dass man sich zusätzliche Fehlerarten einhandelt, die unter realistischen Gebrauchsbedingungen nicht auftreten würden.

Die Beschleunigung geschieht durch Betrieb des Produktes bei

Realistische Beschleunigungsfaktoren liegen zwischen 3 und 20, das heisst, das Produkt "altert" zuverlässigkeitstechnisch gesehen während des Tests mit 3 bis 20-facher Geschwindigkeit.

 

Die beiden Verfahren AST und ALT unterscheiden sich weniger durch die Art des angewendeten Stress, sondern eher darin, wie die entdeckten Ausfälle (statistisch) ausgewertet oder bewertet werden. 

 

Siehe auch HALT

19.08.2005


Alternativhypothese

Siehe statistische Hypothese.

19.08.2005


Alternativmerkmal 

= Dichotomes Merkmal. 

Merkmal, das nur 2 mögliche Zustände annehmen kann. 

Siehe auch Skalenniveaus.

19.08.2005


Alternativtest

Statistischer Hypothesentest, bei dem die Alternativhypothese explizit formuliert worden ist und sich nicht lediglich durch Negation der Nullhypothese ergibt. Damit einher geht eine "Effektgrösse". Dies ist ein Minimal-Unterschied, der aus rein fachlichen Gründen für "bedeutsam" gehalten wird.

Für nähere Erläuterungen hierzu siehe Anmerkungen zu statistischen Hypothesen , b)

19.08.2005


AMSAA Modell

Army Material Systems Analysis Activity 

AMSAA Modell wird synonym verwendet für Duane Modell

19.08.2005


ANCOVA

AN-alysis of COVA-riance

= Kovarianzanalyse.

27.11.2005


Anderson Darling Test  

Anpassungstest für verschiedene Verteilungsfunktionsarten.

Ein modifizierter Kolmogoroff Smirnoff Anpassungstest

Während letzterer auf jede Verteilungsfunktionsart ohne weitere Modifikation angewendet werden kann, ist der Anderson Darling Test verteilungsfunktions-spezifisch aufgebaut, das heisst, er funktioniert beispielsweise bei Normalverteilung anders als bei Weibullverteilung.

Das hat zur Folge, das kritische Werte in Abhängigkeit von der Verteilungsfunktionsform tabelliert werden müssen. Dafür ist er jedoch genauer.

Der Anderson Darling Test bewertet die Randbereiche ("Schwänze") von Verteilungsfunktionen kritischer als der Kolmogoroff Smirnoff Anpassungstest. 

 

Normalverteilung:

Die Prüfgrösse und kritischer Wert (zum Signifikanzniveau 95%) des Anderson Darling Tests lauten:

Die Werte i müssen aufsteigend geordnet sein.

n: Stichprobengrösse

Zi: Die kumulierte Fläche der Normalverteilung von -00 bis zum Wert xi

n: Stichprobengrösse

Bei Lognormal-verteilten Daten muss man die Daten zuerst logarithmus-transformieren, dann kann man mit dem Anderson Darling Test für Normalverteilung fortfahren.

Für ein Berechnungsbeispiel in Excel siehe hier.

Weibullverteilung:

Der Anderson Darling Test auf Weibullverteilung läuft anders als im Falle der Normalverteilung.

Für ein Berechnungsbeispiel in Excel siehe hier.

19.08.2005


Annahmebereich 

Teilmenge des Wertebereichs einer Prüfgrösse. Liegt nach einem durchgeführten statistischen Hypothesentest der Wert der Prüfgröße ausserhalb dieses Bereichs, dann kann die vor dem Test formulierte Nullhypothese nicht abgelehnt werden. 

Es ist logisch falsch zu sagen, "die Nullhypothese wird angenommen". Siehe hierzu Anmerkungen zu statistischen Hypothesentests

Siehe auch Ablehnungsbereich

19.08.2005


Annahmefaktor 

Siehe Stichprobenprüfung nach DIN-ISO

19.08.2005


Annahmezahl 

Siehe Stichprobenprüfung nach DIN-ISO

19.08.2005


ANOVA

Analysis of Variance, Varianzanalyse. 

Statistisches Auswerteverfahren für Mittelwertvergleiche, das bei mindestens intervallskaliertem Datenmaterial anwendbar ist.

 

ANOVA

ANOVA sollte beim Mittelwertsvergleich von mehr als 2 Stichproben anstelle von wiederholten t-Tests bevorzugt werden. (siehe multiples Testen

 

Die Funktionsweise von ANOVA wird in folgender Vertiefung näher erläutert.  

 

Diese Exceltabelle enthält konkrete Zahlenbeispiele. 

Die gesamte Rechnung ist in elementaren Schritten explizit dargestellt..

 

Für einige ANOVA-Vorlagen siehe folgende Exceldatei.  

 

Siehe auch Kovarianzanalyse und MANOVA

19.08.2005


Anpassungstest

Allgemeine Bezeichnung für einen statistischen Hypothesentest, der

Beispiele: 

Speziell für den Test auf Normalverteilungsform gibt es noch Testverfahren, die die Schiefe oder die Wölbung des Datenmaterials testen. Prüfgrösse ist bei diesen Tests die Schiefe bzw. die Wölbung selbst.

 

Die Anpassungstests auf Normalverteilung überwiegen bei Weitem, da die Sicherstellung (besser gesagt: Die Nicht-Ablehnung) einer Normalverteilung für weiteres statistisches Vorgehen in den meisten Fällen sehr vorteilhaft ist. 

Wenn die Ausgangsdaten stark von Normalverteilung abweichen, so kann man mittels geeigneter Skalentransformation der Daten oft eine normalverteilungsähnliche Form herbeigeführt werden.

 

Praktisch ergeben sich jedoch folgende Sachverhalte:

Anmerkung: 

Wenn die explizite Natur der Verteilungsfunktion nicht interessiert, dann kann eine Kerndichteschätzung angestrengt werden. (Siehe auch Schätzen)

19.08.2005


Anteilswert 

Bei diskretem Skalenniveau und binomialverteilten Grundgesamtheiten der Anteil an Merkmalsträgern in der Stichprobe

Siehe z.B. Binomialtest und sequentieller Binomialtest.

Siehe auch Standardfehler.

19.08.2005


Antiereignis 

= Komplementärereignis 

14.03.2006


AOQ, Average Outgoing Quality

Siehe Durchschlupf

19.08.2005


A-optimal

Siehe DoE, Begriffserklärungen. 

13.10.2005


A Posteriori Vergleich

Siehe Post Hoc Test

19.08.2005


a posteriori Vorgehensweise

Gegenteil der a priori Vorgehensweise. Siehe auch Post Hoc Test.

Bei umfangreichem Datenmaterial übliche Vorgehensweise (--> explorative Datenanalyse). 

A posteriori bedeutet wörtlich "Im Nachhinein". Man führt also erst nach der Datenaufbereitung statistische Tests durch.

19.08.2005


approximativ

"Näherungsweise". 

Bei statistischen Tests begegnet man häufig der Aussage "Die Prüfgrösse ist approximativ normalverteilt". 

Das bedeutet, dass die Prüfgrösse umso besser normalverteilt ist, also umso besser direkt mit der Normalverteilung verglichen werden kann, je grösser die getestete Stichprobe ist. 

Siehe auch (approximative) Vertrauensintervalle

19.08.2005


APQP

QS9000: Advanced Product Quality Planning. 

Qualitätsplanungsprozess, bei dem bereits in frühester Phase versucht wird, "an alles" zu denken.

Der gesamte Produktlebenszyklus wird bereits geplant, wenn das Produkt erst noch auf Skizzen existiert.

Zentrales Qualitätswerkzeug ist hier die FMEA.

19.08.2005


A Priori Vergleich

Sammelbezeichnung für Tests, die man vor einem allgemeinen Test (Omnibus Test, z.B.: ANOVA) durchführt. 

Auch geplante Tests genannt.

A priori Tests beruhen auf linearen Kontrasten

Für weitere Erklärungen zu A Priori Vergleichen siehe dort.

19.08.2005


a priori Vorgehensweise

Gegenteil von a posteriori Vorgehensweise.

Aufgrund von Vorwissen oder Vermutungen werden selektive statistische Tests (also keine Omnibus Tests) auf das Datenmaterial direkt angewandt.

Siehe insbesondere lineare Kontraste

19.08.2005


AQL 

Acceptable Quality Level 

Derjenige Gutanteil, über den ein Los verfügen muss, damit es mit z.B. 90% Sicherheit bei dem Stichprobentest auch tatsächlich für gut befunden wird. 

AQL und RQL sind 2 Punkte, mit denen die Operationscharakteristik eindeutig bestimmt ist. 

Siehe Operationscharakteristik Beispiel.

19.08.2005


Arrhenius, Gleichung 

Hauptbestandteil des Arrheniusmodells ist die Arrheniusgleichung, die einen direkten Zusammenhang zwischen der absoluten Temperatur T (gemessen in Kelvin) und der erwarteten Lebensdauer (bzw. Fehlerrate) herstellt. 

Zwar wurde dieses Modell ursprünglich entwickelt für die Geschwindigkeit chemischer Reaktionen bei gegebener absoluter Temperatur (siehe auch geometrische Standardabweichung), doch es ist auch in der Zuverlässigkeitstechnik verbreitet: 

Das Eintreten von Ausfällen wird als chemische Reaktion aufgefasst.

 

Vertiefung

19.08.2005


ARIMA 

AutoRegressive Integrated Moving Average Modell.

Dieses Modell dient zur Beschreibung von Datenreihen in der Zeitreihenanalyse und ist so allgemein, dass es mehrere unter anderem Namen bekannte Methoden als Spezialfälle enthält. 

Ziel der aus den 3 Parametern p,d,q bestehenden Methode ARIMA(p,d,q) ist es: 

Vertiefung

19.08.2005


ARMA 

Siehe ARIMA.

19.08.2005


Assoziationskoeffizient 

Zusammenhangsmass, basierend auf der Chi Quadrat Verteilung.

Drückt den Grad von Zusammenhängen in Kontingenztafeln aus. 

        N: Anzahl Einzelwerte.   CC= [0....<1], X2: Chi Quadrat Verteilung

Siehe Kontingenzkoeffizient und Tabelle Korrelationskoeffizienten

19.08.2005


AST

Accelerated Stress Test. 

Beschleunigter Test zur schnellen Aufdeckung von Schwachstellen in Produkten.

Siehe ALT.

19.08.2005


Asymptotisch 

= approximativ.

30.072006


Asymptotischer Test 

Asymptotische Tests basieren auf bestimmten Verteilungsfunktionen (z. B. Standardnormalverteilung, Chi-Quadrat-Verteilung, t-Verteilung und F-Verteilung), d.h. die Tests gehen davon aus, dass die berechneten Werte einer theoretischen Verteilungsfunktion folgen. Je größer der Stichprobenumfang, desto besser ist die Annährung an diese Verteilungsfunktionen. 

Die empfohlenen Mindest-stichprobengrössen sind in der Literatur nicht einheitlich angegeben und reichen bis "mehrere -Zig"

Bei metrischem Skalenniveau die häufiger vorkommende Testklasse. 

Siehe auch exakter Test.

19.08.2005


Attributives Merkmal

Pendant des messbaren Merkmals

Merkmal, dessen Ausprägung nur auf einer Ordinalskala darstellbar, also nicht mit physikalischen Einheiten messbar ist. Sehr oft dichotom

Z.B: Gut/Schlecht, Gutteil/Ausschuss. 

Attributive Merkmale werden unter Anderem durch folgende Verteilungsfunktionen beschrieben:

19.08.2005


Ausfall 

Das Versagen eines Produktes, Gerätes, Individuums,... , sodass der geplante Zweck nicht mehr gewährleistet ist. 

Aus Sicht der Zuverlässigkeitstechnik kann man das Auftretensmuster von Ausfällen in 3 Gruppen einteilen:  

 

Bezeichnung Fehlerrate Phase der Badewannenkurve Bemerkungen
Frühausfall

Infant Mortality

hoch, abnehmend 1

Vermeidung durch Burn In 

 

Verteilungsfunktion

Weibull, b < 1

Nutzbare Produktlebensphase niedrig, konstant 2

Ausfälle sind rein zufälliger Natur. 

 

Verteilungsfunktion: 

Weibull, b = 1 

(~Exponentialverteilung)

 

Verschleissausfall niedrig, zunehmend 3

Ausfälle nehmen zu

 

Verteilungsfunktion: 

Weibull, b > 1 

 

 

Ausfälle mit gemeinsamer Ursache (engl. common cause failures, ccf) sind solche, die zwar an beliebigen Stellen im System auftreten können, jedoch eine gemeinsame Ursache haben und somit korrelieren, also statistisch abhängig sind.

Beispiele: 

 Fehlern mit gemeinsamer Ursache kommt man mit konstruktiven Methoden nur sehr schwer bei..

19.08.2005

 


Ausfallfunktion

In der Zuverlässigkeitstechnik auf 1 normierter Anteil der Population, die zum Betrachtungszeitpunkt nicht mehr funktionsfähig ist , F(t). 

Ausfallfunktion + Bestandsfunktion =1

Entspricht in der allgemeinen Statistik der Verteilungsfunktion.

Kann verbal z.B. wie folgt ausgedrückt werden:

"Zur Zeit sind 20% aller Geräte bereits ausgefallen". 

Die mit -1 multiplizierte Ableitung der Bestandsfunktion ist die Ausfalldichtefunktion.

19.08.2005


Ausfalldichtefunktion 

Mit -1 multiplizierte zeitliche Ableitung der Bestandsfunktion

Entspricht in der allgemeinen Statistik der Dichtefunktion.

Derjenige Anteil der (noch funktionierenden) Population, der pro Zeiteinheit zum Betrachtungszeitpunkt ausfällt

Kann verbal z.B. wie folgt ausgedrückt werden:

"Zur Zeit fallen pro Stunde 5% aus, bezogen auf die ANFÄNGLICHE Gesamtpopulation."

Siehe auch Ausfallratenfunktion.

19.08.2005


Ausfallrate 

  1. = Ausfallratenfunktion 

  2. Spezialfall konstante Ausfallrate (wenn die Bestandsfunktion eine Exponentialverteilung ist):                    

    Kehrwert der MTBF. Siehe hierzu die Anmerkungen unter MTBF

Tests, die speziell auf sich ändernde Ausfallraten testen, befinden sich hier

19.08.2005


Ausfallratenfunktion 

Lambda(t), auch Hazard Rate, h(t) genannt. 

Quotient aus Ausfalldichtefunktion und [1-Ausfallfunktion], also der auf den gegenwärtigen Bestand bezogene Anteil der Population, der pro Zeiteinheit ausfällt. Allgemein statistisch formuliert: Quotient aus Dichtefunktion und [1-Verteilungsfunktion]: 

Lambda(t) = f(t)/[1-F(t)]

Bei F(t) = Exponentialverteilung nimmt die Ausfallratenfunktion einen konstanten Wert an, die Ausfallrate.

Kann verbal z.B. wie folgt ausgedrückt werden:

"Zur Zeit fallen pro Stunde 5% aus, bezogen auf die MOMENTAN NOCH funktionsfähige Population."

19.08.2005


Ausgleichsrechnung

Oberbegriff für das Bestimmen der optimalen Parameter eines (statistischen oder mathematischen) Modells.

In der Regel sind dabei "nur" Punktschätzungen gemeint (und nicht die damit verbundenen Vertrauensintervalle).

2 gängige Methoden zum Auffinden der optimalen Parameter sind.

 

Die Ermittlung der Vertrauensintervalle der gewonnenen Parameter geschieht mittels Betrachtung der Varianzen und Kovarianzen des zugrunde gelegten Datenmaterials. Formal handelt es sich hier um die Varianz-Kovarianzmatrix.

Für ausführlichere Erklärungen hierzu siehe Multiple lineare Regression.

14.11.2005


Ausprägung

Die Gesamtheit aller möglichen Werte einer Variablen oder eines Merkmals

Oft auch als Bezeichnung für den jeweils gerade vorliegenden Wert. 

Beispiel Würfeln:

Die Variable "Augenzahl" kann die Ausprägungen 1,2,3,4,5 und 6 annehmen.

Wurde eine 6 gewürfelt, dann hat die Variable die Ausprägung 6.

19.08.2005


Ausreisser

Messwert einer Messreihe, der sich von den anderen Messwerten "in besonderem Masse" unterscheidet.

Ausreisser ist kein mathematischer Ausdruck, sondern eine Wertung, mit der man die Gültigkeit eines Messwertes anzweifelt. 

Tests auf Ausreisser: 

Siehe auch Winsorisieren

Sämtliche Parameterfreie Tests sind unempfindlich gegenüber Ausreissern. 

Mediane sind unempfindlich gegenüber Ausreissern. 

19.08.2005


Auswahlsatz 

= n/N, wobei N die Grösse der Grundgesamtheit und n die Grösse der Stichprobe ist. 

27.11.2005


  Autokorrelation 

Faltung einer Wertereihe. 

<==> 

Wiederholte Korrelation einer Wertereihe mit sich selbst.

Dabei wird nach jeder erfolgten Korrelation eine der beiden (Identischen) Wertereihen um einen Messwert weiterverschoben.

Als Ergebnis erhält man eine weitere Wertereihe, die aus lauter Korrelationskoeffizienten besteht und genauso lang wie die beiden Ausgangswertereihen ist.

Ist die Autokorrelation statistisch signifikant, besteht eine serielle Abhängigkeit der Daten untereinander, was die Anwendbarkeit einiger statistischer Methoden stark einschränkt.

(Kritisch z.B. bei ANOVA mit Messwiederholung (--> Zirkularität), Regressionsmodellen, sowie allen Methoden, bei denen messwiederholte Daten analysiert werden).

Autokorrelation wird hauptsächlich in der elektrischen Messtechnik bei verrauschten Signalen angewandt, kommt in der Statistik jedoch beispielsweise im ARIMA Modell (erwünscht) oder bei Regressionsmodellen (unerwünscht) zum Einsatz. 

Tests auf Autokorrelation sind beispielsweise:

19.08.2005


Axiom

Grundlegende Aussage, die in dem Begriffssystem, das das Axiom begründet, nicht beweisbar ist und die Ausgangspunkt für alle weiteren Überlegungen ist.

Axiome müssen einfach und gut begründet sein. 

Axiome sind (minimal anmutende) Annahmen, ohne die der Aufbau von Theorien nicht möglich wäre.

Würde man innerhalb einer Begriffswelt konsequent immer wieder nach der Ursache fragen, so würde man irgendwann bei den Axiomen dieser Begriffswelt landen, wo die Frage nach der Ursache nicht mehr beantwortet werden kann. 

"Das ist dann einfach eben so".

 

Beispiel 1

Wahrscheinlichkeitstheorie: Axiomensystem von Kolmogoroff.

  1. Wahrscheinlichkeiten sind nicht negativ.

  2. Die Wahrscheinlichkeit eines sicheren Ereignisses ist 1  

  3. Bei sich gegenseitig ausschliessenden Ereignissen ist die Wahrscheinlichkeit, dass irgendeines dieser Ereignisse eintritt gleich der Summe aus den Einzelwahrscheinlichkeiten dieser Ereignisse.

Man erkennt an dem Beispiel, dass Axiome bei flüchtiger Betrachtung minimal, "selbstverständlich", oder gar "logisch" erscheinen.

Es ist aber in der Tat so, dass alle sich in der Wahrscheinlichkeitstheorie ergebenden Sachverhalte auf diese 3 Axiome zurückführbar sind.

 

Beispiel 2

Spezielle Relativitätstheorie ("Zwillingsparadoxon")

  1. Die Lichtgeschwindigkeit ist in allen Bezugssystemen konstant

  2. Es gibt kein ausgezeichnetes Bezugssystem.

Allein aus diesen beiden Axiomen folgen alle hinlänglich bekannten "Paradoxa".

Dieses Beispiel zeigt besonders deutlich, welch weit reichende Konsequenzen scheinbar elementare Axiome haben können. 

13.09.2005


 

B

 


Bxx Lebensdauer 
Beispiel: B10 Lebensdauer = 500 h. Nach 500 Stunden werden 10% der
Population ausgefallen sein.
Die B10 Lebensdauer als Zuverlässigkeitsangabe ist hauptsächlich in der Mechanik verbreitet. 

19.08.2005


Badewannenkurve 

Graphische Darstellung der Ausfallrate einer Population über der Zeit.
Zeigt die Ausfallrate während der drei Hauptphasen: 

Gilt insbesondere für elektronische Systeme. 
Zeitspanne hier z.B. 20 - 30 Jahre. 

 

Folgendes Bild skizziert schematisch den Verlauf einer solchen Kurve. 

Je nach Sachlage können die erste und/oder dritte Phase stark abgeschwächt sein oder gar ganz fehlen. 

In manchen Fällen ist von der zweiten Phase nichts zu sehen (sie wird von den anderen beiden Phasen übertönt).

 

 

Die oben dargestellte Badewannenkurve ist in Wirklichkeit die Summe dreier getrennter Kurven: 

Alle drei Teilkurven lassen sich -jeweils für sich alleine genommen- meistens mit der Weibullverteilung sehr gut modellieren:

Frühausfälle: Formparameter b<1, Zufallsausfälle: b=1, Verschleissausfälle: b>1.

 

Siehe auch Ausfall.

Siehe auch Zuverlässigkeitstechnik.

19.08.2005


Bartlett Test

Test auf Varianzgleichheit mehrerer Stichproben

Varianzgleichheit (Varianzhomogenität) ist z.B. vor einer ANOVA sicherzustellen.

Voraussetzung:

Die Stichproben sollten annähernd normalverteilt sein. 

Ist diese Voraussetzung nicht gegeben: -> Levene Test.

 

Nullhypothese: "Alle Stichproben haben die selbe Varianz" 

Alternativhypothese: "Wenigstens 2 Stichproben unterscheiden sich in ihren Varianzen". 

Der Bartlett Test ist also ein Omnibustest, da er diejenigen Stichproben , deren Varianz sich von den anderen Stichproben unterscheiden, nicht explizit benennt.

 

Gegeben seien k Stichproben mit den Umfängen ni und dem Gesamtumfang N

Dann ist die Prüfgrösse  T

Korrekturfaktor: Dient zur Aufhebung der Bias

sp2: Gepoolte Varianz aller k Stichproben. 

ln: Natürlicher Logarithmus.

si: Varianz der i-ten Stichprobe (i=1...k)

k: Anzahl der Stichproben

N: Gesamtzahl aller Werte in den Stichproben.

 

Chi Quadrat verteilt mit (k-1) Freiheitsgraden.

 

Siehe auch Levene Test. 

Siehe auch Box's M-Test.

19.08.2005


Basisereignis

Fehlerbaum: Diejenigen Ereignisse, die an den Anfängen von logischen Verknüpfungen stehen, also:

Basisereignisse stehen an unterster Stelle in Fehlerbäumen.

19.08.2005


Basisrate 

= Prävalenz

19.08.2005


Bayesscher Wahrscheinlichkeitsbegriff 

Siehe Wahrscheinlichkeit.  

Dies hat mit dem Bayes'schen Theorem nichts zu tun.

13.10.2005


Bayes'sches Theorem

(Hat nichts mit dem Bayes'schen Wahrscheinlichkeitsbegriff zu tun)

Theorem der bedingten Wahrscheinlichkeiten bei abhängigen Ereignissen. 

Siehe auch Prävalenz

 

Das Bayes'sche Theorem hat mathematisch folgende Gestalt:

P(B|A) = P(A und B)/P(A)

P(B|A) bedeutet:

 

Die Wahrscheinlichkeit, dass B eintritt, wenn A bereits eingetreten ist,

[Wahrscheinlichkeit, dass beide Ereignisse A und B eintreten] / [Wahrscheinlichkeit, dass nur A eintritt]

 

Das Entscheidende ist hier, dass P(B) davon abhängt, ob A bereits eingetreten ist oder nicht.

 

Beispiele 

19.08.2005


Belastung-Belastbarkeit 

 

Gegenüberstellung von Belastungsverteilung und Belastbarkeitsverteilung.

Ergebnis ist die Wahrscheinlichkeit, mit der ein Individuum einer Population eine einmalige Belastung schadlos überstehen wird.

 

Vertiefung

19.08.2005


Bellcore 

Alte Bezeichnung für Telcordia

19.08.2005


Benford's Gesetz 

 

Die führenden Ziffern von Zufallszahlen unterliegen folgender Häufigkeitsverteilung: 

 

n ist die jeweilige führende Ziffer, lg bedeutet Logarithmus zur Basis 10. 

 

In konkreten Werten sieht das Benfordsche Gesetz so aus: 

Führende Ziffer 1 2 3 4 5 6 7 8 9
relative Häufigkeit [%] 30.1 17.6 12.5 9.7 7.9 6.7 5.8 5.1 4.6

 

Zahlenbeispiele

1.5E+2          6.81E 0         2.223E-3             3E-6 

Letztere Zahl könnte man auch 0.3E-5 schreiben, dann wird aber die führende Ziffer (hier 3) nicht deutlich. 

 

Entscheidend ist, dass 

In der Natur sind logarithmische Skalen der Normalfall. Fast die gesamte menschliche Sinneswahrnehmung funktioniert logarithmisch (Sehen, Hören, Fühlen). 

Das Problem ist, dass dies nicht unserem gewohnten Zahlenweltbild entspricht. 

Betrachtet man z.B. die Zahlen von 1 bis 1000, dann deckt der Bereich von 100 - 199 einen relativen Grössenbereich von Faktor 199/100~2~ 100% ab, der Bereich von 900 -999 dagegen nur einen Faktor von 999/900 ~ 1.11~11% 

Nach dieser anschaulichen Einfachbetrachtung sollte in "natürlichem" Datenmaterial die 1 als führende Ziffer etwa neunmal häufiger vorkommen als die 9, was nach obenstehender Tabelle nicht sehr stark daneben liegt (30.1/4.6 =6.5).

Nochmalige Betrachtung: 

Die Lösung der Gleichung x=lg(n) lautet für die Ziffern n=1...9:

Ziffer 1 2 3 4 5 6 7 8 9
x = 0 0.301 0.477 0.602 0.699 0.778 0.845 0.903 0.954

 

Die Wahrscheinlichkeit, mit der die 1 als führende Ziffer auftaucht berechnet man zu 0.301-0 =30.1%

Für die Ziffer 2 ergibt sich 0.477-0.301 = 17.6%

usw.

19.08.2005


Bernoulli Experiment

Zufalls-Experiment mit 2 möglichen Ausgängen mit den Wahrscheinlichkeiten p und q, mit p+q=1.

Beispiel: "Kopf oder Zahl"

Siehe auch Binomialverteilung und Geometrische Verteilung.

19.08.2005


Bernoulli Verteilung 

1. Fälschlicherweise verwendete Bezeichnung für Binomialverteilung.

2. Spezialfall der Binomialverteilung bei nur einem einzelnen Bernoulli Experiment (also für n = 1).

x kann dann nur die Werte 0 oder 1 annehmen.

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

19.08.2005


Bertrand's Kästchenparadoxon

Es gibt 3 Schubladen mit jeweils 2 Kästchen pro Schublade.

Man zieht eine Schublade, öffnet eines der beiden Kästchen und findet eine Goldmünze.

Frage: Mit welcher Wahrscheinlichkeit befindet sich in dem anderen Kästchen eine Silbermünze? 

Die in diverser Statistikliteratur favorisierte Antwort lautet 1/3. 

Der Verfasser ist der Auffassung, dass diese Lösung richtig ist, im Gegensatz zu der Lösung des Geschwisterparadoxons

 

Vertiefung

13.10.2005


Beschleunigungsfaktor 

Bei beschleunigten (Zuverlässigkeits-) Tests (HALT und ALT):

Der Faktor, um den die getesteten Individuen zuverlässigkeitstechnisch gesehen schneller "altern" als ohne den durch den Test auferlegten zusätzlichen Stress. 

19.08.2005


Bestandsfunktion 

In der Zuverlässigkeitstechnik der (auf 1) normierter Anteil der Population, der zum Betrachtungszeitpunkt noch funktionsfähig ist. 

Im Englischen "Reliability" , R(t). 

Ausfallfunktion + Bestandsfunktion =1

Entspricht in der allgemeinen Statistik 1 minus der Verteilungsfunktion.

Kann verbal z.B. wie folgt ausgedrückt werden:

"Zur Zeit sind noch 80% aller Geräte in Betrieb". 

Die Ableitung der Bestandsfunktion ist die Ausfalldichtefunktion.

19.08.2005


Bestimmtheitsmass (auch multiples)

Auch Determinationskoeffizient, Güte oder (in den Sozialwissenschaften) Reliabilität genannt. 

Quadrat des Korrelationskoeffizienten r. 

Ein PRE-Mass.

 

Vertiefung

04.07.2006


Bestimmtheitsmass, adjustiertes

Siehe adjustiertes Bestimmtheitsmass

19.08.2005


Beta Binomiale Vertrauensintervalle 

Verteilungsfunktionsfreie, rangbasierte Methode zur Abschätzung von Vertrauensintervallen

(Siehe auch Schätzen

 

Vertiefung

19.08.2005


Betafehler 

Siehe Betarisiko

20.08.2005


Beta Risiko

(Kleines) Risiko, mit dem der statistische Hypothesentest keinen Sachverhalt aufzeigt, obwohl in Wahrheit einer vorhanden ist (was man jedoch nicht weiss).   

Dem Betarisiko wird leider sehr oft bei Testdesigns keine Beachtung geschenkt. Es ergibt sich natürlich indirekt aus dem gewählten Alpha Risiko und der Stichprobengrösse, bleibt dann aber dem Zufall überlassen.

Man kann nicht den Umkehrschluss ziehen, dass mit einer gewissen Wahrscheinlichkeit tatsächlich kein Sachverhalt vorliegt, wenn das Testergebnis nicht signifikant ausgefallen ist. Dies ist ein extrem häufiger Denkfehler der sich durch alle Wissensgebiete zieht.

Auf dieses Dilemma wird in der Vertiefung der Rubrik Statistischer Hypothesentest näher eingegangen.

 

Siehe auch Alpha Risiko und statistischer Hypothesentest

05.11.2012


Beta Verteilung

Modellverteilungsfunktion zur Modellierung zweiseitig begrenzter VerteilungsfunktionenHeuristischer Charakter. 

Nur zwischen 0 und 1 definiert.

Mit ihren 2 Formparametern p und q lassen sich die beiden Ränder unterschiedlich modellieren.

         

Die Verteilungsfunktion ist nicht geschlossen darstellbar.

B(p,q) lässt sich auch mittels der Gammaverteilung darstellen.

 

 

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
p/(p+q)    

 

Für eine graphische Darstellung der Betaverteilung siehe diese Exceltabelle, Blatt "Betavert".

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

20.08.2005


Beweis

Gedankengang, der 100%ige Klarheit über einen (möglicherweise bislang unbekannten) Sachverhalt aufzeigt.

Beweise im wissenschaftlichen Sinne gibt es eigentlich nur in der Mathematik.

Im Bereich Statistik sind Beweise nur im deskriptiven Teil möglich, denn nur dort werden alle vorhandenen Daten analysiert.

Im induktiven Bereich kann es keine Beweise geben, da zu einem vollständigen Ergebnis immer eine (definierte) Unsicherheit gehört.

(-> Risikoarten statistischer Tests)

20.08.2005


Bias 

Verzerrung.

Systematische Abweichung einer Schätzfunktion vom Erwartungswert des gesuchten Parameters. 

Siehe Gütekriterien für Schätzfunktionen

(Siehe auch Schätzen)

20.08.2005


Bimodal

"zweigipfelig".

Naturgemäss vorkommende Dichtefunktionen sind immer eingipfelig; die Werte streuen also um einen bestimmten Wert. Bei zweigipfeligen Dichtefunktionen handelt es sich nahezu immer um eine Überlagerung zweier eingipfeliger Dichtefunktionen.

Beispiel:

2 Maschinen produzieren gleichzeitig die selbe Ware. Beide Maschinen sind etwas unterschiedlich eingestellt.

Die Produkte beider Maschinen werden vermischt und anschliessend vermessen.

-> Wenn die Unterschiede beider Maschinen gross genug sind, dann wird man eine zweigipfelige Dichtefunktion bezüglich dieses Masses feststellen. 

14.11.2005


Binomialtest  

Test zur Untersuchung von Häufigkeiten bei dichotomen (2-stufigen) Variablen. 

Im Prinzip lediglich das Abzählen bestimmter Häufigkeiten und Vergleich mit allen denkbaren Häufigkeiten.

Prüfgrösse ist die (kumulierte) Binomialverteilungsfunktion.

"Kumuliert" bedeutet hier die Aufsummierung der Punkt-Wahrscheinlichkeiten des eingetretenen (oder unter Betrachtung stehenden) Ereignisses sowie aller denkbaren, noch selteneren Ereignissen, die in die gleiche Richtung gehen wie das eingetretene (oder unter Betrachtung stehende) Ereignis.

 

Beispiel:

Die Wahrscheinlichkeit dafür, dass ein bestimmter Sänger X den ersten Ton eines Liedes exakt trifft, liege im langfristigen Mittel bei 90%.

Bei einem bestimmten Konzert traf dies aber nur bei 15 von 20 Liedern zu (75%). Zufall?

Mit Hilfe der Excelfunktion BINOMVERT (15,20,0.9,wahr) ergibt sich eine kumulierte (->wahr) Wahrscheinlichkeit

(Summenwahrscheinlichkeit) von 4,3%.

Die Wahrscheinlichkeit, dass der Sänger bei p=90% rein zufällig HÖCHSTENS 15 von 20 Mal trifft, liegt also bei 4,3%.

Es ist also eher unwahrscheinlich, dass der Sänger lediglich zufällig nur 15 von 20 Mal traf. Vielmehr ist eine richtige Ursache dahinter zu vermuten.

 

Bei sehr grossen absoluten Häufigkeiten ist die Berechnung mit der Binomialverteilung nicht mehr leicht durchführbar.

In diesem Fall sollte der Vierfelder Chi Quadrat Test (Vergleich von absoluten Häufigkeiten) vorgezogen werden. 

 

Siehe auch sequentieller Bimonialtest.

20.08.2005


Binomialtest, sequentieller 

Bei einem sequentiellen Test wird gerade so lange getestet, bis genug Evidenz für eine statistische Entscheidung vorhanden ist. 

Der Test wird also genau dann abgebrochen, wenn zum ersten Mal eine eindeutige Entscheidung getroffen werden kann.

Deshalb müssen Nullhypothese, Alternativhypothese und Effektgrösse explizit formuliert werden. (Siehe dazu Anmerkungen zu statistischen Hypothesen, a) und b)) 

 

Vertiefung

20.08.2005


Binomialverteilung        

 

Gegeben sei eine Folge von n Bernoulli Experimenten mit den jeweils möglichen Ausgängen a und b und den zugehörigen Wahrscheinlichkeiten p und q, mit p+q=1.

Die Binomialverteilung beantwortet die Frage, wie wahrscheinlich es ist, dass mit den genannten Daten BIS ZU x Mal das Ereignis a eingetreten ist. 

 

Vertiefung

20.02.2006


Biometrie 

Auch Biostatistik genannt. 

Biometrie beschäftigt sich mit der Messung und (statistischen) Auswertung von Merkmalen, die mittelbar oder unmittelbar mit Lebewesen zu tun haben. 

Beispiele: 

Biometrie kann als Synonym betrachtet werden für die Gesamtheit fast aller existierenden statistischen Methoden. 

Dies äussert sich auch durch die Namensgebung des bislang grössten statistischen Tabellenwerkes: Biometrika Tables

Ein historischer Grund liegt wahrscheinlich darin, dass der bekannteste neuzeitliche Statistiker, Ronald Fisher, seine statistischen Methoden im Landwirtschaftsumfeld entwickelte. 

Der sachliche Grund dürfte darin liegen, dass in der Messung und Auswertung von Merkmalen lebender Objekte fast alle Kategorien statistischer Methoden Anwendung finden. 

 

Neuerdings wird unter Biometrie auch etwas Anderes verstanden:

Die Identifikation von einzelnen Menschen anhand biometrischer Daten (Fingerabdruck,....)

20.08.2005


Biometrika Tables 

Tabellenwerk mit Prüfgrössen (Schwellenwerten) sämtlicher in der Biometrie verwendeter statistischer Tests. 

Selbst im Computerzeitalter sind Tabellenwerke in Papierform insbesondere bei nichtparametrischen Tests noch gebräuchlich, da 

  • es hunderte von Tests gibt, die in kaum einer Statistiksoftware enthalten sind, 

  • Signifikanzberechnungen oft nicht analytisch durchführbar sind -->Simulation, Randomisierungstest.

20.08.2005


Biseriale Korrelation 

Beschreibt einen Zusammenhang von zwei metrischen und jeweils normalverteilten Variablen. Dabei ist eine der beiden Variable künstlich dichotomisiert ( = in zwei Kategorien aufgeteilt) worden. 

Siehe Korrelationskoeffizient

Siehe auch Tabelle Korrelationskoeffizienten

20.08.2005


Biseriale Rangkorrelation

Siehe Korrelationskoeffizient.                       

20.08.2005


Black Belt

Siehe Six Sigma.

20.08.2005


Blindstudie 

Umgangssprachliche Bezeichnung für Blindexperiment

Beispiel Medizin:

Der verabreichende Arzt weiss zwar, ob es sich bei den jeweiligen Verabreichungen um Placebo oder Verum handelt, der Patient jedoch nicht. Blindstudien werden den Doppelblindstudien vorgezogen, wenn ethische Bedenken vorliegen oder (psychologische) Einflüsse durch den Arzt ausgeschlossen werden können. 

Siehe auch Doppelblind Studie und Offene Studie

Siehe auch Studie.

20.08.2005


Blockdiagramm 

Siehe Zuverlässigkeits-Blockdiagramm

20.08.2005


Blocking, Blockbildung

Erweiterung der Paarung (Parallelisierung) auf mehr als 2 Gruppen oder Stichproben.

Wirksames Mittel zur Erlangung von Strukturgleichheit

Blockbildung ist (noch vor Randomisierung) das Hauptwerkzeug beim Aufbau experimenteller Versuchsaufbauten oder -pläne.

Blockbildung ist ein "gezieltes, nicht dem Zufall überlassenes (=Randomisierung) Mischen" der am Test beteiligten Individuen.

Das Mischen erfolgt also nicht zufällig, sondern es wird geplant maximale Durchmischung realisiert.

Blockbildung setzt also eine gewisse Kenntnis der störenden Variablen der beim Test beteiligten Individuen voraus.

Während in den Sozialwissenschaften die Zusammensetzung der Individuen in Gruppen oft vorgegeben ist (z.B. Schulklassen), kann in der Industrie Blockbildung sehr oft realisiert werden. 

Daher der Spruch "Block what you can, randomize what you cannot"

 

Siehe auch DoE.

09.09.2005


Blockvarianzanalyse 

= Varianzanalyse mit Messwiederholung

 Verallgemeinerung des t-Tests für verbundene Stichproben, wenn die Anzahl der Stichproben grösser als 2 ist. 

Bei ANOVA mit Messwiederholung ist ein Faktor die Zeitachse, die Messzeitpunkte sind die Faktorstufen. 

Beispielsweise durchlaufen die selben Versuchspersonen mehrere Faktorstufen.

Man hat also verbundene Stichproben, wodurch die Anzahl Freiheitsgrade reduziert wird.

 

Zusätzlich zu den unter ANOVA genannten Voraussetzungen gelten bei Messwiederholung noch Folgende:

20.08.2005


Bonferroni Ansatz 

Anpassung des Signifikanzniveaus bei multiplem Testen

Testete man ohne Korrektur m Hypothesen, oder die selbe Hypothese an m Stichproben, so würde man bei gegebenem Alpha Risiko mit der folgenden Wahrscheinlichkeit rein zufällig wenigstens ein signifikantes Ergebnis erhalten: 

, was für grosse m gegen 1 konvergiert. (Alpha Inflation)

 

Vertiefung

20.08.2005


Bonferroni Ungleichung 

Siehe Wahrscheinlichkeit, wichtige Sätze 2.

27.11.2005


Boole'sche Algebra

Methodik zur mathematischen Abstrahierung aussagelogischer Probleme

Mit den Operatoren (UND, ODER , NICHT,...), sowie 2 Zuständen (0 und 1, bzw. wahr und falsch)

kann man jegliches logische Problem formal erfassen. 

Abgesehen von der Mathematik findet Boolesche Algebra vor allem in der Elektrotechnik 

Anwendung bei der Beschreibung und Vereinfachung logischer (digitaler) Schaltungen.

Siehe auch De Morgan'sche Regeln und Venn Diagramm. 

Siehe auch Karnaugh Veitch Diagramm

14.03.2006


Boole'sche Ungleichung

Siehe Wahrscheinlichkeit, wichtige Sätze 2. 

27.11.2005


Bootstrap

Siehe Resampling

20.08.2005


Bowker's Symmetrietest.  

Erweiterung des McNemar Testes auf mehr als 2 Stufen.  

 

Vertiefung 

21.08.2005


Box-Behnken Design 

Siehe DoE.

21.08.2005


Box Cox Transformation 

Eine Transformation der Form:

 

l ist ein Parameter zur Anpassung an die jeweilige Problemstellung. 

Für X sind die Werte der ursprünglichen Werteskala einzusetzen. 

Zunächst eine Visualisierung der Transformation für verschiedene l

 

Rote Kurve (l=3)

Der ursprüngliche Wertebereich von X (0...+3) wird auf den neuen Wertebereich (-0,3...+8,5) abgebildet. 

Der Wertebereich wird also links gestaucht und rechts gestreckt. 

 

Blaue Kurve (l=0)

Der ursprüngliche Wertebereich von X (0...+3) wird auf den neuen Wertebereich (-00...+1) abgebildet. 

Der Wertebereich wird also rechts gestaucht und links gestreckt. 

Anmerkung: Für den Fall l=0 ist mit dem Ausdruck ln(X) zu rechnen.  

 

Man erkennt anhand der beiden Beispiele, dass die Box-Cox Transformation mittels geeigneter Wahl sowohl linkssteile als auch rechtssteile Verteilungsfunktionen "gerade richten" kann. 

Insbesondere wird die Box-Cox Transformation oft eingesetzt, um schiefe Verteilungsfunktionen in normalverteilungsähnliche Verteilungsfunktionen zu überführen (damit man im Folgenden normalverteilungsbasierte statistische Methoden anwenden kann). 

17.06.2006


Box-Jenkins Modell

Im Wesentlichen der AR(I)MA-Ansatz bei Zeitreihenanalysen

  •     Das "I" steht in Klammern, weil das Box Jenkins Modell eigentlich Stationarität voraussetzt 

        (der "I"-Anteil also entfällt; siehe dazu ARIMA).

"Box-Jenkins" wird deshalb oft synonym für "AR(I)MA" verwendet.

Obwohl es die AR(I)MA Methodik schon vor Box &Jenkins gab, waren sie es, die diese Methodik zusammen mit mathematisch "geschickten" Algorithmen bekannt gemacht haben. 

Die Box-Jenkins Methode besteht also aus dem AR(I)MA Modell plus einer spezifischen mathematischen Herangehensweise.

03.11.2005


Boxplot 

Graphische Darstellung zur Charakterisierung der Verteilungsdichtefunktion   stetiger Merkmale

Der Bereich, welcher die mittleren beiden Viertel aller Werte enthält, wird als Kasten

(engl.: box) dargestellt, von dem aus Linien bis zum Minimum bzw. Maximum gezogen werden. 

Im Kasten wird der Median noch durch eine horizontale Linie gekennzeichnet. 

Optional kann noch die Lage des Mittelwerts gekennzeichnet werden z.B. durch einen Punkt.

 

Diese Darstellungsart ist besonders im angelsächsischen Raum sehr verbreitet. 

12.03.2006


Box'scher M-Test 

Siehe M-Test.

22.01.2006


Box-Wilson Design, Augmented 2k Design 

Siehe DoE

21.08.2005


Braess'sches Paradoxon

"Mehr Stau durch zusätzliche Strassen"  

 

Vertiefung

13.10.2005


Breit-Wigner Verteilung

= Cauchy Verteilung

14.11.2005


Brown-Forsythe Test

= Levene Test in der Version "Median". 

Siehe Levene Test

10.04.2006


Burn In

Betrachtet man das Ausfallverhalten einer Population zu Beginn, dann stellt man häufig fest, dass die Ausfallrate sich von einem anfänglich grossen Wert allmählich auf einen kleineren Wert einpendelt. 

Diese Frühausfälle passieren aufgrund innewohnender Schwachstellen. 

Beim Burn In werden die Systeme eine gewisse Zeit lang mit einem definierten (Temperatur-) Stress beaufschlagt mit dem Ziel, dass sich diese Schwachstellen vor der eigentlichen Nutzungszeit offenbaren und diese Individuen somit aussortiert werden können. 

Man "überbrückt" also die erste Phase der Badewannenkurve, sodass der Endverbraucher gleich in den Genuss der nutzbaren Produktlebensphase kommt.

Vereinfacht kann man sagen:

  • Burn In deckt nur diejenigen Individuen auf, die von Anfang an versteckte Mängel enthalten,

  • einwandfreie Individuen überstehen den Burn In schadlos. 

21.08.2005


 

 

C


 

Cauchy-Schwartz'sche Ungleichung

Siehe Kovarianz.

21.08.2005


CART 

Algorithmus zur automatischen Generierung übersichtlicher und kompakter Entscheidungsbäume

Siehe CHAID.

Im Gegensatz zu CHAID besteht bei CART viel mehr Einflussnahme seitens des Benutzers bei den Regeln an den Knotenpunkten. 

Die Selektionsreihenfolge der Entscheidungen erfolgt nach dem Kriterium "Maximaler Einfluss oder Relevanz auf die Zielvariable", und kann demzufolge vom Benutzer beeinflusst werden, beispielsweise durch Überlagerung mit einer Kostenmatrix. 

Besonders im Bereich klinischer Versuche sehr verbreitet, da weniger automatisch (->realitätsnaher) und verständlicher als CHAID. 

21.08.2005


Cauchyverteilung

Spezialfall der t-Verteilung bei 1 Freiheitsgrad.

Die Cauchyverteilung besitzt weder Mittelwert (dieser geht mit wachsender Stichprobengrösse gegen unendlich) noch Varianz.

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

21.08.2005


Center Point 

Siehe DoE.

21.08.2005


CFR

"Constant Failure Rate"

= konstante Ausfallrate

Siehe Exponentialverteilung und MTBF

21.08.2005


CHAID 

CHi-square Automatic Interaction Detector. 

Algorithmus zur automatischen Generierung übersichtlicher und kompakter Entscheidungsbäume

Mittels Chi Quadrat Tests (bei kategorialen unabhängigen Variablen -->Klassifikationsbäume ) bzw. F Tests (bei metrischen unabhängigen Variablen --> Regressionsbäume) kommen diejenigen Entscheidungszweige, bei denen der Einfluss auf die abhängigen Variablen am grössten ist, an früherer Stelle des Baumes zu liegen. Erst an tieferer Stelle folgen die "unwichtigeren" Entscheidungszweige. 

Es wird immer derjenige Entscheidungszweig als Nächstes angehängt, dessen Chi Quadrat- bzw. F Wert am grössten ist, dessen Klassenunterschiede bezüglich der unabhängigen Variable also am grössten sind.

Siehe auch CART

21.08.2005


Chancenverhältnis 

Siehe Odds Ratio.

21.08.2005


Charakteristische Funktion

Fouriertransformierte einer Wahrscheinlichkeitsverteilung.

Rechenhilfe zur einfachen Berechnung der Momente einer Verteilungs(Dichte-)Funktion. 

Hierzu gebräuchlich ist auch die momentenerzeugende Funktion. 

 

Vertiefung

21.08.2005


Charakteristische Lebensdauer

= Mittlere Lebensdauer.

Speziell in der Weibullverteilung die Bezeichnung für die Lebensdauer h.

21.08.2005


Chernoff Ungleichung

Sehr Konservative Näherungsgleichung für die Wahrscheinlichkeit, mit der die Anzahl erwünschter Ereignisse eines wiederholten Bernoulli-Experiments vom theoretischen Erwartungswert abweicht. -> Also eine Näherung für die Anzahl erwünschter Ereignisse bei Binomialverteilung.

Eine alternative Näherungsmethode ist die Poissonverteilung. Eine graphische Methode ist das Larson Nomogramm.

Während die Poissonverteilung grosse Anzahlen Ereignisse n bei gleichzeitig kleinen Einzelwahrscheinlichkeiten p, zusätzlich n*p>9 fordert, verlangt die Chernoff Ungleichung lediglich grosse Anzahlen Ereignisse n und ist dabei noch einfacher zu berechnen.

Allerdings liefert die Chernoff Ungleichung lediglich eine obere Schranke.

In der Informationstheorie oft angewendete Ungleichung.

 

Vertiefung 

 

Siehe auch Hoeffding Ungleichung.

21.09.2005


Chi Quadrat Anpassungstest 

Siehe Chi Quadrat Test

Diese Testversion unterscheidet sich vom Chi Quadrat Unabhängigkeitstest rechnerisch gesehen nicht. 

Der Name beschreibt lediglich die Art der Testanwendung. 

Eine Verteilungsfunktion wird in Klassen zerlegt und über die Klassen ein Unabhängigkeitstest durchgeführt. 

21.08.2005


Chi Quadrat Unabhängigkeitstest 

Universelle Testkategorie auf nominalem, höchstens jedoch ordinalem Skalenniveau, bei der die Chi Quadrat Verteilung zum Einsatz kommt. 

Asymptotisches Pendant zum Binomial- und Polynomialtest.

Der Vierfeldertafel-Test ist eine spezielle Form davon.

Der Chi Quadrat Test untersucht Häufigkeitsdaten verschiedener Klassen auf signifikanten Unterschied, das heisst, ob die Besetzungszahlen von Klassen signifikant von ihren jeweiligen Erwartungswerten abweichen. 

 

Vertiefung

 

Eine kurze anschauliche Einführung in die Funktionsweise des Chi Quadrat Tests befindet sich hier.

27.08.2005


Chi Quadrat Test 

= Chi Quadrat Unabhängigkeitstest

21.08.2005


Chi Quadrat Verfahren

Sammelbegriff für alle Verfahren, die auf die Chi Quadrat Verteilung zurückgreifen, deren Prüfgrössen also Chi Quadrat verteilt sind..

Dies betrifft hauptsächlich Verfahren für Nominaldaten (Häufigkeitsverteilungen).

16.09.2005


Chi Quadrat Verteilung 

Wichtigste parametrische Verteilungsfunktion in der Statistik. Ein Freiheitsgrad (Parameter). 

Zieht man aus einer standardisierten Normalverteilung (Mittelwert=0 und s=1) f Werte, quadriert diese, summiert auf und teilt durch f , dann ist dieses Ergebnis Chi Quadrat verteilt.

Die Chi Quadrat Verteilung ist also nichts Anderes als die Varianz von Stichproben, die aus einer standardnormalverteilten Grundgesamtheit gezogenen wurden: 

Anmerkung: In mancher Literatur wird unter der X2 Verteilung die Quadratesumme verstanden, ohne durch die Anzahl Freiheitsgrade, f, zu teilen. In diesem Glossar wird dies leider nicht einheitlich gehandhabt.

Verallgemeinert auf nicht-standardisierte Normalverteilungen kann man dies wie folgt darstellen: 

f: Anzahl Werte (Freiheitsgrade) , s2: Varianz der Stichprobe, s2: Varianz der Grundgesamtheit.

Anwendung: 

Die Chi Quadrat Verteilung lässt sich mit einer entsprechend skalierten Gammaverteilung geschlossen darstellen

(b = 2 und k = n/2):

               

n/2: Anzahl Freiheitsgrade, b=2: Skalierung.

F: Verteilungsfunktion  Nur für geradzahliges n geschlossen darstellbar.

f: Dichtefunktion  

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
n 2n 3+12/n n-2        (n>1)    

 

Für n=2 wird die Chi Quadrat Verteilung zu einer speziellen Exponentialverteilung mit l = 0,5.

 

Für eine zusammenhängende Darstellung der Beziehungen Chi Quadrat Verteilung - t-Verteilung - F-Verteilung - Normalverteilung siehe hier.

 

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

Für eine graphische Darstellung der Chi Quadrat-Verteilung siehe das Arbeitsblatt "Gamma_Chi^2" in dieser Exceldatei.

13.09.2005


Chow Test   

Test auf Strukturbruch eines Datenmaterials hinsichtlich (multipler) linearer Regression.

Der Strukturbruch in diesem Sinne "entsteht" erst dann, wenn man das Datenmaterial an eine Gerade annähert.

Oft handelt es sich um Zeitreihen.

 

Funktionsweise:

1. Man berechnet zuerst ein Regressionsmodell über den gesamten Datensatz.

2. Dann teilt man den Datensatz an genau derjenigen Stelle in 2 Unterdatensätze auf, an der man einen Strukturbruch vermutet.

Im zweidimensionalen Fall (lineare Einfachregression) würde man einen Strukturbruch vermuten, wenn man für die Punktewolke des gesamten Datensatzes mit 2 verschiedenen Näherungsgeraden ein deutlich besseres Regressionsmodell erwartete als mit nur einer Geraden.

Das adjustierte Bestimmtheitsmass sollte beim Übergang von einer auf 2 Geraden nicht kleiner werden.

3. Für die beiden Unterdatensätze berechnet man getrennte Regressionsmodelle.

4. Für das ursprüngliche Regressionsmodell und die beiden getrennten Regressionsmodelle berechnet man jeweils die Varianz der Residuen.

5. Die Varianzen der Residuen der getrennten Modelle und die Varianz der Residuen des ursprünglichen Modells werden einem gewöhnlichen F-Test unterworfen.

Die Prüfgrösse lautet:

Es bedeuten:

Vargesamt = Varianz der Residuen des gesamten Modells,

Var1 und Var2 die Varianzen der Residuen der getrennten Modelle,

n = Anzahl Datenpunkte,

k = Dimensionalität des Regressionsmodells (Für lineare Einfachregression ist k=2, da 2 Parameter notwendig sind: Steigung und Achsenabschnitt) 

n-2k und k sind die beiden Anzahlen Freiheitsgrade der Prüfgrösse.

 

27.11.2005


Clopper-Pearson Nomogramm 

Graphisches Hilfsmittel zur Bestimmung des Vertrauensbereiches der relativen Häufigkeit P in einer binomialverteilten Grundgesamtheit

Das leistet das Larson Nomogramm zwar auch, nur etwas "umständlicher". 

(Dafür ist das Larson Nomogramm aber vielseitiger einsetzbar) 

 

Vertiefung

29.01.2006


Clusteranalyse 

Datenreduktionsverfahren, um Zusammenhänge überschaubarer zu machen. 

Im Gegensatz zur Diskriminanzanalyse ein Strukturen-entdeckendes Verfahren.

Zur Kategorie der Explorativen Datenanalyse gehörendes Verfahren. 

Im Gegensatz zur Faktorenanalyse werden Fälle, Individuen oder Objekte gruppiert, nicht die Merkmale oder Variablen.

 

Die Merkmale der Objekte spannen einen vieldimensionalen Raum auf, in dem sich die Objekte befinden. 

Gesucht wird nun nach Clustern, also nach Gruppen von Objekten, die in sich näher beieinander liegen als andere Objekte. 

So genannte Distanzmasse beschreiben den Abstand von Objekten oder Clustern untereinander.  

Skalenniveau: Kontinuierlich

 

Vertiefung

 

17.06.2006


CNET 93 

Französischer Zuverlässigkeits-Berechnungsstandard für elektronische Systeme. Dem Mil217 ähnlich.

Bezüglich der Qualitätsstufen besteht jedoch weit mehr Ähnlichkeit zu Telcordia.

21.08.2005


Cochran Test, Q Test

Ein parameterfreies Testverfahren, mit dem festgestellt werden soll, ob zwei oder mehr abhängige Stichproben signifikant im Anteil der Fälle in jeder von zwei Kategorien differieren.

Erweiterung des Mc Nemar Tests auf mehr als 2 Zeitpunkte UND dichotomer unabhängiger Variable

Nominales, dichotomes Skalenniveau

 

Die Prüfgrösse ist Chi Quadrat verteilt mit f= (m-1) Freiheitsgraden, wobei m die Anzahl der Messzeitpunkte ist.

 

 

m: Anzahl Messzeitpunkte 

Tj: Anzahl Messobjekte, die beim Zeitpunkt j das Merkmal aufweisen (Spaltensumme)

N: Anzahl aller Testobjekte 

Li: Anzahl Messzeitpunkte, an denen das Testobjekt i das Merkmal aufweisst (Zeilensumme)

 

Beispiel: Wirkung eines Werbespots auf Testpersonen nach wiederholten Sendungen

 

1.) Originaldaten: 

+ = Zuneigung, - = Ablehnung

Testperson Nr. Zuneigung / Ablehnung nach Wiederholung des Werbespots Es hat den Anschein, dass der Spot nach mehrmaliger Wiederholung eher angenommen wird.
1 2 3 4 5
1 - - - + +
2 + - - + -
3 - + + + +
4 + + - - -
5 + - - + +
6 - - - - +
7 - + - + +

 

2.) Berechnung der Prüfgrösse.

 

Zeilensummen Li (Anzahl "+"):         2,2,4,2,3,1,3 

Spaltensummen Tj (Anzahl "+"):      3,3,1,5,5  

Anzahl Freiheitsgrade:  f =5-1 = 4

 

Q=

 

--> das Alpha Risiko beträgt 20.7 % bzw. das Signifikanzniveau 79.3%. 

Das Signifikanzniveau wurde mit der Excelfunktion [1-CHIVERT(Q,f)] berechnet.

 

Die Nullhypothese kann also zum Alpha Risiko von 90% nicht verworfen werden.

 

Anmerkung zu diesem Beispiel: 

Wäre das Datenmaterial so beschaffen, dass man die Nullhypothese z.B. zum Alpha Risiko von 90% verwerfen müsste, dann könnte man daraus nicht schliessen, dass der Werbespot einen positiven Trend im Zuschauerverhalten bewirkt. Es könnte auch beispielsweise sein, dass der Spot zuerst erfolgreich ist, dann dessen Wirkung jedoch ins Gegenteil umschlägt.

Der Q-Test prüft ja nur die Homogenität der Zeilen und Spalten, und nicht etwa einen Trend.

 

Für eine Berechnung des Chi Quadrat Tests in Excel siehe das Tabellenblatt "Chi vert" dieser Exceldatei.

21.08.2005


Cohen's Kappa 

Masszahl der Urteileübereinstimmung bei 2 Beurteilern. 

Für mehr als 2 Beurteiler siehe Fleiss' Kappa.

Anwendbar bei Nominalem Skalenniveau.  

 

Vertiefung

21.08.2005


Cohen's weighted Kappa 

Mass der Urteileübereinstimmung bei 2 Beurteilern.

Bei Cohen's Kappa wird lediglich gefragt, ob Urteile übereinstimmen oder nicht. 

Nun kann es jedoch sein, dass Nicht-Übereinstimmungen in Urteilen sehr unterschiedliche Folgen haben können. 

Wenn beispielsweise für ein Symptom 3 Krankheiten in Frage kommen, 2 davon seien harmlos, die dritte verlaufe schwerwiegend, dann ist es relativ unbedeutend, ob ein Beurteiler auf Krankheit 1 und der andere auf Krankheit 2 tippt. 

Bedeutsam wird es erst, wenn ein Beurteiler auf die schwerwiegende Krankheit und der andere auf eine der beiden harmlosen Krankheiten tippt. 

 

Dieser Problematik wird dadurch Rechnung getragen, dass man sich im Vorfeld für jede denkbare Urteilspaarung (bei 2 Beurteilern) auf entsprechende Gewichtungsfaktoren gij einigt. Diese Faktoren gij müssen sachlich begründet sein. 

 

Vertiefung

21.08.2005


Conjoint Analyse  

In der Marktforschung verbreitete Bezeichnung. 

Im Prinzip DoE auf ordinalem Skalenniveau im Bereich Marketing.

Bei einer Conjoint Analyse sind beispielsweise Produkteigenschaften und Kundenwünsche die Faktoren

Zielvariable ist die Kaufwahrscheinlichkeit.

Im Gegensatz zur multidimensionalen Skalierung hat der Anwender bereits eine grobe Vorstellung über mögliche Beziehungszusammenhänge des Datenmaterials.

 

Anmerkung:

Bei DoE muss man ja auch eine mehr als grobe Vorstellung von den Beziehungszusammenhängen haben, sonst bringt die Methode nichts.

21.08.2005


Cox Regression

Regression unter folgender Modellgleichung:

h(t): Ausfall- oder Hazardrate, l und b: Modellparameter

 

Cox Regression nähert also mit einer e-Funktion, während lineare Regression mit einer Geraden nähert.

Cox Regression wird hier nicht behandelt, da zum Verständnis für Regression die lineare Regression hinreichend ist.

21.08.2005


cp-Wert 

Weniger wichtige Kenngrösse zur Beschreibung der Fähigkeit von Prozessen. 

Enthält nur Information bezüglich der Streubreite, sagt jedoch nichts über die Lage aus. 

Viel wichtiger ist der cpk Wert

Cp=(Obere Toleranzgrenze - Untere Toleranzgrenze)/(6*sigma)

21.08.2005


cpk-Wert

Wichtigste Kenngrösse zur Beschreibung der Fähigkeit von Prozessen. 

Enthält Information sowohl über Streubreite als auch relative Lage bezüglich der Toleranzgrenze(n).

Ein einzelner cpk Wert bezieht sich immer auf ein einzelnes Mass.

 cpk Werte geben Aufschluss darüber, ob SPC anwendbar ist oder nicht. 

 

cpk Werte lassen sich nur ungefähr in Ausschussanteile umrechnen, da 

  • nicht immer eine Normalverteilung der Messwerte vorliegt, 

  • Die Verteilungsfunktion der Messwerte nicht immer genau in der Mitte der Toleranzgrenzen liegt, 

  • Oft nur eine einzige Toleranzgrenze, oder gar ein natürlich begrenztes (z.B. nullbegrenztes) Merkmal vorliegt. 

Gängige Werte, ab denen man von Prozessfähigkeit spricht, sind 1,33 und 1,67. 

Diese Werte entsprechen 8 bzw. 10 Sigma zwischen den Toleranzgrenzen.

Der cpk Wert ist definiert als der Abstand des Mittelwertes zur näher gelegenen Toleranzgrenze (OT bzw. UT), ausgedrückt in Einheiten von Sigma, dividiert durch 3*Sigma, also der kleinere der beiden folgenden Werte:

, 

 

 

Anzahl s bis zu den Toleranzgrenzen cpk-Wert Ungefährer Anteil Ausschuss
in % in ppm
1 0,33 32% 320000
2 0,67 4,6% 46000
3 1,00 0,27% 2700
4 1,33 0,0063% 63
5 1,67 0,000057% 0,57
6 2,00 0,0000002% 0,002

 

Der Vertrauensbereich eines aufgrund einer Stichprobe geschätzten) cpk Wertes berechnet sich zu 

Diese Formel gibt die untere (minus) Vertrauensgrenze wieder. 

In der Regel ist man ja daran interessiert, welchen Wert der wahre cpk Wert mit einer gegebenen Wahrscheinlichkeit nicht unterschreitet.

Z: Standardnormalverteilung 

a: Signifikanzniveau

n: Umfang der Stichprobe 

cpkpunkt: Punktschätzung, = Ergebnis der cpk Ermittlung. 

cpkintervall: untere Grenze des "wahren" (aber unbekannten) cpk Wertes zur Wahrscheinlichkeit (1-a).

 

Für die Berechnung von Cpk-Werten in Excel siehe Tabellenblatt "cpk" hier.

21.08.2005


Craddock-Flood Chi Quadrat Test

Modifizierter, approximierter Chi Quadrat Test für schwach besetzte Kontingenztafeln mit maximal 5x5 Feldern.

Voraussetzung ist, dass alle Häufigkeiten grösser als 1 sind.

(Beim "normalen" Chi Quadrat Test müssen 80% der Besetzungszahlen >5 sein)

Sehr rechenintensiver Test.

21.08.2005


Cramers Index

Zusammenhangsmass auf nominalem Skalenniveau. Oft mit CI oder V bezeichnet. 

Erweiterung des Phi Kontingenzkoeffizienten auf k*m Feldertafeln. 

  

k: der kleinere Wert der Anzahl der Zeilen oder der Spalten. 

n: Anzahl Einzelwerte. Wertebereich des CI: = [0....1]

 

Siehe Kontingenzkoeffizient und Tabelle Korrelationskoeffizienten.  

21.08.2005


Critical Ratio

Prüfgrösse im Log-Linearen Modell.

21.08.2005


Cross-over-Design 

In der klinischen Forschung Bezeichnung für ein Versuchsdesign, bei dem die Teilnehmer in zeitlicher Reihenfolge sowohl an der Placebo- als auch der Verumsgruppe teilnehmen.  

Dieses Design ist bei sehr grossen individuellen Streuungen (grosse Streuung innerhalb der Gruppen, siehe Varianzkomponentenzerlegung) sinnvoll, weil damit die Stichproben kleiner ausfallen können. 

Getestet wird schliesslich mit einem Paarvergleichstest, da es sich ja um gepaarte Stichproben handelt. 

 

Bei Crossover Designs ist folgendes zu beachten: 

  • Man halbiert die Stichprobe und testet die eine Hälfte zuerst mit dem Placebo, danach mit dem Verum. 

    Die andere Hälfte bekommt zuerst das Verum und dann das Placebo. 

    Der Sinn dieses Vorgehens liegt darin, Wirkungen auszuschliessen, die durch die blosse Reihenfolge Verum-Placebo bzw. umgekehrt entstehen. 

  • Die Wirkung des Verums muss zu Beginn der Placebotestphase auf Null abgesunken sein. 

    Dieser Punkt ist schwierig nachzuprüfen und oft Schwachstelle.  

Der bisher geschilderte Versuchsablauf kann wie folgt dargestellt werden: 

A->B

B->A, wobei A und B Placebo oder Verum darstellen. 

 

Die Erweiterung auf 3 Behandlungsweisen (Placebo + 2 unterschiedliche Vera) könnte so aussehen: 

A->B->C

B->C->A

C->A->B 

Dies lässt sich sinngemäss auf mehr als 3 Behandlungsweisen erweitern, wobei die Reihenfolgen nicht mehr so trivial sind. Siehe hierzu auch Lateinisches Quadrat

 

Siehe auch offene Studie.

13.08.2006


Crow-AMSAA Modell 

Siehe AMSAA Modell 

17.06.2006


 

D

 


Data Mining 

Siehe Explorative_Datenanalyse

21.08.2005


Datenerhebung

= Ziehen einer Stichprobe

Meist wird dieser Begriff bei umfangreichen Versuchen verwendet, wo es um viele und/oder komplexe Stichproben geht. 

14.11.2005


Datenreduzierende Verfahren

Statistische Verfahren mit dem Ziel, die Ausgangsdatenmenge ohne wesentlichen Verlust an Information zu reduzieren.

 

Clusteranalyse: Auffinden von Gruppierungen in höherdimensionalen Räumen. Die Dimensionalität bleibt erhalten.

Faktoranalyse: Reduktion der Dimensionalität.

Partial Least Squares: Reduktion der Dimensionalität.

 

Siehe auch strukturenentdeckende Verfahren.

21.08.2005


David, Hartley und Pearson Test 

Test auf Ausreisser innerhalb einer Messreihe. 

Prüfgrösse ist der Quotient aus Spannweite und Standardabweichung der Messreihe, also (xmax-xmin)/s.

Es wird Normalverteilung vorausgesetzt.

Kritische Werte liegen für mehrere Signifikanzniveaus tabelliert in Spezialwerken vor.

21.08.2005


David Test

Anpassungstest auf Normalverteilung einer Stichprobe.

Dieser Test ist ein Schnelltest.

Die Prüfgrösse ist einfach die Spannweite dividiert durch die Standardabweichung.

Liegt die Prüfgrösse innerhalb zweier Schwellenwerte, dann kann zu gegebenem Signifikanzniveau von einer Normalverteilung ausgegangen werden.

Diese Exceltabelle enthält die Schwellenwerte zum Signifikanzniveau 95%:

21.08.2005


Dean und Dixon Test

Test auf Ausreisser für kleine Stichproben auf einer mindestens intervallskalierten, normalverteilten Messreihe.  

Prüfgrösse ist , wobei x1 derjenige Wert ist, der als Ausreisser verdächtigt wird.

Die Bedeutung von x2 und xn variiert mit n und wird unten in einer der folgenden Tabellen erläutert.

Die Indizierung von 1 bis n kann nach aufsteigenden oder fallenden x-Werten erfolgen, je nachdem, ob man den kleinsten oder den grössten Wert als Ausreisser verdächtigt.

Besondere Verteilungsfunktions-Annahmen werden nicht gemacht.

Kritische Werte zum Signifikanzniveau (1-a) in Abhängigkeit von der Grösse n der Stichprobe entnimmt man folgender Tabelle.

Ist die Prüfgrösse grösser als der kritische Wert, dann ist der Test signifikant.

  Stichprobengrösse n
3 4 5 6 7 8 9 10 11 12 13

Signifikanz

niveau

[%]

90 0,89 0,68 0,56 0,48 0,43 - - - - - -
95 0,941 0,765 0,642 0,560 0,507 0,554 0,512 0,477 0,576 0,546 0,521
99 0,99 0,89 0,76 0,70 0,64 - - - - - -
  Stichprobengrösse n
14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29

Signifikanz

niveau

[%]

95 0,546 0,525 0,507 0,490 0,475 0,462 0,450 0,440 0,430 0,421 0,413 0,406 0,399 0,393 0,387 0,381
Stichprobengrösse n

Bedeutung von

x2

Bedeutung von

xn

3 bis 7 Der dem Ausreisser nächste Wert Der dem Ausreisser entfernteste Wert
8 bis 10 Der dem Ausreisser zweit-entfernteste Wert
11 bis 13 Der dem Ausreisser zweit-nächste Wert
14 bis 29 Der dem Ausreisser dritt-entfernteste Wert

21.08.2005


Deduktiv

"Gegenteil" von Induktiv

Vom Allgemeinen zum Besonderen.

Gewinnung von speziellen Erkenntnissen aus einer allgemeineren Theorie. 

In der Mathematik sehr verbreitet. 

21.08.2005


Delta Option 

Bei Vierfelder Chi Quadrat Tests

Wenn eine der 4 Besetzungszahlen = 0 ist, addiert man zu allen Besetzungen den Wert 0,5 hinzu und verfährt anschliessend wie beim normalen Vierfelder Chi Quadrat Test. 

  21.08.2005


De Morgan'sche Regeln 

zwei wichtige Umformregeln im Bereich der Boole'schen Algebra

Nicht(A UND B) = Nicht A ODER Nicht B
Nicht(A ODER B) = Nicht A UND Nicht B

Diese beiden Regeln lassen sich leicht mittels entsprechender Venn Diagramme veranschaulichen. 

Siehe auch Karnaugh Veitch Diagramm

14.03.2006


Derating  

Begrenzung von Belastungen auf Werte unterhalb der Spezifikation, Herabsetzen von Belastungen mit dem Ziel der Erhöhung der Zuverlässigkeit.

Die Belastung kann mechanischer, elektrischer oder thermischer Natur sein, ebenso Feuchte, Strahlung,.... .

Die Herabsetzung der höchstzulässigen Belastung (oder Verwendung eines höherbelastbaren Elementes für die selbe Funktion) führt in der Regel zu höherer Zuverlässigkeit und höherer Lebensdauer, da der Überlappungsbereich der beiden Kurven "Belastung und Belastbarkeit" (stress-strength) kleiner wird, die höchstzulässige Belastung also unwahrscheinlicher eintritt.   

 

Während in manchen Branchen Derating (vor allem Elektronik) als Instrument zur Erhöhung der Zuverlässigkeit schon seit Jahrzehnten mit entsprechenden Richtlinien angewendet wird, kommt es in anderen Branchen wiederum überhaupt nicht zum Einsatz.  

21.08.2005


Design of Experiments

Siehe DoE.

21.08.2005


Deskriptive Statistik 

Beschreibende Statistik. Gegensatz zu Induktive Statistik.

Beschäftigt sich mit vollständigen Populationen, Grundgesamtheiten, nicht mit Stichproben

Es werden keine Schlüsse in "nach Unbekannt", also von Stichproben auf Grundgesamtheiten gezogen.

Demnach sind Aussagen der deskriptiven Statistik mit keinem Fehler behaftet, also "absolut" richtig. 

Wesenszüge der deskriptiven Statistik sind Tabellen, Graphiken, einzelne Kennwerte, oder andere Methoden, die den Informationsgehalt des Datenmaterials übersichtlich darstellen.

08.09.2005


Determinante

In der Regel schwierig zu berechnende Kenngrösse einer Matrix. Ist die Determinante von Null verschieden, dann hat das zugehörige lineare Gleichungssystem eine eindeutige Lösung. Falls Det = 0, dann hat das zugehörige lineare Gleichungssystem entweder keine oder mehrere Lösungen.

 

Eine kurze Einführung in Matrizenrechnung und Determinanten findet man in der Rubrik Multiple lineare Regression.

21.08.2005


Determinationskoeffizient

= Bestimmtheitsmass.

21.08.2005


Determinismus  

Gegenteil von Zufall.

Das "Vorherbestimmt-Sein".

Ein einzelner Vorgang ist deterministisch, wenn dessen zukünftiges Verhalten exakt vorhergesagt werden kann.

Exakt bedeutet hier, dass man nicht auf wahrscheinlichkeitstheoretische Begriffe zurückgreifen muss, das vollständige Ergebnis also nicht mit einem Vertrauensintervall behaftet, sondern exakt ist. 

21.08.2005


d'Hont Verfahren

Verfahren, um eine relative Häufigkeitsverteilung möglichst "gerecht" in eine absolute Häufigkeitsverteilung umzuwandeln, wenn die absolute Gesamthäufigkeit vorgegeben ist.

In der Praxis bekannt ist dieses Verfahren wegen der Ermittlung der Sitzverteilung eines Parlaments aufgrund eines Wahlergebnisses. Inzwischen durch das Hare Niemeyer Verfahren abgelöst. 

 

Beispiel 

Kommunalwahl in einer kleinen Gemeinde. 3 Parteien stellen sich zur Wahl. Es sind 10 Sitze zu vergeben.

Partei Stimmen
A 203
B 119
C 34
Gesamt 356

 

Nun teilt man alle Stimmenzahlen durch 1, 2, 3, ...

Partei Stimmen Stimmen geteilt durch
1 2 3 4 5 6 7 8
A 203 203 101,5 67,7 50,8 40,6 33,8 29,0 25,4
B 119 119 59,9 39,7 29,8 23,8 19,8 17,0 14,9
C 34 34 17 11,3 8,5 6,8 5,7 4,9 4,3

 

Schliesslich werden die Sitze in der Reihenfolge der Grösse der resultierenden Zahlen den entsprechenden Parteien zugeteilt.

  grösste Zahl 2-grösste Zahl 3-grösste Zahl 4-grösste Zahl 5-grösste Zahl 6-grösste Zahl 7-grösste Zahl 8-grösste Zahl 9-grösste Zahl 10-grösste Zahl
203 119 101,5 67,7 59,9 50,8 40,6 39,7 34 33,8
Partei A B A A B A A B C A

Partei A bekommt demnach 6 Sitze, B 3, und C einen Sitz.

Man erkennt, dass die zu vergebende Sitzanzahl sich merklich auf die Sitzverteilung auswirken kann. 

Bei wenigen zu vergebenden Sitzen sind die Auswirkungen entsprechend grösser. 

Im Arbeitsblatt "d'Hont" der Exceldatei Paradoxa.xls findet man Gelegenheit, verschiedene Situationen durchzuspielen. 

Auf die Erwähnung diverser Phänomene, die zum Teil als eigenständige Paradoxa geführt werden, sowie auf diverse Ausnahmeregelungen, die bei bestimmten Konstellationen die Wirklichkeit "gerechter" widerspiegeln, sei hier verzichtet.

Siehe auch d'Hont Verfahren

 

Statistische Verfahren, die bei Wahlanalysen zum Einsatz kommen, sind beispielsweise: 

08.10.2005


Diagnostische Tests: Medizinisch bedeutsame Kennwerte

Diese Rubrik ist eine Vertiefung der Rubrik Risikoarten bei statistischen Tests .

Sie bezieht sich zwar vom Wortlaut her auf das Umfeld medizinischer Tests; die Übertragung der beschriebenen Sachverhalte auf andere Gebiete, in denen statistische Tests zur Anwendung kommen, ist jedoch einleuchtend. 

Der medizinische Bezug wurde deshalb gewählt, weil die Sachverhalte dort besonders plastisch erklärbar sind.

Siehe auch Excel Berechnungsbeispiel Prävalenz und Testergebnis. Dort sind mehrere Zahlenbeispiele enthalten.

 

Vertiefung 

 

Anmerkungen

1.) Paradoxon:

Sehr niedrige Prävalenzen führen dazu, dass selbst bei sehr hoher Testsicherheit (99,9%) von den tatsächlich Gesunden sehr viele für krank befunden werden. Diese Anzahl kann dann die Anzahl der tatsächlich Kranken um ein Vielfaches übersteigen.

Das führt dazu, dass unter allen für krank Befundenen in Wirklichkeit fast alle gesund sind.

(Wirklich Kranke werden in der Regel ziemlich sicher als Solche erkannt)

Im Excel Berechnungsbeispiel Prävalenz und Testergebnis sind mehrere erläuternde Zahlenbeispiele enthalten.

 

2.) Allgemeinarzt versus Spezialist.

Allgemeinmediziner werden auch (oder insbesondere) mit niedrigen Prävalenzen konfrontiert, da sie ja als erste Anlaufstelle versuchen, "jede nur erdenkliche Krankheit" zu erkennen.

Ein Allgemeinmediziner wird demzufolge viele gesunde Patienten für krank befinden und fälschlicherweise zu Fachärzten weiterschicken.

Jedoch wird er auch die allermeisten tatsächlich Kranken richtig diagnostizieren und richtigerweise zu Fachärzten schicken.

Ein Facharzt bekommt also fast alle tatsächlich Kranken plus einem immer noch grossen Anteil Gesunder.

Der Anteil der tatsächlich Kranken (=Prävalenz) unter den zum Facharzt geschickten Patienten ist aber durch die Vorselektion des Allgemeinarztes erheblich höher als in der Gesamtbevölkerung.

Je höher die Prävalenz, umso zuverlässiger sind die Testergebnisse. Die diagnostische Zuverlässigkeit der Fachärzte beruht also mindestens zum Teil auf der Vorselektion (= Erhöhung der Prävalenz) durch Allgemeinärzte.

 

08.10.2005


Dichotome Skala

Spezialfall der Nominalskala. Skala, die nur aus 2 möglichen Werten besteht.

Siehe Skalenniveaus.

21.08.2005


Dichotomisierung

Ein ordinal- oder kardinalskaliertes Merkmal auf 2 Gruppen reduzieren.

Gruppe 1: Alle Werte grösser als der Gesamt-Mittelwert oder Gesamt-Median,

Gruppe 2: Alle Werte kleiner als der Gesamt-Mittelwert oder Gesamt-Median.

 

Mittels Dichotomisierung schafft man die Voraussetzung, Tests anwenden zu können, die nur für dichotome Merkmale geeignet sind. Dabei (durch die Reduktion der Skalen) wird zwar Information verschenkt, aber in manchen Fällen, wo kein geeigneter Test existiert, ist dies immer noch besser als gar nicht zu testen.

Für ein Beispiel siehe unter Misserfolgsreduktion, Beispiel 2.

21.08.2005


Dichtefunktion

Die erste Ableitung der Verteilungsfunktion nach der Zufallsvariablen (z.B. Zeit bei der Ausfalldichtefunktion

Anders formuliert: 

Differentielle Änderung der relativen Häufigkeit pro Skalenabschnitt. 

 

Im Umgangssprachgebrauch wird die Dichtefunktion sehr oft "Verteilungsfunktion" genannt. 

 

Beispiel: Die "Gauss'sche Glockenkurve" wird oft als "Normalverteilung" bezeichnet. 

In Wahrheit ist die Glockenkurve jedoch die Dichtefunktion der Normalverteilung. 

Die "Normalverteilung" ist richtigerweise das Integral der Glockenkurve von -00 bis +00, was (wie bei allen eingipfeligen Dichtefunktionen) eine S-Kurve ergibt. 

Siehe auch die Anmerkungen unter Verteilung

 

Gängige Verfahren zur Bestimmung der Dichtefunktion aus einer Stichprobe sind 

  21.08.2005


DIN

Deutsches Institut für Normung.

Repräsentiert Deutschland in der ISO.

21.08.2005


Direkte Messergebnisse

Siehe Fehlerfortpflanzungsgesetz.

15.01.2006


Diskordant 

Verschieden, nicht übereinstimmend.

Siehe Kendalls Konkordanzkoeffizient.

21.08.2005


Diskrete Skala

Gegenteil der kontinuierlichen Skala

Werteskala, die beliebig viele Werte enthalten kann, jedoch keine beliebig feinen Zwischenwerte enthält. 

Diskrete Skalen haben in der Praxis meistens nur ganzzahlige Werte.

Beispiele: 

  • Alter in Jahren. 

  • Stückzahl. 

  • Schuhgrösse (in Nummern) 

  • Schulnoten 

Siehe auch Skalenniveaus.

21.08.2005


Diskriminanzanalyse 

Im Gegensatz zur Clusteranalyse ein Strukturen-prüfendes Verfahren

Zur Kategorie der Explorativen Datenanalyse gehörendes, selbstlernendes Verfahren. 

Kein datenreduzierendes Verfahren. Auf dem allgemeinen linearen Modell beruhendes Verfahren. 

Im Gegensatz zur Clusteranalyse liegt der Fokus nicht auf der Clusterbildung, sondern der Trennung der Objekte bezüglich bestimmter, vorgegebener Merkmale. Die Objekte diesseits und jenseits der Trennlinien (Diskriminanzfunktionen) müssen nicht unbedingt Cluster darstellen. 

Von der Struktur her gewissermassen eine Umkehrung der Clusteranalyse, weil die Klassen oder Gruppen ja fest vorgegeben sind.  

Diskriminanzanalyse kann demnach zur Überprüfung einer Clusteranalyse herangezogen werden.

 

2 Sichtweisen:

  1. In welchen Variablen unterscheiden sich die Mitglieder verschiedener vorgegebener Gruppen?
  2. Kann man eine Gruppenzugehörigkeit mit Hilfe der Diskriminanzfunktion vorhersagen? 

Es wird eine Diskriminanzfunktion berechnet, die praktisch ein lineares Gleichungssystem darstellt, mit so vielen Gleichungen, wie Cluster vorgegeben sind. 

Die Fragestellung lautet also:

Welche Linearkombinationen der Variablen trennt am Besten zwischen den Clustern?”  

Es gilt: Gesamtsreuung = Streuung innerhalb der Cluster + Streuung zwischen den Clustern, also unerklärte Streuung + erklärte Streuung. 

Der (hoffentlich kleine) Quotient [Streuung innerhalb der Cluster] / [Gesamtstreuung], "Wilks Lambda" ist das gebräuchlichste Mass für die Güte der Diskriminanzfunktion. 

 

Anwendungsbeispiele: 

·        medizinische Diagnostik: --> Die Ausprägung bestimmter Symptome deutet auf eine bestimmte Krankheit hin.

·        Wettervorhersage: --> Ähnliche Wetterlagen haben ähnliche Wetterfolgen.

·        Spracherkennung --> Bestimmte Lautkombinationen deuten auf bestimmte Worte hin.

·        Wartungskonzepte --> Die Ausprägung der Fehlzustände deutet auf eine bestimmte Fehlerursache hin.

·        Kundenprofile --> Kunden mit bestimmtem Kaufverhalten bezüglich bereits gekaufter Produkte kaufen auch ein bestimmtes neues Produkt.

 

 

Beispielskizze:

Anhand eines Trainingsdatensatzes soll ein Lineares Gleichungssystem (LGS) ermittelt werden, das drei Weintypen anhand von Alkoholgehalt, Süsse, Trübung, usw. beschreibt. Das LGS wird an einem weiteren Testdatensatz validiert und ggfs. korrigiert. 
Das LGS kann neue Weine anhand von Alkoholgehalt, Süsse, Trübung, usw. klassifizieren.

 

Wenn sich keine zuverlässige Diskriminanzfunktion finden lässt, dann kann man mit Neuronalen Netzwerken arbeiten.

21.08.2005


Disparität (Ungleichverteilung)

Allgemeine Bezeichnung für die (Un)gleichverteilung eines Merkmals.

->"Wie viele Merkmalsträger machen x Prozent der Merkmalssumme aus"?

Wichtig ist, dass die Merkmalsträger der Grösse des Merkmals nach AUFSTEIGEND geordnet werden

Gebräuchliche Masse sind 

Das "Gegenteil" der Disparität ist die Konzentration. Hier werden die Merkmalsträger der Grösse ihres Merkmals nach ABSTEIGEND angeordnet. 

 

Disparitätsmasse sind eine Verallgemeinerung der auf eine einzelne Skala bezogenen Streuungsmasse.

13.10.2005


Dispersionsmass 

= Streuungsmass

21.08.2005


DMAIC

[Sprich: "Dimeik"]

"Define, Measure, Analyse, Improve, Control" 

Wesenszug der Six Sigma Methode.

22.01.2006


DoE 

Design of Experiments, auch statistische Versuchsplanung genannt. 

Die mathematische Komponente von DoE besteht im Wesentlichen aus einer ANOVA

Ziel eines DoE ist es, mit möglichst wenig experimentellem Aufwand die optimalen Parameterwerte für einen Prozess zu finden. 

Die zu untersuchenden Parameter sind die Faktoren der ANOVA, die während der Versuche einzustellenden Parameterwerte sind die Faktorstufen der ANOVA. 

Das während der Versuche resultierende Prozessergebnis ist die Zielvariable. 

 

Das DoE Prozessmodell: 

Anmerkungen

 

Die optimalen Einstellgrössen gilt es zu finden. 

Optimale Einstellgrössen bewirken maximale (Ausbeute) oder minimale (Ausschuss) Zielgrössen

 

Störgrössen

Unbekannte und bekannte Störgrössen sind für das Rauschen (Messfehler) verantwortlich.

Bekannte Störgrössen werden entweder bewusst und planmässig während der Versuche variiert und nehmen somit die Stellung von Einstellgrössen ein, oder bewusst nicht variiert. 

In letzterem Fall kann ein zweites Ziel darin bestehen, diejenige Konstellation der Einstellgrössen zu finden, die gegenüber dem Einfluss der Störgrössen möglichst unempfindlich ist.

 

 

Die wohl bekannteste Variante statistischer Versuchsplanung heisst Taguchi.

 

Für einige Begriffe im Zusammenhang mit DoE siehe hier

14.03.2006


Doppelblindstudie 

Umgangssprachliche Bezeichnung für Doppelblindexperiment.

Gegenteil der offenen Studie

Weder der Patient noch der behandelnde Arzt wissen während der Tests, ob die jeweils verabreichte Medikation das eigentliche Medikament oder ein Placebo ist. Durch die Verblindung sollen systematische Verzerrungen (Bias) verhindert werden, die durch die Erwartungen der Patienten aber auch der behandelnden Ärzte entstehen können. 

Siehe auch Blindstudie und offene Studie

Siehe auch Studie.

21.08.2005


Doppel-Stichprobenprüfung 

Siehe Stichprobenprüfung nach DIN-ISO

21.08.2005


Doppelte Exponentialverteilung

= Laplace-Verteilung

22.01.2006


 

D-optimales Design 

Siehe DoE.

21.08.2005


Drittvariable 

Korrelationsanalyse zweier Variablen A und B kann einen nicht-zufälligen Zusammenhang (Korrelation) ergeben, obwohl keinerlei Kausalität dahinter steckt ("Scheinkorrelation"). 

In solchen Fällen hängen beide von einer weiteren Variablen C, der Drittvariablen ab. 

Rechnet man den Einfluss der Drittvariablen C heraus (Herauspartialisieren), dann verschwindet in der Regel der Zusammenhang zwischen A und B. Falls nicht, dann korrelieren A und B tatsächlich, vorausgesetzt, man hat nicht noch eine weitere Drittvariable, an die womöglich noch gar niemand denkt. 

Wird der Zusammenhang zwischen A und B nach Herauspartialisieren von C gar grösser, dann war C keine wirkliche Drittvariable.

Beispiele siehe unter Kausalität

15.03.2006


Duane Modell

Heuristische Methode zur Darlegung des Anstiegs der MTBF im Verlauf von Zuverlässigkeitsverbesserungsprogrammen (Reliability Growth). 

 

Tests, die speziell auf sich ändernde Ausfallraten testen, befinden sich hier.  

 

Vertiefung

21.08.2005


Dummy Variable 

Eine Variable auf Kardinalskalenniveau, die aus einer Variable auf niedrigerem Skalenniveau hervorgegangen ist.  

Dummyvariablen erzeugt man dann, wenn man beispielsweise die Vorteile der Regressionsrechnung (eigentlich eine Methode für das Kardinalskalenniveau) auf Probleme anwenden möchte, die eigentlich mit Variablen auf niedrigerem Skalenniveau beschrieben werden. 

Die Ursprungsvariablen werden also zu Dummyvariablen umcodiert, sodass man mit ihnen auf Kardinalskalenniveau "rechnen" kann. Allerdings kann es hier leicht zu Interpretationsschwierigkeiten führen.

 

Beispiele

Ursprungsvariable Dummyvariable
Hautfarbe: Schwarz / Weiss   0 / 1    [oder 1 /2, oder  ....]

Armut: 

sehr arm, 

arm, 

ausreichend versorgt,

leichter Überfluss, 

Überfluss. 

1,2,3,4,5 

1: = weniger als 1 warme Mahlzeit / Woche 

2: = 1 bis 3 warme Mahlzeiten/Woche 

3: = 4 bis 7 warme Mahlzeiten/Woche  

4: = 8 bis 15 warme Mahlzeiten/Woche  

5: = mehr als15 warme Mahlzeiten/Woche  

21.08.2005


Dunn 

Andere Bezeichnung für Bonferroni.

21.08.2005


Durbin h-Statistik 

Test auf Autokorrelation innerhalb von Wertereihen. 

Dieser Test ist dann angebracht, wenn über Zeitreihen ein Regressionsmodell gelegt wird. 

Autokorrelieren nämlich eine oder mehrere Reihen, dann sind die durch Regressionsrechnung erhaltenen Ergebnisse fragwürdig. 

 

Vertiefung

21.08.2005


Durbin Watson Test 

Test auf Autokorrelation innerhalb von Wertereihen. 

Dieser Test ist dann angebracht, wenn über Zeitreihen ein Regressionsmodell gelegt wird. 

Autokorrelieren nämlich eine oder mehrere Reihen, dann sind die durch Regressionsrechnung erhaltenen Ergebnisse fragwürdig. 

 

Vertiefung

21.08.2005


Durchschlupf 

Bei Stichprobensystemen besteht immer ein Risiko, in Wahrheit schlechte Lose aufgrund guten Stichprobenbefundes anzunehmen. 

Es schlüpft also hin und wieder ein schlechtes Los durch. 

Der Durchschlupf bezeichnet jedoch davon etwas abweichend den gesamten Anteil schlechter Teile, der aufgrund des vorhandenen Stichprobensystems (auch in guten Losen ) angenommen wird.

21.08.2005


Durrant Nomogramm

Graphisches Hilfsmittel zur Bestimmung des Vertrauensbereiches des Überschreitungsanteils bei normalverteilten Merkmalen

 

Vertiefung

30.01.2006


 

E

 


EBM, Evidence based Medicine.

Steht für das kritische Hinterfragen medizinischer Praktiken, das Belegen von Sachverhalten anhand geplanter reproduzierbarer Experimente.

Was in den naturwissenschaftlichen Fächern schon längst selbstverständlich ist, verbreitet sich in der Medizin erst allmählich.

Der Hauptvorteil ist das daraus resultierende gesicherte Wissen.

Behauptungen noch so grosser medizinischer Koryphäen können hiermit ungeniert überprüft werden:

"Evidence based Medicine anstatt Eminence based Medicine".

Der massvolle und professionelle Einsatz von EBM kann die Medizin nur bereichern.

Die allermeisten Kritikpunkte an EBM beziehen sich nicht auf EBM an sich, sondern auf dessen unsachgemässen Einsatz.

21.08.2005


Effekte 

 

Bei ANOVA eine statistische Eigenschaft der Faktorstufen. 

Bei multipler Regressionsanalyse (besonders bei Paneldaten) eine statistische Eigenschaft der unabhängigen Variablen

 

ANOVA:

  1. Feste Effekte

    Man interessiert sich nur für die in der ANOVA vorkommenden Faktorstufen.  

    • Beispiel: 3 Medikamente (es gibt nur diese 3) und 2 Geschlechter (Es gibt ja nur 2).

  2. Zufällige Effekte

    Die in der ANOVA vorkommenden Faktorstufen sind nur ein (kleiner) Teil aller interessierenden Faktorstufen. Die Streuung aufgrund der Faktorstufen muss also auf die nicht untersuchten Faktorstufen extrapoliert werden.

    • Beispiel: 3 Felder (von 20) einer Farm und 3 Angestellte der Farm (von 10). 

  3. Gemischte Effekte

    Manche Faktoren sind fest, andere zufällig. 

    • Beispiel: 3 Felder (von 20) einer Farm und 3 verschiedene Düngemittel (Es gibt nur diese 3).  

Der Unterschied zwischen festen und zufälligen Effekten entsteht also aus der Frage, was man wissen möchte. Wenn man sich im obigen Beispiel 2 ausschliesslich für die 3 Angestellten interessiert, dann ist der Effekt "Angestellter" fest.

 

Während die Rechengänge nahezu identisch sind, besteht der einzige Unterschied lediglich in der Zuteilung der Anzahl Freiheitsgrade beim F Test nach der ANOVA

 

Multiple Regressionsanalyse: 

Hierbei geht es um die statistische Berücksichtigung nicht explizit gemessener, aber für die Auswertung relevanter unabhängiger Variablen ("versteckte Variablen", die nicht als Kovariablen in die Untersuchung aufgenommen worden sind). 

Die Auswertung bringt also ans Tageslicht, "dass es Einfluss durch unbekannte Variablen gibt". Für eine schlüssige Interpretation dieser Variablen kann es zu diesem Zeitpunkt aber unter Umständen schon zu spät sein. 

Siehe auch Kovarianzanalyse.

  1. Grenzfall 1: Feste Effekte. 

    Das sind nicht berücksichtigte, unabhängige Variablen, die zeitlich (also innerhalb aller unabhängigen Variablen) konstant sind , aber zwischen den unabhängigen Variablen schwanken KÖNNEN (sich in den einzelnen unabhängigen Variablen unterschiedlich [aber zeitlich konstant] auswirken). 

    Diese Konstellation ist die "angenehmste", da sie eine Analyse des Einflusses der (berücksichtigten) unabhängigen Variablen auf die abhängigen Variablen gestattet. 

    Das ureigene Ziel der Regressionsanalyse schlechthin.  

    • Beispiel:  

      Stündliche Messung der Durchschnittsgeschwindigkeit von LKW und PKW auf einem Autobahnabschnitt ausserhalb der Rush Hour.  

      Man wird stets feststellen, dass LKW im Durchschnitt langsamer sind als PKW.

      Die "versteckte" Variable "zulässige Höchstgeschwindigkeit" wirkt sich unmittelbar auf die Gefahrene Geschwindigkeit aus und ist zeitlich konstant, aber bei LKW und PKW grundsätzlich verschieden. 

       

  2. Grenzfall 2: Zwischeneffekte (engl: between effects).

    Das sind nicht berücksichtigte, unabhängige Variablen, die zeitlich (also innerhalb aller unabhängigen Variablen) schwanken, aber zwischen den unabhängigen Variablen konstant sind (sich auf alle unabhängigen Variablen gleich auswirken)

    • Beispiel:  

      Stündliche Messung der Durchschnittsgeschwindigkeit von LKW und PKW auf einem Autobahnabschnitt während der Rush Hour.  

      Man wird feststellen, dass mit Zunahme des Verkehrs sowohl LKW als auch PKW im Durchschnitt langsamer werden.

      Die "versteckte" Variable "Verkehrsdichte" wirkt sich unmittelbar auf die gefahrene Geschwindigkeit aus und ist zeitlich variabel, aber bei LKW und PKW grundsätzlich ähnlich (in Wahrheit wirkt sich das auf PKW viel stärker aus, aber davon sei in diesem Beispiel einmal abgesehen). 

       

  3. Allgemeiner Fall: Zufällige Effekte

    Manche unberücksichtigten Variablen wirken wie feste Effekte, manche wie Zwischeneffekte. 

    Unter Umständen wirken einzelne nicht berücksichtigten Variablen sowohl "fest" als auch "zwischen".

    Diese Konstellation ist die am häufigsten vorkommende. 

    • Beispiel:  

      Das obige Beispiel im Ganzen gesehen besteht aus zufälligen Effekten, da die Variable "zulässige Höchstgeschwindigkeit" ein fester Effekt, die Variable "Verkehrsdichte" ein Zwischeneffekt ist. 

21.08.2005


Effektgrösse (Eta, Omega)

Derjenige (minimale) Unterschied, der (technisch, medizinisch,....) als bedeutsam erachtet wird. 

Beispiel: 

Unter normalen Bedingungen liegt eine bestimmte Kennzahl bei 50. 

Leichte Abweichungen von z.B. 47 bis 52 werden noch toleriert. 

Die Nullhypothese lautet daher: "Die Kennzahl liegt bei 50". 

Nun vereinbart man, dass z.B. ab einer Kennzahl von 55 tatsächlich eine Veränderung eingetreten ist. 

Entsprechend formuliert man die Alternativhypothese "Die Kennzahl liegt bei 55".

Die Effektgrösse wäre in diesem Beispiel also 5, weil dieser Unterschied für bedeutsam erachtet wird. 

Aber: mathematisch geschickter ist es, 5/Standardabweichung als Effektstärke zu bezeichnen, wie aus manchen der folgenden Verweise hervorgeht:

 

Siehe statistischer Hypothesentest, Vertiefung. 

Siehe Poweranalyse

Siehe Design eines 2-seitigen Stichprobentests

Siehe auch Relevanz.

16.01.2006


Effektstärke 

Effektgrösse dividiert durch Standardabweichung

       µ1 und µ2 sind die Mittelwerte zweier Gruppen, sGrundgesamtheit die Standardabweichung der Grundgesamtheit.


Interpretierbar als Unterschied bezogen auf die Streuung. 
Je grösser der behauptete Unterschied (die Effektgrösse) 
und je kleiner die Standardabweichung der
Grundgesamtheit
desto grösser die Effektstärke, und 
desto kleiner kann die
Stichprobe ausfallen, 
um den behaupteten Unterschied bei gegebenem
Signifikanzniveau "nachzuweisen". 
Siehe auch
Poweranalyse

30.07.2006


Effizienz 

1.) Vergleich von parametrischen mit nicht-parametrischen Tests

Unter für parametrische Tests idealen Voraussetzungen würde man bei Anwendung nicht-parametrischer Tests stets grössere Stichproben benötigen als bei Anwendung parametrischer Tests, da die Nichtparametrischen in aller Regel nur die Ranginformation der Daten auswerten. 

Die Effizienz bezieht sich auf nicht-parametrische Tests und meint den Quotienten der erforderlichen Stichproben [Nnonparametrisch / Nparametrisch] = {0......1}.

 

2.) Siehe Gütekriterien für Schätzfunktionen 

21.08.2005


EFQM 

European Foundation of Quality 

Europäisches Pendant zum Malcolm Baldrige Award.

21.08.2005


Efronische Würfel  

Paradoxon: Der Spielleiter lässt seinen Gegner einen Würfel aussuchen, gewinnt jedoch langfristig immer gegen den Gegner.

 

Vertiefung

09.10.2005


Eigenwert

Charakteristischer Wert einer quadratischen Matrix.

Eigenwert und Eigenvektor stehen in engem Zusammenhang: Wendet man eine Matrix auf einen ihrer Eigenvektoren an, dann entsteht aus dem Eigenvektor ein neuer Vektor, der in die selbe Richtung zeigt und um den Faktor des Eigenwertes länger ist.

(Ausnahme: Eigenvektor kann auch der Nullvektor sein)

15.09.2005


Einflussgrösse 

= unabhängige Variable

21.08.2005


Eingipfelig 

Dichtefunktionen mit nur einem "Höcker" sind eingipfelig. 

Dies trifft für alle in der Natur vorkommenden Dichtefunktionen zu. 

Mehrgipfelige Dichtefunktionen sind immer eine Überlagerung mehrerer eingipfeliger Dichtefunktionen.

21.08.2005


Einseitige statistische Hypothese

Auch gerichtete statistische Hypothese genannt. 

Bsp: "Männer sind im Durchschnitt grösser als Frauen" 

Einseitig gestellte Hypothesen implizieren, dass "die andere Richtung" von vorne herein gar nicht in Frage gestellt wird. Im Beispiel wird also von vorne herein behauptet, dass Männer im Durchschnitt nicht kleiner sein können als Frauen. Lediglich die Frage, ob sie im Durchschnitt grösser sind, ist Gegenstand der Hypothese.

 

Die praktische Bedeutung einseitig gestellter Hypothesen liegt darin, dass bei entsprechenden Tests die gesamte zur Verfügung stehende Testinformation "in eine Richtung" verwendet werden kann, was zu höheren Signifikanzniveaus führt. 

Es dürfte klar sein, dass man einseitige Hypothesen nur mit genügend Vorwissen über den Sachverhalt formulieren darf. 

Im Zweifelsfall muss die Hypothese zweiseitig, oder ungerichtet formuliert werden. 

Bsp: "Männer und Frauen sind im Durchschnitt gleich gross" 

Bei derart gestellten Hypothesen muss die gesamte zur Verfügung stehende Information "in beide Richtungen" verwendet werden, was zu niedrigeren Signifikanzniveaus führt. 

 

Für eine ausführliche Einleitung zu statistischen Hypothesen siehe statistische Hypothese

21.08.2005


Einzel-Fehlerwahrscheinlichkeit

Engl. "Per comparison wise error rate".

= Alpha Risiko. Der Begriff dient zur Abgrenzung eines einzelnen Tests gegenüber einer Gruppe von Tests.

Testet man i Stichproben, oder formuliert man i gleichwertige statistische Hypothesen, dann erhält man umso mehr rein zufällig signifikante Einzelergebnisse je grösser i ist.

Bei einer Gruppe von Tests wächst also das Alpha Risiko, das heisst, das Eintreten signifikanter Ergebnisse wird erleichtert, weil man ja "mehrere Versuche" hat.

Die Einzel-Fehlerwahrscheinlichkeit ist das Alpha Risiko bei einem einzelnen Test oder bei einer einzelnen von mehreren gleichwertigen Hypothesen.

Familien-Fehlerwahrscheinlichkeit und Einzel-Fehlerwahrscheinlichkeit stehen in folgendem Zusammenhang: 

, wobei i die Anzahl Einzeltests ist. 

 

Siehe auch Bonferroni.

21.08.2005


Einzelvergleiche

Siehe paarweise Tests.

21.08.2005


Einzelvergleiche nach einem Kruskal Wallis Test: Schaich Hamerle

Paarweise Tests nach einem signifikanten Kruskal Wallis Test.

 

1.)

Es wird eine kritische Differenz gebildet.

X2: Chi Quadrat Verteilung

k: Anzahl Stichproben

N: Gesamtanzahl Messwerte; Für N<25 sind spezielle Tabellen heranzuziehen.

a: Alpha Risiko

Ni, Nj: Anzahl Messwerte der jeweils 2 verglichenen Stichproben.

 

2.)

Diejenigen Beträge der paarweisen Rangsummen-Durchschnitts-Differenzen, die grösser sind als die kritische Differenz, sind signifikant.

 

Beispiel (Datenmaterial aus dem Beispiel unter Kruskal Wallis Test, dessen Signifikanzniveau bei 91,9% liegt)

 

1.)Das geforderte Signifikanzniveau sei 90%.

Mit 3 Stichproben sind es k=2 Freiheitsgrade. Alle Stichprobengrössen Ni liegen bei 6. N=18

 

Chi Quadrat(2, 10%) ergibt mit der Excel Funktion CHIINV(0,1;2) den Wert 4,605.

Da alle 3 Stichprobengrössen gleich sind (=6), berechnen sich alle 3 kritischen Differenzen zu

   =  6,61

 

Rangsummenwerte aus dem Beispiel:

  Rangsummen RangsummenDurchschnitt
 Messreihe 1   = 36 6
 Messreihe 2   = 57.5 9,58

Messreihe 3

  = 77.5 12,92

 

RangsummenDurchschnittsDifferenzen:

Messreihen RangsummenDurchschnittsDifferenzen: Ergebnis
1-2 9,58-6 = 3,58 nicht signifikant
1-3 12,92-6 = 6,95 signifikant
2-3 12,92-9,58 = 3,34 nicht signifikant

 

Es sind also die Messreihen 1 und 3, die sich signifikant unterscheiden.

Das hätte man evtl. noch ohne den Einzelvergleichstest gesehen, aber bei deutlich mehr als 3 Messreihen können ja unter Umständen mehrere Messreihen signifikant verschieden sein.

21.08.2005


Eisverkäufer-Problem

Dieses Paradoxon dient zur Veranschaulichung, dass das Bestreben jedes Mitgliedes einer Gemeinschaft nach maximalem Erfolg zu einem Zustand führen kann, der für alle Mitglieder schlechter ist als ohne jegliches Bestreben. 

Siehe auch Gefangenendilemma und Braess'sches Paradoxon

 

Vertiefung

13.10.2005


Elementarereignis

Ein (kleinstes) Ereignis, das nicht mehr weiter in (noch kleinere Ereignisse) aufgesplittet werden kann. 

14.03.2006


Empirie

Gewinnung von Wissen aus gemachten Erfahrungen. 

Hilfreich hierzu ist die Heuristik.

21.08.2005


Endogene Variable

= Abhängige Variable

21.08.2005


Entscheidungsbäume (Klassifikationsbäume, Regressionsbäume)

Verfahren, um Zusammenhänge bei komplexem Datenmaterial überschaubarer zu machen. 

Zur Kategorie der Explorativen Datenanalyse gehörendes Verfahren. 

Kein datenreduzierendes Verfahren

Aufgrund der Komplexität und des iterativen Charakters der Methode ist Computereinsatz unabdingbar.

 

Das Skalenniveau der unabhängige Variablen ist höchstens ordinal, typischerweise nominal, weshalb man auch Klassifikationsbaum sagt.

Regressionsbaum sagt man, wenn die unabhängige Variablen auf metrischer Skala sind. 

Liegen unabhängige Variablen auf metrischer Skala vor, dann werden diese in Klassen eingeteilt, wobei die Festlegung der Klassengrenzen Bestandteil der Bildung eines "optimal verzweigenden" Baumes ist.

Das Wort "eines" in vorigem Satz impliziert, dass es nicht nur eine mögliche Verzweigungskonstellation des Baumes zu einem gegebenen Datenmaterial zu geben scheint. Eine Verzweigung sollte so sein, dass die beiden Zweige maximalen Unterschied bezüglich des betrachteten Merkmals aufweisen.

Methoden, die die Generation eines Entscheidungsbaumes automatisieren, sind z.B. CART und CHAID.

Je höher der Automatisierungsgrad, desto eindeutiger sind "optimale" Verzweigungskonstellationen.

 

Im binären Entscheidungsbaum wird eine Serie von Fragen gestellt, welche alle mit Ja oder Nein beantwortet werden können. Bei jedem Knoten wird ein Merkmal abgefragt und eine Entscheidung getroffen. Dies wird so lange fortgesetzt, bis alle Merkmale abgearbeitet sind und man sozusagen zwei "Blätter" des Baumes erreicht hat (für jeden Zweig 1 Blatt). 

Entscheidungsbäume trennen die Daten in mehrere Gruppen, welche jeweils durch eine Regel mit mindestens einer Bedingung bestimmt werden.

Um eine Entscheidung (oder Klassifikation) abzulesen, geht man einfach den Baum entlang abwärts. 

 

Ein Entscheidungsbaum wird oft auch deswegen Klassifikationsbaum genannt, wenn er nicht mehr primär zur Entscheidungsfindung, sondern zur visuellen Darstellung der vorgegebenen Klassen dient. 

Entscheidungsbäume werden verwendet,

  • um sicherer Entscheidungen treffen zu können,

  • um die Stellen maximaler Unterschiede im gegebenen Datenmaterial herauszufinden

Beispielskizze

 

Die abhängige Variable soll das Geschlecht sein, die unabhängigen Variablen sollen Alter und Rauchverhalten sein.

Gesucht ist die maximal mögliche Unterscheidung zwischen den Geschlechtern am Ende des Baumes.

 

In diesem Beispiel mag der Rechenalgorithmus herausgefunden haben, dass es den grössten Informationsunterschied bringt, wenn man im ersten Klassifikationsschritt das Alter auswählt und die Altersgrenze bei 14 Jahren zieht. 

Dies ist nämlich genau die Grenze, die bei dem als nächstes untersuchten Merkmal "Anzahl Zigaretten/Tag" den denkbar grössten Unterschied bringt. Von denjenigen Schülern, die unter 14 Jahre alt sind, gibt es eine deutliche Unterscheidung im Rauchverhalten: Es scheint hier eine ´Bande aus 5 Buben zu geben, die stark raucht. Der Rest unter 14 raucht überhaupt nicht.

Der Unterschied im anderen Zweig der 14- und Mehrjährigen bekommt man zunächst keinen derart grossen Unterschied, wohl aber im letzten Schritt: Die stärkeren Raucher sind eher Frauen, die schwächeren Raucher eher Männer.

Hätte man die Altersgrenze im ersten Klassifikationsschritt beispielsweise bei 15 oder 13 Jahren gezogen, dann wäre die zuvor geschilderte Information bei weitem nicht so deutlich aus dem Baum ersichtlich gewesen.

 

Abgesehen von dem Rechenalgorithmus kann auch der Benutzer die Klassifikationsreihenfolge sowie die Klassengrenzen festlegen.

 

21.08.2005


Epidemiologie 

Beschreibung von Häufigkeit, Verteilung und Verlauf von Krankheiten in der Bevölkerung, sowie Erforschung der Ursachen und Massnahmen dagegen. 

21.08.2005


Epps Pulley Test 

Anpassungstest auf Normalverteilung einer Stichprobe

Dieser äusserst rechenintensive Test legt die Verwendung spezieller Software nahe.

Die Prüfgrösse lautet:

,   wobei  

n: Anzahl Messwerte

xquer: Gesamtmittelwert

m2: Zweites Moment

 

Folgend sind die kritischen Werte der Prüfgrösse für verschiedene Signifikanzniveaus a tabelliert:

Stichprobengrösse

 n

Signifikanzniveau [%]

Beispiel:

Bei einer Messreihe , bestehend aus 15 Werten, errechnet man den Wert 0,448.

Dieser Wert ist etwas grösser als 0,447, demnach ist dieses Ergebnis zum Niveau 97% signifikant, die Wahrscheinlichkeit also, dass sich bei Normalverteilung eine Messreihe wie die Vorliegende ergibt, beträgt also weniger als 3%

90 95 97 99
8 0,271 0,347 0,426 0,526
9 0,275 0,350 0,428 0,537
10 0,279 0,357 0,437 0,545
15 0,284 0,366 0,447 0,560
20 0,287 0,368 0,450 0,564
30 0,288 0,371 0,459 0,569
50 0,290 0,374 0,461 0,574
100 0,291 0,376 0,464 0,583
200 0,292 0,379 0,467 0,590

21.08.2005


EPRD 97 

Das elektronische Pendant zum elektromechanischen NPRD 95 

21.08.2005


Ereignishäufungstest

 

Vorab:

  • Ereignishäufungstest

    • Die Anzahl Intervalle ist durch äussere Bedingungen vorgegeben (z.B. Wochentage). Betrachtung der Besetzungszahl eines bestimmten Intervalls im Vergleich zu allen anderen Intervallen.

  • Okkupanztest

    • Die Anzahl Intervalle ist durch äussere Bedingungen vorgegeben (z.B. Wochentage). Betrachtung der Anzahl Intervalle, die mindestens 1 Ereignis enthalten.

  • Nullklassentest

    • Zerlegen der theoretischen Verteilungsfunktion in so viele gleich grosse Klassen, wie die zu testende Verteilungsfunktion Messwerte hat. Betrachtung der Anzahl unbesetzter Intervalle.

Testet, ob in einem bestimmten (Zeit-) Intervall überzufällig mehr Ereignisse sind als in den übrigen Intervallen.

 

Während beim Okkupanztest lediglich nach der Anzahl besetzter Intervalle gefragt wird, wird hier explizit nach der Besetzungszahl der Intervalle gefragt.

Der Okkupanztest macht keinen Unterschied, ob alle besetzten Intervalle etwa gleich viele Ereignisse beinhalten, oder

ob die Ereignisse sich in einem Intervall besonders häufen

 

Der Ereignishäufungstest vergleicht die Besetzungszahl eines bestimmten (verdächtigen) Intervalls mit der Besetzungszahlsumme aller restlichen Intervalle.

Dies kann mittels 2 Varianten erfolgen:

Die Nullhypothese bei diesem Test lautet:

"Die Ereignishäufigkeiten sind in allen Intervallen gleichverteilt".

 

Variante 1: Binomialtest

Hat man insgesamt n Intervalle und k Ereignisse und möchte das i-te Intervall auf Ereignishäufung testen, so gilt für die

erwartete Wahrscheinlichkeit eines Ereignisses im i-ten Intervall:

Mit dieser Wahrscheinlichkeit führt man den Binomialtest durch.

 

P ist hier die gesamte Wahrscheinlichkeit der vorliegenden Ereigniskonstellation plus aller noch selteneren Konstellationen.

Der Binomialtest wird für EIN ausgesuchtes, verdächtiges Intervall durchgeführt.

Testet man mehrere Intervalle, dann muss das Signifikanzniveau angepasst werden (->Bonferroni)

 

Beispiel:

  Intervall 1 Intervall 2 Intervall 3 Intervall 4
Beobachtet 7 4 11 2

Erwartet

6

6

6

6

n=4, k=24,  p=0,25

 

Nullhypothese: "Die Ereignishäufigkeiten sind in allen 4 Intervallen gleichverteilt".

Alternativhypothese: "Die Ereignishäufigkeit in Intervall 3 (=11) ist überzufällig hoch"

Mit der Excelfunktion BINOMVERT(11;24;0.25;Wahr) erhält man 99,28%.

-> In nur 0,72% aller Fälle würde man in Intervall 3 rein zufällig eine Häufung von mindestens 11 erwarten.

 

Variante 2: Chi Quadrat Test

Hat man insgesamt n Intervalle und k Ereignisse und möchte das i-te Intervall auf Ereignishäufung testen, so gilt für die Erwartungswerte der Häufigkeiten:

bzw. 

Mit diesen beiden Häufigkeiten und den tatsächlich gemessenen Häufigkeiten führt man den Chi Quadrat Test durch. 

Der Chi Quadrat Test "sieht" dabei genau 2 Felder: das zu testende Feld und alle restlichen Felder als 2. Feld zusammengenommen.

 

Beispiel (selbes Beispiel wie zuvor):

  Intervall 1 Intervall 2 Intervall 4 Intervall 3
Beobachtet 7+4+2 = 13 11

Erwartet

6+6+6 = 18

6

Anzahl Freiheitsgrade: = (Spaltenzahl-1)*(Zeilenzahl-1) =1

 

Nullhypothese: "Die beobachteten Ereignishäufigkeiten entsprechen den tatsächlichen".

Alternativhypothese: "Die Ereignishäufigkeit in Intervall 3 (=11) ist überzufällig anders"

( Also grösser oder kleiner. Chi Quadrat Tests erlauben im Allgemeinen keine Richtungsformulierung.)

 

Die Formel für den Chi Quadrat Test lautet damit:

= 5,56

Mit der Excelfunktion CHIVERT(5.56;1) erhält man 1,8%.

Dies ist als 2 seitige Wahrscheinlichkeit aufzufassen. Da hier aber nur ein Freiheitsgrad vorliegt, kann man die Prüfgrösse der Chi Quadrat Verteilung 5,56 durch Wurzelziehen in die Prüfgrösse der Standardnormalverteilung transformieren und damit eine einseitige Wahrscheinlichkeit berechnen:

  = 2,36

Mit der Excelfunktion [1-STANDNORMVERT(2.36)] erhält man nun die einseitige Wahrscheinlichkeit 0,91 %.

 

->In nur 0,91 % aller Fälle würde man in Intervall 3 rein zufällig eine Häufung von mindestens 11 erwarten.

 

Siehe auch Anmerkung unter Chi Quadrat Test.

Für eine zusammenhängende Darstellung u.A. der Beziehungen Chi Quadrat Verteilung - Normalverteilung siehe hier.

 

Anmerkung:

Formuliert man die Hypothesen nicht für ein ganz bestimmtes Intervall, dann muss die Signifikanzschranke entsprechend erhöht werden.

Siehe dazu Multiples Testen und Bonferroni.

22.08.2005


Erfolgslauf

Zuverlässigkeitstechnik: Test, bei dem es null Ausfälle gab.

06.11.2012


Erfolgslaufmethode

Zuverlässigkeitstechnik: Zur Chi Quadrat Methode alternative Berechnungsmethode für die Fehlerrate, wenn der Test null Ausfälle ergab.

Siehe die Exceldatei Erfolgslaufmethode

Die Chi Quadrat Methode wird hier erklärt.

06.11.2012


 

 

Erhebung 

= Der Vorgang des Ziehens einer Stichprobe

Meist wird dieser Begriff nur bei grossen / komplexen / lange dauernden Stichproben verwendet. 

27.11.2005


Erlangverteilung  

Auf viele praktische statistische Probleme zugeschnittener Spezialfall der Gammaverteilung:

  • Der Formparameter k ist nur ganzzahlig positiv erlaubt. 

  • anstatt des Skalenparameters b wird 1/a genommen. 

Wie die Gammaverteilung beantwortet auch die Erlangverteilung die Frage: 

"Wie lange dauert es, bis bei einem homogenen Poissonprozess genau k Ereignisse eingetreten sind?"

 

Die Erlangverteilung ist in der Kommunikationstechnik gebräuchlich (Warteschlangenprobleme)

 

 

F: Verteilungsfunktion 

f: Dichtefunktion 

Γ: Gammafunktion 

b: Skalenparameter,      k: Formparameter ,        Γ(k,x/b) bedeutet: setze x/b anstelle x.

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
   

  Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier

22.08.2005


Erstmusterprüfung 

VDA 6.1-Pendant zum PPAP

22.08.2005


Erwartungstreue  

Siehe Gütekriterien für Schätzfunktionen 

22.08.2005


Erwartungswert

Der Erwartungswert einer Zufallsvariablen ist 

  • der Wert, von dem man "erwartet", dass er sich bei einer häufigen Wiederholung des Experiments im Durchschnitt ergibt. 

  • das arithmetische Mittel aus den Werten von unendlich vielen "Ziehungen" einer Zufallsvariablen.

22.08.2005


Erweiterter Mediantest

Erweiterung des Mediantests auf k > 2 Stichproben

Gleiche Voraussetzungen wie der Mediantest.

Wie beim Mediantest werden die Werte aller Stichproben in einen gemeinsamen Topf geworfen und daraus eine aufsteigende Rangfolge gebildet sowie der gemeinsame Median ermittelt. 

Aus den Anzahlen an Werten je Stichprobe, welche kleiner bzw. grösser sind als der gemeinsame Median, wird eine k x 2 Feldertafel gebildet und schliesslich der Chi Quadrat Test angewendet.

 

Dieser Test sollte anstelle des Fisher Pitman Tests für mehrere Stichproben verwendet werden, wenn die Stichproben unterschiedlich gross sind.

22.08.2005


Erweiterter Shapiro Wilk Test 

Test auf "kurzzeitige" Normalverteilung

Viele Produktionsprozesse weisen Trends, Schwingungen, oder aufgrund Chargenwechsel bedingte Sprünge auf. 

Der erweiterte Shapiro Wilk Test erkennt, ob sich trotz der Veränderungen eine Normalverteilung hinter den Daten verbirgt, es sich also um eine Normalverteilung mit schwankendem Mittelwert handelt. 

Dieser Test übersteigt hinsichtlich Rechenaufwand den ohnehin schon aufwendigen Shapiro Wilk Test nochmal erheblich, sodass hier dringend geeignete Software anzuraten ist.

22.08.2005


ESREL

"European Reliability and Safety Conference"

= europäische Konferenz für Zuverlässigkeit und Sicherheit.

Jährlich in Europa stattfindende Konferenz.

Europäisches Pendant zu RAMS.

22.08.2005


Euler'sches Symbol 

Vereinfachte Schreibweise, die vor allem bei kombinatorischen Problemen zum Einsatz kommt. 

Beispiel

Siehe Kombinatorik

14.03.2006


Exakt 

Gegenteil von Approximativ, also schon bei kleinen Stichprobengrössen "richtig". 

30.07.2006


Exakter Test 

Gegenteil zum asymptotischen Test

Bei kleinen Stichproben sind meistens nur exakte Tests möglich.

Exakte Tests machen keine Annahmen über Verteilungsfunktionsformen. 

Bei exakten Tests werden alle möglichen Ergebniskonstellationen durchgespielt, die weniger wahrscheinlich sind als die zu testende. 

Bei nominalem und ordinalem Skalenniveau die häufigste Testklasse.

Manche Randomisierungstests ( insbesondere Permutationstests) sind demnach exakt. 

22.08.2005


Excel, diverse Statistikfunktionen

 

Für die unten genannten Excelfunktionen liegen Beispieldateien , grösstenteils mit Erklärungen, vor.

Die Übersicht, welche dann auf die Beispieldateien verweist, befindet sich hier.

 

ACHSENABSCHNITT GEOMITTEL PEARSON STFEHLERYX
BETAVERT  GTEST POISSON SUMQUADABW
BETAINV HARMITTEL QUANTIL TREND
BINOMVERT HYPERGEOMVERT QUANTILSRANG TVERT
CHIVERT KOMBINATIONEN RANG TINV
CHIINV KONFIDENZ RGP TTEST
CHITEST KORREL RKP VARIANZ
FTEST KRITBINOM SCHÄTZER VARIATION
FVERT KURT SCHIEFE VARIATIONEN
FINV LOGNORMVERT STABW WAHRSCHBEREICH
FISHER MEDIAN STABWA WEIBULL
FISHERINV MODUS STANDARDISIERUNG INDIREKT
GAMMAVERT NEGBINOMVERT STANDNORMVERT ADRESSE
GAMMAINV NORMVERT STANDNORMINV SVERWEIS
GAMMALN NORMINV STEIGUNG  

 

23.11.2012


Excel, Statistik mit Excel

Zunächst einige Vorbemerkungen. 

Microsoft Excel bietet eine Fülle an statistischen Funktionen, mit denen sich sehr viele statistische Tests nachbauen liessen (sogar ohne Makroanwendung). 

Dabei ist jedoch Vorsicht geboten. Es lassen sich etliche Zahlenkombinationen finden, bei denen selbst relativ einfache Funktionen wie z.B. STABW (Standardabweichung) falsche Ergebnisse liefern. Dies liegt daran, dass Näherungsalgorithmen oder andere vereinfachende Prozeduren zum Einsatz kommen. 

Für das Erlernen von statistischen Tests und für die meisten privaten und geschäftlichen Anwendungen spielt dieses Ausmass an Ungenauigkeit keine besondere Rolle. Bei kritischen Anwendungen jedoch ist angeraten, professionelle Statistiksoftware oder einschlägige Tabellenwerke heranzuziehen. 

 

 

1.) Zellenbezogene Funktionen.

Manche EXCELfunktionen sind so genannte Matrixformeln. Das bedeutet, dass bei der Formeleingabe mehrere Zellen gleichzeitig markiert sein müssen damit Excel mehrere Werte gleichzeitig ausgeben kann. 

Da dies im Detail für jeden Formeltyp anders funktioniert, sei hier allgemein auf die EXCEL Hilfe verwiesen. 

Matrixformeleingaben müssen mit {Steuerung}+{Umschalten}+{Enter} abgeschlossen werden.

 

Im Folgenden werden einige Excel Statistikfunktionen erläutert. 

In einer separaten Spalte wird des Öfteren auf separate Exceldateien verwiesen, die zum besseren Verständnis dienen sollen.

(Gekennzeichnet mit "X" oder "hier")

 

2.)Analysefunktionen.

Des Weiteren bietet Excel ein so genanntes Analyse Toolpak

Dieses ist aus der Menüleiste zugänglich über Extras/Datenanalyse/<gewünschte Analysefunktion>.

Die meisten Analysefunktionen unterscheiden sich von den zellenbezogenen Funktionen dadurch, dass sie mit einem Makro laufen. Dies hat zur Folge, dass bei Änderung der Ausgangsdaten die Analyse jedesmal explizit neu angestossen werden muss.

Eine Kurzbeschreibung der unterstützten Analysefunktionen mit anschaulichen Beispielen befindet sich hier.

 

3.) Visual Basic for Applications (VBA)

Excel stellt des weiteren eine Programmierumgebung zur Verfügung, dessen Funktionsumfang das bisher Beschriebene bei Weitem übertrifft.

In diesem Zusammenhang sei hier auf die vom Verfasser bevorzugte Ressource http://xlforum.herber.de/ verwiesen

 

30.07.2013


Exogene Variable

= Unabhängige Variable 

22.08.2005


Experimentelles Design 

Versuchsaufbau, möglichst mit Kontrollgruppe (In der klinischen Forschung diejenige Gruppe, die ein Placebo erhält), bei dem Randomisierung oder, noch besser, Blockbildung weitestgehend verwirklicht werden kann und der durch Störvariablen nicht beeinträchtigt wird.

Vorteil: Die interne Validität ist hoch. Der Versuchsaufbau wird transparenter und die Auswertung der Daten wird einfacher, da man weniger Störvariablen nachträglich "herausrechnen" muss (sofern sie nachträglich überhaupt identifiziert werden können, siehe White Test). 

Nachteil: Eliminierung von Störvariablen ist in der Realität nicht immer möglich, besonders bei soziologischen und psychologischen Versuchsaufbauen. Ferner ist Randomisierung an sich schon oft nicht möglich.

Siehe auch Nicht-Experimentelles Design. Dort ist auch ein Beispiel skizziert.

Siehe auch quasiexperimentelles Design.

Siehe auch interne Validität.

08.09.2005


Explorative Datenanalyse (Data Mining)

Zusammenfassender Begriff für Strukturen-entdeckende Verfahren oder datenreduzierende Verfahren.

(A posteriori-) Vorgehensweise bei umfangreichem und vieldimensionalem Datenmaterial (Felderhebungen) oder bei unklarer Ausgangssituation. Der Anwender hat im Allgemeinen noch keine konkrete Vorstellung über Beziehungszusammenhänge des Datenmaterials.

Im Gegensatz zu (a priori-) Hypothesentests werden hier (zumindest am Anfang) keine Hypothesen formuliert, sondern das Datenmaterial "einfach mal so" auf Auffälligkeiten hin abgeklopft: --> Heuristisch und Hypothese-generierend.

Zu den Techniken der explorativen Datenanalyse gehören z.B: 

Anwendungsgebiete:

  • Database-Marketing: 

    gezielte Marketing-Maßnahmen auf Basis von Kundendaten

  • Customer Relationship Management:
    Segmentierung des Kundenbestandes in homogene Gruppen (Eigenschaften / Kaufverhalten)

  • Identifikation profitabler / nicht profitabler Kunden (Scoring)
    Identifikation absprunggefährdeter Kunden, Bindung / Rückgewinnung

  • Preis-/Tarifgestaltung

  • Entwicklungsprognosen (Stromnetzauslastung, Kundenzahl)

  • Produkt-/Angebotsgestaltung / Warenpräsentation

22.08.2005


Exponentialverteilung  

Spezialfall der Weibullverteilung mit Formparameter b=1 (--> konstante Ausfallrate, sehr gebräuchlich in der Zuverlässigkeitstechnik)

Die Exponentialverteilung ist die Wahrscheinlichkeitsverteilung der Zeit zwischen 2 Ereignissen bei

Homogenem Poisson Prozess (HPP) (also konstanter Ausfallrate).

Liegt allen elektronischen Zuverlässigkeitsberechnungsstandards zugrunde.

 

Die Exponentialverteilung ist gemäss dem Prinzip maximaler Entropie die passende Verteilungsfunktion für die technische Situation

"Wir kennen nur den Mittelwert und wissen sonst (insbesondere Standardabweichung) nichts".

Siehe auch Punkt 4 am Ende der Rubrik Normalverteilung

Dort wird ein Zusammenhang zum Maximum Entropie Prinzip erwähnt.

 

Die k-fache Faltung der Ableitung der Exponentialverteilung, also der Wahrscheinlichkeitsdichtefunktion, ergibt die Gamma Verteilung mit Formparameter b=1 und Skalenparameter l (oder 1/t).

F: Verteilungsfunktion, f: Dichtefunktion, h: Ausfallratenfunktion, 

Erwartungswert Varianz Schiefe Wölbung Modalwert Median m-tes Moment
2 9 0

 

 

Anwendungsbeispiel aus der Zuverlässigkeitstechnik:

Vertrauensintervalle

 

Hat man bei einer bestimmten kumulierten Testdauer genau n Ausfälle festgestellt, dann gilt für die obere Vertrauensgrenze der Ausfallrate zum Vertrauensniveau 1-a

, bzw.

also:

Die doppelte gesamte Testdauer geteilt durch die Mittlere Zeit zwischen 2 Ausfällen (MTBF) ist Chi Quadrat verteilt mit 2n Freiheitsgraden. n ist die Anzahl festgestellter Ausfälle. 

[Anmerkung: (n+1) gilt bei zeitbegrenztem Testen. Bricht man den Test geplant nach dem n-ten Ausfall ab (fehlerbegrenztes Testen), dann gilt n statt (n+1)]

 

 

Beispiel (siehe auch Operationscharakteristik, im 2. Teil ist das selbe Beispiel dargestellt)

 

Wir testen 20 h lang und stellen dabei z.B. 90 Ausfälle fest.

Der Schätzwert für die Ausfallrate liegt also bei 90/20h = 4,5/h. 

Bei genau 90 Fehlern beträgt die Wahrscheinlichkeit, dass die Ausfallrate grösser ist als 5/h nach einsetzen in obige Formel:

Man beachte, dass a die gesuchte Grösse ist.

Mit der Excelfunktion CHIVERT(2*20*5;2*91) ergibt sich der Zahlenwert 17,14%. 

Mit einer Wahrscheinlichkeit von 17,14% kann man bei dem vorliegenden Testergebnis (90 Ausfälle/20h) behaupten, dass die "wahre" (aber unbekannte) Ausfallrate grösser ist als 5/h.

 

Für den Fall, dass während des gesamten Tests kein einziger Ausfall aufgetreten ist, existiert eine Approximationsformel. 

Ein Vergleich dieser Approximationsformel mit der zuvor beschriebenen Chi Quadrat Formel befindet sich hier.

 

Vertiefung: Wie kommt es zu der Formel für die Vertrauensintervalle?

 

Für eine Darstellung der Beziehungen Gammaverteilung - Poissonverteilung - Exponentialverteilung siehe hier

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

Für die allgemeine Bestimmung des "optimalen" Parameters einer exponentialverteilten Stichprobe sowie weitere zuverlässigkeitsrelevante Betrachtungen siehe Beispiel 4 unter Maximum Likelihood Estimation (MLE). 

 

Siehe auch Arrheniusgleichung.

Siehe auch Weibullanalyse.  

 

06.11.2012


Extrapolation 

Eine Schätzung, bei der der geschätzte Bereich gänzlich ausserhalb desjenigen Bereiches liegt, für den Daten vorliegen. 

Der geschätzte Bereich ist also nicht von Daten "umgeben", sondern liegt "am Rande" oder "ausserhalb" gegebener Daten. 

Oft handelt es sich um Vorhersagen bezüglich der Zukunft.

Beispiele sind Wettervorhersage, Trendberechnungen, Zeitreihenanalysen.

Siehe auch Interpolation.

17.11.2005


Extremwert Theorem 

Pendant zum zentralen Grenzwertsatz für die jeweils grössten bzw. kleinsten Werte aus vielen Stichproben.

 

Betrachtet man die Extrema (also entweder die Maxima oder die Minima) von Stichproben, dann unterliegen diese der so genannten generalisierten Extremwertverteilung. Diese kann in 3 Typen unterteilt werden. 

Welcher Typ nun jeweils der gültige ist, hängt davon ab, welche Form die Ausgangsverteilung hat.

Die Form meint hier ausschliesslich die "Schwänze" der Ausgangsverteilungen: Ob sie dick, dünn oder kurz sind.

 

Allgemeine Form:

falls delta <> 0,                  falls delta =0

 

Form der Ausgangsverteilung Beispiele dazu gehörige Extremwertverteilung
fat tailed 

(heavy tailed)

Frechet   (Typ2),

delta>0

thin tailed (long tailed)

Alle Verteilungsdichtefunktionen, deren rechter Schwanz sich der Null mindestens so schnell nähert wie die Exponentialverteilung.

Gumbel   (Typ1)

delta =0

short tailed

Für alle Schwänze von linksseitig begrenzten (nullbegrenzten) Verteilungsdichtefunktionen.

Weibull   (Typ3)

delta<0

 

Insbesondere ist die Extremwertverteilung einer Weibullverteilung wieder weibullvetreilt. 

 

Anwendung findet die Extremwertstatistik z.B. in:

  • Versicherungswesen:  Abschätzen der zu erwartenden denkbar grössten Schäden, 

  • Wettervorhersage: Abschätzen der denkbar höchsten zu erwartenden Flut, höchsten / tiefsten Temperatur, usw.

22.08.2005


Exzess 

= Kurtosis - 3 

Näherungsweise kann man den Exzess einer Dichtefunktion wie folgt berechnen:

Q75-Q25)/[2*(Q90-Q10)].

Hier bedeuten Qxx die Skalenwerte bei den xx %-Quantilen.

Siehe Zentrale Momente

08.09.2005


 

F

 


Fähiger Prozess

Siehe SPC.

13.10.2005


Faktor 

Eine Dimension, ein Untersuchungselement, eine unabhängige Variable bei ANOVA.

22.08.2005


Faktorenanalyse (Hauptkomponentenanalyse, Principal Components Analysis, PCA) 

Daten in einem höherdimensionalen Raum sollen in wenigen Dimensionen möglichst getreu reproduziert werden. 

Metrisches Skalenniveau.

Datenreduktionsverfahren, um Zusammenhänge überschaubarer zu machen. 

Strukturen-entdeckendes Verfahren.

Zur Kategorie der Explorativen Datenanalyse gehörendes Verfahren. 

Im Gegensatz zur Clusteranalyse werden Merkmale oder Variablen gruppiert, nicht die Fälle, Individuen oder Objekte. 

Hier wird also die Dimensionalität des Datenmaterials verkleinert: "Finde diejenigen (wenigen) Linearkombinationen der Variablengesamtheit, die einen Grossteil der Varianz erklären".

Möglichst wenige Linearkombinationen (=Faktoren) von Merkmalen der Objekte werden gebildet, und zwar derart, dass 

  • alle Merkmale in den neu geschaffenen Faktoren enthalten sind,

  • Die Faktoren unabhängig voneinander sind, 

  • Die zu den Faktoren gehörigen Vorfaktoren (Faktorladungen) sollen einen möglichst grossen Anteil der Gesamtvarianz des Datenmaterials erklären. 

Einen Faktor kann man sich (analog zu einer Regressionsgeraden) als besten Repräsentanten einer Gruppe von Variablen vorstellen, wobei eine Variable in mehreren Faktoren enthalten sein kann ("Variablenbüschel", Linearkombination). 

Die Faktorenanalyse beantwortet somit die Frage, ob es eine deutlich geringere Anzahl von künstlichen Variablen (=Faktoren) gibt, die die Zusammenhänge zwischen allen Untersuchungsvariablen weitgehend zu erklären in der Lage sind.

 

Jeder gefundene Faktor reduziert die Dimensionalität des verbleibenden Datenmaterials jeweils um 1. 

Bildet man so viele Faktoren, wie das ursprüngliche Datenmaterial Variablen besitzt dann würde das Faktorenmodell 100% der Streuung der Daten erklären. 

Daraus wäre aber nichts gewonnen; wichtig ist, dass man nur die ersten paar wenigen Faktoren berücksichtigt, die idealerweise den Grossteil des Datenmaterials erklären. 

 

Anwendungsbereiche sind grundsätzlich die selben wie bei der Clusteranalyse, tendenziell jedoch eher in wissenschaftlichen Bereichen, da bei dieser Methode künstliche (latente) Variablen (Faktoren) geschaffen werden, die nicht immer einfach zu interpretieren sind. 

 

Veranschaulichungen

 

Auch die Hauptkomponentenanalyse "lebt" davon, die Varianz eines Datensatzes mit möglichst geringem Modellaufwand möglichst vollständig abzubilden. 

Auch hier liegt die Annahme zugrunde, dass grosse Varianz = grosser Informationsgehalt bedeutet.

 

a) Wie kann man sich eine optimale Reduzierung der Dimensionalität vorstellen? 

 

Damit Faktorenanalyse vernünftige Ergebnisse herausbringt, muss das Datenmaterial eine wie auch immer geartete Struktur oder Auffälligkeiten vorweisen. 

Nehmen wir einmal an, wir wüssten, dass unser aus 5 Dimensionen bestehender Datensatz eine 4-dimensionale Zigarre im 5-dimensionalen Raum darstellt. 

Eine Hauptkomponentenanalyse würde als erste Hauptkomponente die Längsachse der Zigarre detektieren. 

Angenommen, in dem verbleibenden 4-dimensionalen Raum würde die Anordnung der Datenpunkte nun einen flachen Teller ergeben, dann würden die 2. und 3. Hauptkomponente in der Ebene des Tellers liegen, und zwar senkrecht zueinander. 

Weiterhin angenommen, in dem nun verbleibenden 2-dimensionalen Raum wäre keine besondere Struktur mehr erkennbar, dann würden die 4. und 5. Hauptkomponente zwar den verbleibenden Rest der Daten erklären; deren Beitrag wäre aber ausserordentlich gering, sodass das in diesem Anschauungsbeispiel gefundene "optimale" Modell nur aus 3 Faktoren bestehen würde.

Das gefundene Modell wäre demnach 3-dimensional, wobei in diesen 3 neu ausgerichteten Dimensionen der grösste Teil der Information aller 5 ursprünglichen Dimensionen enthalten ist. 

 

b)  Was passiert im Bezug auf die Varianz? 

Bei der Suche nach der ersten Hauptkomponente wird das n-dimensionale Koordinatensystem derart gedreht, dass eine Achse in diejenige Richtung zeigt, in der die Datenpunkte am weitesten streuen = die grösste Varianz besitzen = am meisten Information beinhalten. 

Diese Achse wird ab nun fixiert und stellt die erste Hauptkomponente dar. 

Nun wird bei festgehaltener erster Achse das aus den restlichen Achsen bestehende System derart gedreht, dass wieder eine Achse in diejenige Richtung zeigt, in der die Datenpunkte in dem nun verbleibenden Datenraum die grösste Varianz besitzen, usw. 

 

c) Einige Begriffe rund um Faktoranalyse

Begriff Erklärung Beispielskizze: Aus einem 5-dimensionalen Datensatz (Variablen A,B,C,D,E) wurden 3 Faktoren (J,K,L) bestimmt ("extrahiert")
Eigenvektor = Faktor
Faktorladung 

= Korrelationskoeffizient zwischen einer Variablen und einem Faktor.

Idealerweise laden alle Variablen nur auf einem Faktor hoch, = jede Variable wäre in nur einem Faktor enthalten. 

Tabelle mit Korrelationskoeffizienten

Variable/Faktor J K L
A 0.5 0.6 0.2
B 0.8 0.4 0.2
C 0.6 0.3 0.3
D 0.4 0.4 0.3
E 0.3 0.2 0.1
Beispiel: Die Faktorladung der Variablen A auf den Faktor J beträgt 0.5.
Eigenwert

Masszahl für den Erklärungsanteil eines Faktors im Hinblick auf die Varianz aller Variablen.

= der Summe der quadrierten Faktorladungen eines Faktors. 

Die Eigenwerte der in das Modell übernommenen Eigenvektoren sollten "deutlich" grösser sein als die Eigenwerte der nicht in das Modell übernommenen Faktoren 

Siehe obige Tabelle: Der Eigenwert des Faktors K beträgt (0.6)2 + (0.4)2 + (0.3)2 + (0.4)2 + (0.2)2 = 0.81. 

 

Entsprechend erhält man für J = 1.5, und für L = 0.27

Kommunalität  Teil der Gesamtvarianz einer (Ausgangs-) Variablen, die durch alle gebildeten Faktoren erklärt wird. Idealerweise findet sich jede Ausgangsvariable in dem Satz neu gebildeter Faktoren vollständig wieder. Beispiel: 

Die Varianz (= der Informationsgehalt) der Variablen A ist zu 35% in Faktor J, zu 33% in K und zu 10% in L enthalten. 

Damit ergibt sich die Kommunalität von A zu (35+33+10)% =  78% 

Wenn sich weitere10% der Varianz von A in K, und weitere 5% in L wieder finden, dann erklärt das aus 3 Faktoren bestehende Modell die Variable A zu (78+10+5)% = 93%.

Scree Plot Paretoartige graphische Darstellung der nach der Grösse sortierten Eigenwerte. Dient als "augenscheinliches" Entscheidungskriterium für die Rechtfertigung derjenigen gefundenen Faktoren, die man in das Modell einbezieht. 

Die Eigenwerte von J, K und L lauten 1.5,   0.81,   und 0.27. 

Die Eigenwerte zweier weiterer Faktoren seien 0.22 und 0.13. 

Damit ergibt sich folgender Scree-Plot:

Dem Plot entnimmt man visuell, dass bereits der Faktor L eher dem "Rauschen" zuzuordnen ist, und man das Modell auf 2 Faktoren beschränken sollte.

 

Faktoranalyse auf höchstens ordinalem Skalenniveau heisst Korrespondenzanalyse

Siehe auch Partial Least Squares Regression.

15.08.2011


Faktorieller Versuch 

= Design of Experiments

22.08.2005


Fall-Kontroll-Studie

Medizinische Diagnostik und Sozialwissenschaften:

Man hat eine Anzahl Merkmalsträger vor sich und vermutet eine Ursache für das Vorhandensein des Merkmals. 

Nun sucht man Individuen, die der selben Ursache ausgesetzt sind und untersucht, ob diese ebenfalls Merkmalsträger sind. 

22.08.2005


Fallzahl 

Bezeichnung für die mindest-erforderliche Grösse einer Stichprobe bei gefordertem Signifikanzniveau.

Für Beispiele zur Fallzahlberechnung siehe Design eines 2-seitigen Tests sowie das Beispiel unter Poweranalyse.

10.09.2005


Fallzahlschätzung 
Siehe
Poweranalyse

30.07.2006


 

Falsch Negativer Wert

In der klinischen Forschung die Wahrscheinlichkeit, dass ein in Wirklichkeit Kranker für gesund befunden wird.

= 1 - Sensitivität.

Siehe Diagnostische Tests für eine Gegenüberstellung diverser diagnostischer Kenngrössen.

22.08.2005


Falsch Positiver Wert

In der klinischen Forschung die Wahrscheinlichkeit, dass ein in Wirklichkeit Gesunder für krank befunden wird.

= 1 - Spezifität

Siehe Diagnostische Tests für eine Gegenüberstellung diverser Diagnostischer Kenngrössen.

22.08.2005


Falsifizierung

= Für falsch befinden.

Gegenteil von Verifizierung.

Falsifizierbarkeit (was aus praktischer Sicht mit Überprüfbarkeit gleichgesetzt werden kann) ist ein grundlegender Wesenszug wissenschaftlichen Arbeitens. manche Philosophen vertreten die Meinung, dass Falsifizierungen die überhaupt einzige Quelle des wissenschaftlichen Erkenntnisgewinns sind.

Leider können statistische Hypothesentests weder falsifizieren, noch verifizieren, da mit ihnen stets Wahrscheinlichkeitsaussagen, und somit Irrtumsmöglichkeiten verknüpft sind.

13.09.2005


Faltung 

Mathematischer Operator. 

Integral über das Produkt einer Funktion f mit einer gespiegelten verschobenen Version von g.

Die Wahrscheinlichkeitsverteilung der Summe von n Werten aus einer definiert verteilten Zufallsvariablen entspricht der n-fachen Faltung der entsprechenden Verteilungsfunktion mit sich selbst (Autokorrelation). 

Siehe auch Exponentialverteilung und Gammaverteilung.

22.08.2005


Familien-Fehlerwahrscheinlichkeit

Engl. "Experimentwise error rate" oder " familywise error rate".

= Das Alpha Risiko, wenn man mehrere Tests gleichzeitig durchführt.

Der Begriff dient zur Abgrenzung eines einzelnen Tests gegenüber einer Gruppe von Tests.

Testet man i Stichproben, oder formuliert man i gleichwertige statistische Hypothesen, dann erhält man umso mehr rein zufällige Signifikanzen, je grösser i ist.

Bei einer Gruppe von Tests wächst also das Alpha Risiko, das heisst, das Eintreten signifikanter Ergebnisse wird erleichtert, weil man ja "mehrere Versuche" hat.

Die Familien-Fehlerwahrscheinlichkeit ist das gemeinsame Alpha Risiko bei einer Gruppe von Tests oder bei einer Gruppe von mehreren gleichwertigen Hypothesen.

 

Familien-Fehlerwahrscheinlichkeit und Einzel-Fehlerwahrscheinlichkeit stehen in folgendem Zusammenhang: 

, wobei i die Anzahl Einzeltests ist. 

Siehe auch Bonferroni.

22.08.2005


 Fast sicher 

Dieser Begriff aus der Mathematik sei anhand der Dichtefunktion erklärt. 

Welche Form die Dichtefunktion hat, ist für die folgenden Überlegungen unerheblich. 

Die Dichtefunktion gibt die differentielle Wahrscheinlichkeit an, das heisst, man muss die Dichtefunktion von a bis b integrieren, um die Wahrscheinlichkeit dafür zu erhalten, dass die Variable irgendeinen Wert zwischen a und b annimmt. 

Ist die Variable kontinuierlicher Natur, (deren mögliche Ausprägungen also beliebig fein gestuft), dann stehen zwischen 2 beliebig gewählten Werten a und b immer unendlich viele weitere mögliche Ausprägungen, egal wie eng man a und b beieinander wählt. 

Daraus könnte man naiv folgern, dass die Eintrittswahrscheinlichkeit für jede mögliche Ausprägung = 0 ist, da man ja die Gesamtwahrscheinlichkeit (=1) zwischen unendlich vielen möglichen Ausprägungen aufteilen muss. 

Aber: Irgend einen Wert muss die Variable jedoch annehmen. 

Obwohl die Eintrittswahrscheinlichkeit aller in Frage kommenden Ausprägungen gegen Null tendiert, wird eine davon garantiert eintreten. 

--> "Die Eintrittswahrscheinlichkeit einer beliebig gewählten Ausprägung ist fast sicher = 0"

12.01.2006


Fat tailed 

Beschreibung des "Schwanzes" einer Dichtefunktion, also der Art des Konvergierens der Dichtefunktion für grosse x.

Siehe Extremwert Theorem.

22.08.2005


Fehlerbaum, Fault Tree

Fehleranalysemethode, die meistens dann eingesetzt wird, wenn es hauptsächlich um Sicherheit geht. 

Ausgehend von einem unerwünschten Endereignis geht man logisch und zeitlich rückwärts zu den auslösenden, nicht mehr weiter auftrennbaren Basisereignissen

Dies geschieht mit Hilfe von booleschen Operatoren wie AND, NAND, OR, NOR, XOR, usw. 

 

Beispiel: 

 

Die Werte Q: an den booleschen Operatoren bedeuten die "Nicht-Verfügbarkeit", oder die "Nicht-Zuverlässigkeit". 

Beides sind Werte zwischen 0 und 1. Idealerweise liegt der Wert für das unerwünschte Endereignis (der oberste boolesche Operator) möglichst nahe bei Null. 

 

Im Gegensatz zur Methode FMEA liegt der Fokus von Fehlerbäumen auf ganz bestimmten (wenigen) Ereignissen, deren Ursachenkette logisch möglichst exakt abgebildet wird.

22.08.2005


Fehlerfortpflanzungsgesetz 

 

Siehe auch Toleranzkette

Obwohl beide Begriffe ein ähnliches Gebiet meinen, wird in diesem Glossar wird auf beide Begriffe separat und in unterschiedlicher Weise eingegangen.

 

Beim Fehlerfortpflanzungsgesetz geht es um Folgendes: 

Es werden mehrere Messgrössen gemessen. Jede Messgrössse sei mit einer Streuung behaftet. 

Aus den Messgrössen wird mittels eines Rechenausdruckes eine Ergebnisgrösse berechnet. 

Frage: Welche Streuung hat die Ergebnisgrösse? 

Um es vorweg zu nehmen: Mit einfacher Addition (arithmetisch oder geometrisch) liegt man fast immer falsch. 

Das Ergebnis kann optimistisch oder auch pessimistisch sein.

 

Um zum Fehlerfortpflanzungsgesetz zu kommen, ist das Verständnis der Ausgleichsrechnung wichtig.

 

Die Ausgleichsrechnung behandelt den Einfluss auschliesslich nicht-systematischer, also zufallsbedingter Messfehler auf die DIREKTEN Messergebnisse, sowie den daraus resultierenden Einfluss auf die daraus berechneten INDIREKTEN Messergebnisse. 

Beispiel: 

Messung der Fläche eines Rechtecks. Die Seitenlängen sind die direkten (oder auch vermittelnden) Messergebnisse, da sie unmittelbar gemessen werden. Der Flächeninhalt ergibt sich als Rechengrösse indirekt aus dem Produkt der beiden Seitenlängen. 

Die Messfehler der direkten Messergebnisse (Seitenlängen) wirken sich "irgendwie" auf das indirekte Messergebnis (Flächeninhalt) aus. 

Dies wird auf mathematische Weise durch das Gauss'sche Fehlerfortpflanzungsgesetz widergespiegelt (folgt weiter unten). 

 

Zufallsbedingte und systematische Messfehler

 

Zufallsbedingte Messfehler sind solche, auf deren Natur man mit der gegebenen Messausrüstung keinen Einfluss hat. 

(Anmerkung: Oder keinen Einfluss nehmen WILL. Das führt hier zu weit. Siehe in der Vertiefung der Rubrik Taguchi: "Störvariable") 

Im Rahmen dieser Messfehler sind die Messungen demnach Resultate von Zufallsexperimenten

Beispiele:

Messlatte kann nicht reproduzierbar an Halterung befestigt werden, Thermometer ist schwankenden (nicht im Rahmen des Messaufbaus kontrollierbaren) Bedingungen ausgesetzt (Luftzug, Feuchte,..), der Umfüllprozess bei der Volumenmessung verläuft manuell und es wird "manchmal etwas" verschüttet.

Systematische Messfehler sind solche, die in allen Messungen in gleicher Weise auftreten, die die Messungen in eine bestimmte Richtung um einen bestimmten Betrag verfälschen. 

Beispiele:

Zu kurze Messlatte, Thermometer zeigt immer 1 Grad zu wenig an, bei Volumenmessung wird technisch bedingt immer die selbe Menge verschüttet. 

Wie man aus zuvor genannten Beispielen sieht, ist die Abgrenzung Zufällige Messfehler - Systematische Messfehler nicht naturgemäss vorgegeben, sondern hängt vom Messaufbau und der Messprozedur ab. 

 

Für die Ausgleichsrechnung (oder Fehlerrechnung) sind ausschliesslich die zufallsbedingten Messfehler von Bedeutung, da nur sie sich "statistisch" verhalten.

 

Im Folgenden werden Messfehler als normalverteilt angenommen.

Normalverteilung ist gleichbedeutend mit der Annahme sehr vieler zufallsbedingter unabhängiger Einflüsse.

Siehe hierzu auch zentraler Grenzwertsatz.

Normalverteilte Messergebnisse lassen sich durch einen Mittelwert und eine Standardabweichung beschreiben.

Der Mittelwert ist hierbei der wahrscheinlichste Messwert, also derjenige Wert, den man erhält, wenn man die Messwerte aller Wiederholungsmessungen mittelt.

Die Standardabweichung ist die "Streubreite" der bei den Wiederholungsmessungen generierten Messwerte.

 

Die Angabe von Messwerten nimmt also folgende Gestalt an:

Messwert = [Wert] +/- Standardabweichung.

In diesem Intervall liegen etwa 68% aller Messwerte.

 

Das Gauss'sche Fehlerfortpflanzungsgesetz kommt dann ins Spiel, wenn man von der Messunschärfe der direkten (oder vermittelnden) Messergebnisse (~Kantenlängen) auf die Messunschärfe des daraus gewonnenen indirekten Ergebnisses (~Flächeninhalt) schliessen will.

Das Gauss'sche Fehlerfortpflanzungsgesetz hat folgende Gestalt:

Hier bedeuten:

Xi: Direkt zu messende Messgrössen (grossgeschrieben, weil die Variablen und nicht deren Realisationen gemeint sind).

si: Die zu den Variablen Xi gehörenden Standardabweichungen.

h: Die indirekte Messgrösse, also ein bestimmter funktionaler Zusammenhang der Xi mit der indirekten Messgrösse.

ist die nach dem ersten Glied abgebrochenen Taylorentwicklung der indirekten Messgrösse h nach der direkten Messgrösse X1

Das Gauss'sche Fehlerfortpflanzungsgesetz ist also eine Näherung erster Ordnung!

Die Ableitung von h muss an der Stelle xquer erfolgen.

In die Ableitung von h ist also für X der Wert xquer einzusetzen.

Entsprechendes gilt für die anderen direkten Messgrössen Xi.

 

Beispiel

Parallelschaltung von 2 ohmschen Widerständen R1 und R2.

Messung der beiden einzelnen Widerstände.

R1 = 100 +/-1 Ohm, also s1 = 1 Ohm

R2 = 200 +/- 2 Ohm, also s2 = 2 Ohm

Wie gross ist der Gesamtwiderstand und welche Standardabweichung hat er?

 

a) Berechnung des Mittelwertes

Für die Parallelschaltung gilt bekanntlich:

= 66,7 Ohm

 

Rgesamt entspricht h in der Formel des Gauss'sche Fehlerfortpflanzungsgesetzes.

 

b) Berechnung der Standardabweichung

 

   =  0,44 

   =  0,11    (Beide Ableitungen nach Quotientenregel)

 

= 0,492 Ohm

 

Ergebnis:

Rgesamt = 66,7 +/- 0,49 Ohm

15.01.2006


Fehlerrate 

Siehe Ausfallrate.

22.08.2005


Fehlerreduktion (relative)

= Misserfolgsreduktion.

19.09.2005


Fehlervarianz

Derjenige Anteil der (gesamten) Varianz, der (nach Varianzkomponentenzerlegung) nicht durch das zugrunde gelegte Modell abgedeckt wird. Die Fehlervarianz sollte möglichst klein sein. Ein Gütemass hierfür ist das Bestimmtheitsmass.

22.08.2005


Fisher Informationsmatrix

= Varianz-Kovarianzmatrix

22.08.2005


Fisher LSD (Least significant Difference)

Siehe Post-Hoc Tests.

13.10.2005


Fisher Matrix 

Fisher Informations- Matrix.

= Varianz-Kovarianzmatrix

Wird zur Berechnung von Vertrauensintervallen der Parameter von Verteilungsfunktionen oder Regressionsmodellen herangezogen. 

Bei Verteilungsfunktionen oder Regressionsmodellen mit nur einem Parameter ist die Fisher Matrix lediglich eine einzelne Zahl, nämlich die Varianz des Verteilungsfunktions- oder Regressionsparameters.

(Die Varianz des Parameters folgt unmittelbar aus der Varianz der Residuen der Ausgangswerte)

 

Bei n Parametern (n>1) ist die Fisher Matrix eine n*n Matrix. In der Hauptdiagonalen stehen die Varianzen der Parameter, und in den restlichen Zellen die Kovarianzen der Parameter untereinander.

Die Fisher Matrix ist also eine "auf n Dimensionen verallgemeinerte Varianz".

 

In diesem allgemeinen Fall sind die Vertrauensbereiche der Parameter nicht mehr trennbar, sie hängen zusammen.

Im Falle 2er Parameter erhält man eine quadratische Form, in der die beiden Parameter quadratisch und gemischt vorkommen. Diese Form beschreibt eine Ellipse. Das gemeinsame Vertrauensintervall ist also eine Ellipse im 2dimensionalen Parameterraum.

 

Bei mehr als 2 Parametern erhält man eine quadratische Form, in der alle Parameter quadratisch und jeder Parameter mit jedem

gemischt vorkommen.

Diese Form beschreibt einen n-dimensionalen Ellipsoid. Das gemeinsame Vertrauensintervall ist also ein Ellipsoid im >2dimensionalen Parameterraum.

 

Der bis hierher beschriebene Sachverhalt wird anhand eines 2-parametrigen linearen Regressionsmodells ausführlich durchgerechnet.

Siehe hierzu die Rubrik Multiple lineare Regression.

 

Siehe auch Likelihood Ratio und Beta Binomiale Vertrauensintervalle

22.08.2005


Fisher Pitman Test

Randomisierungstest für 2 unabhängige Stichproben.

Bei 2 abhängigen Stichproben siehe Fisher's Randomisierungstest.

Prüft, ob die Mittelwerte zweier Stichproben gleich sind.

  • Vier Feldertafel Test:                                    Asymptotischer Test einer 2x2 Kontingenztafel (unabhängige Felder)

  • McNemar Test:                                                Asymptotischer Test einer 2x2 Kontingenztafel (abhängige Felder)

  • Fisher's exakter Test:                                     Exakter Test einer 2x2 Kontingenztafel (unabhängige Felder).

  • Freeman Halton Test:                                     Erweiterung von Fisher's exaktem Test auf kx2 Kontingenztafeln.

  • Fisher Pitman Test:                                         Exakter Test zweier unabhängiger Wertereihen

  • Fisher's Randomisierungstest:                     Exakter Test zweier abhängiger Wertereihen

Vertiefung

24.08.2005


Fisher Index 

Siehe Preisindex und Mengenindex.

16.10.2005


Fisher's Randomisierungstest

Randomisierungstest für 2 abhängige Stichproben.

Bei 2 unabhängigen Stichproben siehe Fisher Pitman Test.

Prüft, ob die Messwerte zweier Messreihen sich vor und nach der Messwiederholung unterscheiden.

  • Vier Feldertafel Test:                                    Asymptotischer Test einer 2x2 Kontingenztafel (unabhängige Felder)

  • McNemar Test:                                                Asymptotischer Test einer 2x2 Kontingenztafel (abhängige Felder)

  • Fisher's exakter Test:                                     Exakter Test einer 2x2 Kontingenztafel (unabhängige Felder).

  • Freeman Halton Test:                                     Erweiterung von Fisher's exaktem Test auf kx2 Kontingenztafeln.

  • Fisher Pitman Test:                                         Exakter Test zweier unabhängiger Wertereihen

  • Fisher's Randomisierungstest:                     Exakter Test zweier abhängiger Wertereihen

Vertiefung

 

Anmerkung

Der Vorzeichentest gewichtet lediglich nach der Anzahl positiver und negativer Differenzen.

Der Vorzeichen Rangtest hingegen gewichtet die Differenzen "nur" nach ihrem Rang in der geordneten Rangreihe.

Fisher's Randomisierungstest gewichtet die Vorzeichen der Differenzen nach ihrem Betrag.

 

24.08.2005


Fisher's exakter Test

Exaktes Testpendant zum Vierfelder Chi Quadrat Test

 

  • Vier Feldertafel Test:                                    Asymptotischer Test einer 2x2 Kontingenztafel (unabhängige Felder)

  • McNemar Test:                                                Asymptotischer Test einer 2x2 Kontingenztafel (abhängige Felder)

  • Fisher's exakter Test:                                     Exakter Test einer 2x2 Kontingenztafel (unabhängige Felder).

  • Freeman Halton Test:                                     Erweiterung von Fisher's exaktem Test auf kx2 Kontingenztafeln.

  • Fisher Pitman Test:                                         Exakter Test zweier unabhängiger Wertereihen

  • Fisher's Randomisierungstest:                     Exakter Test zweier abhängiger Wertereihen

 

Vertiefung 

24.08.2005


Fisher Transformation 

Siehe Z-Transformation (Fisher)

24.08.2005


Fisher-Yates Test 

Siehe Fisher's exakter Test.

24.08.2005


Fit

1. = Anpassung.

Siehe Ausgleichsrechnung

 

2. "Goodness of Fit Test" -> Siehe Anpassungstest.

 

3. "Failures in time". Gemeint sind 109 Stunden. 

Telcordia gibt die Fehlerraten in Fehler/109 Stunden an (=Fit). 

14.11.2005


Fleiss' Kappa

Masszahl der Urteileübereinstimmung bei mehr als 2 Beurteilern.

Anwendbar bei Nominalem Skalenniveau.  

Für 2 Beurteiler siehe Cohen's Kappa.

 

Vertiefung

24.08.2005


FMEA, FMECA

 

Failure Mode and Effect Analysis, Failure Mode and Effect Criticality Analysis, 

Die bekannteste deutsche, jedoch unzureichende und obendrein irreführende Übersetzung lautet FehlerMöglichkeits- und EinflussAnalyse. 

 

Vertiefung

24.08.2005


FMECA

Der Buchstabe "C" bei FMECA bedeutet "Criticality". 

Der Hintergrund dieses Begriffes liegt darin begründet, dass vom US Militär ein eigener FMEA Standard (1629) entwickelt worden ist, in welchem an Stelle der RPZ eine so genannte Kritikalität steht.  

Kritikalität und Bewertungskategorien werden im Mil Std 1629 etwas anders gehandhabt. 

Anstelle der Auftretenswahrscheinlichkeit tritt eine Fehlerrate und die Entdeckungswahrscheinlichkeit entfällt. 

Kritikalität ist direkt gekoppelt mit der Wahrscheinlichkeit, mit der die Fehler während einer bestimmten Missionsdauer auftreten.  

 

Vertiefung

24.08.2005


Folgetest 

= Sequentieller Test

24.08.2005


Formparameter 

Parameter, der die Form einer Verteilungsfunktion bzw. ihrer Dichtefunktion beeinflusst, der also mehr ausrichtet als nur eine Verschiebung oder Umskalierung. Keine lineare Transformation. 

 

Beispiele:    (zu "natürlich" vs. "künstlich" siehe unter Verteilung. Begründungen für die Klassifizierung "natürlich" befinden sich in den entsprechenden Rubriken der betreffenden Verteilungen)

 

Verteilungsfunktion Formparameter Lageparameter Skalenparameter Anmerkungen
Normalverteilung

 Mittelwert Standardabweichung   "natürliche" Verteilungsfunktion
Weibullverteilung h Lebensdauer t  In der Zuverlässigkeitstechnik eine "künstliche", in der Extremwertstatistik eine "natürliche" Verteilungsfunktion
t-Verteilung Anzahl Freiheitsgrade n   "Künstliche" Verteilungsfunktionen, die speziell für statistische Fragestellungen entwickelt wurden.
F-Verteilung Freiheitsgrade     n, m  
Chi Quadrat Verteilung Anzahl Freiheitsgrade n
Gamma Verteilung k b "natürliche" Verteilungsfunktion
Erlangverteilung k [nur ganzzahlig positiv]   1/k Spezialfall der Gammaverteilung
Rayleighverteilung [ b= 2] Lebensdauer t

Spezialfall der Weibullverteilung: 

b= 2

Beta Verteilung

p und q

  "künstliche" Verteilungsfunktion
Frechet Verteilung

k

  "natürliche" Verteilungsfunktion
Binomialverteilung

Wahrscheinlichkeit p

"natürliche" Verteilungsfunktion
Cauchyverteilung Spezialfall der t-Verteilung für n=1.
Exponentialverteilung

Lebensdauer t

Spezialfall von  a) Weibullverteilung: 

b= 1, b) Gammaverteilung: k=1.

"natürliche Verteilungsfunktion"

Gumbelverteilung 

Keine Parameter

"natürliche" Verteilungsfunktion

Geometrische Verteilung

Wahrscheinlichkeit p

Spezialfall der Negativen Binomialverteilung für r=1
Hypergeometrische Verteilung

N: Grösse der Grundgesamtheit 

d: Anzahl Merkmalsträger in der Grundgesamtheit

n: Grösse der Stichprobe  

"natürliche" Verteilungsfunktion
Klumpenverteilung

Keine Verteilung im mathematischen Sinn.

Laplaceverteilung

Lebensdauer t

"künstliche" Verteilungsfunktion
Logistische Verteilung

l

"künstliche" Verteilungsfunktion
Lognormalverteilung µ s "natürliche" Verteilungsfunktion
Multinomialverteilung Wahrscheinlichkeiten p1, p2, p3, ....... "natürliche" Verteilungsfunktion
Polynomialverteilung = Multinomialverteilung
Negative Binomialverteilung r "natürliche" Verteilungsfunktion
p
Paretoverteilung a b
Poissonverteilung

l oder m

"natürliche" Verteilungsfunktion
Polyaverteilung  = Negative Binomialverteilung
Standardnormalverteilung

Keine Parameter

Mittelwert =0 und Standardabweichung =1
Studentized Range Verteilung Anzahl Gruppen, Anzahl Freiheitsgrade "Künstliche" Verteilungsfunktionen, die speziell für statistische Fragestellungen entwickelt wurden.
Hotelling's T2 Anzahl Freiheitsgrade n

Aus der Tabelle erkennt man, dass mache Parameter hinsichtlich Lage, Form und Skala nicht eindeutig einordenbar sind.

Siehe auch Lageparameter und Skalenparameter.

05.11.2012


F-Test

Test auf Unterschied der Varianzen zweier normalverteilter Stichproben.

Prüfgrösse ist der so genannte F-Wert, welcher mit 2 Anzahlen an Freiheitsgraden behaftet ist. 

Die Prüfgrösse ist der direkte Quotient der beiden Varianzen, wobei die grössere Varianz im Zähler stehen muss.

Anwendung: 

  • Überprüfung der Varianzhomogenität vor einem t-Test oder einer ANOVA

  • Überprüfung auf signifikante Effekte nach einer ANOVA 

  • Beispiele:

    • Sind die Qualitätsschwankungen zweier Maschinen gleich? (-> Fähigkeit)

    • Vertreten die Wähler von Partei A eine einheitlichere Meinung als die Wähler von Partei B?

Beispiel 

1.) Urwerte

Reihe_1 2 9 17 12 3 14 16 8 7 10
Reihe_2 3 9 8 12 19 16 13 17 12

--

Nullhypothese: Beide Wertereihen haben die selbe Varianz.

 

2.) Berechnung von Mittelwert, Standardabweichung und Anzahl Freiheitsgraden

  Reihe_1 Reihe_2
(arithmetischer) Mittelwert  9.80 12.11
Varianz 25.7 24.6
Anzahl Freiheitsgrade 9 8

 

3.)Berechnung der Prüfgrösse

F = 25.7/24.6 = 1.042 

 

Mit der Excelfunktion FVERT(1.042;9;8) erhält man 0.482.

--> Das Alpha Risiko liegt bei 48.2%, das Signifikanzniveau demnach bei 51.8 %. Die Nullhypothese kann also bei einem Alpha Risiko von beispielsweise 95 % nicht verworfen werden.

 

Für eine Berechnung des F Tests in Excel siehe diese Exceldatei .

 

Testet man die Varianz einer Stichprobe gegen die Varianz einer Grundgesamtheit, so betrachtet man die Grundgesamtheit als unendlich grosse Stichprobe. Die F-Verteilung ist der Quotient zweier Chi Quadrat Verteilungen.

Die Chi Quadrat Verteilung mit unendlich vielen Freiheitsgraden ist =1, was man sich wie folgt klar machen kann:

Die Chi Quadrat Verteilung ist ja die Varianz einer Stichprobe aus einer standardisierten Normalverteilung. Die Varianz der standardisierten Normalverteilung ist definitionsgemäss =1, und eine unendlich grosse Stichprobe ist ja die Grundgesamtheit, sprich: standardisierte Normalverteilung selbst.

Folglich ist die der Quotient der Varianzen einer Grundgesamtheit und einer Stichprobe des Umfangs n Chi Quadrat verteilt mit n Freiheitsgraden.

16.09.2005


FR

= Fehlerrate.

25.08.2005


FRACAS

Failure Reporting and Corrective Action System.

Ein wie auch immer geartetes System, welches zur Erfassung von Ausfällen und zur Einleitung von korrektiven Massnahmen dient. Dies kann bereits in der Entwicklungsphase angewandt werden, ist aber in der Verfolgung von Gerätepopulationen im Feld weitaus mehr verbreitet. Der Name geht auf einen US Mil -Standard zurück.

25.08.2005


F-Verteilung 

Quotient zweier Chi Quadrat Verteilungen

Zieht man aus einer normalverteilten Grundgesamtheit 2 Stichproben des Umfanges n und m und dividiert die Varianzen untereinander, so ist das Ergebnis F-verteilt mit den Freiheitsgraden n und m. 

F = s2m/s2n ,  wobei n<=m sein muss. 

Anwendung: 

Die F- Verteilung lässt sich mit Hilfe der Beta Verteilung darstellen: 

 

m,n: Anzahl Freiheitsgrade des Zählers bzw. Nenners

B: Betaverteilung

F: Verteilungsfunktion: nicht geschlossen darstellbar.

f: Dichtefunktion  

 
Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
n/(n-2)

, n>2

, n>4

, n>6

 

, m>2

   

 

Für eine zusammenhängende Darstellung der Beziehungen Chi Quadrat Verteilung - t-Verteilung - F-Verteilung - Normalverteilung siehe hier.

 

Für eine Darstellung mit Hilfe der Gammaverteilung siehe hier.

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

Für eine graphische Darstellung der F-Verteilung siehe das Arbeitsblatt "Gamma_F" in dieser Exceldatei. 

25.08.2005


Frechetverteilung 

Nach Frechet benannte Extremwertverteilung. Gilt für "fat tailed" Ausgangsverteilungen. 

 

 

k: Formparameter

F: Verteilungsfunktion    f: Dichtefunktion  

 

Siehe Extremwertverteilung

25.08.2005


Freeman-Halton Test

Erweiterung von Fisher's exaktem Test (2x2) auf k dichotome Stichproben (kx2). 

Die Vorgehensweise ist ganz analog zu Fisher's exaktem Test, nur viel rechenintensiver. 

  • Vier Feldertafel Test:                                    Asymptotischer Test einer 2x2 Kontingenztafel (unabhängige Felder)

  • McNemar Test:                                                Asymptotischer Test einer 2x2 Kontingenztafel (abhängige Felder)

  • Fisher's exakter Test:                                     Exakter Test einer 2x2 Kontingenztafel (unabhängige Felder).

  • Freeman Halton Test:                                     Erweiterung von Fisher's exaktem Test auf kx2 Kontingenztafeln.

  • Fisher Pitman Test:                                         Exakter Test zweier unabhängiger Wertereihen

  • Fisher's Randomisierungstest:                     Exakter Test zweier abhängiger Wertereihen

Vertiefung 

25.08.2005


Freiheitsgrad 

Die Anzahl voneinander unabhängiger Daten. 

Bsp: 

Eine Stichprobe aus n Daten hat n Freiheitsgrade. 

Zur Berechnung des Mittelwertes stehen also n Freiheitsgrade zur Verfügung. 

Zur Berechnung der Standardabweichung, welche ja die Kenntnis des Mittelwertes voraussetzt, stehen lediglich noch n-1 Freiheitsgrade zur Verfügung. 

Dies kann man sich so veranschaulichen, dass man bei gegebenem Mittelwert nur noch n-1 Daten frei wählen kann, da der n-te Datenpunkt durch die Nebenbedingung "Mittelwert vorgegeben" eindeutig festgelegt ist. 

Bei statistischen Tests ist die Findung der Anzahl Freiheitsgrade von grundlegender Bedeutung. 

Dies ist bei vielschichtigem, mehrdimensionalen Daten nicht immer einfach, aber auch hier gilt immer, dass die Anzahl Freiheitsgrade gleich der Anzahl frei wählbarer Daten ist. In Kontingenztabellen beispielsweise ergibt sich die Anzahl frei wählbarer Daten aus der Anzahl frei wählbarer Besetzungshäufigkeiten bei festgelegten Randhäufigkeiten.

Erst ab Vorliegen von mindestens einem Freiheitsgrad ist statistisches Testen überhaupt möglich. 

Bei Null Freiheitsgraden wird das Datenmaterial ja vollständig reproduziert, weshalb ein Testen nicht möglich ist. 

25.08.2005


Frequentistischer Wahrscheinlichkeitsbegriff

Siehe Wahrscheinlichkeit

13.10.2005


Frequenz

= Häufigkeit. (vom Englischen, Frequency). 

Siehe auch Konfigurationsfrequenz Analyse

25.08.2005


Friedman Test  

Erweiterung des Wilcoxon Vorzeichen Rangtests auf mehr als 2, jedoch verbundene Stichproben.  

Oft auch als einfaktorielle (Block)-Rangvarianzanalyse [also mit Messwiederholung], bzw. mit zusammenhängenden /gepaarten Gruppen, bezeichnet. 

Ordinales Skalenniveau

Der Post hoc Test zum Friedman Test ist der Nemenyi Test.

 

Vertiefung 

   25.08.2005


Frühausfall

Ausfälle aufgrund "Kinderkrankheiten". 

Von vorneherein in einzelnen Individuen einer Population innewohnende Schwachpunkte. 

Mit Burn In wird diese Fehlerart zuverlässig aufgedeckt, sodass die betroffenen Individuen bereits vor der eigentlich nutzbaren Produktlebensphase aussortiert werden können. 

Frühausfälle sind die erste Phase der Badewannenkurve.

25.08.2005


FTA

Fault Tree Analysis

= Fehlerbaumanalyse.

25.08.2005


Fuchs-Kenett Test.

Test auf Ausreisser bei Häufigkeiten in Kontingenztafeln.

Dieser Test detektiert überzufällig stark oder schwach besetzte Zellen in beliebigen Kontingenztafeln. 

 

Vertiefung 

25.08.2005


 

G

 


Galtonbrett

Siehe Pascal'sches Dreieck

14.11.2005


Gamma Funktion

Sehr vielseitig einsetzbare mathematische Funktion. 

 

 

Verfügt über interessante Eigenschaften, z.B.: 

Γ(k + 1) = k Γ(k) -->    Γ(k) = (k − 1)!  für ganzzahliges k         Γ(1/2) = Wurzel(p)          k: Formparameter

Mit der Gammafunktion lassen sich einige (parametrische) Verteilungsfunktionen geschlossen darstellen, z.B.: 

25.08.2005


Gamma Koeffizient 

= Kendalls ta 

Siehe Kendalls Tau.


Gammaverteilung

Auf der Gamma Funktion aufbauende mathematische Verteilungsfunktion mit 2 Parameter: Formparameter k und Skalenparameter b

Die Gammaverteilung(k) entsteht auch durch k-fache Faltung der Exponentialverteilung.

 

Folgende 3, auf die Zuverlässigkeitstechnik zugeschnittene Stellungnahmen sind äquivalent: 

  • Wie lange dauert es, bis bei einem homogenen Poissonprozess genau k Ereignisse eingetreten sind?

  • Gammaverteilte Lebensdauern treten dort auf, wo Summenlebensdauern betrachtet werden, bei denen die einzelnen Abschnitte unabhängig exponentialverteilt sind mit demselben Parameter

  • Die Gammaverteilungsdichtefunktion ist die Wahrscheinlichkeitsdichtefunktion der Zeit bis zum k-ten Ereignis bei einem homogenen Poissonprozesses (HPP), also die k-fache Faltung der Dichtefunktion der Exponentialverteilung. (Siehe auch Poissonverteilung ).

In der Zuverlässigkeitstechnik interessant, wenn eine bestimmte Fehleranzahl geduldet wird, bevor ein anrechenbaren Ausfall eintritt. 

Speziell auf praktische statistische Probleme zugeschnittene Variante der Gamma Verteilung ist die Erlangverteilung.

 

 

 

F: Verteilungsfunktion 

f: Dichtefunktion 

Γ: Gammafunktion 

b: Skalenparameter,      k: Formparameter,        Γ(k,x/b) bedeutet: setze x/b anstelle x.

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
<    

 

Siehe auch Erlangverteilung, ein Spezialfall der Gammaverteilung

Für eine graphische Darstellung der Gammaverteilung siehe hier, Tabellenblatt "Gammavert".

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

 

Anmerkung:

Die Gamma Verteilung ist aus mathematischer Sicht äusserst vielseitig. Sie enthält einige andere Verteilungsformen als Spezialfälle.

In dieser Übersicht sind die Beziehungen diverser Verteilungsfunktionen untereinander dargestellt.

 

Für eine formelmässige Beschreibung der Beziehungen Gammaverteilung - Poissonverteilung - Exponentialverteilung siehe hier.

 

25.08.2005


Gauge R&R  (sprich "Geitsch")

Angelsächsische Bezeichnung für Mess System Analyse

Die beiden R's stehen für  

25.08.2005


Gauss-Markov, Satz von

Die Fehlervarianz einer linearen Regression ist am kleinsten, wenn nach der Methode der kleinsten Quadrate vorgegangen wird.

<=>

Das Bestangepasste Modell erhält man, indem man die Fehlervarianz minimiert.

<=>

Gegeben seien unabhängige Zufallsvariablen . (Die Geradenstruktur ist also vorgegeben)

Die Fehlerterme ei seien normalverteilt mit Mittelwert 0 und Standardabweichung s.

(Normalverteiltes Rauschen ist also auch vorgegeben)

Die Minimierung der Abstandsquadratesumme S(ei)2 zwischen den Punkten yi und der zu bestimmenden Geraden

bedeutet die Minimierung der Fehlervarianz.

25.08.2005


Gauss'sche Glockenkurve 

Siehe Normalverteilung.

25.08.2005


Gauss Test 

  1. Allgemein ein statistischer Test, der auf die Standardnormalverteilung zurückgreift. 

    Im Sprachgebrauch jedoch ein Test zur Untersuchung der Signifikanz eines Einzelwertes aus einer normalverteilten Grundgesamtheit, bei der Erwartungswert und Standardabweichung bekannt sein müssen. 

    "Wie wahrscheinlich ist es, dass ein gegebener einzelner Wert aus einer in Frage stehenden normalverteilten Grundgesamtheit mit bekanntem Mittelwert und bekannter Standardabweichung stammt?" 

    Siehe auch EXCEL-Funktion GTEST

     

  2. Das Pendant zum t-Test für bekannte Varianzen (bzw. Standardabweichungen).

    Siehe t-Test. (dort auch Formeln)

10.09.2005


Geburtstagsparadoxon  

Ein Paradoxon.

Dahinter verbirgt sich die Frage: 

Wie wahrscheinlich ist es, dass in einer Gruppe von 23 zufällig gewählten Menschen wenigstens 2 am selben Tag Geburtstag haben? 

Antwort: ca. 50%. 

"Paradox" ist hier lediglich, dass man bei unvoreingenommener Schätzung deutlich weniger als 50% angeben würde. 

Man muss hier beachten, dass der Tag an sich keine Rolle spielt, sondern lediglich 2 Leute an irgendeinem Tag gemeinsam Geburtstag haben sollen. 

Berechnung: 

Man teilt den 23 Personen nacheinander Geburtstage zu in der Art, dass niemand am selben Tag Geburtstag hat. 

Die erste Person kann frei wählen. Die zweite Person ist bereits eingeschränkt: Die Wahrscheinlichkeit, dass sie an einem anderen Tag Geburtstag hat wie die erste Person, liegt bei 364/365. Für die dritte Person gilt entsprechend 363/365, für die vierte 362/365, usw. 

Die Wahrscheinlichkeit, dass von 23 Personen niemand am selben Tag Geburtstag hat, liegt also bei 

=0.493.  

--> Die Wahrscheinlichkeit, dass wenigstens 2 Personen am selben Tag Geburtstag haben, liegt demnach bei (1-0.493) = 0.507. 

14.11.2005


Gefangenendilemma

Dieses Paradoxon dient zur Veranschaulichung, dass das Bestreben jedes Mitgliedes einer Gesellschaft nach maximalem Erfolg zu einem Zustand führen kann, der für alle Mitglieder schlechter ist als ohne jegliches Bestreben. 

Siehe auch Eisverkäufer-Problem und Braess'sches Paradoxon.

 

Vertiefung

13.10.2005


Geometrische Standardabweichung 

In der Chemie gebräuchlich. 

Die Abhängigkeit der Reaktionsgeschwindigkeiten von der Temperatur ist oft exponentieller Natur. 

Wenn eine stoffliche Zusammensetzung mit einer gewissen Standardabweichung streut, dann streut die Reaktionsgeschwindigkeit mit der exponierten Standardabweichung eStandardabweichung

14.03.2006


Geometrische Verteilung 

("Wartezeit-Verteilung" bis zum ersten Ereignis) 

Wahrscheinlichkeitsverteilung dafür, dass das gewünschte Ereignis bei einem wiederholten Bernoulli Experiment nach genau x Wiederholungen zum ersten Mal eintritt. Also ein Spezialfall der negativen Binomialverteilung für r=1.

   

Erwartungswert: E(x)= (1-p)/p   Varianz: Var(x)= (1-p)/p2 

 

p: Eintrittswahrscheinlichkeit des gewünschten Ereignisses bei einer Durchführung des Bernoulli Experiments.

F: Verteilungsfunktion, f: Dichtefunktion

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

25.08.2005


Gepaarte Stichprobe

Siehe verbundene Stichprobe.

25.08.2005


Gerichtete Statistische Hypothese 

Siehe Statistische Hypothese.

25.08.2005


Geschwisterproblem, Geschwisterparadoxon.

Folgendes Rätsel gibt es in zahlreichen Varianten:

"Eine Familie habe 2 Kinder. Eines davon ist ein Mädchen. Mit welcher Wahrscheinlichkeit ist auch das andere Kind ein Mädchen?" 

 

Vertiefung

13.10.2005


Gesetz der grossen Zahl 

Die relative Häufigkeit eines Zufallsergebnisses nähert sich um so mehr der theoretischen Wahrscheinlichkeit für dieses Ergebnis, je häufiger das Zufallsexperiment wiederholt wird. 

  • Starkes Gesetz der grossen Zahlen: 

    "Die relative Häufigkeit eines Zufallsergebnisses nimmt bei unendlicher 

    Wiederholung "fast sicher" den theoretisch erwarteten Wert an". 

  • Schwaches Gesetz der grossen Zahlen: 

    ("Konvergenz der Wahrscheinlichkeit")

    "Die relative Häufigkeit eines Zufallsergebnisses nähert sich seiner theoretischen Wahrscheinlichkeit bei entsprechend häufiger Wiederholung "beliebig nahe"" (das e wird beliebig klein). 

     

    •  

Das schwache Gesetz kann man mit der Tschebyscheff Ungleichung 

relativ einfach beweisen; hier der grobe Gedankengang: 

s wird mit wachsendem Stichprobenumfang gemäss n-1/2 kleiner. Demnach kann man für grösser werdendes n den Faktor k immer grösser wählen, wodurch die rechte Seite der Tschebyscheff Ungleichung beliebig klein wird.

 

Für alle Gebiete und Aufgabenstellungen der Statistik ist das schwache Gesetz der grossen Zahlen ausreichend. 

Das Starke Gesetz der grossen Zahlen wird eher für mathematische Beweise benötigt. 

 

Anmerkung: 

Das Verhältnis der Häufigkeiten der Zufallsereignisse nähert sich zwar dem theoretisch erwarteten Wert beliebig nahe; die absoluten Abweichungen der Häufigkeiten werden jedoch tendenziell grösser. Das kann man direkt aus der Poissonverteilung entnehmen, deren Varianz gleich ihrem Erwartungswert ist, und dieser wird ja für mehr eingetretene Ereignisse immer grösser.

Beispiel: 

Münzwurf, Kopf oder Zahl. 

Das Verhältnis Kopf/Zahl nähert sich zwar immer mehr 50/50, die absoluten Unterschiede in den Häufigkeiten werden aber grösser, wie folgende Exceldatei veranschaulicht.

25.08.2005


Gini Koeffizient (Lorenzkurve)

Mass für die "Ungleichverteilung" (Disparität) eines Merkmals

Die Merkmalsträger müssen der Grösse nach aufsteigend angeordnet werden.

 

Beispiel: 

Kumulierte Einkommensverteilungskurve einer Bevölkerung. 

 

Dem fiktiven Diagramm ist direkt abzulesen, dass beispielsweise 

  • 30% der Bevölkerung etwa 10% des gesamten Bevölkerungseinkommens verdienen (Vierter blauer Punkt von links) 

  • die "reichsten" 10% der Bevölkerung etwa 20% des gesamten Bevölkerungseinkommens verdienen (Zweiter blauer Punkt von rechts)

Der Gini Koeffizient berechnet sich aus dem Doppelten der Differenz der Fläche unter der wirklichen Kurve (blau) und der Fläche unter einer fiktiven geraden "Kurve" (rosa).  

n: Anzahl Merkmalsträger, hi: kumulierter Anteil Merkmalsträger bis zum i-ten Merkmalsträger.

 

Anmerkung

Die blaue Kurve ist die Lorenzkurve.

Sie ist ein weiteres (graphisches) Mass für die Ungleichverteilung (Disparität).

Definitionsgemäss ist die Lorenzkurve immer konvex, das heisst, sie schneidet die rote Gerade (~völlige Gleichverteilung) in keinem Falle.

13.10.2005


Glätten   

Bezeichnung für jegliche mathematische Operation, die aus einer verrauschten, schwingenden (zappeligen) (Zeit-) Wertereihe eine 

"bereinigte" Wertereihe mit glatterem Verlauf macht. 

Ein gelungener geglätteter Verlauf sollte die langfristigen Trends deutlicher hervorheben und die kurzfristigen Schwankungen möglichst ausblenden. 

Die bekannteste Glättungsmethode ist der gleitende Mittelwert

 

Der Vorgang "Saisonbereinigung" zählt ebenfalls zum Glätten, nur wird hier nicht gemittelt, sondern saisonale Schwankungen "weggerechnet". Voraussetzung ist natürlich, dass über das Vorhandensein saisonaler Schwankungen hinreichend Klarheit besteht. 

25.08.2005


Gleichverteilung 

Verteilungsfunktion, die den Zustand "Alle möglichen Fälle haben die selbe Wahrscheinlichkeit" beschreibt. 

Bei beidseitig begrenzten unabhängigen Variablen hat die Dichtefunktion Rechtecksform und die Verteilungsfunktion Dreiecksform.

25.08.2005


Gleitender Durchschnitt

= Gleitender Mittelwert.

25.08.2005


Gleitender Mittelwert

Bei stark verrauschten Originaldaten kann man die Daten durch Mittelung über die jeweils letzten n Originalmesswerte 

in eine weniger verrauschte Messreihe transformieren. 

Dies hat den Vorteil, dass langfristige Trends besser hervorgehoben werden, und den Nachteil, dass die transformierte Messreihe verschoben aussieht.

In untenstehendem Beispiel wurde n=10 gesetzt. Man erkennt deutlich die bessere Hervorhebung von Trends sowie die Verschiebung. 

25.08.2005


Glockenkurve 

Siehe Normalverteilung.

25.08.2005


Goldstandard

Derjenige statistische Test, der gemäss dem aktuellen technischen Stand das genaueste Resultat liefert.

25.08.2005


G-optimal

Siehe DoE, Begriffserklärungen. 

13.10.2005


Green Belt 

Siehe Six Sigma.

25.08.2005


Griechisch-Lateinisches Quadrat 

Siehe DoE

25.08.2005


Grubbs Test 

Test auf Ausreisser innerhalb einer mindestens intervallskalierten, normalverteilten Messreihe.  

 

Vertiefung 

25.08.2005


Grundgesamtheit

Menge aller Elemente, auf die sich eine Fragestellung bezieht, auch wenn nicht alle Elemente in die Untersuchung einbezogen werden.. 

Siehe auch Stichprobe.

25.08.2005


Gumbelverteilung 

Nach Emil Gumbel benannte Extremwertverteilung

Gilt für "thin tailed" Ausgangsverteilungen. Siehe Extremwertverteilung.

 

F: Verteilungsfunktion, f: Dichtefunktion

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
 

(x-a)/b  anstatt x gesetzt. 

(x-a)/b  anstatt x gesetzt. 

(x-a)/b  anstatt x gesetzt. 

(x-a)/b  anstatt x gesetzt. 

(x-a)/b  anstatt x gesetzt. 

 

25.08.2005


Güte

1. Siehe Beta Risiko

2. Siehe Bestimmtheitsmass.

25.08.2005


Gütefunktion 

= Operationscharakteristik 

14.03.2006


Gütekriterien für Schätzfunktionen 

(Siehe auch Schätzen)

Erwartungstreue Die Schätzung eines (unbekannten) Parameters heißt erwartungstreu, wenn für alle Stichprobenumfänge und alle Werte des Parameters der Erwartungswert gleich dem Parameter ist. Die Abweichung des Erwartungswertes der Schätzung vom gesuchten Parameterwert heißt Bias (systematische Verzerrung).
Bias Systematische Abweichung der Schätzung vom Erwartungswert des gesuchten Parameters. 
Konsistenz Die Schätzung eines (unbekannten) Parameters heißt konsistent, wenn sie für Stichprobenumfänge n -> 00 gegen den Parameter konvergiert. Vernünftige Schätzungen sollten sich insbesondere für große Stichprobenumfänge nur wenig von dem zu schätzenden Parameter unterscheiden.
Effizienz Die Effizienz (Wirksamkeit) des Schätzwertes kennzeichnet die Präzision, mit dem er Parameter schätzt.
Eine Schätzfunktion ist um so effizienter, je kleiner die Streuung (oder
Varianz) der Schätzwerte um den Parameter ist. Je größer die Streuung der Stichprobenkennwertverteilung, desto geringer ist die Effizienz des entsprechenden Schätzwertes. 
Suffizienz

Ein Schätzwert ist suffizient (erschöpfend), wenn er alle in den Daten einer Stichprobe enthaltenen Informationen berücksichtigt.

Schätzfunktionen mit den Eigenschaften der Erwartungstreue, Konsistenz, Effizienz und Suffizienz heißen beste Schätzfunktionen.
In der Theorie der
statistischen Tests sind Strategien entwickelt worden, um unter Ausnutzung aller empirischen Daten zu den optimalen Schätzungen von Parametern zu gelangen. 

Beste Schätzfunktion Schätzfunktionen mit den Eigenschaften der Erwartungstreue, Konsistenz, Effizienz und Suffizienz 

25.08.2005


 

H

 


Häufigkeitsverteilung 

Graphische oder formelmässige Darstellung der Verteilung des Auftretens von Messwerten.

Siehe auch relative Häufigkeit

25.08.2005


Häufungstrendtest (Pfanzagl)

Dieser Test prüft, ob in einer Häufigkeitsreihe ein Trend vorhanden ist.

 

Beispiel: (Selbes Beispiel wie bei Sprungstellendetektionstest)

Intervall      (i) 1 2 3 4 5 6 7 8 9 10 11 12 13
Häufigkeit  (hi) 0 1 1 2 5 12 11 3 1 0 0 1 0

 

Nullhypothese: "Die Häufigkeiten sind über die ersten 6 Intervalle gleichverteilt".

Alternativhypothese: "Die Häufigkeit nimmt bis zum 6. Intervall zu".

Die Prüfgrösse

 

ist asymptotisch normalverteilt mit

Erwartungswert Standardabweichung

h: Gesamthäufigkeit aller berücksichtigten Intervalle

k: Anzahl aller berücksichtigten Intervalle 

h/k muss mindestens 3 betragen.

 

Die standardisierte Prüfgrösse

ist demnach standardnormalverteilt.

Für die ersten 6 Intervalle gilt:

k = 6

PG = 1*0+2*1+3*1+4*2+5*5+6*12=110

h = (0+1+1+2+5+12) = 21   ->  h/k >3 -> ok.

µ = 21*(6+1)/2 = 73,5

s= {[21*(62-1)]/12}0,5 = 7,83

=> u = (110-73,5)/7,83 = 4,66

Die Excelfunktion STANDNORMVERT (4,66)

ergibt 99,9998%, d.h., die Wahrscheinlichkeit, dass ein derartiger Anstieg von Häufigkeiten rein zufällig stattfindet , beträgt lediglich 0,0002%.

 

 

Siehe auch Sprungstellendetektionstest.

29.08.2005


 

Haldane Dawson Chi Quadrat Test

Modifizierter, approximierter Chi Quadrat Test für sehr schwach besetzte Kontingenztafeln beliebiger Grösse.

Einige Häufigkeiten dürfen sogar kleiner als 1 sein.

Sehr rechenintensiver Test.

25.08.2005


HALT

Highly Accelerated Lifetime Test

"Steigerung" von ALT durch Hinzunahme von Feuchtigkeit unter Überdruck als zusätzlichem Stress. 

25.08.2005


Hampel Test

Äusserst rechenintensiver, iterativer Test auf "wahren Mittelwert", wenn Ausreisser vermutet werden. 

Bei Daten mit kontinuierlichem Skalenniveau

Ohne spezielle Software kaum durchführbar. 

Dieser Test hat als einzige (schwache) Voraussetzung, dass die Dichtefunktion der Verteilungsfunktion eingipfelig ist. (Also nur ein "Höcker").

 

Grundprinzip: 

Über die der Messreihe zugrunde liegende (standardisierte) Skala wird eine Gewichtungsfunktion gelegt, die weiter aussen liegende Werte niedriger gewichtet und den zu bestimmenden "wahren" Mittelwert als unbekannten Parameter enthält.  

Diese Gewichtung ist im Wesentlichen eine gestückelte "Bastel-Funktion", die man mit 3 weiteren Parametern im Prinzip relativ frei "anpassen" kann (siehe jedoch die Einschränkung weiter unten)  

Der Einfluss "tatsächlicher" Ausreisser wird durch diese Gewichtungsfunktion minimiert oder ganz ausgeschaltet. 

 

-> Dieser Test hat also bereits als Eingangsinformation: 

"Je weiter aussen die Messwerte liegen, desto wahrscheinlicher handelt es sich um Ausreisser"

 

Durch einen Iterativen Prozess wird schliesslich ein spezieller Rechenausdruck minimiert. 

Nach hinreichend vielen Iterationen liefert der minimierte Rechenausdruck den "wahren" Mittelwert. 

 

Der Wahl der drei Parameter sind relativ enge Grenzen gesetzt; einige Statistiksoftwarepakete setzen die drei Werte von vorne herein fest. 

25.08.2005


Hare Niemeyer Verfahren

Verfahren, um eine relative Häufigkeitsverteilung möglichst "gerecht" in eine absolute Häufigkeitsverteilung umzuwandeln, wenn die absolute Gesamthäufigkeit vorgegeben ist.

In der Praxis bekannt ist dieses Verfahren bei der Ermittlung der Sitzverteilung eines Parlaments aufgrund eines Wahlergebnisses. Siehe auch d'Hont Verfahren.

 

Da die zu verteilenden Sitze von ihrer Anzahl her beschränkt und ausserdem ganzzahlig sind, wird es in den seltensten Fällen gelingen, die Sitzverteilung genau entsprechend dem Wahlergebnis zu realisieren.

 

Beispiel 

Kommunalwahl in einer kleinen Gemeinde. 3 Parteien stellen sich zur Wahl. Es sind 47 Sitze zu vergeben.

Schritt 1

Partei Stimmen "Genaue" Anzahl Sitze Ohne Kommastelle
A 203 =(203/356)*47 = 26,80 26
B 119 =(119/356)*47 = 15,71 15
C 34 =(34/356)*47 = 4,48 4
Gesamt 356   45

 

Die "genauen" Sitzanzahlen werden einfach durch Dreisatz ermittelt und ergeben in der Regel Kommazahlen. 

Schritt 1 ordnet den Parteien so viele Sitze zu, wie sich durch die vorige Berechnung unter Nichtbeachtung der Kommastellen ergeben.

Nach Schritt 1 sind also 45 der 47 Sitze vergeben. 

 

Schritt 2

Die übrigen 2 Sitze bekommen diejenigen Parteien der Reihe nach, deren "genaue" Sitzanzahlen die grössten Nachkommawerte haben.

In diesem Beispiel käme Partei A mit ,80 zuerst, dann Partei B mit ,71.

Für Partei C mit ,48 bleibt kein Sitz mehr übrig, da nun alle 47 Sitze schon vergeben sind. 

 

Das selbe Beispiel soll nun mit 46 anstelle 47 zu vergebenden Sitzen durchgerechnet werden.

Partei Stimmen "Genaue" Anzahl Sitze Ohne Kommastelle
A 203 =(203/356)*46 = 26,23 26
B 119 =(119/356)*46 = 15,38 15
C 34 =(34/356)*46 = 4,39 4
Gesamt 356   45

 

Nach Schritt 1 sind also wieder 45 der nunmehr 46 Sitze vergeben. 

Es verbleibt nur noch 1 Sitz, der diesmal aber an Partei C fällt, da sie den grössten Nachkommawert hat (.39)

 

Fasst man die beiden Beispiele zuvor zusammen, so ergibt sich: 

Zu vergebende Sitze
Gesamt 47 46
A 26+1 = 27 26+0 = 26
B 15+1 = 16 15+0 = 15
C 4+0 = 4 4+1 = 5

 

Man erkennt, dass 

  • die zu vergebende Sitzanzahl sich merklich auf die Sitzverteilung auswirken kann, 

  • Die Ergebnisse dieses Verfahrens generell vom verwendeten Zahlensystem (10) abhängen.

Bei wenigen zu vergebenden Sitzen sind die Auswirkungen entsprechend grösser. 

Im Arbeitsblatt "Niemeyer" der Exceldatei Paradoxa.xls findet man Gelegenheit, verschiedene Situationen durchzuspielen. 

Auf die Erwähnung diverser Phänomene, die zum Teil als eigenständige Paradoxa geführt werden, sowie auf diverse Ausnahmeregelungen, die bei bestimmten Konstellationen die Wirklichkeit "gerechter" widerspiegeln, sei hier verzichtet.

Siehe auch d'Hont Verfahren

 

Statistische Verfahren, die bei Wahlanalysen zum Einsatz kommen, sind beispielsweise: 

06.10.2005


Hauptkomponentenanalyse  

Siehe Faktorenanalyse.

25.08.2005


Hazard Rate  

In der Zuverlässigkeitstechnik gebräuchliche Bezeichnung für Ausfallratenfunktion.

25.08.2005


Heavy tailed

Beschreibung des "Schwanzes" einer Dichtefunktion, also der Art des Konvergierens der Dichtefunktion für grosse x.

Siehe Extremwert Theorem.

25.08.2005


Heiratsproblem  

= Sekretärinnenproblem.

17.11.2005


Herfindahl Index

Siehe Konzentration

13.10.2005


Hermeneutik 

Gegensatz zur Heuristik

"Interpretatives Verstehen", oder "Deuten", "Auslegen", die Frage nach dem "Warum".

In Texten oder Äußerungen zeigen sich immer mehr Sinn-Schichten als auf den ersten Blick erkennbar. 

Im Gegensatz zu den Naturwissenschaften (-> Heuristik) in den Sozial- und Gesellschaftswissenschaften oft angewandte Methodik. 

Hermeneutiker tendieren dazu, Messwerte für falsch zu halten, wenn sie der gegenwärtigen Theorie entgegen stehen. 

25.08.2005


Heuristik  

Gegensatz zur Hermeneutik

Lehre zur methodischen Gewinnung neuer Erkenntnisse mit Hilfe der Erfahrung. 

Strategie, die systematisch zu Erkenntnis führt. 

Wird in naturwissenschaftlichen Gebieten fast praktisch ausschliesslich angewandt.

 

Beispiel 1

Physik: Bereits vor der Entwicklung der allgemeinen Relativitätstheorie durch Einstein war den damaligen Physikern die scheinbare Zunahme von Massen bei sehr hohen Geschwindigkeiten bekannt.

Sogar die hierzu passende Formel, welche wir aus der allgemeinen Relativitätstheorie kennen, gab es schon.

Die damaligen Physiker hatten die Formel entwickelt, weil sie die Realität sehr gut wiedergab.

Bis hierher ist dies als rein heuristisches Vorgehen zu bezeichnen: Das "Warum" war nicht bekannt.

Als Einstein die Formel dann aus theoretischen Überlegungen hergeleitet hat, stand das Ganze auf mathematischen Beinen; der heuristische Charakter ging verloren.

 

Beispiel 2: 

Die Weibullverteilung wurde eingeführt, weil sie sich zur Ermittlung von alterungsbedingten Lebensdauern hervorragend eignet. 

Mathematisch gesehen musste man dies jahrzehntelang als reine Willkür ansehen, bis schliesslich in der Extremwertstatistik die Weibullverteilung auch eine streng mathematische Berechtigung bekam, welche aus der Zuverlässigkeitstechnik nicht mehr wegzudenken ist. 

 

Beispiel 3: 

Die Betaverteilung dient zur Modellierung zweiseitig begrenzter Verteilungsfunktionen, weil sie sich dafür besonders gut eignet. 

"Man kann die Betaverteilung durch geschickte Wahl der beiden Parameterwerte so hinbiegen, dass sie das vorliegende Problem gut beschreibt".

Ein mathematische Begründung gibt es freilich nicht.

Entscheidend ist, "dass es funktioniert", und nicht "dass es mathematisch begründet ist".

 

Heuristiker tendieren dazu, Theorien zu verwerfen, wenn die Messwerte es nahe legen, während Hermeneutiker eher die Messwerte in Frage stellen würden.

25.08.2005


Hierarchische Versuchspläne (Nested Designs, geschachtelte Pläne) 

Siehe DoE.

25.08.2005


Histogramm 

Eine graphische Darstellung der absoluten Häufigkeitsverteilung der Werte eines Merkmals

Bei kontinuierlichem Merkmal müssen zuerst Klassen festgelegt werden. 

Beispiel (kontinuierliches Merkmal): 

 

1.) Originalmesswerte.

1.5 2.9 1.6 1.0 4.3 1.8 2.6 3.2 3.8 4.3 1.7 2.5 2.5 4.6 3.5 3.6 4.1 5.6 6.0 2.9 4.4 2.2 1.6 1.3 5.3

 

2.) Festlegung von Klassen 

Klassenbeschreibung Obere Klassengrenze

Anzahl 

vorkommender Werte

Werte bis von 0,0 bis 1.0 1,0 1
Werte bis von >1,0 bis 2.0 2,0 6
Werte bis von > 2,0 bis 3.0 3,0 6
Werte bis von >3,0 bis 4.0 4,0 4
Werte bis von >4,0 bis 5.0 5,0 5
Werte bis von >5,0 bis 6.0 6,0 3

 

 

3.) Diagramm 

 

Für die Erstellung eines Histogramms in Excel mittels der Analysefunktion "Histogramm" siehe hier.

Für eine Exceldatei mit Histogramm und variabler Klassenanzahl und -breite siehe hier

 

Gängige Verfahren zur Bestimmung der Verteilungsfunktion aus einem Histogramm sind 

25.08.2005


Hochrechnung

Anderer Begriff für Inferenz

Das Schliessen von einer Stichprobe auf die Grundgesamtheit, wobei in der Regel die Angabe von Vertrauensintervallen fehlt, das heisst, das Ergebnis der Stichprobe wird einfach auf die Grundgesamtheit umskaliert. 

14.11.2005


Hoeffding Ungleichung

Näherungsgleichung für eine obere Schranke der Wahrscheinlichkeit, dass die Summe mehrerer Zufallsvariablen Xi nicht mehr als eine vorgegebene Konstante c vom Erwartungswert der Summe abweicht.

Die angegebene Formel ist eine Vereinfachung. Die Zufallsvariablen Xi sind so zu skalieren, dass ihre Erwartungswerte jeweils 0 ergeben. (Zentrierung

ai und bi sind diejenigen Schranken, innerhalb derer die Ausprägungen der Zufallsvariablen Xi auf jeden Fall zu liegen kommen.  

 

Beispiel 

Ein idealer Würfel wird 1000 Mal geworfen (Augenzahlen 1,2,3,4,5,6). 

In diesem Beispiel handelt es sich um 1000 unabhängige, aber identische Zufallsvariablen, 

deren Ausprägungen 1,2,3,4,5 oder 6 betragen können.

Der Erwartungswert der Summe aller Augenzahlen beträgt (1+2+3+4+5+6)/6 *1000 = 3500. 

 

Wie gross ist die Wahrscheinlichkeit, dass die Summe der Augenzahlen bei 1000 Würfen mindestens 

  1. 4000 

  2. 3600

  3. 3500    beträgt? 

zu 1. 

Der Erwartungswert für einen Wurf liegt bei 3,5. Die Schranken bei 1 und 6.  

Verschieben der Skala um 3,5 sodass der Erwartungswert bei 0 zu liegen kommt, führt auf die Schranken -2,5 und +2,5.

Also c= (4000-3500)=500, ai = -2,5 und bi = +2,5. 

Eingesetzt in obige Formel: 

= 2,1E-9 

 

entsprechend 2. und 3. 

= 0.45

 

= 1 

Achtung: bei den Ergebnissen handelt es sich um obere Schranken. 

 

Siehe auch Chernoff Ungleichung 

28.11.2005


Holm

"Sequentieller" Bonferroni Ansatz zur Alpha Risiko Adjustierung. Siehe Bonferroni.

25.08.2005


Homomerität 

Zwei Populationen mit gleichem Verteilungsfunktionstyp (z.B. beide normalverteilt) sind homomer. 

Homomerität ist eine wichtige Forderung bei der Anwendung parameterfreier Tests

  25.08.2005


Homoskedastizität

= Varianzhomogenität

25.08.2005


Hotelling's T2

Verallgemeinerung des (eindimensionalen) t-Test auf mehrere Dimensionen.

Wie beim t-Test werden 2 Gruppen (oder Stichproben) betrachtet, jedoch mehrere abhängige Variablen.

Nicht zu verwechseln mit der studentisierten Spannweitenverteilung.

Hotelling's T2 wird im Zusammenhang mit den Vertrauensintervallen bei Multipler linearer Regression behandelt. 

Der Begriff Hotelling's T2 wird oft verwendet, wenn man eigentlich gemeinsame Vertrauensintervalle mehrerer Variablen meint.

25.08.2005


 

HPP, Homogener Poisson Prozess

Poisson Prozess, bei dem die mittlere Anzahl Ereignisse pro Zeitintervall konstant ist. Bei einem inhomogenen Poisson Prozess (IHPP) ändert sich die mittlere Anzahl Ereignisse pro Zeitintervall. 

Tests, die speziell auf sich ändernde Ausfallraten testen, befinden sich hier

Siehe auch Duane

25.08.2005


HRD 5 

Zuverlässigkeits-Berechnungsstandard für elektronische Systeme der britischen Telekom. HRD5 besitzt eigene Umgebungsbedingungen.

25.08.2005


H-Test

= Kruskal Wallis Test

14.11.2005


Hypergeometrische Verteilung

Ersetzt die Binomialverteilung bei nicht-unendlichen Grundgesamtheiten.

Urnenmodell:

Die Binomialverteilung beschreibt "Ziehen mit Zurücklegen". Die Hypergeometrische Verteilung dagegen "Ziehen ohne Zurücklegen".

Beim Ziehen von Kugeln aus einer Urne wird die Ziehungswahrscheinlichkeit einzelner Kugelsorten in der Urne durch die bereits gezogenen Kugeln verändert, da sich die Zusammensetzung der Grundgesamtheit nach jeder Ziehung ändert.

Anmerkung: ("Binomialkoeffizient")

Beispiel:   =

 

N: Grösse der Grundgesamtheit 

d: Anzahl Merkmalsträger in der Grundgesamtheit

n: Grösse der Stichprobe  

x: Anzahl Merkmalsträger in der Stichprobe

F: Verteilungsfunktion, f: Dichtefunktion

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
np

mit p = d/N

         

 

Anschauliche Herleitung der Formel f(x)

Die 3 Binomialkoeffizienten im Ausdruck für f(x) stehen alle für Ziehen ohne Zurücklegen, wobei die Anordnungsreihenfolge egal ist. Siehe hierzu auch Kombinatorik.

Der Nenner in dem obigen Ausdruck für f(x) ist die Anzahl aller denkbaren Möglichkeiten, eine Stichprobe des Umfangs n aus einer endlichen Grundgesamtheit des Umfangs N zu ziehen. Im Zähler steht die Anzahl "günstiger Fälle", das heisst, diejenige Anzahl Fälle, die genau x Merkmalsträger in der Stichprobe haben.

Diese Anzahl günstiger Fälle setzt sich aus dem Produkt zweier Anzahlen zusammen:

  • der Anzahl Fälle, x Merkmalsträger aus der Grundgesamtheit auszusuchen,

  • der Anzahl Fälle, N-d "Nicht-Merkmalsträger" aus der Grundgesamtheit auszusuchen.

Für eine Veranschaulichung der Beziehungen 

Hypergeometrische Verteilung - Binomialverteilung - Poissonverteilung - Normalverteilung 

in Excel siehe hier.

Für eine mathematische Darstellung der selben Beziehungen siehe hier.

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.  

 

Für die Herleitung von Erwartungswert und Varianz der Hypergeometrischen Verteilung siehe hier.

11.09.2005


Hyper Griechisch-Lateinisches Quadrat 

Siehe DoE.

25.08.2005


Hypothesentest 

Siehe statistischer Hypothesentest

25.08.2005


 

I

 


IHPP, inhomogener Poisson Prozess 

Auch NHPP, non homogeneous Poisson Process.

Poisson Prozess, bei dem sich die mittlere Anzahl Ereignisse pro Zeitintervall, also die Ausfallrate, ändert. 

 

Tests, die speziell auf sich ändernde Ausfallraten testen, befinden sich hier

 

Siehe auch Reliability Growth

25.08.2005


Indirekte Messergebnisse

Siehe Fehlerfortpflanzungsgesetz.

15.01.2006


Indifferenzzone

= Effektgrösse

25.08.2005


Induktiv 

"Gegenteil" von Deduktiv

Vom Besonderen zum Allgemeinen.

Aufgrund von in Einzelfällen gewonnenen Erkenntnissen werden weiterreichende Schlüsse auf die Allgemeinheit gezogen. 

In Naturwissenschaften sehr verbreit.

Siehe auch induktive Statistik

25.08.2005


Induktive Statistik 

Schliessende Statistik. = Inferenzstatistik.

Beschäftigt sich mit Stichproben, nicht mit (vollständigen) Grundgesamtheiten

Mit der Information aus der Stichprobe werden Schlüsse auf die gesamte Grundgesamtheit gezogen.

Aussagen der induktiven Statistik sind demnach immer mit (bekannten und definierten) Fehlern behaftet. (--> Vertrauensbereich und Zufallsstreubereich). 

Trotzdem sind diese Aussagen vollständig und endgültig.

Sämtliche statistische (Hypothesen-) Tests gehören zur induktiven Statistik. 

25.08.2005


Infant Mortality 

= Frühausfall.

25.08.2005


Inferenz, statistische

Der Vorgang des Schliessens . 

Von einer Stichprobe ausgehend wird mittels statistischer Hypothesentests auf Eigenschaften der gesamten Grundgesamtheit geschlossen. 

Wesenszug der Inferenzstatistik ist also die Überprüfung von Hypothesen.

Siehe induktive Statistik.

Das "Gegenstück" zur Inferenzstatistik ist die deskriptive Statistik

25.08.2005


Intention-to-treat-Analyse

Es werden im Gegensatz zur On-treatment-Analyse alle Stichprobenobjekte in die Auswertung mit einbezogen, unabhängig davon, ob sich die Objekte an den Versuchsplan und -Ablauf gehalten haben oder nicht ("Protokollverletzer")

Dies ist genau dann sinnvoll, wenn zu vermuten ist, dass ein "umgekehrt kausaler Zusammenhang" besteht, also z.B. Patienten das Medikament nicht einnehmen konnten, weil es ihnen zu schlecht ging, und nicht etwa: Die Patienten nahmen das Medikament nicht, deshalb ging es ihnen schlecht.

25.08.2005


Interaktion 

=Wechselwirkung

25.08.2005


Interpolation

Eine Schätzung, bei der der geschätzte Bereich innerhalb desjenigen Bereiches liegt, für den Daten vorliegen. 

Den einfachste Fall stellen 2 Punkte dar, die mit einer Geraden verbunden werden. Dies wäre eine lineare Interpolation bezüglich der beiden Punkte. 

Siehe auch Extrapolation

17.11.2005


Interquartilsabstand

Siehe Quartilsabstand

14.03.2006


Intervallschätzung 

"Gegenteil" von Punktschätzung.

Wird bei einer Schätzung ein Vertrauensintervall mit angegeben, dann spricht man von einer Intervallschätzung.  

(Siehe auch Schätzen)

25.08.2005


Intervallskala

Siehe  Skalenniveaus.

25.08.2005


Intraklassenkorrelation 

Siehe Whitfield's Zwillingskorrelation

25.08.2005


Inversion 

Siehe Kendalls Tau.

25.08.2005


I-optimal

Siehe DoE, Begriffserklärungen. 

13.10.2005


Irrtumswahrscheinlichkeit 

Irreführendes Synonym für Alpha Risiko

25.08.2005


ISO

International Organization for Standardization.

Internationales Komitee, das sich um die Erstellung und Pflege von Normen kümmert.

Die Vertretung Deutschlands geschieht durch das DIN Institut, Deutsches Institut für Normung.

Beispiele:

25.08.2005


ISO 2859 

Siehe Stichprobenprüfung nach DIN-ISO

25.08.2005


ISO 3951

Siehe Stichprobenprüfung nach DIN-ISO

25.08.2005


ISO 9001:2000 

Internationale Norm für ein Qualitätsmanagement System. Stand 2000. 

Die ISO 9001:2000 enthält Forderungen an ein Qualitätsmanagement System, bei deren Erfüllung für Aussenstehende nachvollziehbar ist, dass die betreffende Organisation über ein reiferes Qualitätsmanagement System verfügt. 

Somit schafft die Zertifizierung nach ISO 9001:2000 Vertrauen in die Organisation. 

Wesentliche Grundzüge der ISO 9001:2000 sind:

  • Erhöhung der Kundenzufriedenheit

  • Ständige Verbesserung

  • Prozessorientierter Ansatz

Die ISO 9004:2000 ist eine Anleitung für das Verstehen und die Einführung der ISO 9001:2000.

 

Siehe auch das ISO 9001 Glossar.

25.08.2005


Iteration

Siehe Run, Punkt 3.

25.08.2005


Iterationshäufigkeitstest

Siehe Wald Wolfowitz Runs Test  

25.08.2005


Iterationshäufigkeitstest, sequentieller

Siehe Sequentieller Iterationshäufigkeitstest.

25.08.2005


Iterationslängen Test.

Dieser Test adressiert die Begriffe "Glücks-" oder "Pechsträhne". 

Voraussetzung:  Dichotomes Merkmal.  

 

Vertiefung

25.08.2005


Iterationstest 

Oberbegriff für Tests, die Iterationen (= Runs) adressieren.

Beispiele:

25.08.2005


 

J

 


Jackknife 

Siehe Resampling

25.08.2005


Jonckheere Terpstra Test

Trendtest bei ordinalem Datenniveau.

Voraussetzung: Homomere Stichproben.

Dieser Test wird nach einem signifikanten Kruskal-Wallis Test eingesetzt, wenn für die Mediane der Stichproben folgende Nullhypothese formuliert wird:

, wobei M für den Median der jeweiligen Stichprobe steht.

 

Vertiefung 

25.08.2005


 

K

 


Kanonische Analyse, kanonische Korrelation

Verallgemeinerte Form des allgemeinen linearen Modells bzw. der multiplen Korrelation.

Im Modell der kanonischen Korrelation wird davon ausgegangen, dass sich eine Linearkombination von gewichteten abhängigen Variablen y durch eine Linearkombination von gewichteten unabhängigen Variablen x beschreiben lässt.

Die Kanonische Korrelation sucht also in beiden Gruppen von Variablen eine Linearkombination mit der Eigenschaft, dass die Korrelation zwischen ihnen maximiert wird. (siehe auch PLS)

yij :  i-te Realisierung der j-ten abhängigen Variablen yj

xik:  i-te Realisierung der k-ten unabhängigen Variablen xj

bk   k-ter unbekannter (zu bestimmender) Modellparameter

ai   i-ter unbekannter (zu bestimmender) Modellparameter, 

ei   i-ter unbekannter Fehler e. 

 

In diesem Beispiel wurden also 4 Messwerte yi der (beiden) abhängigen Variablen y1 und y2 generiert. 

Bei jeder der 4 Messungen von y1 und y2 hatten die 3 unabhängigen Variablen xj bestimmte Werte xij inne. 

Gesucht sind nun diejenigen Werte der Modellparameter bi und ai , die die abhängigen Variablen y1 und y2 durch die unabhängigen Variablen xj bei möglichst kleinen Fehlern ei erklären. 

Die durch die Linearkombination entstandenen Variablen heißen 
erste kanonische Variablen
Die (bivariate) Korrelation zwischen ihnen ist die erste 
kanonische Korrelation. 

Die kanonischen Variablen werden dann aus den jeweiligen
Variablensätzen herauspartialisiert. Mit den dabei übrigbleibenden 
Residuen wird erneut eine kanonische Korrelation berechnet.
Das ist die zweite kanonische Korrelation.

(Auf das, was die erste kanonische Korrelation "übrig gelassen" hat, wird nun die zweite kanonische Korrelation angewendet)

Das wird solange fortgesetzt, bis die neu bestimmten
kanonischen Korrelationen = Null sind oder ein
vorgegebener Variablensatz erschöpft ist. 

Man erhält also eine Folge von Koeffizienten:

Die kanonische Korrelation insgesamt ergibt sich dann als:

25.08.2005


Kaplan Meier

Methode zur Bestimmung der mittleren Lebensdauer. 

Diese Methode wird besonders in klinischen Forschung angewandt. 

Charakteristika: 

  • Zeitintervalle werden durch Ereignisse festgelegt und sind im Normalfall unterschiedlich lang

  • In jedem Zeitintervall können neue Testobjekte hinzukommen oder laufende Testobjekte herausfallen. 

Für eine nähere Beschreibung der Kaplan Meier Methode siehe hier.

25.08.2005


Kardinalskala

Oberbegriff für Intervallskala und Verhältnisskala.

Siehe Skalenniveaus. 

25.08.2005


Karnaugh Veitch Diagramm

Graphisches Hilfsmittel zur Vereinfachung (komplizierter) logischer Ausdrücke der Boole'schen Algebra

Einsatzgebiet hauptsächlich in der Vereinfachung digitaler Schaltungen. 

Ausgegangen wird von einer Wahrheitstabelle.

 

Beispiel mit 4 Variablen. 

Eine Lampe soll bei nur ganz bestimmten Kombinationen der Schalter A,B,C und D brennen. 

Alle 4 Schalter kennen nur 2 Zustände: 0 und 1. 

A 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1
B 0 0 0 0 1 1 1 1 0 0 0 0 1 1 1 1
C 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1
D 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1
Lampe 0 0 0 0 0 0 0 0 1 1 1 1 0 0 1 1

 

Die Lampe soll also bei 6 bestimmten, fest vorgegebenen logischen Konstellationen von A,B,C und D brennen. 

Für den Zustand "Lampe an" ergibt sich aus der Tabelle folgender boole'sche Ausdruck: 

Anmerkung:

Querstrich bedeutet "NICHT", fehlende Verknüpfungszeichen zwischen den Variablen ABCD bedeutet UND.

Nun zum Karnaugh-Veitch Diagramm:

Rechts ist das mit den Beispieldaten bereits ausgefüllte Karnaugh-Veitch Diagramm dargestellt. Die Farben entsprechen denen in obiger Tabelle.

Die Variablen A,B,C,D sowie deren Negationen ¬ sind derart an der Seite des Diagramms angeordnet, dass die 16 Felder jede logische Zustandskombination der 4 Variablen A,B,C,D genau einmal abdecken. 

Der obige boole'sche Ausdruck wird durch die 6 Einsen repräsentiert.

Nun zum eigentlichen Zweck des Karnaugh-Veitch Diagramms: 

Durch scharfes Hinsehen erkennt man, dass die rechten 4 Einsen (markiert durch blaues Oval) ganz einfach durch den logischen Ausdruck AC dargestellt werden können. (A UND C)

Entsprechendes gilt für die verbleibenden 2 Einsen (braunes Oval): A¬B. (A UND NICHT B)

Damit vereinfacht sich der obige boolesche Ausdruck zu AC v A¬B

Natürlich hätte man dieses Ergebnis auch rechnerisch durch algebraisches Zusammenfassen und Anwendung der De Morgan'schen Regeln herausbekommen.

 

14.03.2006


 

Kategorialskala

Siehe Skalenniveaus.

25.08.2005


Kategorie

Unterteilung des Wertebereiches einer stetigen Variablen in Gruppen. 

Mit der Kategorisierung geht Informationsverlust einher: 

Befand man sich vorher auf mindestens ordinalem Skalenniveau, so befindet man sich nach der Kategorisierung nur noch auf nominalem (kategorialem) Niveau.

25.08.2005


Kausalität 

Logischer Zusammenhang, basierend auf Ursache und Wirkung. 

Strikt zu trennen von "Korrelation".

Wenn bei einem statistischen Hypothesentest ein signifikantes Ergebnis bezüglich eines "Effektes" zwischen A und B herauskommt, bedeutet das noch lange nicht, dass A und B direkt zusammenhängen, oder gar, dass A aus B oder umgekehrt folgt. 

Es kann nämlich auch sein, dass A und B von einer dritten Variablen, C, abhängen. 

 

Beispiel 1:  

Autos mit Klimaanlage erfahren innerhalb ihrer Gebrauchsdauer eine höhere Kilometerleistung als Autos ohne Klimaanlage. 

Es ist aus technischen Gründen offensichtlich, dass Kilometerleistungen nicht durch Klimaanlagen an sich erhöht werden können. 

Nahe liegend ist jedoch, dass Klimaanlagen von Vielfahrern bevorzugt werden, oder dass Klimaanlagen tendenziell in teurere Autos, welche an sich schon höhere Kilometerleistungen haben werden,  eingebaut werden. 

Die dritte Variable (Drittvariable) könnte also hier "Vielfahrer" oder "teurere Autos" lauten.

 

Beispiel 2: 

Je mehr Feuerwehrleute an einer Brandbekämpfung teilnehmen, desto grösser ist der entstandene Brandschaden. 

Auch hier ist es falsch, wenn man glaubt, durch weniger Feuerwehrleute den Schaden zu minimieren. 

Ursache von beidem ist die Drittvariable "Grösse des Brandes".  

25.08.2005


Kenndalls Konkordanzkoeffizient

Dieses Korrelationsmass wurde entwickelt zur Beschreibung der Urteilsübereinstimmung bei ordinalem Skalenniveau

Der Wertebereich erstreckt sich von 0 (maximale Nicht-Übereinstimmung, Diskordanz) bis 1 (maximale Übereinstimmung, Konkordanz).

 

Hintergrund: 

m Urteiler sollen n Objekte bewerten, indem sie sie in eine Rangreihe bringen. 

  • Wenn alle Beurteiler zufällig urteilen, dann ist die Summe der zugewiesenen Urteilsränge (Rangsummen) bei allen Objekten ungefähr gleich: = (m+2m+3m+...+nm)/n --> maximale Diskordanz. 

  • Wenn sich die Beurteiler in allen Objekten 100% einig sind, dann betragen die Rangsummen 

    m, 2m, 3m,...,nm, wobei m die Rangsumme des Rang-ersten Objektes, nm die Rangsumme des rangletzten Objektes ist. ---> maximale Konkordanz. 

Je unterschiedlicher die Rangsummen der Objekte sind, desto höher ist die Konkordanz, desto eher stimmen die Beurteiler in ihren Urteilen überein. 

 

Das Devianzmass ist definiert durch folgende Quadratesumme: 

 

Ti: Rangsumme des i-ten Objektes 

Tdurchschnitt: durchschnittliche Rangsumme (bei maximaler Diskordanz) 

 

Dieses Devianzmass muss noch an der maximal möglichen Quadratesumme (resultierend im Falle höchster Konkordanz: m, 2m, 3m,....,nm) relativiert werden, um es auf den Wertebereich [0...1] abzubilden.  

Daraus erhält man den Konkordanzkoeffizienten   

 

  ,  bzw.  

In dieser Form werden Ties (Rangbindungen) jedoch nicht berücksichtigt.

 

Signifikanztest: 

Bei n>7 Objekten ist die Prüfgrösse W asymptotisch Chi-Quadrat verteilt mit n-1 Freiheitsgraden

Mit der Excelfunktion CHIVERT(Prüfgrösse, n-1) erhält man das einseitige Signifikanzniveau des Konkordanzkoeffizienten. 

 

Siehe auch Tabelle Korrelationskoeffizienten

25.08.2005


Kendalls Tau 

Ein Rangkorrelationskoeffizient (-1.....+1). Weniger verbreitet als der Spearmansche Rangkorrelationskoeffizient, jedoch weitaus mächtiger.  

Ein PRE-Mass

 

Im Gegensatz zu anderen Korrelationskoeffizienten werden ALLE Wertepaare UNTEREINANDER verglichen, nicht nur je die 2 Werte eines Paars. 

Ausserdem ist die Anwendung von Kendalls Tau nicht auf Wertepaar-Reihen beschränkt, sondern kann auf beliebig grosse K x L Kontingenztafeln angewendet werden.

 

Im Gegensatz zum Spearmanschen Rangkorrelationskoeffizienten wird anstatt der quadrierten Rangdifferenzen die Fehlordnung der Paare untereinander ausgewertet. 

Deswegen ist Kendalls Tau unempfindlicher gegenüber Ausreissern

 

Siehe auch Tabelle Korrelationskoeffizienten

 

Vertiefung

25.08.2005


Kern 

Siehe Kerndichteschätzung 

14.11.2005


Kerndichteschätzung 

Verfahren zur Bestimmung der hinter einer gegebenen Stichprobe stehenden Verteilungsdichtefunktion, wobei die explizite Natur der Verteilungsdichtefunktion nicht im Fokus steht.  

Zu verstehen als: "Schätzung der Verteilungsdichtefunktion mit Hilfe eines Kernes".

(Siehe auch Schätzen)

Vereinfacht und bildlich ausgedrückt:

 

Man denkt sich die Stichprobe des Umfanges n auf der Skala so abgebildet, dass jeder Wert durch einen Punkt dargestellt wird.

Nun wählt man eine eingipfelige Modellfunktion (Kern) und legt diese derart über alle einzelnen Punkte, dass die "Höcker" genau über den Punkten zu liegen kommen. 

Jetzt hat man ein Schaubild vorliegen, in dem n "Höcker" eingezeichnet sind. 

Schliesslich addiert man alles auf und skaliert so, dass die resultierende Funktion den Flächeninhalt 1 hat. 

Die ursprünglichen "Höcker" verschmieren somit zu einer mehr oder weniger glatten Funktion, die man Kerndichteschätzer nennt. 

Die resultierende Funktion ist eine Summe aus n Gliedern, die keinen direkten Schluss auf eine "bekannte" Verteilungsfunktion zulässt. Das ist aber auch nicht Ziel dieser Methode. 

 

Etwas formeller ausgedrückt:  

 

Die Stichprobe bestehe aus den Werten x1, x2,...., x

Die Funktion 

 

ist die Kerndichteschätzung der hinter der Stichprobe stehenden (zu ermittelnden) Verteilungsdichtefunktion. 

"Kern" kann im Prinzip irgendeine eingipfelige Verteilungsdichtefunktion sein, vorzugsweise jedoch eine mathematisch leicht handhabbare, die ausserdem noch die Bedingung Integral[KERN(t)] =1 erfüllen muss. 

d ist ein Skalierungsfaktor, der zur Modellanpassung dient. 

 

Für "geschickt" gewähltes d und n --> oo konvergiert f(t) immer "fast sicher" gegen die unbekannte Verteilungsdichtefunktion. 

 

Oft verwendete Kerne sind zum Beispiel die Dichtefunktion der Standard-Normalverteilung, oder die Dichtefunktion der t-Verteilung mit einem Freiheitsgrad (dann auch Cauchyverteilung genannt). 

14.11.2005


Klardauer 

Engl: Uptime. 

Diejenige Zeitdauer, in der ein System verfügbar ist.  

Klardauer + Unklardauer = Gesamtdauer. 

Klardauer/Gesamtdauer = Verfügbarkeit.

31.08.2005


Klasse

Teilgruppe oder Untermenge einer Reihe von Messwerten.

Die Einteilung einer Wertemenge in Klassen und die anschliessende Darstellung mittels Balkendiagramm führt zur Häufigkeitsverteilung.

Saubere Klasseneinteilung erfordert mindestens, dass die Klassengrenzen alle gleiche Abstände haben.

Für die Festlegung der Anzahl Klassen gibt es mehrere Vorschläge (n = Anzahl Einzelwerte):

n1/3 ,         n1/3   und   1+ lg(n)/lg(2)

09.10.2005


Klassifikationsbäume 

Siehe Entscheidungsbäume.

25.08.2005


Kleinste Quadrate Method

Allgemeine Methode, aus Originaldaten die Parameter für ein zugrunde gelegtes theoretisches Modell zu berechnen.

Wenn die Originaldaten mit einem "zufälligen (also normalverteilten) Rauschen" behaftet sind ( "Messunschärfe" ->ALM), dann liefert die Minimierung der Summe der Abstandsquadrate (= kleinste Quadrate Methode) den besten Schätzwert für die Modellparameter.

Anders formuliert:

Die minimale Abstandsquadratesumme ist die Varianz der zugrunde gelegten "Rausch-Normalverteilung".

 

Die Kleinste Quadrate Methode wird durch den Satz von Gauss-Markov begründet und findet besonders in der (multiplen) linearen Regression Anwendung.

Die Kleinste Quadrate Methode steht in Konkurrenz zur Maximum Likelihood Estimation.

 

Vertiefung

 

Ein weiteres Verfahren, insbesondere zur Bestimmung von Verteilungsfunktionen ohne jegliche Modellannahmen, ist die Kerndichteschätzung

26.08.2005


Klinische Forschung 

Beschäftigt sich mit der Identifizierung von Krankheiten, der Entwicklung, Herstellung und Erprobung von Medikamenten. 

Statistische Methoden kommen vor allem bei der Identifizierung von Krankheiten und der Erprobung von Medikamenten zum Einsatz. 

Identifizierung von Krankheiten: 

Dies geht immer mehr in Richtung genetischer Forschung: 

Welche Gene werden unter welchen Bedingungen wie stark aktiv? 

Welche Proteine werden unter welchen Randbedingungen gebaut? 

Hier hat man es in der Regel mit sehr umfangreichem, mehrdimensionalem Datenmaterial zu tun, das zur Generierung von Hypothesen herangezogen wird. 

Die Bestätigung oder Widerlegung der gestellten Hypothesen anhand weiterer Daten führt zu gesichertem Wissen. 

Erprobung von Medikamenten: 

Die Wirksamkeit von Medikamenten muss anhand von Versuchspersonen sichergestellt werden. 

Da hier natürlicherweise die gewünschte Wirkung im Vorhinein schon feststeht, kommen hier ausschliesslich hypothesen-testende statistische Verfahren zum Einsatz. 

Die Stichproben sind typischerweise klein bis mittelgross, es gibt meistens nur eine oder höchstens sehr wenige abhängige Variablen. Die geltenden Skalenniveaus sind sehr oft ordinal, weshalb nonparametrische Methoden hier sehr verbreitet sind. 

26.08.2005


Klumpenverteilung

Keine Verteilungsfunktion im mathematischen Sinne, sondern eine phänomenologische Beschreibung eines z.B. im Strassenverkehr oft auftretenden Sachverhaltes.

Viele Fahrzeuge mit leicht unterschiedlichen Geschwindigkeiten auf einer freien Strasse führen zwangsläufig zu klumpenartigen Gruppen von Fahrzeugen. Diese Klumpen sind zeitlich veränderlich.

26.08.2005


Kohortenstudie 

Wird in Soziologie und Medizin angewandt. Spezielle Form der Längsschnittlichen Untersuchung.

Beobachtung einer definierten Patienten- oder sozialen Gruppe ( Kohorte) über einen bestimmten Zeitraum, um zu untersuchen, wie viele Personen gewisse Merkmale entwickeln. Fokus ist also, was in der Zukunft passieren wird.

Die beobachtete Menge ist also ein Teil einer Grundgesamtheit, die von vorne herein über gewisse Gemeinsame Merkmale oder Voraussetzungen verfügt. 

Siehe auch Studie.

26.08.2005


Kollinearität 

Bei multipler linearer Regression der gelegentlich auftretende Sachverhalt, dass unabhängige Variablen untereinander korrelieren

Dies kann dazu führen, dass

  • das Regressionsmodell mit zu vielen unabhängigen Variablen gefahren wird, und in Wirklichkeit vorhandene Signifikanzen nicht aufgedeckt werden, oder andersherum gesagt: Für die Erklärung von Zusammenhängen werden zu viele Variablen verwendet. 

  • geringe Änderungen in den Ausgangsdaten grosse Änderungen in den mittels Regressionsanalyse berechneten Parametern, bzw. deren Vertrauensintervallen bewirken.

Vorhandensein von Kollinearität im Datenmaterial kann beispielsweise mit folgenden Testverfahren überprüft werden:

  • Toleranzkoeffizienten 

    Es werden zwischen allen unabhängigen Variablenpaaren die Korrelationskoeffizienten berechnet.

    Die Korrelation wird immer zwischen einer unabhängigen Variablen und allen restlichen unabhängigen Variablen berechnet. Es handelt sich also um multiple Korrelationskoeffizienten.

    Eins minus einem quadrierten multiplen Korrelationskoeffizienten (sozusagen Eins minus dem "multiplen Bestimmtheitsmass") ergibt dann den jeweiligen Toleranzkoeffizienten.  

    Im Idealfall, also bei völliger Unabhängigkeit der abhängigen Variablen untereinander, sind alle multiplen Korrelationskoeffizient = 0 und die Toleranzkoeffizienten somit =1. 

    Anmerkung: 

    Es ist hier stets die Rede von Korrelation der unabhängigen Variablen untereinander; die abhängige(n) Variable(n)

    kommen beim Toleranzkoeffizienten nicht ins Spiel.

    Der Kehrwert des Toleranzindex ist der Varianzinflationsfaktor, VIF.

     

  • Konditionsindex

    Hierzu sei zunächst nochmal die Matrixform des Beispiels unter multipler linearer Regression erwähnt

    Dieses Beispiel beinhaltet 3 unabhängige Variablen, zu denen jeweils 4 Messwerte vorliegen.

    Berechnet man alle Korrelationskoeffizienten der einzelnen unabhängigen Variablen und ordnet dies in Matrixform an,

    so erhält man für dieses Beispiel eine 3*3 Korrelationsmatrix, welche in der Diagonalen 3 Einsen enthält (Korrelation von Variablen mit sich selbst ist ja immer = 1).

    Die Eigenwerte dieser Korrelationsmatrix sind Ausgangspunkt der Konditionsindizes.

    Der Konditionsindex Ki ist wie folgt definiert:

    Ist der grösste Konditionsindex deutlich grösser als 15, dann liegt sehr wahrscheinlich Kollinearität vor.

     

    • Die Berechtigung des Konditionsindex als Mass für Kollinearität beruht auf folgendem Sachverhalt:

      Wenn alle unabhängigen Variablen hoch miteinander korrelieren, dann liegen die Korrelationswerte alle in der Nähe von 1 oder -1.

      Korrelationsmatrizen mit ausschliesslich Werten nahe bei +/-1 haben Eigenwerte, deren relativer Unterschied sehr gross ist.

      -> grosse Konditionsindizes.

      Umgekehrt haben Korrelationsmatrizen, deren Nichtdiagonalelemente nahe bei 0 liegen (was bedeutet, dass die unabhängigen Variablen kaum korrelieren), Eigenwerte, deren relativer Unterschied sehr klein ist. -> kleine Konditionsindizes.

    • Der Verfasser ist der Auffassung, dass im Zweifelsfall die Toleranzkoeffizienten massgebend sind.

Siehe auch White Test.

15.09.2005


Kolmogorov  Smirnov Anpassungstest (KS Anpassungstest)

Ein Anpassungstest.

Der Kolmogorov Smirnov Anpassungstest testet eine empirische (kumulierte) Verteilungsfunktion gegen eine (beliebige) Verteilung, deren Parameter vollständig bekannt sein müssen.

Siehe weitere Anpassungstests.

 

Vertiefung

 

Anmerkung

  • KS Anpassungstest

    • Testet eine unbekannte Verteilungsfunktion gegen eine vollständig bekannte Verteilungsfunktion.

  • Lilliefors Variante des KS Anpassungstests

    • Testet eine unbekannte Verteilungsfunktion gegen eine Verteilungsfunktion, deren grundsätzlicher Typ zwar bekannt, die Verteilungsfunktionsparameter jedoch unbekannt sind. Nachteil ist, dass die Tabellen kritischer Werte für jeden Verteilungsfunktionstyp verschieden sind.

  • KS Omnibustest

    • Testet 2 völlig unbekannte Verteilungsfunktionen auf Gleichheit.

26.08.2005


Kolmogorov Smirnov Omnibustest

 

Verallgemeinerung des Kolmogorov Smirnov Anpassungstests.

Vergleich zweier empirischer Verteilungsfunktionen, deren Form und Parameter nicht bekannt zu sein brauchen.

 

Anmerkung

  • KS Anpassungstest

    • Testet eine unbekannte Verteilungsfunktion gegen eine vollständig bekannte Verteilungsfunktion.

  • Lilliefors Variante des KS Anpassungstests

    • Testet eine unbekannte Verteilungsfunktion gegen eine Verteilungsfunktion, deren grundsätzlicher Typ zwar bekannt, die Verteilungsfunktionsparameter jedoch unbekannt sind. Nachteil ist, dass die Tabellen kritischer Werte für jeden Verteilungsfunktionstyp verschieden sind.

  • KS Omnibustest

    • Testet 2 völlig unbekannte Verteilungsfunktionen auf Gleichheit.

 Siehe weitere Omnibustests.

 

Vertiefung

 

28.08.2005


Kolmogoroff, Wahrscheinlichkeit

Siehe Axiom, Beispiel 3. 

14.11.2005


Kombination

Siehe Kombinatorik

27.08.2005


Kombinatorik

Beschäftigt sich mit der Bestimmung der Anzahl möglicher Anordnungen von Objekten. 

Siehe folgende Tabelle.

27.08.2005


Komplementärereignis 

= Gegenereignis

Sei A ein Ereignis. Das Komplementärereignis zu A besteht aus allen Ereignissen, die im gesamten betrachteten Ereignisraum nicht zu A gehören. 

Siehe auch Venn Diagramme

14.03.2006


Konditionsindex

Masszahl für lineare Abhängigkeit von unabhängigen Variablen bei Regressionsmodellen.

Siehe Kollinearität.

15.09.2005


Konfidenzintervall

Siehe Vertrauensintervall.

27.08.2005


Konfidenzkoeffizient

= 1- Alpharisiko, oder 1-Betarisiko, je nachdem, ob man von der Null- oder Alternativhypothese ausgeht.

15.09.2005


Konfigurationsfrequenzanalyse 

Mathematisch gesehen ein vollfaktorieller Versuch auf höchstens ordinalem Skalenniveau

Zusammenfassende Bezeichnung für grosse (mehrdimensionale) Kontingenztafeln (mit schwachen Besetzungszahlen). 

27.08.2005


Konfirmatorische Studie 

"Gegenteil" der explorativen Datenanalyse

Eine konfirmatorische Studie ist in sofern mit einem statistischen Hypothesentest vergleichbar, als dass deren Durchführung zur Bestätigung / Widerlegung von Vermutungen dient. 

Konfirmatorische Studien dienen also zur Bestätigung oder Widerlegung von Hypothesen. 

 

Der Begriff "konfirmatorisch" kann im Zusammenhang mit praktisch jeder Methode verwendet werden. Er besagt lediglich, dass die Methode in diesem Fall zur Bestätigung einer Hypothese verwendet wird, die Methode an sich bleibt davon unberührt.

14.10.2005


Konkordant 

Gleich, übereinstimmend

Siehe Kendalls Konkordanzkoeffizient.

27.08.2005


Konservativ

(Ggs: liberal

Allgemeine Bezeichnung für den Zustand, mit einer Abschätzung oder einem Ergebnis "auf der sicheren Seite zu sein".

 

Statistische Hypothesentests:

Ein Test ist konservativ, wenn er nur "widerwillig" signifikante Ergebnisse hervorbringt, er also dazu tendiert, in Wirklichkeit vorhandene Unterschiede nicht zu erkennen.

21.09.2005


Konsistenz 

Siehe Gütekriterien für Schätzfunktionen 

27.08.2005


Konstruktionsverhältnis 

Mil 781: Das Verhältnis 

[entwicklungstechnisch vom Lieferanten angestrebte MTBF] / [vom Kunden geforderte MTBF]. 

 

Typische Konstruktionsverhältnisse laut MIL 781 liegen bei 1.5, 2.0 und 3. 

 

Es ist klar, dass das Konstruktionsverhältnis vor dem Test hinreichend begründet werden muss, denn mit höherem Konstruktionsverhältnissen gehen geringere geforderte Testdauern bei sonst gleicher statistischer Sicherheit einher. 

27.08.2005


Kontingenzkoeffizient

  1. Allgemeine Bezeichnung für Zusammenhangsmasse auf nominalem Skalenniveau

    Diese Zusammenhangsmasse basieren auf der Chi Quadrat Verteilung und drücken den Grad von Zusammenhängen in Kontingenztafeln aus. 

    Meistens ist jedoch der Kontingenzkoeffizient F gemeint. Siehe hierzu auch diese Exceldatei, und das Beispiel 2 unter Misserfolgsreduktion.

     

  2. Andere Bezeichnung eines bestimmten Kontingenzkoeffizienten, des Assoziationskoeffizienten

         N: Anzahl Einzelwerte.  CC= [0....>1]

 

Anmerkung:

Manchmal wird für C auch die Formel

angegeben (j = Anzahl Zeilen , Spalten,...wobei j die kleinste der Zahlen sein muss)

Bei hinreichend grossen Tabellen spielt dieser Unterschied keine wesentliche Rolle.

 

Siehe Tabelle Korrelationskoeffizienten

19.08.2005


Kontingenztabelle

Überbegriff  für (komplexere mehrdimensionale) Häufigkeitstabellen bei typischerweise nominalem, höchstens aber ordinalem Skalenniveau

Kontingenztafelanalyse ist das nominale bzw. ordinale Pendant zur (multiplen) Regressions- bzw. Varianzanalyse.

Die Vierfelder Tafel stellt den einfachsten Fall dar (2x2 Tabelle), 2xk Tabellen-Tests sind unter dem Namen Freeman-Halton Test bekannt.

27.08.2005


Kontinuierliche Skala (=Kardinalskala)

Gegenteil der diskreten Skala. Auch stetige Skala genannt.

Skala mit unendlich vielen Werten und beliebig fein abgestuften Zwischenwerten. 

Siehe auch Skalenniveaus.

27.08.2005


Kontinuitätskorrektur 

Siehe Yates Korrektur

27.08.2005


Kontrast (linearer Kontrast) 

Eine lineare Kombination aus Gruppenmittelwerten xi.

Wird bei A Priori Vergleichen verwendet. (Im Gegensatz dazu siehe A Posteriori Vergleiche

xi sind die Mittelwerte der Gruppen, die man untersuchen möchte.

 mit den folgenden Bedingungen: 

und 

 

Beispiel: 

6 Gruppen mit den Mittelwerten X1, X2, X3, X4, X5, X6.

Ein denkbarer linearer Kontrast (obige 2 Bedingungen erfüllen!) wäre zum Beispiel: 

 

Anwendung bei A Priori Vergleichen: 

Den in obigem Beispiel dargestellten linearen Kontrast würde man heranziehen, wenn man folgende Hypothese testen möchte: 

  • X1 und X2 liegen über dem Gesamtmittelwert (+0,5), 

  • X4, X5 und X6 liegen unter dem Gesamtmittelwert (-0,33), 

  • X3 unterscheidet sich nicht vom Gesamtmittelwert (+/-0).

Der weitere Testverlauf besteht aus einem t-Test mit der Nullhypothese "L=0" 

 

Man beachte, dass die Vermutung  aus der UND-Kombination von 3 Teilvermutungen besteht. 

 

Durch die Anwendung der linearen Kontraste ist also inhärent sichergestellt, dass man immer Aussagen für alle Mittelwerte gleichzeitig testet. 

Dieser Sachverhalt ist wichtig, wenn man danach einen Omnibus Test durchführen möchte. 

Omnibus Tests testen nämlich ebenfalls alle Gruppen gleichzeitig. Eine Durchführung paarweiser Tests vor einem Omnibus Test wäre nicht korrekt und würde zu widersprüchlichen Aussagen führen. Siehe dazu auch die Ausführungen in Post Hoc Tests

  27.08.2005


Kontrollgruppe 

In der klinischen Forschung diejenige Gruppe, die das Placebo, also nicht das Verum verabreicht bekommt. 

Mit Kontrollgruppen wird sichergestellt, dass eventuelle Behandlungserfolge auch tatsächlich durch den zu testenden Wirkstoff hervorgerufen werden.

27.08.2005


Kontrollvariable 

Je nach Absicht 2 unterschiedliche Bedeutungen: 

  • Stört die Variable den Versuch, und man kann sie nicht leicht eliminieren, dann heisst sie Störvariable

    Störvariablen müssen in der Auswertung herausgerechnet werden. 

    Beispiel: Intelligenztest. Störvariable ist die Schulbildung der Teilnehmer, da allein durch sie das Ergebnis merklich beeinflusst wird. Siehe auch Kovarianzanalyse

     

  • Wird der Informationsgehalt der Variable während des Versuchs bewusst ausgenutzt, dann nennt man sie Kontrollvariable

    Kontrollvariablen dienen dazu,

    • eine Einstellung der anderen Variablen zu finden, bei der der Einfluss der Kontrollvariable(n) auf die abhängige(n) Variable(n) möglichst gering ist, oder

    • Den Einfluss der Kontrollvariablen auf die abhängige Variable zu bestimmen.

    Beispiel: Robustheit eines KFZ-Fahrwerkes gegenüber der Fahrbahnbeschaffenheit. 

    Siehe auch Taguchi

Kovariable ist der wertneutrale Begriff. 

 

Wurden tatsächlich vorhandene Kovariablen im Versuch unwissentlich nicht berücksichtigt, so kann man dies in der darauf folgenden Auswertung zumindest teilweise "berücksichtigen", zumindest jedoch erkennen. 

Siehe dazu Panel und Effekte.

27.08.2005


Konzentration

Allgemeine Bezeichnung für die Konzentration eines Merkmals.

Im Gegensatz zur Disparität müssen die Merkmalsträger aber der Grösse des Merkmals nach ABSTEIGEND angeordnet werden.

Ausserdem werden nicht die Anteile Merkmalsträger, sondern die absolute Anzahl Merkmalsträger betrachtet.

Diese Anzahl kann sich zudem noch im Laufe der Zeit ändern.

Praktische Anwendung findet dies zum Beispiel in Marktanalysen.

Beispiel

1998 waren noch 7 Wettbewerber im Rennen (A,B,C,D,E,F), 2002 nur noch 5 (A,B,C,D,E).

Die Flächen unter den jeweiligen Kurven sind die jeweiligen Konzentrationsmasse.

 

Gebräuchliche Masse sind

  • Konzentrationskurve

    Die zu den beiden Jahren 1998 und 2002 gehörenden Konzentrationskurven sind in obigem Bild dargestellt.

     

  • Rosenbluth Index

    Dieser Index ist einfach die Hälfte der Fläche unterhalb der entsprechenden Kurve.

    Bei nicht allzu grosser Anzahl Merkmalsträger berechnet sich dieser Index durch folgende Reihensumme:

    n: Anzahl Merkmalsträger, hi: kumulierter Anteil [0....1] Merkmalsträger bis zum i-ten Merkmalsträger.

     

  • Herfindahl Index

    Dieser Index berechnet sich zu

    n: Anzahl Merkmalsträger, hi: kumulierter Anteil [0....1] Merkmalsträger bis zum i-ten Merkmalsträger.

    Bei sehr vielen Merkmalsträgern mit gleichen Ausprägungen ist H~0.

    Wenn überhaupt nur ein Merkmalsträger vorhanden ist, dann ist H=1.

    13.10.2005


Konzentrationskurve

Siehe Konzentration

13.10.2005


Korrelationsanalyse 

Im Unterschied zur Regressionsanalyse die Untersuchung des Zusammenhanges zweier gleichberechtigter Variablen.

Es geht um Kovariation von X und Y und nicht um Vorhersage von X durch Y.

Es wird versucht, eine mathematische Funktion (meistens eine Gerade) derart durch die Punktewolke der beiden Variablen im 2-dimensionalen Koordinatensystem zu legen, so dass die Abstandsquadratesumme der Punkte zur Geraden minimal wird. 

Ergebnis einer Korrelationsanalyse ist (sind) der Korrelationskoeffizient(en).

Voraussetzung:
Die beiden zu korrelierenden Variablen müssen normalverteilt sein. Wie stark die einzelnen
Wertepaare (x,z) im Einzelnen korrelieren, ergibt sich aus dem Korrelationskoeffizienten.
 

15.01.2006


Korrelationskoeffizient (Bravais, Pearson)

Metrisches Skalenniveau:

"Zusammenhangsmass" der Korrelationsanalyse. Meistens ist der (Bravais Pearsonsche) Produkt-Moment-Korrelationskoeffizient gemeint (metrisches Skalenniveau), welcher

die mit den beiden Standardabweichungen standardisierte Kovarianz darstellt:

, oder  , oder  .

Für letztere Beziehung siehe Z-Transformation (Gauss).

 

Voraussetzung: 

Die beiden zu korrelierenden Variablen müssen normalverteilt sein. 

Sie bilden also eine zweidimensionale Normalverteilung.

 

Der Korrelationskoeffizient kann aufgefasst werden als Cosinus des Winkels der beiden Geraden "Regression von x auf y" und "Regression von y auf x". 

Für weitere Zusammenhänge siehe auch Bestimmtheitsmass

Für Signifikanzberechnungen des Korrelationskoeffizienten siehe Z-Transformation (Fisher)

 

Korrelationskoeffizienten für andere Skalenniveaus: siehe folgende Tabelle.

 

Für eine Gegenüberstellung Pearson'scher Korrelationskoeffizient - Spearman'scher Rangkorrelationskoeffizient - Kontingenzkoeffizient F siehe diese Exceldatei.

 

Siehe auch multiple Korrelation. 

Siehe auch Standardfehler.

27.08.2005


Korrespondenzanalyse 

2 Bedeutungen: 

 

1.)

Eine Faktorenanalyse auf ordinalem Skalenniveau

Dient zur Auffindung von Ähnlichkeiten der Zeilen (oder Spalten) von Kontingenztafeln.

2.) 

In der Archäologie verbreitetes Verfahren, um die Inhalte von Ausgrabungsstellen zeitlich in Zusammenhang bringen zu können: 

Die Fundsachen pro Fundstelle werden als Vektor dargestellt, wobei jede Fundart (Helm, Messer, Wurfgeschoss, Becher) eine Dimension repräsentiert. Die Dimensionalität des Vektorraumes entspricht also der Anzahl verschiedenartiger Funde aller Fundstellen zusammengenommen und die Anzahl Vektoren entspricht der Anzahl Fundstellen.

Die Vektoren werden nun nebeneinander gestellt, sodass sie eine Matrix ergeben. 

Durch lineare Transformationen (hier nicht behandelt) wird nun versucht die Matrix so umzuformen, dass alle Fundsachen möglichst nahe der Hauptdiagonalen zu liegen kommen.

Die Hauptdiagonale entspricht dann der zeitlichen Abfolge, wobei die Richtung der Zeit mit anderen Methoden ermittelt werden muss.

16.01.2006


Kovariable

Siehe Kontrollvariable

27.08.2005


Kovarianz 

Beschreibt den Grad des "miteinander Variierens" ( des "Kovariierens") zweier Variablen x und y. 

Die Kovarianz ist die Summe der gemittelten Abweichungsprodukte zweier Variablen. 

Nachteilig ist, dass sie abhängig ist von den Maßeinheiten der gemessenen Variablen. 

/n

µx, µy : Mittelwerte der xi und yi.

 

Die Produkt-Moment-Korrelation, auch Bestimmtheitsmass genannt, behebt diesen Nachteil durch Standardisierung, also mittels Division durch die beiden Varianzen. Das Produkt der beiden Varianzen ist ja nichts Anderes als die maximal mögliche Kovarianz der beiden Variablen.

Der Fall maximaler Kovarianz ist gegeben, wenn beide Wertereihen identisch sind.

 

Wie für die Varianz gibt es für die Kovarianz eine sehr hilfreiche, oft gebrauchte Umformung

Kovarianz

= 1/n x [Summe aus den Produkten aller korrespondierenden Werte minus (Produkt aus beiden Wertesummen)/n]

 

|Cov(X,Y)|  £  sX * sY   (Cauchy-Schwartz'sche Ungleichung)  

 

Unterschiede in Kovarianzen (Varianz-Kovarianzmatrizen) testet der Box'sche M-Test

Kovarianzen können - im Gegensatz zu Varianzen- negativ sein.

27.08.2005


Kovarianzanalyse

Kombination von Korrelations– und Varianzanalyse;  

daher der Name: Ko- ( von Korrelation) und -varianzanalyse, 

nicht zu verwechseln mit dem Begriff Kovarianz.  

Auf dem allgemeinen linearen Modell beruhendes Verfahren.

  • Zuerst erfolgt eine Korrelationsanalyse bezüglich aller Kovariablen, auch Kontroll- oder Störvariablen genannt. 

  • Anschliessend wird über die Residuen der Korrelationsanalyse und die restlichen Variablen eine Varianzanalyse, ANOVA durchgeführt. Der nach der Korrelationsanalyse übrig gebliebene Rest (Residuen) geht also in die ANOVA ein

Der verfälschende Einfluss der Kovariablen wird durch die Korrelationsanalyse herauspartialisiert.  

Inhaltlich entspricht das Herauspartialisieren dem Blocking bei DoE.

 

Beispielskizze: 

Bei der Untersuchung der Auswirkung von Medikamenten auf die Denkleistung scheint offensichtlich, dass die von vorne herein gegebene Intelligenz der Testpersonen sich direkt als Störvariable auf die Untersuchung auswirkt. 

Diesem Sachverhalt kann man auf 2 Arten begegnen: 

  1. grösstmögliche Randomisierung, viele Testpersonen

  2. (Kovarianzanalyse) 

    Durchführen eines allgemeinen Intelligenztests VOR den Untersuchungen, damit diese Wirkung per Korrelationsanalyse aus den weiteren Untersuchungsergebnissen herauspartialisiert werden kann.   

    Mit dem "herausgerechneten" Intelligenzeinfluss wird anschliessend eine ANOVA durchgeführt.

27.08.2005


KQ-Methode 

Kleinste Quadrate Methode.

27.11.2005


Krauth Test (T1)

Testet den Unterschied zweier Verlaufskurven, wobei

  1. 2 physikalisch getrennte Stichproben gemessen werden (Beim T2 Test wird eine Stichprobe 2 mal gemessen),

  2. der zu erwartende Verlauf bereits im Voraus bekannt sein sollte, 

  3. der Verlauf lediglich "digital" als Folge von + oder - Werten beschrieben wird 

Vertiefung

27.08.2005


Krauth Test (T2)

Testet den Unterschied zweier Verlaufskurven, wobei

  1. ein und die selbe Stichprobe zweimal gemessen wird (Beim T1 Test werden 2 Stichproben einmal gemessen),

  2. der zu erwartende Verlauf bereits im Voraus bekannt sein sollte,  

  3. der Verlauf lediglich "digital" als Folge von + oder - Werten beschrieben wird 

Vertiefung

27.08.2005


Kreuzproduktmatrix

= Korrelationsmatrix.

Siehe Kollinearität.

15.09.2005


Kreuztabelle 

Andere Bezeichnung für (zweidimensionale) Kontingenztafel

27.08.2005


Kriterium 

= abhängige Variable = Prädiktor 

27.08.2005


Kritischer Pfad

(Engl.: Cut Set)

In der Zuverlässigkeitstechnik ein kleinstmöglicher Satz von Funktionsblöcken oder Ereignissen, die für sich alleine genommen den Ausfall des Gesamtsystems herbeiführen können.

  • Blockdiagramm: Minimale Sätze von Funktionsblöcken, bei deren Ausfall das Gesamtsystem als ausgefallen gilt.

    • Das Gegenteil hiervon, also die minimalen Sätze von Funktionsblöcken, die zum Betrieb des Gesamtsystems gerade noch ausreichen, nennt man Tie Sets.

  • Fehlerbaum:       Minimaler Satz von Basisereignissen, die das unerwünschte Endereignis herbeiführen können.

27.08.2005


Kritischer Korrelationskoeffizient

2 grundsätzlich verschiedene Bedeutungen.

  1. Derjenige Wert des Korrelationskoeffizienten, ab dem die zur Diskussion stehende Korrelation bei gegebener Nullhypothese als signifikant betrachtet wird, also ein zahlenmässiger Zusammenhang als "überzufällig" angesehen wird.

    Als Beispiel siehe das Beispiel bei Z-Transformation (Fisher).

  2. Insbesondere in der Zuverlässigkeitstechnik, bei Weibull- und anderen nichtlinearen Verteilungsfunktionstypen:

    Derjenige Wert des Korrelationskoeffizienten, ab dem die verwendete Verteilungsfunktion eine signifikante Anpassung an das gegebene Datenmaterial darstellt.

Die Bedeutung von 2. soll im Folgenden skizzenhaft verdeutlicht werden:

Ein grösserer Datensatz wird mittels Weibullnetz analysiert.

Der Korrelationskoeffezient ergibt sich zu 0,97, was man naiverweise für gut ansehen mag.

Der kritische Korrelationskoeffizient zum Signifikanzniveau 90 % ergibt sich jedoch zu 0,985.

Das bedeutet:

Die gewählte Verteilungsfunktion kann zwar rein zahlenmässig den Datensatz sehr gut erklären, denn immerhin 94% der Datenstreuung werden durch die ermittelte Verteilungsfunktion erklärt (0,97*0,97=0,94 = Bestimmtheitsmass).

Wenn man jedoch umgekehrt die ermittelte Verteilungsfunktion hernimmt und aus dieser wiederholt Stichproben der Grösse des zugrunde gelegten Datensatzes entnimmt, dann wird man in 90 von 100 Fällen einen Korrelationskoeffizienten von 0,985 oder grösser herausbekommen. 

So gut die ermittelte Verteilungsfunktion den Datensatz beschreiben mag, ist es doch eher unwahrscheinlich, dass der Datensatz tatsächlich vom Typ der ermittelten Verteilungsfunktion ist. 

27.08.2005


 

Kritischer Wert, Schwellenwert 

Bei statistischen Hypothesentests derjenige Wert der Prüfgrösse, ab dem (oder bis zu dem, je nach Testart) Signifikanz vorliegt.

In Tabellenwerken sind Prüfgrössen zu genau definierten Alpha Risiken tabelliert (meistens 10%, 5%, 1%, ....0.01%). 

Diese Prüfgrössen heissen auch historisch bedingt Schwellenwerte oder kritische Werte, da man in Zeiten vor der allgemeinen Verfügbarkeit von Statistiksoftware auf Tabellenwerke angewiesen war, in denen kritische Werte zu definierten Alpha Risiken tabelliert sind. 

Aber selbst heute noch sind Tabellenwerke mit kritischen Werten unersetzlich, da bei der Vielzahl von existierenden, zum Teil extrem rechenaufwendigen Tests die Arbeit mit Tabellen nicht nur wesentlich schneller ist, sondern entsprechende Software selbst heute oft kaum verfügbar ist. 

Das grösste Tabellenwerk sind die Biometrika Tables.

27.08.2005


Kruskal Wallis Test 

Erweiterung des Mann-Whitney Tests auf mehr als 2 Stichproben

Omnibustest.

Eine einfaktorielle Rangvarianzanalyse auf ordinalem Skalenniveau.

Wesentlichste Voraussetzung ist wie beim Mann-Whitney Test, dass alle Stichproben der selben Verteilungsfunktionsform unterliegen, und der Anteil an Ties nicht sehr gross ist. 

 

Eine Spezialanwendung des Kruskal Wallis Tests wird unter Meyer-Bahlburg Test beschrieben.

Diese Spezialanwendung wird für Trendanalysen bei Zeitreihen herangezogen.

 

Vertiefung

27.08.2005


Kurtosis 

Standardisiertes viertes zentrales Moment einer (Wahrscheinlichkeits-) Dichtefunktion.. 

Mass für die "Flachheit" der Spitze einer unimodalen Verteilungsfunktion

Manche Tests auf Normalverteilung (Siehe Anpassungstest) prüfen gerade dieses Moment.

Für eine Näherungsformel siehe Exzess.

27.08.2005


 

L

 


Lag 

Eine Wertereihe, deren Werte um i Positionen linear (oder zyklisch) verschoben sind, heisst i-tes Lag. 

Bei der Autokorrelation wird eine originale Messreihe mit allen ihren Lags korreliert, sodass man eine neue Wertereihe, bestehend aus Korrelationskoeffizienten, erhält. 

27.08.2005


Längsschnittliche Untersuchung 

Untersuchung entlang der Zeitachse, z.B. über mehrere Krankheitsstadien (Medizin) oder Lebensabschnitte (Sozialwissenschaften) hinweg. Untersucht wird hier immer eine zeitliche Entwicklung. 

Dies ist im Prinzip eine Messwiederholung

Siehe auch Querschnittliche Untersuchung.

27.08.2005


Lagemass 

= Lageparameter.

Allgemeine Bezeichnung für Masse von Verteilungsfunktionen, die über deren Lage etwas aussagen (nicht über deren Form). 

Gemeint ist in der Regel eine Art Mittelwert

Siehe auch Streuungsmass.

27.08.2005


Lageparameter 

Parameter, der die Dichtefunktion horizontal verschiebt. In den Fällen, in denen die Form der Dichtefunktion unbeeinflusst bleibt: Lineare Transformation.

Siehe auch Formparameter und Skalenparameter

Für eine Gegenüberstellung sämtlicher Verteilungsfunktionstypen siehe Formparameter.  

27.08.2005


Lambda

1. Fehlerrate

2. Maß für die Stärke des Zusammenhanges zweier nominalskalierter Variablen in einer Kreuztabelle

Ein PRE-Mass.

Siehe auch Tabelle Korrelationskoeffizienten

05.08.2006


Laplace Formel 

= Allgemeine mathematische Formulierung der Wahrscheinlichkeit von Ereignissen, 

die auf einem Abzählen der "in Frage kommenden" Fälle aus den "prinzipiell denkbaren" Fällen beruht:

P=[Anzahl der günstigen Fälle] / [Anzahl der möglichen Fälle] 

14.11.2005


Laplace Test 

Test auf Trend in der Ausfallrate

Vertiefung

27.08.2005


Laplaceverteilung  (doppelte Exponentialverteilung)

Eine an der Stelle x=µ gespiegelte Exponentialverteilung.

Die 2 im Nenner des Vorfaktors sorgt für korrekte Normierung des Integrals der Laplaceverteilung.

f: Dichtefunktion

 

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
µ 0 6 µ µ  

27.08.2005


Larson Nomogramm 

Graphisches Diagrammnetz zur Ermittlung von Quantilen der (kumulierten) Verteilungsfunktion bei Binomialverteilung. Pendant zum Wilrich Nomogramm (Normalverteilung) und Thorndike Nomogramm. (Poissonverteilung

 

Vertiefung

 

Siehe auch Wilrich Nomogramm 

Siehe auch Clopper-Pearson Nomogramm 

Siehe auch Durrant Nomogramm

27.08.2005


Laspeyres Index

Siehe Preisindex und Mengenindex.

16.10.2005


Lateinisches Quadrat  

Siehe DoE.

27.08.2005


Latente Variable

Auch hypothetisches Konstrukt genannt.

Gegenteil von manifeste Variable.

Nicht direkt messbare Grössen wie z.B.: Image, Wahrnehmung, Emotion, soziale Gruppenzugehörigkeit, Freizeitverhalten, Bereitschaft, Loyalität, Wechselneigung,....

Diese latenten Variablen müssen zuerst operationalisiert werden, bevor sie quantitativ erfassbar sind. 

Beispielsweise könnte die latente Variable "Image" operationalisiert werden durch die Anzahl positiver Pressemeldungen/Jahr, und die latente Variable "Soziale Gruppenzugehörigkeit" könnte man durch eine Kombination der Variablen "Ausbildung", "Fernsehstunden/Tag" und "Einkommen" operationalisieren. 

27.08.2005


LCC

"Life Cycle Cost"

Siehe Lebenszyklus.

27.08.2005


Lebensdauer 

Der Begriff Lebensdauer hat die selbe Bedeutung wie im umgangssprachlichen Gebrauch.

Im Gegensatz zur MTBF keine populationsbezogene statistische Grösse, sondern eine auf ein Einzelprodukt bezogene reale Grösse.

27.08.2005


Lebensdauernetz

Zuverlässigkeitstechnische Bezeichnung für Wahrscheinlichkeitsnetz.

Das bekannteste Lebensdauernetz ist das Weibullnetz, für weitergehende Erläuterungen siehe dort.

27.08.2005


Lebenszyklus

Das Gesamte "Leben" eines Produktes. Zusammenfassung aller Lebenszyklusphasen eines Produktes.

Hintergrund ist das Konzept der Lebenszykluskosten (Life Cycle Cost, LCC)

Dieses Konzept ist im Prinzip eine Aufstellung und vor allem Transparentmachung aller Kosten, die in den einzelnen Lebenszyklusphasen anfallen werden.

Die Vorhersage der Lebenszykluskosten kann Bestandteil von Lieferverträgen beispielsweise in den Bereichen Militär, Luftfahrt, Bahn, Automobilausrüster sein.

Beispiele: (Nur zur Veranschaulichung, nur Grobstruktur ohne Zahlenangaben)

 

1. Zuverlässigkeitstechnik Sicht (->Badewannenkurve):

2. Unternehmerische Sicht

  • Produktdefinition

    • Ermittlung von Kundenanforderungen

    • Ingenieursstunden für Skizzen und erste Entwürfe

  • Produktentwicklung

    • CAD Rechner

      • beschaffen

      • warten

    • Ingenieursstunden für Konstruktion

    • Materialbeschaffung für Prototypen

      • Zulieferteile

      • Im Haus hergestellte Teile

    • Mannstunden Prototypenbau

  • Produktherstellung

    • Arbeitskräfte einlernen

    • Produktionskosten Arbeitskräfte

    • Formteile für Maschinen herstellen

    • Produktionskosten Maschinen

    • Strom, Wasser, weitere Medien

  • Produkt auf den Markt bringen

    • TÜV- Prüfung

    • Werbekampagnen

    • Verkaufspersonal trainieren

    • Lager für Ersatzteile aufbauen und pflegen

  • Nutzbare Produktlebensphase

    • Wartungskosten

      • Mannstunden

      • Materialkosten

    • Reparaturkosten

      • Mannstunden

      • Materialkosten

  • Produkt vom Markt nehmen, entsorgen

    • Entsorgungskosten

27.08.2005


Lehmacher's Marginalhomogenitätstest 

Erweiterung des McNemar Tests auf mehr als 2 Stufen. 

 

Vertiefung

21.08.2005


Levene Test 

Test auf Varianzgleichheit mehrerer Stichproben

Varianzgleichheit (Varianzhomogenität) ist z.B. vor einer ANOVA sicherzustellen.

Dieser Test ist mittels geringfügiger Modifikationen auch auf deutlich nicht-normalverteilte oder sehr schiefe Stichproben anwendbar. 

(Siehe unten)

 

Nullhypothese: "Alle Stichproben haben die selbe Varianz" 

Alternativhypothese: "Wenigstens 1 Stichprobe unterscheidet sich in ihren Varianzen". 

 

Gegeben seien k Stichproben mit den Umfängen ni und dem Gesamtumfang N

Dann ist die Prüfgrösse  

wobei   .

xij = j-ter Einzelwert der i-ten Stichprobe 

µi = Mittelwert der i-ten Stichprobe 

Dij = Differenzbetrag des j-ten Einzelwertes der Gruppe i zu seinem Gruppenmittelwert µi

Dix = Gruppenmittel aller zur i-ten Gruppe gehörenden Dij 

Dxx = Gesamtmittelwert aller Dij 

 

F-verteilt mit (k-1) und (N-k) Freiheitsgraden.

Das Signifikanzniveau kann man mit der Excelformel 1-FVERT(W;k-1;N-k) berechnen.

 

Die Anpassungsfähigkeit dieses Tests gegenüber nicht-normalverteilten oder schiefen Stichproben besteht darin, dass für die µi

  • die arithmetischen Gruppenmittelwerte

  • die Gruppenmediane (Brown Forsythe Test) 

    • Es gelten die oben genannten Formeln. Es werden lediglich Werte durch Ränge, und der Begriff "Mittelwert" durch "Median" ersetzt.

  • die winsorisierten (10%) arithmetischen Gruppenmittelwerte 

herangezogen werden können. 

 

Siehe auch Bartlett Test

Siehe auch Box's M-Test.

27.08.2005


Liberal 

(Ggs: konservativ)

Allgemeine Bezeichnung für den Zustand, mit einer Abschätzung oder einem Ergebnis " NICHT auf der sicheren Seite zu sein".

 

Statistische Hypothesentests:

Ein Test ist liberal, wenn er allzu "bereitwillig" signifikante Ergebnisse hervorbringt, also dazu neigt, "Sachverhalte" anzudeuten, die in Wahrheit nicht vorhanden sind.. 

21.09.2005


Lieferantenrisiko

Bei Los-zu Los Systemen in der Industrie übliche Bezeichnung für das Risiko, mit dem der Lieferant ein in Wirklichkeit gutes Los zurücknehmen muss, weil die vorangegangene Stichprobe für schlecht befunden worden ist.

Siehe Alpha Risiko und statistischer Hypothesentest

Siehe auch Abnehmerrisiko

19.08.2005


Likelihood Funktion

Siehe Maximum Likelihood Estimation

27.08.2005


Likelihood Ratio

Mehrere Bedeutungen.

  1. Mathematisch gesehen =  Odds Ratio

  2. In der medizinischen Diagnostik speziellere Bedeutung: 

    "Um wie viel mal häufiger kommt ein positives (negatives) Testresultat bei Personen mit Erkrankung im Vergleich zu Personen ohne Erkrankung vor".  

  3. Allgemein einsetzbares Verfahren zum Vergleich von Modellen auf der Grundlage der Maximum Likelihood Estimation

     

    Unrestringiert meint das vorliegende Modell mit noch allen Parametern

    Restringiert bedeutet, dass ein(ige) Parameter auf einen bestimmten Wert (z.B. =0) festgesetzt wurden, also als Parameter aus dem Modell ausscheiden. 

    Ziel ist es, ein möglichst einfaches Modell ohne wesentlichen Verlust an Erklärungskraft zu finden, oder umgekehrt mit möglichst wenig hinzugenommenen Parametern einen signifikanten Gewinn an Erklärungskraft zu erhalten.

    Erklärungskraft meint hier den Quotienten (Aufgeklärte Varianz/Gesamtvarianz)

    Das Likelihood Ratio LR ist Chi Quadrat verteilt mit k Freiheitsgraden, wobei k die Anzahl der Restriktionen ist. 

  4.  Aufgrund von 3. häufig angewandte Methode zur Berechnung von Vertrauensintervallen

    Der optimale Parametersatz repräsentiert die Punktschätzung desjenigen Parametersatzes, für den die Ziehungswahrscheinlichkeit genau der vorliegenden Stichprobe maximal wird.  

    Das Likelihood Ratio LR ist Chi Quadrat verteilt mit k Freiheitsgraden, wobei k die Anzahl der Parameter ist. 

    Bei der Ermittlung von Vertrauensbereichen wird im gesamten Parameterraum derjenige Teilraum gesucht, für den das Likelihood Ratio LR grösser ist als die kumulierte Chi Quadrat Verteilung zum Niveau a,

    das heisst, mit den Parametern der Likelihood Funktionirgendein Parametersatz wird so "herumgespielt", dass man möglichst "alle" Parameterkonstellationen erhält, die grösser sind als die Chi Quadrat Verteilung zum Niveau a.

    Bei Funktionen mit 2 Parametern sind dies zweidimensionale Gebiete. 

Anmerkung: 2-dimensionale Vertrauensintervalle werden bei multipler linearer Regression beispielhaft berechnet.

Siehe Maximum Likelihood Estimation

27.08.2005


Likelihood Ratio Test 

Test zur Überprüfung, ob die Hinzunahme eines weiteren Parameters zu einer signifikanten Verbesserung des Vorhersagemodells führt (z.B. Regressionsmodell, Faktoranalyse). 

Das Likelihood Ratio, also der Quotient aus den beiden Likelihood Funktionen vor und nach der Hinzunahme weiterer Parameter berechnet sich l= L1/L2

Der Term (-2*ln[l])  {siehe Likelihood Ratio} ist annähernd Chi Quadrat verteilt mit k Freiheitsgraden, wobei k die Anzahl hinzugenommener Parameter ist. 

 

Siehe Maximum Likelihood Estimation

27.08.2005


Likert Skala 

Höchstens ordinale Skalen, die dazu dienen, subjektive Einschätzungen quantifizierbar und auswertbar zu machen. 

Beispiel: 

sehr gut gut mittel schlecht
1 2 3 4

27.08.2005


Lilliefors Test

Modifikation des Kolmogorov Smirnov Anpassungstests.

Vergleich einer empirischen Verteilungsfunktion meistens mit einer Normalverteilung, deren Parameter erst geschätzt werden müssen.

 

Vertiefung

 

Anmerkung

  • KS Anpassungstest

    • Testet eine unbekannte Verteilungsfunktion gegen eine vollständig bekannte Verteilungsfunktion.

  • Lilliefors Variante des KS Anpassungstests

    • Testet eine unbekannte Verteilungsfunktion gegen eine Verteilungsfunktion, deren grundsätzlicher Typ zwar bekannt, die Verteilungsfunktionsparameter jedoch unbekannt sind. Nachteil ist, dass die Tabellen kritischer Werte für jeden Verteilungsfunktionstyp verschieden sind.

  • KS Omnibustest

    • Testet 2 völlig unbekannte Verteilungsfunktionen auf Gleichheit.

27.08.2005


Lineare Regression

Siehe Regressionsanalyse.

27.08.2005


Lineare Strukturmodelle, Linear Structural Relationship (LISREL)

Siehe Pfadanalyse.

27.08.2005


Linearität  

Siehe Mess System Analyse

27.08.2005


Linearkombination

Die Summe beliebiger Vielfacher von Elementen eines zugrunde gelegten linearen Systems.

27.08.2005


linkssteil 

Siehe Schiefe

17.06.2006


Little's Gesetz 

Warteschlangentheorie: 

Die mittlere Anzahl Kunden, die sich in einer Warteschlange befinden, berechnet sich aus dem Produkt von mittlerer Ankunftsrate der Kunden und der mittleren Bearbeitungszeit der Kunden durch das Bedienpersonal. 

Beispiel: 

Pro Stunde kommen durchschnittlich 10 Kunden, und jeder Kunde dauert im Schnitt 6 Minuten = 0.1 Stunden. 

--> Es befindet sich durchschnittlich 10*0.1 = 1 Kunde in der Warteschlange. 

Da alle beteiligten Grössen als arithmetische Mittelwerte in die Rechnung eingehen, wirken sich die hinter den Grössen stehenden Verteilungsfunktionen nicht auf Little's Gesetz aus. Es ist also egal, ob die Wartezeiten und die Ankunftsraten normal- oder sonst wie verteilt sind. 

Zudem spielt es keine Rolle, ob beispielsweise 2 unterschiedlich schnelle Bediener gleichzeitig bedienen. 

14.11.2005


Ljung-Box Test (Q-Statistik)

Test auf Autokorrelation innerhalb von Wertereihen. 

Dieser Test ist dann angebracht, wenn über Zeitreihen ein Regressionsmodell gelegt wird. 

Autokorrelieren nämlich eine oder mehrere Reihen, dann sind die durch Regressionsrechnung erhaltenen Ergebnisse fragwürdig. 

Der Portmanteautest ist die ursprüngliche (weniger gute) Version des Ljung-Box Tests

 

Vertiefung

27.08.2005


Logistische Regression 

= Logit Analyse.

27.08.2005


Logistische Verteilung 

Logarithmiert man das Odds Ratio lx=p/(1-p) und löst nach der Wahrscheinlichkeit p auf, so erhält man die logistische Verteilungsfunktion

  wobei statt p  F(x) geschrieben wurde. 

F: Verteilungsfunktion 

f: Dichtefunktion

Die rechte Seite der Gleichung transformiert also die Zufallsvariable x derart, dass p (hier F(x) zwischen 0 und 1 zu liegen kommt. 

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
0 0 4,2 0 0  

 

Siehe auch Logit Modell

27.08.2005


Log Likelihood Funktion

Siehe Maximum Likelihood Estimation

27.08.2005


Logit Modell (Probit, Normit)

Heuristisches mathematisches Modell zur Beschreibung des gerichteten Zusammenhangs einer dichotomen abhängigen Variablen in Abhängigkeit von einer wenigstens nominalskalierten unabhängigen Variablen

Sonderfall eines log-linearen Modells.

 

Beispiel: 

Es soll ein formaler Zusammenhang hergestellt werden zwischen der Körpergrösse von Menschen und deren Kaufverhalten bezüglich Übergrössen. 

Pauschal lässt sich vermuten, dass Menschen umso wahrscheinlicher in Geschäften für Übergrössen einkaufen, je grösser deren Körpergrösse ist.  

Befragte man eine grössere Anzahl Menschen nach deren Neigung zu Geschäften mit Übergrössen (ja = 1; nein = 0) 

berechnet daraus die Wahrscheinlichkeit der Neigung zu Geschäften mit Übergrössen in Abhängigkeit von der Körpergrösse, dann wird man eine S-förmige Verteilungsfunktion erhalten, beispielsweise:

Die rosa Punkte sind die einzelnen Messwerte, die blaue Kurve ist die bestangepasste kumulierte Wahrscheinlichkeitsverteilung.

 

Zur Modellierung der S-Kurve (blau) werden meistens folgende, so genannte Link Funktionen herangezogen: 

Die Normalverteilungsfunktion ist in der Gegend ihres Wendepunktes steiler als die logistische Verteilungsfunktion.

 

Das Ergebnis einer Logit (Probit, Normit) Analyse ist eine bestangepasste Kurve, die zu Vorhersagezwecken herangezogen werden kann. 

Ähnlich wie die lineare Regression die beste Anpassung einer Geraden an eine Punktewolke darstellt, ist die logistische Regression eine beste Anpassung der logistischen Funktion an die beiden "Punktewolken" der dichotomen abhängigen Variablen. 

Die abhängige Variable kann ja nur 2 Zustände einnehmen, weshalb die Punkte sich nur auf die beiden horizontalen Achsen "Wahrscheinlichkeit =0" und "Wahrscheinlichkeit =1" verteilen.

 

27.08.2005


Log likelihood Funktion

Logarithmierte Likelihood Funktion. 

Siehe Maximum Likelihood Estimation.

27.08.2005


Log-Lineare Modelle

Auf dem allgemeinen linearen Modell beruhendes multivariates statistisches Verfahren auf höchstens ordinalem Skalenniveau.  

Log Lineare Modelle können auch bei metrischem Skalenniveau anstelle des Chi Quadrat Tests angewandt werden, insbesondere dann, wenn Wechselwirkungen zwischen den Häufigkeiten vermutet werden. Wechselwirkungsinformation gibt der Chi Quadrat Test nämlich nicht her.

Log-Lineare Modelle sind ungerichtet, das heisst, es wird nicht unterschieden zwischen abhängigen und unabhängigen Variablen. 

Logit Modelle sind aus Log-Linearen Modellen abgeleitet und unterscheiden abhängige und unabhängige Variablen. 

Log-Lineare Modelle und ANOVA sind vom Vorgehen her sehr ähnlich. 

Im Gegensatz zur ANOVA, bei der Mittelwertsunterschiede untersucht werden (->additives Modell), werden bei Log-linearen Modellen jedoch bedingt durch das Skalenniveau Häufigkeitsverhältnisse einer Kontingenztabelle untersucht.

(-->Multiplikatives Modell). 

 

Vertiefung

27.08.2005


Lognormalverteilung

"Multiplikatives Rauschen": Wirken unendlich viele Einflüsse multiplikativ auf eine Variable ein, dann ist diese Variable lognormalverteilt. (Additives Rauschen: Normalverteilung)

Wartungsdauern sind typischerweise lognormalverteilt.

Die Lognormalverteilung ist

  • formelmässig der Normalverteilung ähnlich, hat jedoch einen Logarithmus im Exponenten,

  • linkssteil, das heisst, sie steigt stark an und fällt dann langsamer wieder ab.

Wenn eine Zufallsvariable lognormalverteilt ist, dann ist ihr Logarithmus normalverteilt.

 

µ: Mittelwert 

s: Standardabweichung  

Erwartungswert Varianz Schiefe Wölbung Modalwert Median Bemerkungen
 

 

F: Verteilungsfunktion: nicht geschlossen darstellbar.

f: Dichtefunktion 

 

Für eine Auflistung der Wechselbeziehungen einiger wichtiger Verteilungsfunktionen siehe hier.

27.08.2005


Log-Rank Test 
Test zum Vergleich zweier Überlebenszeit-Kurven, die sich jedoch nicht überschneiden dürfen.

Mathematisch gesehen ein gewöhnlicher k x 2 Felder Chi Quadrat Test (2 Kurven und jeweils k Messstellen)

Man vergleicht zu den gegebenen Zeitpunkten (k) die erwarteten Häufigkeiten (die eine Kurve) und gemessenen Häufigkeiten (die andere Kurve) 

Für weitere Details siehe Chi Quadrat Test

Wird auch als Wilcoxon Test bezeichnet. Wilcoxon Test hat jedoch 2 verschiedene Bedeutungen.

        

27.08.2005


Lorenzkurve

Siehe Anmerkungen in der Rubrik Gini Koeffizient

13.10.2005


Los

auch Fertigungslos, Lot oder Batch genannt. 

Allgemeine Bezeichnung für eine Menge an produzierten gleichartigen Gütern, die zum Beispiel 

  • am selben Tag

  • vom selben Werker

  • auf der selben Maschine 

gefertigt worden sind. Lieferung erfolgt typischerweise so, dass das Los als solches erkennbar und von anderen Losen unterscheidbar ist.

Lose sind also Teile einer Grundgesamtheit, jedoch meistens immer noch zu gross für eine vollständige Kontrolle, sodass aus Losen Stichproben gezogen werden.

Siehe auch Los-zu-Los Systeme.

27.08.2005


Los-zu-Los System

Siehe Stichprobenprüfung nach DIN ISO.

27.08.2005


Lotterieeffekt

Sammelbegriff für signifikante Ergebnisse, die in Wahrheit nur aufgrund unzulänglichen Testaufbaus zustande gekommen sind. 

Das schliesst die unrepräsentative Auswahl der Testobjekte und generell zu kleine Stichproben, sowie falsche Auswertestrategien, ein. 

14.11.2005


Lotto

Bringt es einen Vorteil, "gezielt" zu tippen?

 

Es ist nicht möglich, die Gewinnwahrscheinlichkeit durch Tippverhalten zu beeinflussen. 

Dies liegt darin, dass die Ziehungen unabhängig voneinander sind und somit vorangegangene Ziehungsergebnisse keinen Einfluss auf zukünftige Ziehungen haben. 

 

Es ist aber möglich, den Gewinn -falls er eintritt- durch bestimmte Tippweise zu erhöhen. 

Die Strategie liegt darin, generell " anders" zu tippen als die meisten Menschen es tun. 

Beispielsweise tippen viele Menschen ihr Geburtsdatum.

Diese Tipps enthalten mit sehr grosser Wahrscheinlichkeit 

  • die Ziffern 1, 9 oder 19 (für die Tausender- und Hunderterstalle des Geburtsjahres), 

  • die Ziffern 1 bis 49 für diejenigen Tipper, die vor 1950 geboren sind.

  • die Ziffern 1 bis 12 (für den Monat) 

  • die Ziffern 1 bis 31 (für den Tag im Monat) 

Ausserdem tippen viele Menschen die 13, weil diese in der Vergangenheit weniger zum Zuge gekommen ist als alle anderen Zahlen. (Siehe hierzu die Anmerkung in der Rubrik Gesetz der grossen Zahlen). 

Weiterhin wird das aktuelle Datum gerne getippt.

 

Hier interessiert weniger das genaue Tippverhalten der Menschen. 

Es sollte anhand der Beispiele aber klar geworden sein, dass die Zahlen 1 bis 49 aufgrund der genannten Sachverhalte nicht gleichwahrscheinlich getippt werden. 

Ein wissender Tipper kann sich diese Tatsachen zunutze machen und "anders" tippen. 

Damit erhöht er im Falle eines Treffers seinen Gewinn. 

Wohlgemerkt: Er gewinnt nicht öfter, aber falls er gewinnt, dann teilt er sich den Gewinn mit weniger Leuten.

 20.03.2006


Lowe Index

Siehe Preisindex und Mengenindex.

16.10.2005


LTPD

= Lot Tolerance Percent Defective

= RQL.

27.08.2005


Lügen mit Statistik

Sammelbegriff für alle statistischen "Tricks", die einen in Wirklichkeit nicht nachweisbaren Sachverhalt suggerieren, oder einen nachweisbaren Sachverhalt verbergen.

Dabei handelt es sich oft um unbewusste "Lügen", um Fehler, die auf Unwissen oder mangelnder Erfahrung basieren.

Auch die Aussage "Trau keiner Statistik, die du dicht selbst gefälscht hast" ist so zu verstehen, dass das Fälschen von Statistiken sehr oft aus Unwissenheit oder Unachtsamkeit geschieht. Oft meint man sich dabei sogar selbst. 

 

Über das Fälschen von Statistiken sind ganze Bücher geschrieben worden.

Im Folgenden seien ein paar ausgewählte Gesichtspunkte genannt.

  • Darstellerische Tricks

    Darstellerische Tricks werden meistens bewusst eingesetzt, sind also "Lügen" im eigentlichen Sinne.

     

    • Weglassen von Skalierungen

    • Skalen beginnen nicht beim Nullpunkt

    • Dehnung oder Stauchung von Diagrammachsen 

    • Skalen sind nichtlinear, oder gar nicht ohne Weiteres ersichtlich.

    • Farbgebung und Schraffierung von Diagrammbalken sind derart, dass sie den Charakter einer optischen Täuschung haben 

      • Beispielsweise kann der rechte Balken länger als der linke aussehen; in Wahrheit ist es aber anders herum.

    • Nur ein kleiner Ausschnitt des Verlaufs wird gezeigt.

      • Beispielsweise wird ein langfristig steigender Trend dadurch verschwiegen, indem man nur die letzten paar Datenpunkte zeigt, die (evtl. sogar rein zufällig) einen (nur kurzfristigen) Abwärtstrend aufzeigen.

  • Falsches Zusammenfassen von einzelnen Datengruppen oder falsches Zerlegen von Zusammengehörenden Daten

    Dies kann bewusst oder unbewusst geschehen

  • Auswertungstechnische Fehler

    Dies geschieht meistens unbewusst oder aus Unkenntnis

    • Mathematische Voraussetzungen sind nicht erfüllt.

      • Normalverteilung wird angenommen, liegt aber nicht vor, oder wird zumindest nicht überprüft.

      • Hypothesen werden im Nachhinein formuliert und nicht anhand weiteren Datenmaterials verifiziert.

      • Solange "Herumtesten", bis man irgendeine Signifikanz gefunden hat. Siehe auch multiples Testen.

    • Der ausgewählte statistische Test ist prinzipiell ungeeignet, kann also von vorne herein die gewünschte Information nicht liefern.

    • Zweiseitiges Testen anstelle einseitigem Testen (oft bewusst).

27.08.2005


 

M

 


Macht 

= Operationscharakteristik 

14.03.2006


MAD

= Median Absolute Deviation. 

= Der Median der absoluten Abweichungen vom Median. 

Ein Dispersionsmass.

Man berechnet zuerst den Median einer Stichprobe

Dann berechnet man die absoluten Abstände (also ohne evtl. Minusvorzeichen) aller Einzelwerte zu diesem Median. 

Der Median dieser absoluten Abstände ist der MAD. 

 

Anmerkungen: 

Dieses Mass wird nur wegen seiner grösseren Anschaulichkeit gegenüber der Standardabweichung gewählt. 

Es lässt sich jedoch bei weitem nicht so einfach in mathematische Theorien integrieren. Aus mathematischer Sicht ist MAD eine "Insellösung". 

Eine Beziehung MAD-Standardabweichung kann leider nicht allgemein hergestellt werden. 

 

Siehe auch MAPE.

27.11.2005


Makrodaten

Kondensierte, zusammengefasste oder aufbereitete (Mikro-) Daten.

Makrodaten sind also solche Daten, die genügend aussagekräftig sind um veröffentlicht zu werden.

Beispiel:

Ein Balkendiagramm in der Personalabteilung einer Firma, wo "Durchschnittsgehalt" gegenüber "Abteilungszugehörigkeit" aufgetragen ist.

Siehe auch Mikrodaten.

21.09.2005


Malcolm Baldrige Award.

Internationaler Qualitätspreis für Unternehmen mit besonders qualitäts-, kunden- und mitarbeiterorientierter Kultur.

Es können maximal 1000 Punkte erworben werden, die sich in 7 Einzelbereiche aufteilen: 

Bewertungsgegenstand Max. Punktezahl
Führung durch die oberste Leitung 125
Strategische Planung 85
Kunden- und Marktorientierung 85
Messung und Analyse von Daten, Informationsgewinnung 85
Mitarbeiterorientierung 85
Management von Unternehmensprozessen 85
Geschäftsergebnisse 450

 

Es ist zu erkennen, dass die Geschäftsergebnisse insgesamt "nur" 45% der Gesamtgewichtung ausmachen.

27.08.2005


<