Bxx Lebensdauer
Beispiel: B10 Lebensdauer = 500 h. Nach 500 Stunden werden
10% der
Population
ausgefallen sein.
Die B10 Lebensdauer als Zuverlässigkeitsangabe ist
hauptsächlich in der Mechanik verbreitet.
19.08.2005
Graphische Darstellung der Ausfallrate einer Population über der Zeit.
19.08.2005
Test auf Varianzgleichheit mehrerer Stichproben.
Varianzgleichheit ( Varianzhomogenität) ist z.B. vor einer ANOVA sicherzustellen.
19.08.2005
Fehlerbaum: Diejenigen Ereignisse, die an den Anfängen von logischen Verknüpfungen stehen, also:
Ereignisse, die nicht durch andere Ereignisse ausgelöst werden, oder
Ereignisse, die man (aus Budget- oder anderen Gründen) nicht weiter zurückverfolgen möchte.
Basisereignisse stehen an unterster Stelle in Fehlerbäumen.
19.08.2005
= Prävalenz.
19.08.2005
Bayesscher Wahrscheinlichkeitsbegriff
Siehe Wahrscheinlichkeit.
Dies hat mit dem Bayes'schen Theorem nichts zu tun.
13.10.2005
(Hat nichts mit dem Bayes'schen Wahrscheinlichkeitsbegriff zu tun)
Theorem der bedingten Wahrscheinlichkeiten bei abhängigen Ereignissen.
Siehe auch Prävalenz.
19.08.2005
Vergleich von Belastungsverteilung und Belastbarkeitsverteilung.
Alte Bezeichnung für Telcordia
Die Häufigkeiten der führenden Ziffern von natürlichem Zahlenmaterial unterliegen einem Gesetz.
Zufalls-Experiment mit 2 möglichen
Ausgängen mit den
Beispiel: "Kopf oder Zahl"
Siehe auch Binomialverteilung und Geometrische Verteilung.
1. Fälschlicherweise verwendete Bezeichnung für Binomialverteilung.
2. Spezialfall der Binomialverteilung bei nur einem einzelnen Bernoulli Experiment (also für n = 1).
x kann dann nur die Werte 0 oder 1 annehmen.
Es gibt 3 Schubladen mit jeweils 2 Kästchen pro Schublade.
Schublade 1: In beiden Kästchen befindet sich eine Goldmünze
Schublade 2: In beiden Kästchen befindet sich eine Silbermünze
Schublade 3: In einem Kästchen befindet sich eine Silbermünze, im Anderen eine Goldmünze.
Man zieht eine Schublade, öffnet eines der beiden Kästchen und findet eine Goldmünze.
Frage: Mit welcher Wahrscheinlichkeit befindet sich in dem anderen Kästchen eine Silbermünze?
Die in diverser Statistikliteratur favorisierte Antwort lautet 1/3.
Der Verfasser ist der Auffassung, dass diese Lösung richtig ist, im Gegensatz zu der Lösung des Geschwisterparadoxons.
13.10.2005
Bei beschleunigten (Zuverlässigkeits-) Tests ( HALT und ALT):
Der Faktor, um den die getesteten Individuen zuverlässigkeitstechnisch gesehen schneller "altern" als ohne den durch den Test auferlegten zusätzlichen Stress.
In der Zuverlässigkeitstechnik der (auf 1) normierter Anteil der Population, der zum Betrachtungszeitpunkt noch funktionsfähig ist.
Im Englischen "Reliability" , R(t).
Ausfallfunktion + Bestandsfunktion =1
Entspricht in der allgemeinen Statistik 1 minus der Verteilungsfunktion.
Kann verbal z.B. wie folgt ausgedrückt werden:
"Zur Zeit sind noch 80% aller Geräte in Betrieb".
Die Ableitung der Bestandsfunktion ist die Ausfalldichtefunktion.
Bestimmtheitsmass (auch multiples)
Determinationskoeffizient, Güte oder auch Reliabilität genannt.
Quadrat des Korrelationskoeffizienten r.
Ein PRE-Mass.
Bestimmtheitsmass, adjustiertes
Siehe adjustiertes Bestimmtheitsmass.
Beta Binomiale Vertrauensintervalle
Verteilungsfunktionsfreie, rangbasierte Methode zur Abschätzung von Vertrauensintervallen.
(Siehe auch Schätzen)
Siehe Betarisiko.
20
In der Regel kleines Risiko, mit dem der statistische Hypothesentest keinen Sachverhalt aufzeigt, obwohl in Wahrheit einer vorhanden ist.
05.11.2012
Verteilungsfunktion zur Modellierung zweiseitig begrenzter Verteilungsfunktionen. Heuristisch.
Gedankengang, der 100%ige Klarheit über einen (möglicherweise bislang unbekannten) Sachverhalt aufzeigt.
Beweise im wissenschaftlichen Sinne gibt es eigentlich nur in der Mathematik.
Im Bereich Statistik sind Beweise nur im deskriptiven Teil möglich, denn nur dort werden alle vorhandenen Daten analysiert.
Im induktiven Bereich kann es keine Beweise geben, da zu einem vollständigen Ergebnis immer eine (definierte) Unsicherheit gehört.
(-> Risikoarten statistischer Tests)
Verzerrung.
Systematische Abweichung einer Schätzfunktion vom Erwartungswert des gesuchten Parameters.
Siehe Gütekriterien für Schätzfunktionen.
(Siehe auch Schätzen)
"zweigipfelig".
Naturgemäss vorkommende Dichtefunktionen sind immer eingipfelig; die Werte streuen also um einen bestimmten Wert. Bei zweigipfeligen Dichtefunktionen handelt es sich nahezu immer um eine Überlagerung zweier eingipfeliger Dichtefunktionen.
Beispiel:
2 Maschinen produzieren gleichzeitig die selbe Ware. Beide Maschinen sind etwas unterschiedlich eingestellt.
Die Produkte beider Maschinen werden vermischt und anschliessend vermessen.
-> Wenn die Unterschiede beider Maschinen gross genug sind, dann wird man eine zweigipfelige Dichtefunktion bezüglich dieses Masses feststellen.
14.11.2005
Test zur Untersuchung von Häufigkeiten bei dichotomen Variablen.
Siehe auch sequentieller Bimonialtest.
Bei sequentiellen Tests wird nur so lange getestet, bis sich genug Signifikanz für eine statistische Entscheidung angesammelt hat.
Deshalb müssen Nullhypothese, Alternativhypothese und Effektgrösse separat aufgestellt werden. (Siehe dazu Anmerkungen zu statistischen Hypothesen, a) und b))
Gegeben sei eine Folge von n Bernoulli Experimenten mit den möglichen Ausgängen a und b und den zugehörigen Wahrscheinlichkeiten p und q. (Wobei p+q=1).
Wie wahrscheinlich es ist, dass bei n Experimenten BIS ZU x Mal das Ereignis a eingetreten ist.
20.02.2006
Auch Biostatistik genannt.
Tabellenwerk mit Prüfgrössen (Schwellenwerten) sämtlicher in der Biometrie verwendeter statistischer Tests.
Selbst im Computerzeitalter sind Tabellenwerke in Papierform insbesondere bei nichtparametrischen Tests noch gebräuchlich, da
es hunderte von Tests gibt, die in kaum einer Statistiksoftware enthalten sind,
Signifikanzberechnungen oft nicht analytisch durchführbar sind -->Simulation, Randomisierungstest.
Beschreibt einen Zusammenhang von zwei metrischen und jeweils normalverteilten Variablen. Dabei ist eine der beiden Variable künstlich dichotomisiert ( = in zwei Kategorien aufgeteilt) worden.
Siehe Korrelationskoeffizient.
Siehe auch Tabelle Korrelationskoeffizienten
Siehe Korrelationskoeffizient.
Siehe Six Sigma.
Umgangssprachliche Bezeichnung für Blindexperiment.
Siehe auch Doppelblind Studie und Offene Studie.
Siehe auch Studie.
Siehe Zuverlässigkeits-Blockdiagramm.
Blocking, Blockbildung
Das Gegenteil von Randomisierung.
Blockbildung ist (noch vor Randomisierung) das Hauptwerkzeug beim Aufbau experimenteller Versuche oder -pläne.
Blockbildung ist ein "gezieltes, nicht dem Zufall überlassenes (=Randomisierung) Mischen" der am Test beteiligten Individuen.
Das Mischen erfolgt also nicht zufällig, sondern es wird geplant maximale Durchmischung realisiert.
Blockbildung setzt also eine gewisse Kenntnis der störenden Variablen der beim Test beteiligten Individuen voraus.
Während in den Sozialwissenschaften die Zusammensetzung der Individuen in Gruppen oft vorgegeben ist (z.B. Schulklassen), kann in der Industrie Blockbildung sehr oft realisiert werden.
Daher der Spruch "Block what you can, randomize what you cannot"
= Varianzanalyse mit Messwiederholung.
Verallgemeinerung des t-Tests für verbundene Stichproben, wenn die Anzahl der Stichproben grösser als 2 ist.
Bei ANOVA mit Messwiederholung ist ein Faktor die Zeitachse, die Messzeitpunkte sind die Faktorstufen.
Beispielsweise durchlaufen die selben Versuchspersonen mehrere Faktorstufen.
Man hat also verbundene Stichproben, wodurch die Anzahl Freiheitsgrade reduziert wird.
Zusätzlich zu den unter ANOVA genannten Voraussetzungen gelten bei Messwiederholung noch Folgende:
Varianz- und Kovarianz homogenität: Nicht nur die Varianzen, sondern auch sämtliche Kovarianzen
zwischen je 2 beliebigen Faktorstufen müssen homogen sein.
Bonferroni Ansatz
Anpassung des
Signifikanzniveaus bei
multiplem Testen, um der Alpha Inflation
entgegen zu wirken.
Siehe Wahrscheinlichkeit, wichtige Sätze 2.
27.11.2005
Methodik zur mathematischen Abstrahierung aussagelogischer Probleme.
Siehe auch De Morgan'sche Regeln und Venn Diagramm.
Siehe auch Karnaugh Veitch Diagramm.
14.03.2006
Siehe Wahrscheinlichkeit, wichtige Sätze 2.
27.11.2005
Siehe Resampling
Erweiterung des McNemar Testes auf mehr als 2 Stufen.
21.08.2005
Siehe DoE.
21.08.2005
Eine Rechenvorschrift, um seltsame Verteilungsfunktionen gängigen statistischen Verfahren zugänglich zu machen.
17.06.2006
Im Wesentlichen der AR(I)MA-Ansatz bei Zeitreihenanalysen.
Das "I" steht in Klammern, weil das Box Jenkins Modell eigentlich Stationarität voraussetzt
(der "I"-Anteil also entfällt; siehe dazu ARIMA).
"Box-Jenkins" wird deshalb oft synonym für " AR(I)MA" verwendet.
Obwohl es die AR(I)MA Methodik schon vor Box &Jenkins gab, waren sie es, die diese Methodik zusammen mit mathematisch "geschickten" Algorithmen bekannt gemacht haben.
Die Box-Jenkins Methode besteht also aus dem AR(I)MA Modell plus einer spezifischen mathematischen Herangehensweise.
03.11.2005
Graphische Darstellungsweise zur Charakterisierung der Verteilungsdichtefunktion stetiger Merkmale.
12.03.2006
Siehe M-Test.
22.01.2006
Box-Wilson Design, Augmented 2k Design
Siehe DoE.
21.08.2005
"Mehr Stau durch zusätzliche Strassen"
13.10.2005
14.11.2005
= Levene Test in der Version "Median".
Siehe Levene Test.
10.04.2006
Betrachtet man das Ausfallverhalten einer Population zu Beginn, dann stellt man häufig fest, dass die Ausfallrate sich von einem anfänglich grossen Wert allmählich auf einen kleineren Wert einpendelt.
Diese Frühausfälle passieren aufgrund innewohnender Schwachstellen.
Beim Burn In werden die Systeme eine gewisse Zeit lang mit einem definierten (Temperatur-) Stress beaufschlagt mit dem Ziel, dass sich diese Schwachstellen vor der eigentlichen Nutzungszeit offenbaren und diese Individuen somit aussortiert werden können.
Man "überbrückt" also die erste Phase der Badewannenkurve.html, sodass der Endverbraucher gleich in den Genuss der nutzbaren Produktlebensphase kommt.
Vereinfacht kann man sagen:
Burn In
einwandfreie Individuen überstehen den Burn In schadlos.
21.08.2005