Bxx Lebensdauer
Beispiel: B10 Lebensdauer = 500 h. Nach 500 Stunden werden
10% der
Population
ausgefallen sein.
Die B10 Lebensdauer als Zuverlässigkeitsangabe ist
hauptsächlich in der Mechanik verbreitet.
19.08.2005
Graphische, und etwas plakative Darstellung der Ausfallrate einer Population über der Zeit.
19.08.2005
Test auf Varianzgleichheit mehrerer Stichproben.
Varianzgleichheit ( Varianzhomogenität) ist z.B. vor einer ANOVA sicherzustellen.
19.08.2005
Fehlerbaum: Diejenigen Ereignisse, die an den Anfängen von logischen Verknüpfungen stehen, also:
Ereignisse, die nicht durch andere Ereignisse ausgelöst werden, oder
Ereignisse, die man (aus Budget- oder anderen Gründen) nicht weiter zurückverfolgen möchte.
Basisereignisse stehen in Fehlerbäumen an unterster Stelle.
19.08.2005
= Prävalenz.
19.08.2005
Bayesscher Wahrscheinlichkeitsbegriff
Siehe Wahrscheinlichkeit.
Dieser Begriff hat mit dem Bayes'schen Theorem nichts zu tun.
13.10.2005
(Hat nichts mit dem Bayes'schen Wahrscheinlichkeitsbegriff zu tun)
Theorem der bedingten Wahrscheinlichkeiten bei abhängigen Ereignissen.
Siehe auch Prävalenz.
19.08.2005
Vergleich von Belastungsverteilung und
Belastbarkeitsverteilung. Diese beiden Funktionen sollten sich idealerweise nicht überschneiden.
Bis vor 2001 die Bezeichnung für (ab 2001) Telcordia
Die Häufigkeiten der führenden Ziffern von natürlichem Zahlenmaterial unterliegen (sehr oft, nicht immer) einem allgemeinen Gesetz.
Zufalls-Experiment mit 2 möglichen
Ausgängen mit den
Beispiel: "Kopf oder Zahl"
Siehe auch Binomialverteilung und Geometrische Verteilung.
1. Fälschlicherweise verwendete Bezeichnung für Binomialverteilung.
2. Spezialfall der Binomialverteilung bei nur einem einzelnen Bernoulli Experiment (also für n = 1).
x kann dann nur die Werte 0 oder 1 annehmen.
Es gibt 3 Schubladen mit jeweils 2 Kästchen pro Schublade.
Schublade 1: In beiden Kästchen befindet sich eine Goldmünze
Schublade 2: In beiden Kästchen befindet sich eine Silbermünze
Schublade 3: In einem Kästchen befindet sich eine Silbermünze, im Anderen eine Goldmünze.
Man zieht eine Schublade, öffnet eines der beiden Kästchen und findet eine Goldmünze.
Frage: Mit welcher Wahrscheinlichkeit befindet sich in dem anderen Kästchen eine Silbermünze?
Die allgemein favorisierte Antwort lautet 1/3.
Der Verfasser ist der Auffassung, dass diese Lösung richtig ist, im Gegensatz zu der allgemein favorisierten Lösung des Geschwisterparadoxons.
13.10.2005
Bei beschleunigten (Zuverlässigkeits-) Tests ( HALT und ALT):
Der Faktor, um den die getesteten Individuen zuverlässigkeitstechnisch gesehen schneller "altern" im Vergleich zu einem Test ohne zusätzlichen Stress.
In der Zuverlässigkeitstechnik der (auf 1) normierter Anteil der Population, der zum Betrachtungszeitpunkt noch funktionsfähig ist.
Im Englischen "Reliability", R(t), genannt.
Ausfallfunktion + Bestandsfunktion = F(t) + R(t) = 1
Entspricht in der allgemeinen Statistik einer Verteilungsfunktion.
Kann verbal z.B. wie folgt ausgedrückt werden:
"Zur Zeit sind noch 80% aller ursprünglich in Betrieb genommenen Geräte funktionsfähig".
Die Ableitung der Bestandsfunktion ist die Ausfalldichtefunktion.
Bestimmtheitsmass (auch multiples)
Determinationskoeffizient, Güte oder auch Reliabilität genannt.
Quadrat des Korrelationskoeffizienten r.
Ein
PRE-Mass.
Das Bestimmtheitsmass ist sehr einfach interpretierbar, der Korrelationskoeffizient dagegen nicht.
Bestimmtheitsmass, adjustiertes
Siehe
adjustiertes Bestimmtheitsmass.
Beta Binomiale Vertrauensintervalle
Verteilungsfunktionsfreie, rangbasierte Methode zur Abschätzung von Vertrauensintervallen.
(Siehe auch
Schätzen).
Ist z.B. bei der Eintragung von Ausfalldaten in Weibullnetze bedeutsam.
Siehe Betarisiko.
20
(In
der Regel kleines)
Risiko, mit dem der
statistische Hypothesentest keinen Sachverhalt aufzeigt, obwohl in
Wahrheit einer vorhanden ist. Scherzhaft auch "Übersehfehler" genannt.
05.11.2012
Verteilungsfunktion
zur Modellierung zweiseitig begrenzter Verteilungsfunktionen.
Heuristisch, daher ohne tiefere mathematische Basis.
Gedankengang, der 100%ige Klarheit über einen (möglicherweise bislang unbekannten) Sachverhalt aufzeigt.
Beweise im wissenschaftlichen Sinne gibt es vorwiegend in der Mathematik.
Im Bereich Statistik sind Beweise nur im deskriptiven Teil möglich, denn nur dort werden alle vorhandenen Daten analysiert.
Im induktiven Bereich kann es keine Beweise geben, da hier vollständige Ergebnisse immer auch eine (definierte) Unsicherheit enthalten.
(-> Risikoarten statistischer Tests)
Verzerrung.
Systematische Abweichung einer Schätzfunktion vom Erwartungswert des gesuchten Parameters.
Siehe Gütekriterien für Schätzfunktionen.
(Siehe auch Schätzen)
"zweigipfelig".
Naturgemäss vorkommende Dichtefunktionen sind immer eingipfelig; die Werte streuen also um einen bestimmten Wert. Bei zweigipfeligen Dichtefunktionen handelt es sich nahezu immer um eine Überlagerung zweier eingipfeliger Dichtefunktionen.
Beispiel:
2 Maschinen produzieren gleichzeitig die selbe Ware. Beide Maschinen sind etwas unterschiedlich eingestellt.
Die Produkte beider Maschinen werden vermischt und anschliessend vermessen.
-> Wenn die Unterschiede beider Maschinen gross genug sind, dann wird man eine zweigipfelige Dichtefunktion bezüglich dieses Masses feststellen.
14.11.2005
Test zur Untersuchung von Häufigkeiten bei dichotomen Variablen.
Siehe auch sequentieller Bimonialtest.
Bei sequentiellen Tests wird nur so lange getestet, bis sich "genug Signifikanz angesammelt hat" für eine statistische Entscheidung.
Hier müssen Nullhypothese, Alternativhypothese und Effektgrösse explizit festgelegt werden. (Siehe dazu Anmerkungen zu statistischen Hypothesen, a) und b))
Vereinfacht:
Wie wahrscheinlich ist es, dass z.B. bei 10 Münzwürfen mindestens 6 mal "Zahl" geworfen wird?
Diese Frage beantwortet die Binomialverteilung.
Allgemein:
Gegeben sei eine Folge von n Bernoulli Experimenten mit den möglichen Ausgängen a und b und den zugehörigen Wahrscheinlichkeiten p und q. (Wobei p+q=1).
Die Binomialverteilung beantwortet die Frage, wie wahrscheinlich es ist, dass bei n Experimenten BIS ZU x Mal das Ereignis a eingetreten ist.
20.02.2006
Auch
Biostatistik
genannt.
Im
allgemeinen Sprachgebrauch auch ein nicht näher bezeichneter Begriff
bezüglich der handhabung biometrischer (insbesondere menschenbezogener)
Daten.
Tabellenwerk mit Prüfgrössen (Schwellenwerten) sämtlicher in der Biometrie verwendeter statistischer Tests.
Selbst im Computerzeitalter sind Tabellenwerke in Papierform insbesondere bei nichtparametrischen Tests noch gebräuchlich, da
es hunderte von Tests gibt, die in kaum einer Statistiksoftware enthalten sind,
Signifikanzberechnungen oft nicht analytisch durchführbar sind -->Simulation, Randomisierungstest.
Beschreibt einen Zusammenhang von zwei metrischen und jeweils normalverteilten Variablen. Dabei ist eine der beiden Variable künstlich dichotomisiert ( = in zwei Kategorien aufgeteilt) worden.
Siehe Korrelationskoeffizient.
Siehe auch Tabelle Korrelationskoeffizienten
Siehe Korrelationskoeffizient.
Projektleiter eines Six Sigma Projektes. Meistens ein Ingenieur.
Siehe Six Sigma.
Umgangssprachliche Bezeichnung für (Einfach-, demnach kein Doppelt-) Blindexperiment.
Siehe auch Doppelblind Studie und Offene Studie.
Siehe auch Studie.
Graphische
Zerlegung eines (meistens komplexen) technischen Systems in kleinere,
sinnvoll zusammenhängende Funktionseinheiten, zum Zwecke der Berechnung
von Fehlerraten, Verfügbarkeiten usw.
Wird besonders bei redundanten Systemen angewendet.
Siehe Zuverlässigkeits-Blockdiagramm.
Blocking, Blockbildung
Das Gegenteil von Randomisierung.
Blockbildung ist (noch vor Randomisierung) das Hauptwerkzeug beim Aufbau experimenteller Versuche oder -pläne.
Blockbildung ist ein "gezieltes, nicht dem Zufall überlassenes (=Randomisierung) Mischen" der am Test beteiligten Individuen.
Das Mischen erfolgt also nicht zufällig, sondern es wird bewusst die bestmögliche Durchmischung realisiert.
Blockbildung setzt also eine gewisse Kenntnis der störenden Variablen der beim Test beteiligten Individuen voraus.
Während in den Sozialwissenschaften die Zusammensetzung der Individuen in Gruppen oft vorgegeben ist (z.B. Schulklassen), kann in der Industrie Blockbildung sehr oft realisiert werden.
Der Spruch "Block what you can, randomize what you cannot" bringt
es auf den Punkt: Wann immer möglich und praktikabel (-->Budget,
..), sollte man Blöcke bilden, und alles Andere randomisieren.
= Varianzanalyse mit Messwiederholung.
Verallgemeinerung des t-Tests für verbundene Stichproben, wenn die Anzahl der Stichproben grösser als 2 ist.
Bei ANOVA mit Messwiederholung ist ein Faktor die Zeitachse, die Messzeitpunkte sind die Faktorstufen.
Beispielsweise durchlaufen die selben Versuchspersonen mehrere Faktorstufen.
Man hat also verbundene Stichproben, wodurch die Anzahl Freiheitsgrade reduziert wird.
Zusätzlich zu den unter ANOVA genannten Voraussetzungen gelten bei Messwiederholung noch Folgende:
Varianz- und Kovarianz homogenität: Nicht nur die Varianzen, sondern auch sämtliche Kovarianzen
zwischen je 2 beliebigen Faktorstufen müssen homogen sein.
Bonferroni Ansatz
Anpassung des
Signifikanzniveaus bei
multiplem Testen, um der Alpha Inflation
entgegen zu wirken.
Die Wahrscheinlichkeit,
dass mehrere Ereignisse gleichzeitig eintreten ist gleich oder grösser
als Eins minus die Summe der einzelnen Anti-Ereignisse.
Siehe Wahrscheinlichkeit, wichtige Sätze 2.
27.11.2005
Methodik zur mathematischen Abstrahierung aussagelogischer Probleme.
Siehe auch De Morgan'sche Regeln und Venn Diagramm.
Siehe auch Karnaugh Veitch Diagramm.
14.03.2006
Die
Summenwahrscheinlichkeit für das Eintreten einer Gruppe von Ereignissen
ist gleich oder kleiner als die Summe der einzelnen
Eintrittswahrscheinlickeiten.
Siehe Wahrscheinlichkeit, wichtige Sätze 2.
27.11.2005
Siehe Resampling
Erweiterung des McNemar Testes auf mehr als 2 Stufen.
21.08.2005
Versuchsplan mit mathematisch und praktisch günstigen Eigenschaften.
Siehe DoE.
21.08.2005
Eine Rechenvorschrift, um "unliebsam geformte" Verteilungsfunktionen gängigen statistischen Verfahren zugänglich zu machen.
17.06.2006
Im Wesentlichen der AR(I)MA-Ansatz bei Zeitreihenanalysen.
Das "I" steht in Klammern, weil das Box Jenkins Modell eigentlich Stationarität voraussetzt
(der "I"-Anteil entfällt; siehe dazu ARIMA).
"Box-Jenkins" wird deshalb oft synonym für " AR(I)MA" verwendet.
Obwohl es die AR(I)MA Methodik schon vor Box &Jenkins gab, waren sie es, die diese Methodik zusammen mit mathematisch "geschickten"Algorithmen bekannt gemacht haben.
Die Box-Jenkins Methode besteht also aus dem AR(I)MA Modell plus einer spezifischen mathematischen Herangehensweise.
03.11.2005
Graphische, besonders in angelsächsischer Literatur verbreitete Darstellungsweise zur Charakterisierung der Verteilungsdichtefunktion stetiger Merkmale.
12.03.2006
Siehe M-Test.
22.01.2006
Box-Wilson Design, Augmented 2k Design
Siehe DoE.
21.08.2005
"Mehr Stau durch zusätzliche Strassen".
Das funktioniert allerdings nur bei ganz spezifischen Randbedingungen.
13.10.2005
14.11.2005
= Levene Test in der Version "Median".
Siehe Levene Test.
10.04.2006
Betrachtet man das Ausfallverhalten einer Population zu Beginn, dann stellt man häufig fest, dass die Ausfallrate sich von einem anfänglich grossen Wert allmählich auf einen kleineren Wert einpendelt.
Diese Frühausfälle passieren aufgrund innewohnender Schwachstellen.
Beim Burn In werden die Systeme eine gewisse Zeit lang mit einem definierten (Temperatur-) Stress beaufschlagt mit dem Ziel, dass sich diese Schwachstellen vor der eigentlichen Nutzungszeit offenbaren und diese Individuen somit aussortiert werden können.
Man "überbrückt" also die erste Phase der Badewannenkurve, sodass der Endverbraucher gleich in den Genuss der nutzbaren Produktlebensphase kommt.
Vereinfacht kann man sagen:
Burn In
einwandfreie Individuen überstehen den Burn In schadlos.
21.08.2005