Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung


Fachbuch, 2017

511 Seiten


Leseprobe

Alle Rechte, auch die Übersetzung in fremden Sprachen, vorbehalten. Kein Teil dieses
Werkes darf ohne vorherige schriftliche Genehmigung des Verfassers in irgendeiner Form,
auch nicht zum Zweck der Unterrichtsgestaltung, reproduziert oder unter Verwendung
elektronischer Medien verarbeitet und vervielfältigt werden.
Copyright © 2017 Eckehardt Spenhoff

Vorwort zur ersten Auflage
Dieses Buch behandelt statistische Methoden, die in der Produkt- und Prozessentwicklung
genutzt werden. Bezüglich der mathematischen Herleitungen müssen aufgrund des
Buchumfanges einige Abstriche gemacht werden. Die Formeln der vorgestellten Methoden
sind aber umfangreich und nahezu komplett, dies ermöglicht dem Anwender alle
Berechnungen nachzuvollziehen. Die umfangreichen Beispiele sind auch nachvollziehbar und
meist wird nur MS Excel® mit dem Add-in OQM-Stat benötigt. Für die statistischen Me-
thoden des operativen Qualitätsmanagements (Mess-System-Analyse, Statistische Prozess-
regelung, Statistische Prozessfähigkeitsanalyse, u.v.m) wird auf das Buch Prozess-Sicherheit
I. hingewiesen, dort wurden diese Verfahren umfassend dargestellt. In diesem Buch werden
die Varianzanalyse, Design of Experiments (DoE), Response Surface Methodology (RSM)
und Mixtures Analysis ausführlich behandelt. Neben einigen Grundlagen der Statistik findet
der interessierte Leser eine detaillierte Darstellung der wichtigsten Verfahren zur Versuchs-
planung und Versuchsanalyse:
gekreuzte und hierarchische Varianzanalysen mit festen oder zufälligen Variablen,
faktorielle und teilfaktorielle Versuchspläne mit stetigen und kategoriellen Variablen,
Response Surface Versuchspläne (Box-Behnken, Zentral zusammengesetzte Versuchs-
pläne, Versuchspläne höherer Ordnung und reduzierte Versuchspläne)
Mischungsanalysen mit und ohne Restriktionen inklusive von Prozessvariablen
D-optimale Versuchspläne
Polyoptimierung für mehrere Zielgrößen
Taguchi- und Shainin-Methoden
Umfangreiche Beispiele zur Planung und Analyse von Versuchen
Die dargestellten Verfahren werden teilweise durch das MS Excel® Add-in OQM-Stat
unterstützt. Dies ist bei mir kostenfrei zu beziehen. Anforderungen richten sie bitte an mich
OQM@ESPENHOFF.DE oder besuchen sie meine Webseite: www.espenhoff.de auf
welcher in unregelmäßigen Abständen immer wieder neues zu finden ist.
Dieses Buch wurde mit großer Sorgfalt erstellt, trotzdem sind Fehler nicht ausgeschlossen.
Für diese Fehler bin nur ich verantwortlich und ich bitte sie mir diese Fehler mit zu teilen.
Holzwickede, im April 2017
Eckehardt Spenhoff


Inhaltsverzeichnis
59
7.1.3 Zufällige Blockpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
58
7.1.2 Vollständige Zufallspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
7.1.1 Statistische Versuchspläne für einen Einflussfaktor
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
7.1 Versuchspläne der einfaktoriellen Varianzanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
57
7 KLASSISCHE VERSUCHSMETHODEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
6.6 Der Welch Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
52
6.5 Die einfache Streuungszerlegung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
50
6.4.1 Levene und Browne-Forsythe Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
49
6.4 Vergleich zweier Varianzen, F-Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
47
6.3 Vergleich abhängiger Mittelwerte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
46
6.2 Vergleich unabhängiger Mittelwerte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
6.1 Mittelwerte mit Zielwerten vergleichen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
44
6 MITTELWERTVERGLEICHE (ANOVA) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
5.3.1 Risiko I. und II. Art
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
5.3 Null- und Alternativhypothese
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
5.2 Signifikanztests
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
5.1 Elemente des Hypothesentests
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
40
5 DER STATISTISCHE TEST . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
4.9 Transformationen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
37
4.8.5 Epps-Pulley Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
4.8.4 Ryan-Joiner Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
36
4.8.3 Anderson-Darling Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.8.2 Doornik-Hansen Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.8.1 Jarque-Bera Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
35
4.8 Tests auf Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
33
4.7 Die Parameter der Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
32
4.6 F-Verteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
31
4.5 Chiquadrat-Verteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
4.4 Student- oder t-Verteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
30
4.3 Zentraler Grenzwertsatz
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
4.2 Grafiken zur NV
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
26
4.1 Standardisierte Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
23
4 NORMALVERTEILUNG UND VERWANDTES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
21
3.5 Einsatzmöglichkeiten und Grenzen der statistischen Versuchsplanung
. . . . . . . . . . . . . . . . . . . .
21
3.4 Richtlinien versus statistische Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
18
3.3 Grundlegende Begriffe der Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
3.2 Zufallsvariable, Einfluss- und Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
17
3.1 Stetige und diskrete Merkmale
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
16
3 GRUNDLAGEN VON MERKMALEN UND VERSUCHEN . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
10
2 GESCHICHTE DER VERSUCHSPLANUNG (STATISTIK) . . . . . . . . . . . . . . . . . . . . . . . . . . . .
8
1 EINLEITUNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
1

120
11.3 Überparametrisierte Modelle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
119
11.2 Sigmabeschränktes Modell
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
119
11.1 Anwendung der ALM
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
119
11 ALLGEMEINE LINEARE MODELLE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
117
10.6 Datenaufbereitung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
115
10.5 Schrittweise Regression
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
115
10.4.4 Tests für Multikollinearität, VIF
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
114
10.4.3 R
2
PRESS, Präzisionsindex
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
107
10.4.2 Residuen, normierte Residuen, Ausreißer
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
106
10.4.1 Das Bestimmtheitsmaß
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
106
10.4 Prüfung der Modelladäquatheit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104
10.3 Probleme mit ungeplanten Versuchen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
104
10.2 Vertrauens.- und Prognoseintervalle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
101
10.1 Analyse der Regression
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
100
10 MULTIPLE REGRESSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
97
9 NICHTLINEARE REGRESSION . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
93
8.5.1 Beispiel: Gewicht versus Luftfrachtkosten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
8.5 Quasilineare Regression
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
89
8.4 Linearitätstest
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
8.3.2 Vorhersagebereich für Einzelwerte y
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
8.3.1 Vertrauensbereich für den Mittelwert µy(x)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
87
8.3 Vertrauensbereiche und Signifikanz
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
85
8.2 Grafische Beurteilung der Residuen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
8.1.3 Beurteilung des Korrelationskoeffizienten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
84
8.1.2 Korrelation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
8.1.1 Methode der kleinsten Quadrate
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
8.1 Lineare Regression
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
8 EINFACHE REGRESSIONSANALYSE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
80
7.8.5 Lateinische Quadrate
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
79
7.8.4 Varianzkomponenten hierarchischer Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
77
7.8.3 Dreifaktorielle teilhierarchische Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
75
7.8.2 Dreifaktorielle unvollständige Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
7.8.1 Zweifaktorielle hierarchische Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
74
7.8 Unvollständige Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
7.7 Beispiel: Reißfestigkeit einer Folie (zufälliges Modell)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
71
7.6 Beispiel: Reißfestigkeit einer Folie (festes Modell)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
7.5 Grafische Interpretation der Varianzanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
7.4 Berechnung mehrfacher Varianzanalysen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
62
7.3 Die Modelle der Varianzanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
7.2 Mehrfache Varianzanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
61
7.1.8 Youden Quadratpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
7.1.7 Ausgewogene unvollständige Blockpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
60
7.1.6 Hypergriechisch-Lateinische Quadratpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
7.1.5 Griechisch-Lateinische Quadratpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
59
7.1.4 Lateinische Quadratpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
2

160
12.12 Versuchsauswertung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
160
12.11.6 Aufbewahrung der Versuchsteile
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
159
12.11.5 Abweichungen jeglicher Art festhalten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
159
12.11.4 Messdatenerfassung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
158
12.11.3 Durchführung aller Versuche (wie festgelegt)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
158
12.11.2 Messmittelüberprüfung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
158
12.11.1 Kennzeichnung der Versuchsteile
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
158
12.11 Versuchsdurchführung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
157
12.10.5 Überprüfung auf praktische Umsetzbarkeit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
157
12.10.4 Festlegung der Versuchsreihenfolge
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
156
12.10.3 Umfang des Versuchsplans
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
156
12.10.2 Versuchsplanerstellung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
152
12.10.1 Auswahl einer Versuchsmethode
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
151
12.10 Versuchsstrategie
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
151
12.9.2 Störgrößenbehandlung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
151
12.9.1 Wahl der Faktorstufen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
150
12.9 Festlegung von Planfaktoren, Fixfaktoren und Störgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
150
12.8.8 Bemerkungen zur Selektionsphase
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
148
12.8.7 Korrelation von Einflussgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
148
12.8.6 Bewertung von Einflussgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
148
12.8.5 Selektion und Festlegung von Faktoren und Störgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . .
147
12.8.4 Festlegung der Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
147
12.8.3 Messbarkeit der Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
146
12.8.2 Korrelative Abhängigkeiten von Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
146
12.8.1 Selektion von Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
145
12.8 Selektion der Variablen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
144
12.7.3 Ermittlung aller potentiellen Ziel-, Einfluss- und Störgrößen
. . . . . . . . . . . . . . . . . . . . .
140
12.7.2 Process Map
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
138
12.7.1 Detaillierte Problemanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
138
12.7 Systemanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
137
12.6 Projektinitialisierungsphase
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
135
12.5 Systematisierung der statistischen Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
135
12.4 Zusammenfassung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
132
12.3 Grundideen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
131
12.2.5 Die Methode des steilsten Anstiegs
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
130
12.2.4 Die Einfaktormethode
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129
12.2.3 Das Gitterlinienmodell
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
129
12.2.2 Versuchspunkte durch Fachkenntnisse festlegen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
128
12.2.1 Der zufällige Versuch
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
128
12.2 Die moderne Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
125
12.1.3 Die Grundprinzipien der DoE
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
124
12.1.2 Behandlung wissenschaftlicher Probleme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
123
12.1.1 Vergleichbarkeit, Verallgemeinerungsfähigkeit
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
123
12.1 Prinzipien der Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
123
12 GRUNDLAGEN DER VERSUCHSPLANUNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121
11.6 Bemerkungen zu ALM
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
121
11.5 Effekt-Codierung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
120
11.4 Dummy-Codierung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
3

196
14.1 Die Versuchspläne der Typen 3
k
und 5
k
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
196
14 ZENTRALE ZUSAMMENGESETZTE VERSUCHSPLÄNE . . . . . . . . . . . . . . . . . . . . . . . . . .
194
13.4 Plackett-Burman Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
193
13.3.5 Berechnung von teilfaktoriellen Versuchsplänen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
192
13.3.4 Generatoren und definierende Beziehungen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
191
13.3.3 Konstruktion teilfaktorieller Versuchspläne.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
189
13.3.2 Lösungstypen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
187
13.3.1 Grundlage teilfaktorieller Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
187
13.3 Die teilfaktoriellen Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
183
13.2.9 Faktorieller Versuch: Mittelnaht von Polybeuteln verschweißen
. . . . . . . . . . . . . . . . . .
182
13.2.8 Blockbildung in faktoriellen Versuchen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
181
13.2.7 Versuchsaufwand und Informationsgehalt
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
181
13.2.6 Grafische Darstellung faktorieller Versuche
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
179
13.2.5 Analyse mit Zentralpunkt
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
176
13.2.4 Die Analyse faktorieller Versuche
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
175
13.2.3 Normierung der Faktoren
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
174
13.2.2 Voraussetzungen faktorieller Versuche
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
172
13.2.1 Definition der Faktorstufen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
171
13.2 Betrachtung faktorieller Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
170
13.1 2
k
Faktoren-Versuche
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
169
13 FAKTORIELLE VERSUCHE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
168
12.12.26 Dokumentation abschließen und vervollständigen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
168
12.12.25 Bestätigungsversuch
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
12.12.24 Absicherung und weiteres Vorgehen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
12.12.23 Maßnahmen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
12.12.22 Interpretation und Rückschlüsse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
12.12.21 Validierung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
167
12.12.20 Optimale Einstellungen bei mehreren Zielgrößen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . .
166
12.12.19 Graphische Auswertung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
166
12.12.18 Korrelationsanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
165
12.12.17 Gütemaße des Modells
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
165
12.12.16 Modelladäquatheitstests
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
165
12.12.15 Varianzanalyse der Regression
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
164
12.12.14 Regressionsanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
164
12.12.13 Interpretation der Effekte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
164
12.12.12 Zentrierung und Skalierung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
163
12.12.11 Effektanalyse (Haupt- und Wechselwirkungseffektanalyse)
. . . . . . . . . . . . . . . . . . . . .
163
12.12.10 Beobachtungen gegen Vorhersagen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
163
12.12.9 Residuen gegen Modellschätzer
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
163
12.12.8 Residuen gegen Versuchsreihenfolge
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
162
12.12.7 Residuen gegen Faktoren
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
162
12.12.6 Normalverteilungsplot der Residuen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
162
12.12.5 Residuenanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161
12.12.4 Ausreißeranalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161
12.12.3 Überprüfung der Normalverteilung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161
12.12.2 Modellsicherheit und Fehlersignifikanz festlegen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
161
12.12.1 Datenaufbereitung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
4

279
17.3 Verlustfunktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
279
17.2 Qualität-Philosophie von Taguchi
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
278
17.1 Historisches
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
278
17 TAGUCHI-METHODIK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
277
16.4 Bemerkungen zur experimentellen Optimumssuche
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
275
16.3.1 Evolutionary Operation (EVOP)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
274
16.3 Einfaktor-Methode
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
273
16.2 Simplex-Methode
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
272
16.1 Gradientenverfahren (steilster Anstieg)
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
272
16 EXPERIMENTELLE OPTIMUMSUCHE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
271
15.5.4 Zusammenfassung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
266
15.5.3 Optimierung eines Klebeband
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
261
15.5.2 Beispiel II: Optimierung der Viskosität eines Klebstoffs
. . . . . . . . . . . . . . . . . . . . . . . . . .
258
15.5.1 Beispiel: Penetrationsoptimierung eines Wirkstoffs
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
258
15.5 Beispiele zur Mischungsanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
257
15.4 Analyse von Mischungsexperimenten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
250
15.3.4 Ratio-Konstruktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
245
15.3.3 Extremwert-Konstruktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
240
15.3.2 Pseudo-Simplex-Konstruktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
234
15.3.1 Standard-Simplex-Konstruktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
234
15.3 Planung von Mischungsexperimenten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
231
15.2 Modellbildung bei Mischungsexperimenten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
228
15.1 Die Methodik von Mischungsexperimenten
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
228
15 INDUSTRIELLE MISCHUNGSEXPERIMENTE . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
227
14.8.10 Bemerkungen zu D-optimalen Versuchen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
225
14.8.9 Suchalgorithmen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
225
14.8.8 Vorgehensweise zur Erstellung D-optimaler Pläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
224
14.8.7 Anzahl erforderlicher Versuche in Abhängigkeit vom Modell
. . . . . . . . . . . . . . . . . . . . .
221
14.8.6 Versuchspunkte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
219
14.8.5 Beurteilungskriterien zur Auswahl eines D-optimalen Versuchsplans
. . . . . . . . . . . . .
218
14.8.4 Potentielle Effekte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
217
14.8.3 Modellansatz
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
214
14.8.2 Vor- und Nachteile von D-optimalen Versuchsplänen
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
213
14.8.1 D-optimale Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
213
14.8 Optimale Versuchsplanung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
212
14.7.5 Versuchspläne dritter Ordnung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
211
14.7.4 Box-Behnken Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
210
14.7.3 Gemischte 2
k
3
k
Faktorenpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
210
14.7.2 3
k-p
Teilfaktorenpläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
207
14.7.1 Vollständige 3
k
- Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
207
14.7 Weitere Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
205
14.6 Kanonische Analyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
201
14.5 Lösung von Optimierungsaufgaben
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
201
14.4 Voraussetzungen für Modelle zweiter Ordnung
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
199
14.3 Drehbarkeit und Orthogonalität
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
197
14.2 Planung zentraler Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
5

327
22 LITERATURVERZEICHNIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
319
21 ABBILDUNGS- UND TABELLENVERZEICHNIS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
317
20.2 Datenanalyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
317
20.1 Datenaufbereitung für die Analyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
317
20 ANALYSE UNGEPLANTER (HISTORISCHER) DATEN DER FERTIGUNG . . . . . . .
315
19.6 Grafischer Vergleich der Ergebnisse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
313
19.5 Polyoptimierung mittels Gradientenverfahren
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
312
19.4 Polyoptimierung mittels dreier Verfahren
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
311
19.3 Beispiel: Optimierung eines Klebebandes
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
308
19.2.4 Differenzierbare Wunschfunktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
307
19.2.3 Der gemeinsame Wunschwert D
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
306
19.2.2 Transformationen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
306
19.2.1 Die individuelle Wunschfunktion di
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
306
19.2 Wunschfunktion
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
305
19.1 Modelle
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
305
19 POLYOPTIMIERUNG . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
304
18.4 Bemerkungen zur Shainin-Methodik
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
303
18.3.12 Multi-Spec-Analyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
302
18.3.11 Optimierung der Zielgröße mit dem Streudiagramm
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
301
18.3.10 Validieren der Ergebnisse mit der A zu B Analyse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
300
18.3.9 Vollständiger Versuch
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
299
18.3.8 Variablenvergleich
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
299
18.3.7 Konzentrationsdiagramme
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
298
18.3.6 Paarweiser Vergleich
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
298
18.3.5 Run-Test
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
297
18.3.4 Prozessabschnittstausch
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
295
18.3.3 Komponententausch
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
294
18.3.2 Multi-Vari-Karte
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
294
18.3.1 Isoplot®
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
292
18.3 Werkzeuge von Shainin
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
292
18.2 Shainins Philosophie
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
291
18.1 Historisches
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
291
18 SHAININ-METHODIK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
289
17.9 Analyse und Kritik an Taguchi-Versuchsplänen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
288
17.8.5 Signal/Rausch-Verhältnisse
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
287
17.8.4 Analyse von Interaktionen mittels Wechselwirkungstabellen
. . . . . . . . . . . . . . . . . . . . . .
287
17.8.3 Modifikation der orthogonalen Felder
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
287
17.8.2 Bestimmung der Freiheitsgrade
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
286
17.8.1 Konzept der inneren und äußeren Felder
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
285
17.8 Taguchis orthogonale Felder/orthogonale Versuchspläne
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
284
17.7 Parameter-Klassifikation
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
283
17.6 Taguchis Drei-Stufen-Prozess zur Produkt- bzw. Prozessentwicklung
. . . . . . . . . . . . . . . . . .
282
17.5 Ursachen für Streuungen
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
281
17.4 Robustheit/Robust Design
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Prozess-Sicherheit II.
6

Prozess-Sicherheit II.
7

1
Einleitung
Die Literatur und sonstige Veröffentlichungen zur statistischen Versuchsplanung sind mit Beginn
der 90-er Jahre explosionsartig nach oben geschossen, Firmen haben Tausende von Mitarbeitern als
Green oder Black Belts ausgebildet und trotzdem deutet die Häufigkeit durchgeführter Analysen auf
einen Mangel an in statistischen Methoden gut ausgebildeten Ingenieuren und Entwicklern hin. Alle
methodischen Ansätze, die Qualität bestehender oder neuer Produkte zu verbessern, fordern die
Anwendung von statistischer Versuchsplanung. Als Beispiel seien die Six Sigma Methodiken
DMAIC (für bestehende Produkte und Prozesse) und DFSS (für neue Produkte und Prozesse)
genannt, welche die Anwendung von statistischer Versuchsplanung explizit fordern. Doch welche
Versuchsmethodik soll der Ingenieur erlernen? Er hat die Wahl zwischen der klassischen Versuchs-
methodik, der Taguchi-Methodik und der Shainin-Methodik.
Die Industrieberater sind als Gurus der jeweiligen Methodik unterwegs und scheuen dabei auch
keine Unwahrheiten oder Übertreibungen um ihr Produkt anzupreisen. Häufig besitzen diese Bera-
ter auch nur eine eingeschränkte statistische Kenntnis und führen Versuche durch, die von vornhe-
rein zum Scheitern verurteilt sind. Durch solche Versuche geschädigte Ingenieure sind nur noch
schwer von der Notwendigkeit der statistischen Versuchsplanung zu überzeugen.
Ein weiteres Problem hat sich in den Firmen eingeschlichen, Versuche dürfen nichts kosten. Berater
preisen die Versuchsplanung als effizientes und effektives Werkzeug an, dass mit geringsten Kosten
und Ressourcen ein bestmögliches Ergebnis erbringt. Das ist sicher richtig, wird aber häufig dahin-
gehend missverstanden, das Versuchsplanung nichts kostet. Nehmen wir an, ein Problem erfordert
45 Versuche und wir geben dazu die Versuchskosten an, dann scheinen die Ingenieure und das
Management aus Zockern zu bestehen. Vielleicht reichen ja auch 2 oder 3 Versuche, man probiert
sein Glück. Da man kein Glück hat, werden weitere Versuche gemacht und dann häufig mehr als
notwendig gewesen wären. Damit nicht genug, weil das Budget verbraucht wurde, gibt man sich mit
nichtoptimalen Lösungen zufrieden oder wenn das Kind schon in den Brunnen gefallen ist, kann es
kosten was es wolle, jenes Problem zu lösen. Es schlägt die Stunde der Berater.
Diesen Missständen kann man nur durch sachliche Information begegnen. Zu diesem Zweck wurde
das Buch verfasst, dabei wurde auf folgende Themen besonderen Wert gelegt:
Die Grundlagen der Versuchsplanung behandeln die Skalentypen, die Klassifizierung von
Variablen, die Normalverteilung, die Prüfverteilungen, den statistischen Hypothesentest, die
Tests auf Normalverteilung, die Tests auf Varianzhomogenität, die Tests auf Ausreißer und
die Tests auf Autokorrelation.
Die Analyseverfahren der Versuchsplanung behandeln die Varianzanalyse von einfachen bis
komplexen Anwendungsfällen, die Regressionsanalysen in all ihren Ausprägungen und das
allgemeines lineares Modell.
Die Ablaufplanung von Experimenten behandelt die Auswahl und Planung von Versuchen,
die Definition der Zielgrößen und der Faktoren, die Auswahl des Versuchsplanes, die Ver-
suchsvorbereitung, die Versuchsdurchführung, die Versuchsanalyse sowie die Interpretation
und der Versuchsabschluss.
Die Versuchsmethodiken behandeln die klassische statistische Versuchsplanung inklusive
Auswahlpläne, faktorielle Versuchspläne, teilfaktorielle Versuchspläne, zentral zusammen-
gesetzte Versuchspläne, spezielle Versuchspläne, Mischungspläne und D-, A- und I-optimale
Versuchspläne sowie die Versuchsmethodik nach Shainin mit den sieben Standardwerkzeu-
gen Multi-Vari-Bild, Komponententausch, Paarweiser Vergleich, Variablen Vergleich, Voll-
ständiger Versuch, A zu B und Streudiagramm sowie der Versuchsmethodik nach Taguchi
mit orthogonale Feldern, inneren und äußeren Feldern, robustes Design und der Verlustfunk-
tion.
Prozess-Sicherheit II.
8

Alle Methoden werden dargestellt, ausführlich diskutiert und anhand von Beispielen demonstriert.
Auf Ableitungen der einzelnen Formel wird weitestgehend verzichtet. Der interessierte Leser wird
in den Literaturhinweisen geeignete Quellen finden. Die Ingenieure, welche heute die statistischen
Methoden nutzen, können auf eine Vielzahl statistischer Software zu greifen. Man muss nicht selber
rechnen oder programmieren, man muss aber die statistischen Erfordernisse verstehen und die
Ergebnisse der Analysen interpretieren können. Ein weiteres Ziel dieses Buches ist deshalb, die
methodische Vorgehensweise bei statistischen Analysen zu erläutern, speziell für die Fälle in denen
die Voraussetzungen nicht erfüllt werden.
Da nicht alle statistischen Verfahren in einem Buch niedergeschrieben werden können, empfehle ich
auch, das Buch Prozess-Sicherheit I., Statistische Methoden für Ingenieure im operativen Qualitäts-
Management zu lesen.
Alle Analysen im Buch werden mit den Programmen Minitab
1
, Statistica
2
oder dem MS-Excel
3
Add-in OQM-Stat durchgeführt. Das von mir erstellte MS-Excel Add-in OQM-Stat kann mit der
Email-Adresse oqm@espenhoff.de oder auf meiner Web-Seite www.espenhoff.de kostenfrei
angefordert werden.
Prozess-Sicherheit II.
9
3
MS-Excel® ist ein eingetragenes Warenzeichen
2
Statistica® ist ein eingetragenes Warenzeichen
1
Minitab® ist ein eingetragenes Warenzeichen

2
Geschichte der Versuchsplanung (Statistik)
Zurückblickend kann die historische Entwicklungsgeschichte der Versuchsplanung bis in die früh
experimentellen Untersuchungen naturphilosophischer Art durch griechisch-ionische Philosophen
in Kleinasien verfolgt werden. Bereits 1450 erkannte der Mathematiker N. Cusanus (1401 - 1464)
die Bedeutung quantitativer Untersuchungen für die Naturwissenschaft und hielt dies in seiner
Schrift Idiota de staticis experimentis (Versuche mit der Waage) fest. Im Bereich der experimentel-
len Forschung hingegen wurden primär Methodentheorien durch so bekannte Forscher wie Galilei
Galileo (1564 - 1642), Francis Bacon (1561 - 1626) oder Rene Descartes (1596 - 1650) entwickelt.
Descartes formulierte den bekannten Satz cogito ergo sum (Ich denke, also bin ich), d.h. nur das
eigene Denken ist absolut sicher. Dieser Satz ist Kern einer Philosophie, die sehr richtig bemerkt,
dass absolute Wahrheit nicht durch Beobachtung, sondern nur durch logisches Denken deduktiv
gewonnen werden kann, und die es deshalb generell ablehnt, sich auf empirische Beobachtungen als
Grundlage zu stützen um zu neuen Erkenntnissen zu gelangen. Galileo bereitete so etwas wie eine
Wende im Denken vor. Er beschäftigte sich mit der Berechnung von Chancen bei Glücksspielen,
wobei er natürlich Beobachtungen zugrunde legte. Dabei versucht der Experimentator von Einzel-
beobachtungen zu allgemeinen Schlüssen zu gelangen, dieses induktive Vorgehen ermöglichte erst
den Fortschritt der Statistik. Bacon war es, der die These vertrat, dass sich wissenschaftliche
Erkenntnisse auf Beobachtungen und Experimente stützen müssen. Ein wahrer Wissenschaftler
beobachtet seine Umgebung, stellt dementsprechend Hypothesen auf und überprüft diese durch Ver-
suche. Hume (1711 - 1776) vertritt ein Jahrhundert später einen extremen empiristischen Stand-
punkt. Er vertritt die philosophische Ansicht, dass man Dinge, die man nicht experimentell erarbei-
ten kann, auch nicht weiß. Nach Hume sind also nur Experimente geeignet, das Wissen zu vermeh-
ren; man kann nur induktiv, also durch den Schluss von der Wirkung auf die Ursache, vom Teil auf
das Ganze, zu neuen Erkenntnissen gelangen.
Die Geschichte der Statistik (auch der statistischen Versuchsplanung) ist zunächst eine Geschichte
der Wahrscheinlichkeitstheorie. Der Ursprung der Wahrscheinlichkeitstheorie hatte seinen Ursprung
in Glücksspielen des Chevalier de Méré. Das Problem des Chevalier de Méré ergab sich aus folgen-
den Wetten:
Ein Würfel wird viermal geworfen. Gesetzt wird darauf, dass dabei mindestens eine 6 auf-
tritt.
Zwei Würfel werden gleichzeitig 24mal geworfen. Gesetzt wird darauf, dass dabei mindes-
tens ein 6er-Pasch (d. h. beide Würfel zeigen gleichzeitig eine 6) auftritt.
Dieser fragte Blaise Pascal (1623 - 1662) einem französischen Mathematiker aus dem Jahre 1654,
ob es stimme, dass man bei der ersten Wette öfter gewinnt, als bei zweiten Wette. Daraufhin korre-
spondierte Blaise Pascal mit Pierre de Fermat (1601 - 1665) über dieses Problem. Pascal und Fer-
mat konnten diese Vermutung des Chevaliers mathematisch bestätigen.
Jakob Bernoulli (1654 - 1705) hat wesentlich zur Entwicklung der Wahrscheinlichkeitstheorie
sowie zur Variationsrechnung und zur Untersuchung von Potenzreihen beigetragen. Eines seiner
wichtigsten Werke, die Ars Conjectandi, wurde erst 1713, also acht Jahre nach seinem Tod, in Basel
veröffentlicht. Das Buch fasste Arbeiten anderer Autoren auf dem Gebiet der Wahrscheinlichkeits-
rechnung zusammen und entwickelte sie weiter. Neben Strategien, verschiedene Glücksspiele zu
gewinnen, enthält das Werk auch die Bernoulli-Zahlen.
Abraham de Moivre (1667 - 1754) beschäftigte sich von 1708 an vorwiegend mit Untersuchungen
zur Glücksspielrechnung, aus denen die 1718 erschienen Doctrine of Chances hervorging. Nach der
Entdeckung des Grenzwertsatzes für Binomialverteilung (1733) gab er 1738 eine zweite Auflage
seiner Doctrine heraus. Die dritte, postum publizierte Ausgabe der Doctrine enthielt darüber hinaus
Prozess-Sicherheit II.
10

de Moivres Untersuchungen über Sterblichkeits- und Rentenprobleme. Sie bot eine der wichtigsten
Voraussetzungen für die Wahrscheinlichkeitstheorie von Laplace.
Thomas Bayes (1702 - 1761) entwickelte den nach ihm benannten Satz von Bayes, der in der Wahr-
scheinlichkeitsrechnung große Bedeutung hat. Der Satz von Bayes erlaubt in gewissem Sinn das
Umkehren von Schlussfolgerungen:
Die Berechnung von P (Ereignis | Ursache) ist häufig einfach, aber oft ist eigentlich P (Ursa-
che | Ereignis) gesucht, also ein Vertauschen der Argumente. Für das Verständnis können
der Entscheidungsbaum und die A-Priori-Wahrscheinlichkeit helfen. Das Verfahren ist auch
als Rückwärtsinduktion bekannt.
Ein großes Forschungsgebiet von Pierre Simon Marquis de Laplace (1749 - 1827) war die Wahr-
scheinlichkeitsrechnung. Für Laplace stellte sie einen Ausweg dar, um trotz fehlender Kenntnisse zu
gewissen Resultaten zu kommen. In seinem zweibändigen Buch Théorie Analytique des Probabili-
tés (1812) gab Laplace eine Definition der Wahrscheinlichkeit und befasste sich mit abhängigen und
unabhängigen Ereignissen, vor allem in Verbindung mit Glücksspielen. Außerdem behandelte er in
dem Buch den Erwartungswert, die Sterblichkeit und die Lebenserwartung. Dies war die erste
Zusammenfassung des Wissensstandes auf dem Gebiet der Wahrscheinlichkeitstheorie.
Mit achtzehn Jahren entdeckte Carl Friedrich Gauß (1777 - 1855) die Methode der kleinsten quad-
ratischen Abweichungen. Nach ihr lässt sich z.B. das wahrscheinlichste Ergebnis für eine neue Mes-
sung aus einer genügend großen Zahl vorheriger Messungen ermitteln. Auf dieser Basis untersuchte
er später Theorien zur Berechnung von Flächeninhalten unter Kurven (numerische Integration), die
ihn zur gauss´schen Glockenkurve gelangen ließen. Die zugehörige Funktion ist bekannt als die
Standardnormalverteilung und wird bei vielen Aufgaben zur Wahrscheinlichkeitsrechnung ange-
wandt, wo sie die (asymptotische, d.h. für genügend große Datenmengen) Verteilungsfunktion von
zufällig um einen Mittelwert streuenden Daten ist. Gauß selber machte davon u.a. in seiner erfolg-
reichen Verwaltung der Witwen- und Waisenkasse der Göttinger Universität Gebrauch.
Bis zum Beginn des 20. Jahrhunderts wurden die Prozesse physikalischer Natur, die von einer
geringen Variablenanzahl gekennzeichnet waren, mit Hilfe des Ein-Faktor-Experiments sowie des
ceteris paribus - Grundsatzes (alle übrigen Bedingungen werden konstant gehalten) untersucht.
Diese Methode ist auch unter dem Namen One-Factor-at-a-Time bekannt und sagt aus:
Wenn in einem Experiment ein einzelner Faktor geändert wird und einen Effekt produziert, sonst
alle anderen Faktoren und Randbedingungen konstant bleiben, dann ist der veränderte Faktor die
Ursache des beobachteten Effektes.
Als theoretischer Begründer der neuzeitlichen Versuchsplanung kann John Stuart Mill (1806 -
1873) genannt werden. Unter Verwendung der mathematischen Statistik können seitdem zuneh-
mend komplexere und umfangreichere Systeme mit einer Vielzahl an Variableneinflüssen und
zusätzlich auftretenden Störgrößen mit vergleichbaren Experimenten analysiert werden, die Ära der
klassischen Versuchsplanung begann.
Friedrich Robert Helmert (1843 - 1917) war ein deutscher Geodät und Mathematiker. Die bekann-
teste Leistung ist die Helmert-Transformation, ferner schrieb er ein wichtiges Buch über die Aus-
gleichungsrechnung nach der Methode der kleinsten Quadrate und entdeckte die Chiquadrat-
verteilung.
Die Arbeit von Karl Pearson (1857 - 1936) ist die Grundlage vieler klassischer statistischer Metho-
den, die heute allgemein verwendet werden. Einige seiner Hauptbeiträge zur Statistik sind:
Prozess-Sicherheit II.
11

Lineare Regressions- und Korrelationsanalyse, der Korrelationskoeffizient nach Pearson, die
Einteilung verschiedener Wahrscheinlichkeitsverteilungen als Grundlage der exponentiellen
Verteilungen, das allgemeine lineare Modell und den Chiquadrat-Test.
William Sealey Gosset (1876 - 1937) war ein englischer Statistiker. Er publizierte unter dem Pseu-
donym Student. Sein Hauptwerk mündete in der t-Verteilung und dem t-Test, welcher es dem Sta-
tistiker erlaubt, zu prüfen, ob sich die beiden Mittelwerte zweier Stichproben bedeutend unterschei-
den oder nicht. Fast alle seiner Publikationen veröffentlichte Gosset unter seinem Pseudonym, eben-
falls The probable error of a mean, welche in Karl Pearsons Journal Biometrika erschien. Aller-
dings war es nicht Pearson, sondern der Statistiker Ronald Aylmer Fisher, welcher die Bedeutung
von Gossets Arbeit über kleine Stichprobengrößen erkannte. Aus Gossets Formel führte Fisher die
t-Form ein, weil diese mit seiner Theorie der Freiheitsgrade im Einklang stand. Fisher war auch ver-
antwortlich für die Anwendung der t-Verteilung auf die Regressionsrechnung.
Einer der ersten Artikel, der sich mit der statistischen Versuchsplanung befasste, die später durch
Fisher populär wurde, ist auf Dr. Kirstine Smith (1878-1939) zurückzuführen und trägt den Titel
On the Standard Deviations of Adjusted and Interpolated Values of an Observed Polynomial Func-
tion and its Constant and the Guidance the give towards a Proper choice of the Distribution of
Observations. Inhalt dieses Artikels ist die quantitative Bestimmung der Varianzeigenschaften von
Versuchsplänen (G-Optimalität).
Die klassische Versuchsplanung, so wie man sie heute kennt, ist in erster Linie auf die Arbeiten des
englischen Wissenschaftlers und Statistikers Sir Ronald Aylmer Fisher (1880-1962) zurück-
zuführen. Er entwickelte die wesentlichen Grundsätze der faktoriellen Versuche, um eine Ertrags-
steigerung in der Landwirtschaft zu erreichen. Erstmals wurde 1924 dann ein Versuchsplan nach
seinen Prinzipien angewendet. In diesem Zusammenhang wurde die Technik der Datenanalyse, die
sogenannte Varianzanalyse (ANOVA) konzipiert. Dank seiner Untersuchungen wurden die Ver-
suchsanordnungen einfacher und übersichtlicher. 1925 brachte Fisher das Buch Statistical Methods
for Reserach Workers heraus, ehe er zehn Jahre später das Grundlagenwerk zur Versuchsplanung
The Design of Experiments fertig stellte. In diesem Grundlagenwerk machte er deutlich, dass die
zuvor propagierte One-Factor-at-a-Time-Methode zumeist für die Forschung unzureichend ist, da
die Problematik von Wechselwirkungen damit nicht erfassbar ist. So zeigte Fisher, dass mit seinen
mehrfaktoriellen Ansätzen bei gleichbleibendem Aufwand sogar genauere Ergebnisse ermittelt wer-
den können.
George Waddel Snedecor (1881 - 1974) war ein amerikanischer Mathematiker und Statistiker. Er
leitete aus der Vorarbeit von Ronald Aylmer Fisher die F-Verteilung ab und schrieb viele grundle-
gende Artikel zu den Grundlagen der Varianzanalyse, Datenanalyse, Planung von Experimenten und
statistischen Methodenlehre.
Die Theorie über Hypothesentests wurden von Jerzy Neymann (1894-1981) und Egon S. Pearson
(1895-1980) entwickelt, diese ist eine Prozedur zur Entscheidung zwischen zwei alternativen, sich
gegenseitig ausschließenden Annahmen über eine unbekannte Grundgesamtheit auf der Basis von
Informationen, die mit Stichprobenfehlern behaftet sind. In Form eines Gedankenexperiments wird
eine konstruierte Realität, nämlich die, die sich bei Gültigkeit der Nullhypothese ergäbe, mit den tat-
sächlich vorliegenden Daten verglichen. Je nach Grad der Abweichungen zwischen den Daten und
der konstruierten Realität wird die Nullhypothese entweder verworfen oder bestätigt.
L.H.C. Tippett, (1902-1985) der als Vater der Multimomentaufnahmen gilt, war ein Mitarbeiter Fis-
hers und benutzte bereits im Jahr 1934 hochgradig unvollständige faktorielle Anwendungen, ehe
1937 das grundlegende Werk zu diesem Thema Design and Analysis of Factorial Experiments von
Frank Yates (1902 - 1994) erschien. Ein Schwerpunkt seiner Arbeit war die statistische
Prozess-Sicherheit II.
12

Versuchsplanung und die Theorie der Varianzanalyse mit der Entwicklung des Yates Algorithmus
und der balancierten unvollständigen Blockversuche.
Plackett und Burman leiteten um 1946 hochvermengte Versuchspläne aus unvollständig balancier-
ten Plänen (Hadamard-Matrizen) ab, die von verschiedenen Autoren zur Vorauswahl von Variablen
empfohlen wurden. Anwendungen in den technischen industriellen Bereichen wurden von Owen. L.
Davies in dem Buch The Design and Analysis of Industrial Experiments 1954 vorgeschlagen. Insbe-
sondere von der chemischen Industrie wurden die Faktorenpläne erster und zweiter Ordnung für
Forschungszwecke benutzt.
Mit Beginn der 50-er Jahre fertigten George E.P. Box (1919 - 2013) und K.B. Wilson Versuchs-
pläne für Optimierungsaufgaben an und erschlossen damit Anwendungsgebiete außerhalb der Land-
wirtschaft. In der Publikation On the Experimental Attainment of Optimal Conditions beschrieben
Box und Wilson zum ersten Mal, wie die Antwort- und Wirkungsflächen mit der Versuchsplanung
untersucht werden können. Es handelte sich hierbei um Versuchspläne für Optimierungsaufgaben.
Mit dem 1978 erschienenen Buch Statistics for Experimenters (George E.P. Box, William G. Hun-
ter, J.Stuart Hunter) gelang es ein noch heute gültiges Standardwerk der statistischen Versuchspla-
nung zu schaffen.
Die optimale Versuchsplanung geht zum großen Teil auf die Arbeiten von Jack Carl Kiefer (1924 -
1981) zurück. Zusammen mit Jacob Wolfowitz (1910 - 1981) entwickelte er G- und D-optimale
Pläne. Daher kann Jack Carl Kiefer auch als Begründer der D-optimalen Pläne genannt werden. Die
Forschungen von Kiefer galten weiten Bereichen der mathematischen Statistik, aber von seinen über
100 Veröffentlichungen behandelten die Hälfte die optimale Versuchsplanung. Er war auf diesem
Gebiet ein Wegbereiter. Die hauptsächlichen Arbeitsgebiete von Wolfowitz waren die statistische
Entscheidungstheorie, nichtparametrische Tests und die sequentielle Analyse.
Versuchspläne speziell für Mischungen, die sogenannten Mixture-Designs, sind ein weiteres Unter-
gebiet der statistischen Versuchsplanung. Im Jahre 1953 wurde diese Art Versuchspläne zum ersten
Mal in einer wissenschaftlichen Arbeit von M. H. Quenouille mit dem Titel The Design and Analy-
sis of Experiments behandelt. Die Bearbeitung von Mischungsversuchen mit Hilfe von Simplex-
Konstruktionen für drei Komponenten erläuterte P. J. Claringbold 1955 in seinem Artikel Use of the
simplex design in the study of the joint action of related hormones. Mit dem Werk Experiments with
mixtures jedoch erschien 1958 die grundlegende Arbeit von Henry Scheffé (1907 - 1977), die sich
mit der Untersuchung von Mehrkomponentensystemen befasste. In diesem Werk führte Scheffé die
Standard-Simplex-Konstruktion und das mathematische Regressionsmodell zur Berechnung von
Mischungsplänen detailliert auf. Hierin übernahm er auch weitere Anregungen aus der Literatur,
z.B. die Ideen von G. W. Gibbs zur Darstellung von einem System mehrerer Komponenten in
Zusammensetzungs-Eigenschafts-Diagrammen sowie die Gibbs´schen Dreieckskoordinaten für ein
ternäres System. Ebenso übernahm er den Gedanken von N. S. Kirnakov von 1940, dass die Zusam-
mensetzung eines k-dimensionalen Systems durch ein (k-1) dimensionalen Versuchsraum, dem
sogenannten Simplex, gegeben ist. 1963 erschien von Scheffé der Artikel The simplex-centroid
design for experiments with mixtures, in dem er zum ersten Mal eine Alternative zur Standard-Sim-
plex-Konstruktion aufführte. Den Bereich der Pseudokomponenten für die Pseudo-Simplex-Kon-
struktion definierte L. S. Kurotori 1966 in seinem Artikel Experiments with mixtures of components
having lower bounds. Die umfangreichste und ausführliche Darstellung des Themenkomplexes
Mischungsanalysen ist dem Buch von J. A. Cornell (1941) mit dem Titel Experiments with mixtu-
res von 1981 zu entnehmen. Es gilt als ein Standardwerk für die Planung, Durchführung und Aus-
wertung von Mischungsversuchen. In der deutschsprachigen Literatur sind nur wenige
Veröffentlichungen bezüglich der Mischungspläne zu finden.
Nach dem Zweiten Weltkrieg und dem damit verbundenen Informationstransfer wurde die Idee der
konventionellen Versuchsplanung von Amerika nach Japan exportiert. Dort wurde sie aufgegriffen
Prozess-Sicherheit II.
13

und in die industrielle Forschung und Entwicklung integriert. Vor allem der japanische Ingenieur
Genichi Taguchi (1924 - 2012) trug entscheidend zur Weiterentwicklung der Versuchsplanung bei.
Es entstand ein Methodenstreit zwischen den Anhängern der konventionellen Versuchsplanung und
der Taguchi-Methodik.
Dieser Methodenstreit wurde durch die Forschungen von Dorian Shainin (1914 - 2000) noch wei-
ter unterstützt. Seit den 70-er Jahre existieren durch ihn weitere Verfahren, mit dessen Hilfe Quali-
tätsprobleme bei industriell produzierten Produkten gelöst werden können. Die nach ihm benannten
Shanin-Methoden stellen einen praktischen Werkzeugkasten dar, mit dessen Hilfe es möglich ist,
schwerwiegende Problem zu lösen.
Die Entwicklung statistischen Versuchsplanung begann in Deutschland nur sehr schleppend erste
Veröffentlichungen zur Versuchsplanung von Erna Weber (1897 - 1988) (Grundriss der biologi-
schen Statistik, 1948) und Arthur Linder (1904 - 1993) (Planen und Auswerten von Versuchen,
1953), später traten dann Veröffentlichungen von Kurt Stange (1907 - 1974) (Angewandte Statistik,
1971), Eberhard Scheffler (Statistische Versuchsplanung und -auswertung, 1974) und Retzlaff, G.
u.a. (Statistische Versuchsplanung, 1978) hinzu. Während diese wenigen Veröffentlichungen eher
der angewandten Statistik zu zuordnen waren, gab es doch auch einige Bücher die der mathemati-
schen Statistik zu geordnet werden müssen. Diese Veröffentlichungen sind: Bandemer, Hans (1932
- 2009) u.a. (Optimale Versuchsplanung, 1973) und Bandemer, Hans u.a. (Theorie und Anwendung
der optimalen Versuchsplanung, 1977).
Aufgrund der historischen Entwicklung liegt ein großer Teil der vorhandenen Literatur in englischer
Sprache vor. Nur wenige Literaturstellen wurden ins Deutsche übersetzt. Aus diesem Grund hat sich
im Laufe der Zeit eine englische Begriffswahl herausgebildet, die in der ISO 3534/3 /ISO3534/ wie-
dergegeben wird. In dieser ISO 3534/3 wurde versucht, den Begriffen eine einheitliche Bedeutung
zu gegeben. Seit Dezember 1988 existiert der Normentwurf DIN 55350 T32-E /DIN55350b/ mit
dem Namen Versuchsplanung, der allerdings nie veröffentlicht wurde. Mit diesem Entwurf ist ein
erster Schritt gemacht worden, die Begriffe der Versuchsplanung auch im deutschen einheitlich zu
definieren, damit keine Widersprüche entstehen. Dies ist notwendig, weil die Bezeichnung des eng-
lischen Begriffs Design of Experiments (DoE) im deutschen vielfach mit den Begriffen Versuchs-
methodik, statistische Versuchsmethodik oder statistische Versuchsplanung verwendet wird. In der
Norm sind diese Unterschiede der Begriffsdefinitionen jedoch nicht ausgeräumt worden. DoE wird
in der DIN 55350 T32-E mit Versuchsplanung übersetzt, inhaltlich wird DoE jedoch mit Versuchs-
methodik und dies wiederum mit statistischer Versuchsplanung gleichgesetzt. Mit Design of Expe-
riments wird hingegen eindeutig der Planungs- und Gestaltungscharakter betont. Ausführlich ist im
Normentwurf für Versuchsplanung zu lesen /DIN55350b/:
Versuchsplanung mit Verwendung statistischer Methoden zur Auswertung und zur Planung.
1) auch Versuchsmethodik.
2) Die statistische Versuchsplanung (Abk. SVP) ermöglicht es, mit einer festgelegten
Anzahl von Einzelversuchen einen (Gesamt-) Versuch so anzulegen, dass sich die
Ergebnisse mit statistischen Methoden ­ z.B. Varianz- und/oder Regressionsanalyse ­
einfach und erschöpfend auswerten lassen.
Eine weitere Definition ist in der Publikation VDI 2247 zu finden: Die statistische Versuchsplanung
dient dazu, die Auswirkungen von metrischen oder attributiven Einflussfaktoren auf ein (in der
Regel metrisches) Qualitätsmerkmal aufzudecken. Wünschenswert wäre daher, die bereits angefan-
gene deutsche Norm zu vervollständigen, um sie anschließend der Reihe DIN 55350 offiziell beizu-
fügen, denn eine einheitliche Begriffsbildung ist bei der Verbreitung hilfreich.
Das Einsatzspektrum der Versuchsplanungsmethoden ist, wie bereits aufgeführt, sehr umfangreich.
So ist es nicht verwunderlich, wenn sich Schnittstellen bzw. Anwendungsmöglichkeiten in
Prozess-Sicherheit II.
14

Verbindung mit anderen Methoden wie z.B. FEM, neuronalen Netzen, Lebensdaueruntersuchungen,
FMEA, QFD oder TRIZ ergeben. Ebenso ist die statistische Versuchsplanung ein fester Bestandteil
von Six Sigma Programmen. Durch Six Sigma entdeckte sogar das TOP Management, wie effizient
die DoE-Methoden sind. So kann z.B. ein Versuchsplan
bei FEM-Analysen oder Simulationsstudien helfen, eine systematische Abschätzung des
Einflusses von bestimmten Faktoren auf eine Zielgröße zu erhalten. Anhand des Versuchs-
plans (Fakorstufenkombinationen) werden virtuelle Modelle aufgebaut und anschließend
berechnet. Somit wird eine optimale Kombination bzw. Ausprägung der Faktoren systema-
tisch bestimmt.
bei neuronalen Netzen helfen, auf gut strukturierte Daten zurückzugreifen. Auf diese kann
dann das neuronale Netz aufgebaut werden. Denn stammen diese Daten aus einem Versuch-
splan, so sind die Rahmenbedingungen und die Vermengungen bekannt. Oft werden in die-
sem Zusammenhang Versuchspläne aufgrund eines vermuteten Modells, sogenannte
D-optimale Pläne erstellt.
bei Zuverlässigkeitsanalysen helfen, den Wunsch nach Reduzierung kostenintensiver experi-
menteller Versuchsreihen zu realisieren. Die Übertragung der statistischen Versuchsplanung
für mehrstufige Ermüdungsversuche von der Theorie in die Praxis zeigt einen breiten Ein-
satzhorizont. Bei nicht ruhender, d.h. zeitlich veränderlicher Belastung muss ein Betriebsfes-
tigkeitsnachweis erbracht werden, um eine schwingbruchsichere Bemessung der Bauteile für
deren Gebrauchsdauer zu gewährleisten. Speziell für den Ermüdungsfestigkeitsnachweis
unter gestufter Belastung zeigen nichtlineare Berechnungsverfahren deutliche Vorteile. Hier-
bei wird mittels nichtlinearer Schadensakkumulation der sogenannte Reihenfolgeeffekt unter
Belastungswechsel mathematisch sehr gut beschrieben. Die statistische Versuchsplanung
dient in diesem Zusammenhang als Planungs- und Auswertewerkzeug um möglichst viele
Informationen aus wenigen Versuchen zu ziehen.
Im Methodenverbund mit den Quality-Engineering-Methoden QFD
4
, FMEA
5
, LEAN
6
, VA
7
, sowie
der TRIZ-Methodik
8
, wird die statistische Versuchsplanung generell da propagiert, wo Versuche
durchzuführen sind.
Prozess-Sicherheit II.
15
8
TRIZ ist das russische Akronym für »Theorie zur Lösung erfinderischer Probleme". Die Methodik wurde von Genrich Saulowitsch
Altschuler um 1954­1956 entwickelt.
7
Wertanalyse (Value Analysis, Value Engineering) ist eine Managementmethode welche 1947 von Larry Miles in den USA erfunden
wurde.
6
Der Begriff Lean Management bezeichnet die Gesamtheit der Denkprinzipien, Methoden und Verfahrensweisen zur effizienten
Gestaltung der gesamten Wertschöpfungskette industrieller Güter. Lean Management (engl. für schlanke Produktion) eine Form
der Arbeitsorganisation, in der es flache Hierarchien, Gruppenarbeit sowie einen hohen Grad der Automatisierung gibt, und die
Zeit und Kosten senken soll.
5
FMEA sowie FMECA sind analytische Methoden der Zuverlässigkeitstechnik, um potenzielle Schwachstellen zu finden. Im Rah-
men des Qualitätsmanagements bzw. Sicherheitsmanagements wird die FMEA zur Fehlervermeidung und Erhöhung der techni-
schen Zuverlässigkeit vorbeugend eingesetzt.
4
»Quality Function Deployment« (QFD) ist eine Methode, die sich als unterstützendes Werkzeug für die Weiterentwicklung von Pro-
dukten, aber auch Dienstleistungen eignet. Die Grundlage von QFD ist die Übersetzung von Kundenanforderungen in spezifizier-
bare Qualitätsmerkmale eins Produkts oder einer Dienstleistung. Die Methode des QFD als Grundkonzept zur Qualitätsplanung
geht zurück auf den Japaner Yoji Akao im Jahre 1966.

3
Grundlagen von Merkmalen und Versuchen
Merkmalsausprägungen können unterschiedlichster Form sein: Sie sind nicht immer Zahlen, sie
können z.B. auch Zustände sein. (Aus diesem Grund sprechen wir auch von Daten- und nicht von
Zahlenmaterial.) Ausgehend von solchen Unterschieden möglicher Ausprägungen werden Merk-
male in Klassen eingeteilt. Eine Art der Klassifizierung ist die Unterscheidung quantitativer und
qualitativer Merkmale: Die Ausprägungen quantitativer Merkmale unterscheiden sich durch ihre
Größe, die Ausprägungen qualitativer Merkmale durch ihre Art. Um die Ausprägung eines Merk-
mals messen zu können, muss man natürlich zunächst eine Skala festlegen, die alle möglichen Aus-
prägungen eines Merkmals beinhaltet. Man unterscheidet:
Nominalskala (topologisch)
Die einfachste Form der Messung findet auf der Nominalskala statt. Die Zahlen, Buchstaben,
Symbole der Nominalskala bezeichnen bestimmte Ausprägungen einer Einheit; sie haben
also eine namengebende Funktion. Merkmale, deren Ausprägungen einer solchen Skala
genügen, nennt man auch nominale Merkmale. Mit dieser Skalierung ist keine Wertung oder
Anordnung verbunden. Beispiele für die Nominalskala sind: Postleitzahlen, Autokennzei-
chen, Produktionsnummern, Artikelbezeichnungen usw. Es können zur Analyse nur absolute
oder relative Häufigkeiten bzgl. der Ausprägungen gebildet werden. Erlaubte Transformatio-
nen sind:
Klebername
Nummer
Buchstabe
Symbol
Display Mount.
4
E
*
Foto Mount.
1
M
#
Abb. 1
Transformationen für nominale Merkmale
Ordinalskala (topologisch)
Die Skalenwerte der Ordinalskala (Rangskala) bezeichnen Intensitäten der Merkmalsausprä-
gung, sie haben eine ordnende Funktion. Mit der Skalierung ist eine Wertung verbunden.
Beispiele für die Ordinalskala sind: Schulnoten, militärische Dienstgrade, Güteklassen,
Beurteilungen sensorischer Merkmale usw. Es können zur Analyse verteilungsfreie und in
besonderen Fällen auch parametrische Methoden eingesetzt werden. Erlaubte Transformatio-
nen sind:
Haltungsart
Nummer
Buchstabe
Symbol
Käfighaltung
3
D
#
Bodenhaltung
2
C
##
Freilandhaltung
1
B
###
Abb. 2
Ordinales Merkmal
Intervallskala (metrisch, kardinal)
Bei der Intervallskala ist jeder Skalenwert ein Produkt aus einem Zahlenwert und der Maß-
einheit, in der das Merkmal gemessen wird. Die Differenz zwischen zwei Skalenwerten ist
sinnvoll. Auf Intervallskalen sind alle positiven linearen Transformationen (Y = aX + b)
zulässig. Beispiele für die Intervallskala sind: Temperaturen in °C, °R und °F, Kalenderda-
tum usw.
Verhältnisskala (metrisch, kardinal)
Die Verhältnisskala hat alle Eigenschaften der Intervallskala und darüber hinaus einen abso-
luten Nullpunkt. Bei der Verhältnisskala sind auch die Quotienten von Skalenwerten sinn-
voll. Auf Verhältnisskalen sind alle Ähnlichkeitstransformationen entsprechend (Y = aX)
zulässig. Beispiele für die Verhältnisskala sind: Temperatur in K, Lebensalter, Längen und
alle in SI-Einheiten gemessenen Merkmale.
Prozess-Sicherheit II.
16

Längenmessung
anglo-amerikanisch
39.37 in
3.281 ft
1.094 yd
metrisch
100.00 cm
10.00 dm
1.00 m
Einheiten
Abb. 3
Metrisches Merkmal
3.1
Stetige und diskrete Merkmale
Wir wollen nun noch eine weitere Art der Klassifizierung von Merkmalen kennen lernen, nämlich
die Einteilung in stetige und diskrete Merkmale. Als Beispiel mögen Schrauben dienen.
Merkmale
Merkmalsausprägungen
Skala Klassifizierung
Länge
10 mm, 16 mm, 20 mm, 35 mm, etc.
kardinal
stetig
Oberfläche
roh, verzinkt, verchromt, etc.
nominal
diskret
Verwendungsart
Blechschraube, Holzschraube, etc.
nominal
diskret
Durchmesser
2.5 mm, 3.0 mm, 3.5 mm, 4.0 mm, etc.
kardinal
stetig
Material
Stahl, Messing, Kunststoff, etc.
nominal
diskret
Kopfform
Senkkopf, Flachkopf, etc.
nominal
diskret
Gewindeart
metrisch, Rohrgewinde, spezial, etc.
nominal
diskret
Aufnahmeart
Gewindebohrung, selbst schneidend, etc. nominal
diskret
Befestigungsart
Schlitz, Kreuzschlitz, Sechskant, etc.
nominal
diskret
Festigkeit
200 N/mm
2
, 350 N/mm
2
, 500 N/mm
2
, etc.
kardinal
stetig
Gewindelänge
8 mm, 13 mm, 17 mm, 25 mm, etc.
kardinal
stetig
Preis pro 100 in Euro 2.75, 3.25, 3.79, 3.95, etc.
kardinal
stetig
Abb. 4
Stetige und diskrete Merkmale
Ein diskretes Merkmal kann nur endlich viele Ausprägungen besitzen. Dagegen nennen wir ein
Merkmal stetig, wenn es als Ausprägung jeden beliebigen Wert in einem Bereich haben kann. Ste-
tige Merkmale werden in der Regel mit der Normalverteilung und diskrete Merkmale werden mit
der Binomial- und Poisson-Verteilung analysiert.
3.2
Zufallsvariable, Einfluss- und Zielgrößen
In der Statistik bezeichnet man die betrachteten Charakteristika der Untersuchungsobjekte als Merk-
male. Diese treten an den Untersuchungsobjekten, an den Einheiten oder Merkmalsträgern - die ein
oder mehrere Merkmale aufweisen -, in verschiedenen Ausprägungen auf. Das Auffinden aussage-
kräftiger Merkmale ist eine wichtige Teilaufgabe der Statistik. Je nachdem wie die Merkmalsaus-
prägungen beschrieben werden, unterscheidet man durch Zählen (Anzahl Sitzplätze) oder Messen
(Höchstgeschwindigkeit) erfasste quantitative Merkmale von den qualitativen Merkmalen, wie z.B.
Geschlecht, Beruf, Familienstand sowie ordinale Merkmale, die sich nach der Intensität der Merk-
malsausprägung in eine Rangfolge mit numerisch nicht definierbaren Intervallen bringen lassen
(Schulnoten). Die Menge aller möglichen Einheiten, welche der statistischen Betrachtung zugrunde
liegen, nennen wir Grundgesamtheit.
Man unterscheidet zwei Arten von Grundgesamtheiten: Einmal eine endliche Grundgesamtheit exis-
tierender Objekte wie sie für eine Erhebung typisch ist, zum anderen eine beliebig große Grundge-
samtheit hypothetischer Objekte, wie sie für Experimente typisch sind; hier wird durch Wiederho-
lung der Messung unter gleichen bis ähnlichen Bedingungen eine Grundgesamtheit von Messwerten
geschaffen, die als Realisierungen von Zufallsvariablen mit bestimmter Verteilung aufgefasst wer-
den.
Betrachten wir den Bremsweg eines Autos. Dieser wird von vielen Variablen wie Geschwindigkeit,
Gewicht des Autos, Reifendruck, Reifentyp, Fahrbahn und vielen weiteren Variablen beeinflusst.
Ändert sich eine Ausprägung dieser Variablen ändert sich auch der Bremsweg. Dies ist aber kein
zufälliges Ergebnis, sondern durch Veränderung (Spezielle Ursachen, nicht regelbar) einer Einfluss-
größe verursacht. Würde man nun die alle bekannten Einflussgrößen konstant halten und wieder-
holte Messungen durchführen, erhielte man trotzdem abweichende Bremswege. Diese Unterschiede
in den Bremswegen sind auf kleinste Abweichungen (allgemeine Ursachen, regelbar) aller
Prozess-Sicherheit II.
17

Einflussgrößen zurückzuführen. Man spricht deshalb von zufälligen Abweichungen, der Bremsweg
ist also eine Zufallsvariable. Wird man von einem Wagentyp den Bremsweg wissen wollen, wird
nur eine Teilmenge aller Fahrzeuge geprüft werden können. Von dieser Teilmenge, der Zufallsstich-
probe, wird dann auf den Bremsweg aller Autos dieses Wagentyps geschlossen. Da alle Messwerte
Zufallsergebnisse sind, ist der arithmetische Mittelwert (der Erwartungswert) für alle Fahrzeuge der
Grundgesamtheit auch eine Zufallsvariable. Dieser hat, wie auch die Messwerte, einen definierten
Streubereich, d.h. die Auswirkungen des Zufalls sind berechenbar. Im Folgenden sollen einige
wesentliche Begriffe erläutert werden. Wir stellen dazu zunächst die verschiedenen, häufig verwen-
deten Arten von Variablen zusammen. Wir nehmen an, dass im Versuch neben der messbaren
abhängigen eine oder mehrere unabhängige Variablen auftreten. In der induktiven Statistik werden
die Merkmale, man spricht besser von Variablen, wie folgt unterteilt:
Abb. 5
Definition von Variablen
Variable sind oft voneinander abhängig, sie bilden einfache oder auch komplexe Kausalketten. Bei-
spiel Steinwurf: Die Wurfweite ist abhängig von der Abwurfgeschwindigkeit, dem Gewicht des
Steins und des Abwurfwinkels. Die Abwurfgeschwindigkeit ist wiederum abhängig von der Wurf-
technik, der Fitness und der Erfahrung des Werfers. Die Fitness wird vom Training und dem Alter
des Werfers beeinflusst, etc. Diese Unterteilung und Definition der Variablen ist eine der wesentli-
chen Aufgaben der statistischen Versuchsplanung.
3.3
Grundlegende Begriffe der Versuchsplanung
Unter einem Versuch versteht man im allgemeinen die Gesamtheit aller Einzelversuche (auch:
Gesamtversuch, Experiment), die in einem Versuchsplan festgelegt sind. Spätere Versuchsergeb-
nisse lassen sich dann entsprechend zuordnen. Bei umfangreichen Untersuchungen und Projekten
kann der Versuch in mehrere Teilversuche unterteilt werden. Der Versuchsplan enthält die Liste der
Einzelversuche mit den Faktorstufenkombinationen der Versuchsparameter, die in Verbindung mit
der Gesamtheit der Versuchseinheiten des Versuchsobjektes den Versuchsraum (Materialien, Aus-
rüstung, Versuchsbedingungen einschl. Umweltbedingungen) beschreiben. Weiterhin umfasst ein
Versuchsplan neben den Einzelversuchen, Angaben über deren Reihenfolge (Randomisierung:
Zufällige Zuordnung der Einzelversuche zu den Versuchseinheiten) sowie aller beim Versuch kon-
stant zuhaltenden Einflussgrößen. In der Antwortmatrix werden die Zielgrößen Y
i
, die geforderte
Anzahl der Realisierungen (Replikationen) bestimmt. Diese Angaben nehmen entscheidenden Ein-
fluss auf die Größe der Antwortmatrix. Der Aufbau eines Versuchsplans wird durch die Anzahl der
Faktoren X
i
bestimmt. Als Faktor (auch bekannt unter: Versuchsparameter, unabhängige Variablen
oder Einflussgrößen) wird eine unabhängige, willkürlich einstellbare quantitative oder qualitative
Größe bezeichnet, von der ein starker Einfluss auf das Versuchsergebnis erwartet wird. Diese Ein-
flussgrößen werden mit mindestens zwei Stufen in den Versuch einbezogen. Zu diesen Versuchsva-
riablen sind ebenfalls die Störgrößen zu zählen. Sie werden meistens nicht in den Versuchsplan
aufgenommen. Ihre Wirkung ist wie eine zufällige Einflussgröße zu behandeln und die damit ver-
bundene Versuchsstreuung klein zu halten. Faktorstufen sind Einstellwerte in der Planmatrix, mit
Prozess-Sicherheit II.
18

denen die Versuchsparameter im Rahmen der Versuche variiert werden. Dementsprechend ist unter
Faktorstufenkombination eine Kombination aus je einer Faktorstufe eines jeden Faktors zu verste-
hen. Mit Zielgröße wird eine quantitative oder qualitative Größe beschrieben, die das Versuchser-
gebnis dokumentiert. Es wird die Abhängigkeit zwischen den Versuchsvariablen charakterisiert. Die
Auswertung der Zielgrößen erfolgt meistens einzeln. Es können jedoch mehrere Zielgrößen zu einer
abgeleiteten oder globalen Zielgröße zusammengefasst werden. Wenn die Zielgröße und die Mess-
größe nicht identisch sind, weißt Scheffler auf eine Unterscheidung zwischen Ziel- und Antwort-
größe hin. Diese Unterscheidung ist nicht zwingend, doch manchmal sehr ratsam, um einer
Verwechselung vorzubeugen.
Die Effekte, d.h. die Gegenüberstellung der Versuchsergebnisse aus der Antwortmatrix mit der
Variation der Faktoren, gibt Aufschluss, wie sich die Faktoren auf die Ergebnisse auswirken bzw.
welchen Einfluss sie ausüben. Hier wird zwischen Haupteffekten (HE) und Wechselwirkungseffek-
ten (WE) unterschieden. Unter Haupteffekten wird der Einfluss einer einzigen Variablen bei Varia-
tion über alle Stufen dieses Faktors auf die Zielgröße verstanden. Mit dem Begriff Wechselwir-
kungseffekt wird die Veränderung der Zielgröße bei gleichzeitiger Variation mehrerer Faktoren
bezeichnet. Anders als bei Haupteffekten können Wechselwirkungseffekte nur dann auftreten, wenn
zwei oder mehrere Parameter zugleich ihre Stufenhöhe verändern. Wechselwirkungseffekte werden
mit Hilfe der Versuchsparametersymbole gekennzeichnet. Eine Zweifaktor-Wechselwirkung
(2-FWW) des Faktors X
1
und des Faktors X
2
ist in der Matrix der unabhängigen Variablen mit X
1
X
2
zu erkennen.
Effektvariable:
auch Zielgröße (engl. Response), Regressand, Antwortgröße, abhängige (Zufalls-) Variable
des Versuchs, auf sie ist die statistische Hypothese gerichtet, ihre Messung ist zentrales
Anliegen des Versuchs. Beispiele: Qualitätsverbesserung, Leistungszuwachs, Kosten-
senkung, Umsatz.
Faktorvariable:
auch Bedingung, Regressor oder Faktor: unabhängige Variable des Versuchs, also Einfluss-
größe die in der statistischen Hypothese als Untersuchungsbedingung mitformuliert wird und
im Versuch in verschiedenen Ausprägungen auftritt. Diese Ausprägungen können Faktorstu-
fen sein. Faktorvariable sind messbare oder auch nicht messbare (nur in Kategorien definier-
te) Größen und lassen sich unterteilen in Planfaktor-, Fixfaktor- und organismische Variable
Planfaktorvariable, auch Planfaktor; bewusst variierte kontrollierbare Einflussgröße.
Beispiele: Organisationsform, Herstellungsmethode, Maschineneinstellung, Lösungs-
strategie, Mischungsanteil.
Fixfaktorvariable, auch Fixfaktor; konstant zu haltende, kontrollierbare Einflussgröße.
Beispiele: Rohmaterial, Prüfer, Untersuchungsmilieu.
Kovariable, auch organismische Variable, wenn sie nicht in Versuch berücksichtigt
wird, auch Störvariable; aufgrund natürlicher Variation in den Versuch eingehende,
messbare Einflussgröße, welche selten auch regelbar ist. Liegen die Ausprägungen der
Variablen in Form intervallskalierter Daten vor, so kann diese als Kovariable im Ver-
such berücksichtigt werden. Beispiele: Lagerzeit, Rohmateriallos, Luftfeuchtigkeit,
Raumtemperatur.
Faktorstufen:
auch Behandlungen; Ausprägungen oder Zusammenfassungen von Ausprägungen der Faktor-
variablen. Bei nicht messbaren Faktorvariablen sind die Ausprägungen selbst die Faktorstufen.
Im Falle messbarer Faktorvariablen entstehen die Faktorstufen im Allgemeinen erst durch
Zusammenfassung mehrerer Ausprägungen, also durch Gruppenbildung oder Einstellung. Die
Faktorstufen werden bei der Versuchsplanung zielgerichtet gewählt und in den Versuch einbe-
zogen. Der Begriff der Faktorstufe ist sehr umfassend. Beispiele für Faktorvariable:
Prozess-Sicherheit II.
19

Lösungsstrategie: algorithmisches Vorgehen, heuristisches Vorgehen;
Alter: Vorschulalter, Unterstufe, Mittelstufe;
Temperatur: 100 °C und 120 °C.
Effekt:
Differenz zwischen Anfangs- und Endzustand der Effektvariablen als Resultat der Wirkung
der Faktorvariablen.
Innerhalb der Literatur und der Normung gibt es unterschiedliche Definitionen zu den verschiede-
nen Begriffen der statistischen Versuchsplanung. Die folgende Grafik kann als Hilfestellung genutzt
werden.
Versuchs- Zufalls-
Konstante
Faktoren
nummer nummer X
1
X
2
X
3
X
1
X
2
X
1
X
3
X
2
X
3
X
1
X
2
X
3
Total
Z
1
Z
2
...
Y
1
Y
2
...
1
12
-1
-1
-1
1
1
1
-1
1
Erste Realisierung des zweiten Versuchs
2
20
1
-1
-1
-1
-1
1
1
1
3
29
-1
1
-1
-1
1
-1
1
1
Faktorstufe
4
1
1
1
-1
1
-1
-1
-1
1
5
23
-1
-1
1
1
-1
-1
1
1
Faktorstufenkombination
6
35
1
-1
1
-1
1
-1
-1
1
7
37
-1
1
1
-1
-1
1
-1
1
8
34
1
1
1
1
1
1
1
1
Zweite Realisierung des zweiten Versuchs
9
13
-1
-1
-1
1
1
1
-1
1
10
15
1
-1
-1
-1
-1
1
1
1
11
21
-1
1
-1
-1
1
-1
1
1
Einzelversuch
12
11
1
1
-1
1
-1
-1
-1
1
13
10
-1
-1
1
1
-1
-1
1
1
14
27
1
-1
1
-1
1
-1
-1
1
15
4
-1
1
1
-1
-1
1
-1
1
16
14
1
1
1
1
1
1
1
1
Dritte Realisierung des zweiten Versuchs
17
28
-1
-1
-1
1
1
1
-1
1
18
3
1
-1
-1
-1
-1
1
1
1
19
6
-1
1
-1
-1
1
-1
1
1
20
32
1
1
-1
1
-1
-1
-1
1
...
...
...
...
...
...
...
...
...
... ...
...
...
...
...
...
40
24
1
1
1
1
1
1
1
1
Zufalls-
Block-
Ordnung
Variable
Komplette Versuchsmatrix für 2
3
Versuch mit 5 Realisierungen
Hauptwirkungen
Wechselwirkungen
Kovariable
Zielgrößen
Planmatrix
Planmatrixergänzung
Kovariablen-
matrix
Anwort-
matrix
Abb. 6
Elemente eines Versuchsplanes
Die Planmatrix (Versuchsplan, Design-Matrix) besteht aus der laufenden Versuchsnummer
(Design-Order), der Zufallsordnung (Run-Order) und dem vollständigen Satz von Faktorstufen
Kombinationen (Versuchseinstellung) inklusive der wiederholten Realisierungen (Wiederholun-
gen). Die Planmatrixergänzung ergibt sich durch Multiplikation der entsprechenden Faktorstufen,
sie ist bedeutsam für die Entwicklung reduzierter Versuchspläne. Die Blöcke sind Bestandteil der
Planung, sie ergeben sich aus Mehrfach-Wechselwirkungen und werden für Variable genutzt, die
möglicher Weise einen Einfluss haben aber nur bedingt eingestellt werden können (z.B. Rohmateri-
alchargen). Bei der Durchführung der Versuche ergeben sich manchmal Messwerte nicht regelbarer
Variablen, diese werden als Kovariable bei jedem Versuch gemessen und ergeben die Kovariablen-
matrix. Die Antwortmatrix (Ergebnismatrix) ist das gemessene Ergebnis jedes Versuches und
Zweck der Versuchsplanung.
Prozess-Sicherheit II.
20

3.4
Richtlinien versus statistische Versuchsplanung
Normen bzw. Richtlinien zum Qualitätsmanagement, allen voran die, die im Bereich der Automo-
bilbranche bestehen, heben den Einsatz statistischer Methoden hervor. Grundsätzlich geht es darum,
die Aussagekraft und ­sicherheit von Versuchsergebnissen zu gewährleisten, um diese quantitativ
zu bewerten. So ist in der ISO/TS 16949 von 1999 zu DoE ­ statistische Versuchsplanung ­ ver-
zeichnet:
Eine experimentelle Technik, die zur Variation von Prozessvorgaben mit dem Ziel verwendet wird,
deren Wirkung auf die Prozessergebnisse besser zu verstehen.
In der Anmerkung wird weiter ausgeführt:
Die Auswirkungen werden unter den unterschiedlichen Bedingungen bewertet, um
1)
die einflussnehmenden Bedingungen unter allen getesteten Variablen zu bestimmen,
2)
die Auswirkungen insgesamt zu quantifizieren,
3)
die kausalen Zusammenhänge im Prozess besser zu verstehen und
4)
die Aus- und Wechselwirkungen zu vergleichen.
Ebenso weist die VDA 6.1 von 1996 auf die Wichtigkeit von statistischen Methoden hin:
Die Anwendung statistischer Methoden ist ein wichtiges QM-Element in allen Phasen des Qualitäts-
kreises und ist von den Produkten und eingesetzten Herstellverfahre n abhängig. (...)
Die Anwendung statistischer Methoden im Versuch erhöht bei geringer Anzahl von Versuchsträgern
die Aussagekraft und -sicherheit (...).
Ihr Einsatz ermöglicht es, mit wirtschaftlichem Aufwand richtige Aussagen über das Qualitätsniveau
und seine Veränderungen zu treffen. (...)
Typische Methoden sind: Statistische Versuchsplanung (...)
In der QS 9000 wird die Anwendung des DoE nicht zwingend gefordert. Lediglich auf den Einsatz
von statistischen Methoden wird verwiesen.
3.5
Einsatzmöglichkeiten und Grenzen der statistischen Versuchsplanung
Die statistische Versuchsplanung gilt als Hilfsmittel zur gezielten Systemanalyse und -optimierung.
Im Rahmen des TQM-Konzeptes
9
und der Quality-Engineering-Methoden sind die Verfahren der
statistischen Versuchsplanung bereichsübergreifend in den Produktentstehungsphasen
Definitions- und Entwurfsphase,
Entwicklungs- und Produktionsphase,
Beschaffungs- und Vorserienphase sowie der
Serienphase
einsetzbar. Überall, wo in der Produktentstehungskette der Begriff Versuche durchführen fällt, be-
steht fast immer die Möglichkeit zum Einsatz von statistisch geplanten Versuchen. Bei einer ange-
strebten Produkt- oder Prozessverbesserung wird versucht, die auftretenden Prozess-Streuungen
möglichst klein zu halten. Dies hängt von den Einflussgrößen, Störgrößen und der Reproduzierbar-
keit ab. Zur Bestimmung und Einstellung dieser Größen kann die statistische Versuchsmethodik als
Werkzeug verwendet werden. Als Stand der Technik kann jedoch immer noch das Trial-and-Error -
Verfahren genannt werden, bei dem die Einstellung der Einflussgrößen solange geändert werden, bis
ein akzeptables Ergebnis erreicht ist. Diese Strategie ist nicht nur teuer und unsystematisch, sondern
erfordert auch viel Zeit. Die statistische Versuchsplanung bietet hingegen folgende Vorteile:
Prozess-Sicherheit II.
21
9
TQM = Total Quality Management, zu deutsch umfassendes Qualitätsmanagement DIN 8402

Sie reduziert den Versuchsaufwand erheblich, indem für die Aufgabenstellung eine geeig-
nete Strategie gewählt wird.
Weiterhin ist es möglich, eine objektive und präzisierte Aussage und eine grobe Modellie-
rung der Zusammenhänge aufgrund der statistischen Auswertung zu erhalten.
Des Weiteren ist eine komplexe Vergleichbarkeit, hohe Aussagekraft, Übersichtlichkeit und
Dokumentation gewährleistet.
Erfolgreiche Anwendungsbeispiele der statistischen Versuchsplanung bei Auslegungs- und Opti-
mierungsaufgaben in Forschung, Industrie, sowie dem Dienstleistungsbereich sind zu finden in allen
Industrien. Im Rahmen des Forschungsprojektes Untersuchung zur technologischen und wirtschaft-
lichen Effizienz einer systematisierten Versuchsplanungsmethodik in der Produktentwicklung, wel-
ches von der Stiftung Industrieforschung von 1999 - 2001 gefördert wurde, wurden innerhalb eines
Arbeitskreises vielfältige Projekte abgewickelt. Diese Projekte belegen, wie vielfältig das Anwen-
dungsspektrum der statistischen Versuchsplanung ist. Natürlich gibt es auch Anwendungsfälle, für
die der Einsatz derartiger Versuchsmethoden nur eingeschränkt empfehlenswert und möglich ist. Zu
nennen sind hier:
Forderung nach Extrapolierbarkeit der ermittelten Funktion aus dem untersuchten Bereich
hinaus,
Analyse des Zeit- und Antwortverhaltens von Systemen z.B. Einschwingen oder
Systeme mit unstetigem oder periodischem Verhalten (wie Befüllung und Abstich bei Hoch-
öfen in der Stahlerzeugung).
Weitere Hindernisse bzw. Grenzen bei der Anwendung von Versuchsplanungsmethoden sind in den
verfügbaren Kapazitäten an Zeit, Personal, Material, Maschinen und Geld zu nennen. Verzichtet
werden kann zum Teil auf den Einsatz, wenn bei geringem Aufwand in kurzer Zeit viele Versuche
abgearbeitet werden können (z.B. Gittermodell) und trotz der vielen Versuche die Übersicht erhal-
ten bleibt, sowie geringe Forderungen an die Auswertung gestellt werden. Die statistische Versuchs-
planung beschäftigt sich unter anderem mit der Beantwortung folgenden Fragen:
Welche Einflussgröße ist wichtig zur Veränderung der Zielgröße?
Wie groß ist der Effekt einer Einflussgröße auf die Zielgröße?
In welcher Richtung wirkt der Effekt?
Ist die Wirkung der Einflussgröße linear?
Sind Wechselwirkungen zwischen Einflussgrößen vorhanden?
Welche Variablen sind voneinander abhängig?
Welche Strukturen sind zwischen den Variablen erkennbar?
Lassen sich mit den Einflussgrößen Prognosemodelle für die Zielgrößen entwickeln?
Wie ist die Güte der Prognosen?
Wie werden Forderungen an die Zielgrößen erfüllt?
Gibt es gemeinsame Schnittmengen bzgl. der Zielvorgaben mehrerer Zielgrößen?
Bei welchen Faktorenstellungen werden diese Schnittmengen erreicht?
Prozess-Sicherheit II.
22

4
Normalverteilung und Verwandtes
Die Gauß- oder Normalverteilung (nach Carl Friedrich Gauß) ist eine in der Inferenzstatistik beson-
ders wichtige stetige theoretische Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte
wird auch Gauß-Funktion, Gauß-Kurve, Gauß-Glocke oder Glockenkurve genannt. Die besondere
Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, der
besagt, dass eine Summe von n unabhängigen, identisch verteilten Zufallsvariablen im Grenzwert
normalverteilt ist. Das bedeutet, dass man Zufallsvariablen dann als normalverteilt ansehen kann,
wenn sie durch Überlagerung einer großen Zahl von Einflüssen entstehen, wobei jede einzelne Ein-
flussgröße einen im Verhältnis zur Gesamtsumme unbedeutenden Beitrag liefert.
Viele natur-, wirtschafts- und ingenieurswissenschaftliche Vorgänge lassen sich durch die Normal-
verteilung entweder exakt oder wenigstens in sehr guter Näherung beschreiben (vor allem Prozesse,
die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken). Die Nor-
malverteilung ist eine in der Statistik sehr weit verbreitete stetige Verteilung (wie der Name nahe
legt vielleicht die am weitesten verbreitete Verteilung überhaupt). Wegen der Form der Verteilungs-
dichte wird sie auch als Glockenkurve bezeichnet. Gründe für Verbreitung und Bedeutung der Nor-
malverteilung:
Die Summe bzw. der Durchschnitt von (unendlich) vielen voneinander unabhängigen Ein-
zelwerten ist normalverteilt (zentraler Grenzwertsatz), unabhängig von der Verteilung der
Einzelwerte. Häufig sind Messfehler oder sonstige zufällige Abweichungen das Ergebnis
vieler kleiner Einzelbeiträge. Sie werden dann gut durch die Normalverteilung beschrieben.
Viele andere Verteilungen können unter bestimmten Randbedingungen gut durch eine Nor-
malverteilung angenähert werden.
Für die Normalverteilung existieren sehr viele abgeleitete Testverfahren. Normalverteilte
Daten können daher gut analysiert werden. Die Annahme der Normalverteilung ist daher
nützlich, auch wenn sie nur näherungsweise erfüllt ist.
Es muss allerdings ganz deutlich darauf hingewiesen werden, dass Messwerte nicht normalverteilt
sein müssen und es treten auch oft Abweichungen von der Normalverteilung auf. Deshalb muss die
Annahme der Normalverteilung in jedem Fall überprüft werden. Manchmal ist es möglich, nicht
normalverteilte Daten durch eine geeignete Transformation in (näherungsweise) normalverteilte
Daten zu überführen (z.B. indem man alle Einzelwerte logarithmiert und die Logarithmen als neue
Messwerte behandelt - logarithmische Normalverteilung).
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Dichte und Wahrscheinlichkeit NV(0,1)
Abb. 7
Dichte und Verteilungsfunktion
Die Dichte der Normalverteilung f(x) ist gegeben durch:
f (x) =
1
2
e
-
(x - )
2
2
2
Prozess-Sicherheit II.
23

Dabei ist x = Merkmalswert,
= Mittelwert der Verteilung (d.h. der Mittelwert der
Grundgesamtheit) und = Standardabweichung der Verteilung. Die Varianz
der Normalvertei-
2
lung ist das Quadrat der Standardabweichung. Die Normalverteilung enthält also nur zwei Parameter.
Mittelwert und Standardabweichung beschreiben die gesamte Verteilung vollständig. Der Mittelwert
beschreibt die Lage der Verteilung, die Standardabweichung die Breite der Verteilung. NV(0,1)
ist die standardisierte Normalverteilung mit dem Mittelwert
und der Standardabweichung
= 0
= 1.
F(x) ==
1
2
x
-
e
-
(x - )
2
2
2
Die Normalverteilung ist ein mathematisches Modell, das häufig genutzt wird, um Häufigkeitsver-
teilungen zu beschreiben. Die Normalverteilung wird durch die Parameter und bestimmt, ihre
Eigenschaften und Bedeutungen sind:
Bei graphischer Darstellung ergibt die Dichtefunktion einer Normalverteilung eine glocken-
förmige Kurve, die symmetrisch zur Geraden
ist. Der Erwartungswert fällt mit dem
x =
Modus und dem Median zusammen.
Die Glockenkurve hat ihre Wendepunkte bei den Abszissen
.
!
Annähernd normalverteilte Merkmale sind in der Wirtschaft gelegentlich, im technisch
naturwissenschaftlichen Bereich des öfteren zu beobachten. Dies ist durch den Zentralen
Grenzwertsatz begründbar.
Außerdem ist der Stichprobendurchschnitt (arithmetisches Mittel) bei großem Stichpro-
benumfang annähernd auch dann als normalverteilt zu betrachten, wenn über die Verteilung
der Grundgesamtheit nichts bekannt ist.
Schließlich eignet sich die Normalverteilung zur Approximation vieler theoretischer Vertei-
lungen unter gewissen Voraussetzungen, etwa der Binomial-Verteilung, der Poisson-Vertei-
lung, der
-Verteilung, etc.
2
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
4.0
6.0
8.0
10.0
12.0
14.0
16.0
Dichte verschiedener Mittelwerte
Abb. 8
Dichte der NV für verschiedene Werte von µ
Die Grafik zeigt die Dichte dreier Normalverteilungen mit den Mittelwerten (
)
= 8, = 10, = 12
bei gleicher Standardabweichung (
). Das Maximum der Verteilungsdichte liegt am Mittelwert.
= 1
Die Verteilung ist symmetrisch zum Mittelwert.
Prozess-Sicherheit II.
24

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
4
6
8
10
12
14
16
Wahrscheinlichkeit verschiedener Mittelwerte
Abb. 9
F(x) für NV mit unterschiedlichen Mittelwerten µ
Die Summenhäufigkeit (Wahrscheinlichkeit) zeigt für die Mittelwerte eine Parallelverschiebung der
Kurven, wobei der jeweilige Mittelwert bei 0.5 abgelesen werden kann. Die Wahrscheinlichkeit
kann nur Werte von 0 bis 1 annehmen.
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
4.0
6.0
8.0
10.0
12.0
14.0
16.0
Dichte verschiedener Streuungen
Abb. 10 Dichte der NV für verschiedene Standardabweichungen
Die Grafik zeigt die Dichte dreier Normalverteilungen mit den Standardabweichungen (
,
= 1.5
) bei gleichem Mittelwert (
). Das Maximum der Verteilungsdichte liegt am
= 1.0, = 0.5
= 10
Mittelwert. Je größer die Standardabweichung, desto breiter ist die Verteilung (da die Gesamtfläche
unter f(x) immer 1 ist, wird das Maximum umso niedriger, je breiter die Verteilung ist).
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
4.0
6.0
8.0
10.0
12.0
14.0
16.0
Wahrscheinlichkeiten verschiedener Streuungen
Abb. 11 F(x) für NV mit unterschiedlichen Standardabweichungen
Unabhängig von den Werten für Lage
und Streuung
bleibt die Gesamtform der Normalver-
()
()
teilung erhalten und es gilt:
die Verteilungsdichte ist symmetrisch zum Mittelwert ,
die Breite der Verteilungsdichte ist proportional zu ,
die Höhe des Maximums ist umgekehrt proportional zu ,
die Kurve hat ein einziges Maximum,
Prozess-Sicherheit II.
25

die beiden Äste der Kurve nähern sich asymptotisch der Abszisse,
die Fläche unter der Kurve ist gleich 1,
arithmetisches Mittel, Modus und Median fallen zusammen,
die Verteilung reicht von
,
- bis +
die Kennwerte der Verteilung sind einfach bestimmbar, aber
dass Integral der Verteilungsfunktion F(x) ist explizit nicht berechenbar.
4.1
Standardisierte Normalverteilung
Da die Parameter und der Normalverteilung beliebig sein können und man nicht jede Vertei-
lungsfunktion tabellieren kann, wird eine beliebige Normalverteilung in eine standardisierte Normal-
verteilung überführt. Die standardisierte Normalverteilung (kurz: NV(0,1) hat den Mittelwert
= 0
und die Standardabweichung
. Sie wird häufig auch als z-Verteilung bezeichnet. Die Formeln
= 1
zur Umrechnung von einer beliebigen NV(
) in eine standardisierte NV(0,1) lauten:
,
z =
x -
; x = + z
Um einen beliebigen Zufallswert x einer beliebigen Normalverteilung NV(
) in einen Zufallswert
,
der Standardnormalverteilung NV(0, 1) umzurechnen, wird zuerst der Mittelwert subtrahiert.
Wird dies für alle Werte durchgeführt, erhält man eine Normalverteilung NV(
) mit dem Mittel-
0,
wert
, d.h. die Verteilung wurde auf den Nullpunkt geschoben. Die Differenz zwischen den
z
= 0
beobachteten Werte x
i
und dem Parameter nennt man Residuum e
i
:
e
i
= x
i
- oder e
i
= x
i
- x
Man muss nun noch die Streuung normieren, dies wird erreicht durch Division mit der Standardab-
weichung . Das Ergebnis ist die standardisierte Normalverteilung NV(0,1). Die Zwischenergeb-
nisse nennt man auch standardisiertes Residuum.
e
(NV(0,1))i
= z
i
=
e
i
oder e
(NV(0,1))i
= z
i
=
e
i
s
Folgende Tabelle soll die die Zusammenhänge der Formeln erläutern:
Lfd. Nr.
Werte
Residuen
Std. Residuen
1
3.81
-6.39
-1.3887
2
5.94
-4.26
-0.9258
3
8.07
-2.13
-0.4629
4
10.20
0.00
0.0000
5
12.33
2.13
0.4629
6
14.46
4.26
0.9258
7
16.59
6.39
1.3887
Mittelwert
10.2000
0.0000
0.0000
Standardabweichung
4.6013
4.6013
1.0000
Abb. 12 Standardisierte Residuen
Jedem z-Wert der standardisierten Normalverteilung ist eine Wahrscheinlichkeit zugeordnet, wie
die folgende Grafik zeigt.
Prozess-Sicherheit II.
26

Abb. 13 Anteile der NV(0,1)
Die nächste Tabelle zeigt die Wahrscheinlichkeiten der NV(0,1) und die dazugehörigen Schranken z
der standardisierten Normalverteilung für einseitige und zweiseitige Fragestellungen. Aufgrund der
Symmetrie der NV werden nur positive z-Werte tabelliert.
alpha / 2
z (alpha / 2)
P-Wert
alpha
z (alpha)
0.0000005 4.891638476
0.999999
0.000001 4.753424309
0.000005 4.417173414
0.99999
0.00001 4.264890794
0.00005 3.890591886
0.9999
0.0001 3.719016486
0.0005 3.290526732
0.999
0.001 3.090232306
0.0025 2.807033768
0.995
0.005 2.575829304
0.005 2.575829304
0.99
0.01 2.326347874
0.01 2.326347874
0.98
0.02 2.053748911
0.0125 2.241402728
0.975
0.025 1.959963985
0.025 1.959963985
0.95
0.05 1.644853627
0.05 1.644853627
0.9
0.1 1.281551566
0.1 1.281551566
0.8
0.2 0.841621234
0.15 1.03643339
0.7
0.3 0.524400513
0.2 0.841621234
0.6
0.4 0.253347103
Abb. 14 Tabelle ausgewählter z-Werte
4.2
Grafiken zur NV
14.0681 14.0692 14.0658 14.0668 14.0671
2.0
0.2
0.4
0.3
0.2
14.0688 14.0677 14.0697 14.0682 14.0676
0.6
1.5
0.5
0.6
0.2
14.0675 14.0685 14.0689 14.0695 14.0684
0.5
0.7
0.6
1.0
0.3
14.0695 14.0671 14.0674 14.0692 14.0697
0.8
0.3
0.7
1.4
0.4
14.0692 14.0669 14.0680 14.0691 14.0673
0.5
0.3
1.1
0.7
0.3
14.0690 14.0657 14.0667 14.0672 14.0686
0.9
0.5
0.4
0.4
1.7
14.0666 14.0683 14.0675 14.0654 14.0678
0.1
0.7
0.7
0.2
0.5
14.0680 14.0678 14.0664 14.0698 14.0674
0.4
1.2
0.1
0.3
0.2
14.0668 14.0657 14.0696 14.0656 14.0687
0.4
0.5
0.4
0.1
0.6
14.0661 14.0659 14.0670 14.0684 14.0694
0.2
0.6
0.3
0.1
0.3
14.0675 14.0679 14.0702 14.0670 14.0666
0.2
0.3
0.6
0.5
1.0
14.0677 14.0685 14.0661 14.0664 14.0666
0.3
0.3
0.4
0.5
0.2
14.0681 14.0680 14.0686 14.0661 14.0650
0.4
0.4
0.1
0.2
0.3
14.0680 14.0674 14.0690 14.0673 14.0690
0.9
1.0
1.1
0.4
0.3
14.0688 14.0681 14.0687 14.0695 14.0691
0.3
0.2
0.6
0.2
0.5
14.0703 14.0661 14.0700 14.0667 14.0676
0.2
0.3
0.3
0.5
1.1
14.0676 14.0677 14.0675 14.0680 14.0688
0.8
0.6
0.5
0.1
0.4
14.0685 14.0675 14.0696 14.0683 14.0709
0.4
1.0
0.3
0.7
0.3
14.0699 14.0687 14.0679 14.0681 14.0671
0.1
1.4
0.1
0.3
0.2
14.0671 14.0693 14.0675 14.0669 14.0689
0.3
0.8
0.3
0.4
0.3
Erster Datensatz
Zweiter Datensatz
Abb. 15 Zwei Datensätze zur Darstellung von Grafiken zur NV
Viele Messwerte bzw. die Residuen sind angenähert normalverteilt. Es gilt für alle Variablen, dass
die Residuen und nicht der Messwert angenähert normalverteilt sein sollen, denn nur so kann
Prozess-Sicherheit II.
27

sichergestellt werden, dass alle Tests und auch die Vertrauensbereiche gültig sind. Aus diesem
Grund ist eine grafische Überprüfung der Voraussetzungen eine Notwendigkeit. Die meist genutzte
Grafik zur Prüfung der Normalverteilung ist das Histogramm. Die klassierten Häufigkeiten zeigen
häufig eine glockenförmige Gestalt, wie für die Normalverteilung zu erwarten ist. Die Daten unserer
Beispiele sind jeweils als Histogramm in folgenden Grafiken dargestellt.
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.16
0.18
0.20
14.0642
14.0658
14.0674
14.0690
14.0706
14.0722
Histogramm
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
-0.1591 0.1864 0.5318 0.8773 1.2227 1.5682 1.9136 2.2591
Histogramm
Abb. 16 Histogramme der Datensätze
Der erste Datensatz zeigt eine gute Anpassung an die Normalverteilung, während der zweite Daten-
satz nicht als angenähert normalverteilt gelten darf. Das Histogramm des zweite Datensatz ist schief
mit Extremwerten auf der rechten Seite. Ein bedeutender Nachteil von Histogrammen ist, dass man
einen relativ großen Datensatz (n 50) haben muss, um die Verteilung sinnvoll interpretieren zu
können. Auch die willkürliche Festlegung der Klassen ist ein Störfaktor. Von Vorteil ist, dass grobe
Abweichungen von der Normalverteilung schnell zu sehen sind. Eine weitere Darstellungsmöglich-
keit ist die Grafik der Summenfunktion, bei der jedoch die Auflösung der interessanten Bereiche
sehr gering ist.
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Summenhäufigkeiten
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Summenhäufigkeiten
Abb. 17 Summenhäufigkeiten der Datensätze
Während die Linien der Summenhäufigkeiten sich für ersten Datensatz kaum unterscheiden, sind
die Unterschiede der Linien beim zweiten Datensatz sehr deutlich. Die Nachteile der Summenfunk-
tion können durch das Wahrscheinlichkeitsnetz oder gleichwertig durch ein Q-Q Plot behoben wer-
den. Dabei wird der Maßstab der Summenhäufigkeit so verzerrt, dass sich für die Normalverteilung
eine Gerade ergibt. Das Wahrscheinlichkeitsnetz kann auch bei kleinen Stichproben (n 50) zur
Beurteilung der Normalität genutzt werden. Ein weiterer Vorteil ist, dass Einzelwerte eingetragen
werden und eine Klassifizierung somit entfällt. Im Wahrscheinlichkeitsnetz können die Kennwerte
Mittelwert, Standardabweichung und Anteilswerte abgelesen werden.
Prozess-Sicherheit II.
28

-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Q-Q Plot
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Q-Q Plot
Abb. 18 Q-Q Plots der Datensätze
Eine weitere nützliche Darstellung einer Normalverteilung ist das P-P Plot. Während das Q-Q Plot
Abweichungen eher an den Enden zeigt, werden beim P-P Plot Abweichungen in der Mitte deutlich.
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
P-P Plot
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
P-P Plot
Abb. 19 P-P Plots der Datensätze
Das P-P Plot ist für den ersten Datensatz ist als normalverteilt anzusehen. Für den zweiten Daten-
satz zeigen sich dagegen zwei Probleme, eine ungenügende Messauflösung und eine fehlende
Anpassung an die Gerade. Eine weitere Grafik zeigt den geübten Anwendern Abweichungen von
der Normalverteilung, darüber hinaus ist sie auch ein wesentlicher Indikator für Autokorrelation der
Daten. Voraussetzung für diese Darstellung ist es, dass die Messdaten nicht in ihrer zeitlichen Erhe-
bung verändert werden.
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96
Urwertkarte
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
1 6 11 16 21 26 31 36 41 46 51 56 61 66 71 76 81 86 91 96
Urwertkarte
Abb. 20 Urwertkarten der Datensätze
Es wird deutlich, dass beim ersten Datensatz die Werte überwiegend innerhalb der Warngrenzen lie-
gen und dabei ein zufälliges Erscheinungsbild darstellen. Anders dagegen sind beim zweiten Daten-
satz Häufungen der Daten unterhalb des Mittelwertes festzustellen. Außerdem sind Werte außerhalb
der oberen Eingriffsgrenze feststellbar. Ein Modell ist eine das Wesentliche eines Sachverhaltes
erfassende formalisierte Darstellung. Ein statistisches Modell ist eine Beschreibung der Wahr-
scheinlichkeitsverteilung der Daten, die als beobachtete Zufallsvariablen aufgefasst werden. Meist
Prozess-Sicherheit II.
29

ist man an den unbekannten Parametern dieser Wahrscheinlichkeitsverteilung und den Wahrschein-
lichkeiten interessiert. Das Modell der Normalverteilung ist:
Ein idealisiertes, mathematisches Modell für empirische Häufigkeitsverteilungen
Bedeutungsvoll als theoretische Verteilung
Viele theoretische Verteilungen lassen sich durch die Normalverteilung gut annähern.
4.3
Zentraler Grenzwertsatz
Grenzwertsätze sind schwach-konvergente Resultate der Wahrscheinlichkeitstheorie. Diese Lehr-
sätze drücken aus, dass die Summe vieler unabhängiger, gleichverteilter Zufallsvariablen zu einer
Verteilung tendiert. Der bekannteste, als zentraler Grenzwertsatz bezeichnet, sagt aus, dass die
Summe unabhängiger Variablen normalverteilt ist. Da es in der Natur viele solcher Prozesse gibt,
erklärt dies das häufige Auftreten der Normalverteilung.
Beispiel: Wie aus einer Mischverteilung eine Normalverteilung wird.
Zunächst wählen wir eine Grundgesamtheit mit einer unbekannten Dichteverteilungsfunktion (z.B.
eine bimodale Verteilung wie im ersten Bild). Dann nehmen wir eine zufällige Stichprobe von n = 10
Beobachtungen und berechnen deren Mittelwert. Wenn wir diesen Vorgang viele Male (k = 1000)
wiederholen und das Histogramm der Mittelwerte (zweites Bild) darstellen, sieht man die Ähnlich-
keit mit der Normalverteilung. Auch mit anderen Verteilung bekommen wir wieder normalverteilte
Mittelwerte. Allerdings zeigen die Mittelwerte nicht mehr die gleiche Streuung und verschleiern den
Ursprung der Ausgangsdaten. Dies führt in der Praxis häufig zu falschen Ergebnissen, so werden
bei der Herstellung von Bahnware (Folien, Gewebe, etc.) oft Messungen quer zur Bahn gemittelt, um
die durchschnittliche Dicke zu schätzen. Wird ein Profil gefahren, kann man dieses nicht erkennen
und auch nicht korrigieren. Eine Angabe über den Zufallsstreubereich der Dicke wäre falsch.
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
0.17 1.08 2.00 2.91 3.82 4.73 5.64 6.55 7.47 8.38 9.29 10.20
Histogramm für Mischungen (k=10000; n=1)
0.00
0.02
0.04
0.06
0.08
0.10
0.12
0.14
2.01 2.36 2.71 3.05 3.40 3.75 4.09 4.44 4.79 5.14 5.48 5.83 6.18 6.52
Histogramm (k=1000; n=10)
Abb. 21 Verhalten von Mittelwerten
Die Konsequenz des zentralen Grenzwertsatzes in der Theorie der Statistik ist: Wenn man eine
zufällige Stichprobe von n Beobachtungen aus einer beliebigen Grundgesamtheit nimmt, dann wird
- wenn n ausreichend groß ist - die Verteilung des Stichprobenmittelwertes annähernd normal sein.
Die Mindestgröße einer Stichprobe um normalverteilte Mittelwerte zu erhalten, hängt von der Ver-
teilungsfunktion der Grundgesamtheit ab. Im Allgemeinen, muss n für sehr asymmetrische Vertei-
lungsfunktionen größer sein als für symmetrische unimodale Verteilungen. Für n größer als 30 wird
man sehr gute Annäherungen an die Normalverteilung erhalten. Der Zentraler Grenzwertsatz gilt
auch für diskrete Verteilungen.
4.4
Student- oder t-Verteilung
Die Student- oder t-Verteilung wurde 1908 vom englischen Statistiker W.S. Gosset, der unter dem
Pseudonym Student publizierte, im Zusammenhang mit Untersuchungen zur Verteilungsfunktion
des arithmetischen Mittelwertes im Falle kleiner Stichproben (n 30) und unbekannter Varianz
einer normalverteilten Grundgesamtheit abgeleitet. Bei bekannter Varianz der normalverteilten
Prozess-Sicherheit II.
30

Grundgesamtheit mit
und
gilt, dass die Zufallsgröße X normalverteilt ist mit
E(X) =
Var(X) =
2
. W.S. Gosset demonstrierte 1908, dass das Verhältnis t zwischen der Differenz des Stich-
E(X) =
probenmittelwertes und des Populationsmittelwertes und dem Standardfehler des Mittelwertes nicht
normalverteilt ist, wenn die Populationsparameter unbekannt sind:
t =
x
n
-
s
n
/ n
Dieses Verhältnis folgt einer speziellen Verteilung, der so genannten t-Verteilung. Die t-Verteilung
ist für eine kleine Stichprobenanzahl breiter als die Normalverteilung und nähert sich der Normal-
verteilung für große Stichproben an. In der Darstellung sieht man die t-Verteilung für 1, 3 und 10
Freiheitsgrade mit der Dichtefunktion
10
.
f(t) =
(( + 1)/2)
(/2)
(1 - t
2
/
)
-(+2)/2
mit
= n - 1
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Dichte der t-Verteilung (fg=1, 3, 7)
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
-4.0
-3.0
-2.0
-1.0
0.0
1.0
2.0
3.0
4.0
Wahrscheinlichkeit der t-Verteilung (fg=1, 3, 7)
Abb. 22 Normalverteilung versus t-Verteilung (f = 1, 3, 10)
Wie leicht erkannt wird, konvergiert die t-Verteilung mit einem wachsenden Freiheitsgrad sehr
schnell zu einer angenäherten Normalverteilung. Wobei die durchgezogene Linie für die NV(0,1)
steht, die gepunktete Linie für einen Freiheitsgrad von 7, die gestrichelte Linie für einen Freiheits-
grad von 3 und die Strichpunktlinie für einen Freiheitsgrad von 1 gilt. Für Freiheitsgrade größer 30
ist der Unterschied zur Normalverteilung vernachlässigbar.
4.5
Chiquadrat-Verteilung
Um Rückschlüsse über die Verteilung der Grundgesamtheit auf der Basis der Probenvarianz zu ziehen,
müssen wir eine spezielle Verteilung berücksichtigen, die Chiquadrat-Verteilung (
): Ist eine zufäl-
2
lige Variable X normalverteilt (mit dem Mittelwert und der Varianz
), dann zeigt die Größe:
2
2
=
n
i=1
X
i
-
i
i
2
eine Chiquadrat-Verteilung mit n-1 Freiheitsgraden für eine zufällige Stichprobe der Größe n.
Einige Beispiele für die Chiquadrat-Verteilung für verschiedene Freiheitsgrade werden in der fol-
genden Darstellung gezeigt. Wie Sie sehen können, ist die Chiquadrat-Verteilung asymmetrisch und
immer positiv. Der Mittelwert der Chiquadrat-Verteilung ist gleich der Anzahl der Freiheitsgrade
n-1; die Varianz ist gleich der doppelten Anzahl an Freiheitsgraden.
Prozess-Sicherheit II.
31
10
OQM-Stat erlaubt die Berechnung von Dichte (pdf: probability density function), Wahrscheinlichkeitsfunktion (cdf: cumulative den-
sity function), inverse Wahrscheinlichkeitsfunktion, Zufallszahlen, etc. der t-Verteilung.

Die Chiquadrat-Verteilung wird zum Testen der Unterschiede zwischen Grundgesamtheiten und
Stichprobenvarianzen sowie zwischen theoretischen und beobachteten Verteilungen verwendet. Ihr
Verteilungsdichte
11
lautet:
f(
2
;
) =
(1/2)
/2
(/2)
(
2
)
/2-1
e
-
2
/2
0.00
0.05
0.10
0.15
0.20
0.25
0.0
5.0
10.0
15.0
20.0
25.0
30.0
Dichte der Chiquadrat-Verteilung (fg=3, 7, 15)
0.00
0.10
0.20
0.30
0.40
0.50
0.60
0.70
0.80
0.90
1.00
0.0
5.0
10.0
15.0
20.0
25.0
30.0
Wahrsch. der Chiquadrat-Verteilung (fg=3, 7, 15)
Abb. 23 Chiquadrat-Verteilung
Eine wichtige Eigenschaft der Chiquadrat-Verteilung ist deren Additivität: Wenn zwei unabhängige
Größen chiquadrat-verteilt sind (mit den Freiheitsgraden f1 und f2), dann ist die Summe der beiden
Größen chiquadrat-verteilt mit dem Freiheitsgrad f1 + f2.
4.6
F-Verteilung
Die F-Verteilung (nach R.A. Fisher benannt) ist relevant für die Berechnung der Verhältnisse der
Varianzen von normal-verteilten Statistiken. Nehmen wir an, wir haben zwei Proben mit n
1
und n
2
Beobachtungen. Das Verhältnis ist nach einer F-Verteilung verteilt, mit f
1
= n
1
-1 Freiheitsgraden für
den Zähler des Quotienten und mit f
2
= n
2
-1 Freiheitsgraden für den Nenner.
F =
s
1
2
s
2
2
Die F-Verteilung ist nach rechts verschoben und die F-Werte können nur positiv sein. Ihre
Dichtefunktion
12
lautet:
f(F x
1
; v
2
)
=
1
1
/2
2
2
/2
1
2
+
2
2
1
2
2
2
F
1
/2-1
(
1
F +
2
)
(
1
+
2
)/2
Prozess-Sicherheit II.
32
12
OQM-Stat erlaubt die Berechnung von Dichte (pdf: probability density function), Wahrscheinlichkeitsfunktion (cdf: cumulative den-
sity function), inverse Wahrscheinlichkeitsfunktion, Zufallszahlen, etc. der F-Verteilung.
11
OQM-Stat erlaubt die Berechnung von Dichte (pdf: probability density function), Wahrscheinlichkeitsfunktion (cdf: cumulative den-
sity function), inverse Wahrscheinlichkeitsfunktion, Zufallszahlen, etc. der Chiquadrat-Verteilung.

0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.0
0.5
1.0
1.5
2.0
2.5
3.0
Dichte der F-Verteilung (3,3; 4,7; 7,7)
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
0.0
0.5
1.0
1.5
2.0
2.5
3.0
Wahrsch. der F-Verteilung (3,3; 4,7; 7,7)
Abb. 24 F-Verteilung
Beachten Sie, dass drei der wichtigsten Verteilungen (nämlich die Normalverteilung, die t-Vertei-
lung und die Chiquadrat-Verteilung) als Spezialfälle der F-Verteilung angesehen werden können:
Normalverteilung = F(1, )
t-Verteilung = F(1, f
2
)
Chiquadrat-Verteilung = F(f
1
, )
4.7
Die Parameter der Normalverteilung
Die wichtigsten Parameter der Normalverteilung sind der arithmetische Mittelwert (kurz:
Mittelwert) und die Standardabweichung. Weitere Parameter sind die Schiefe und Wölbung der
Verteilung. Der arithmetische Mittelwert (engl. Mean) ist wohl die bekannteste Größe, sie
beschreibt die Lage der Verteilung und wird deshalb auch Lageparameter genannt. Die Formeln zur
Berechnung der Kennwerte lauten für:
den arithmetischen Mittelwert (Durchschnitt)
= x = 1
n
n
i=1
x
i
die Varianz
2
= s
2
=
1
n - 1
n
i=1
(x
i
- x)
2
die Standardabweichung
= s =
1
n - 1
n
i=1
(x
i
- x)
2
die standardisierte Schiefe = 0
1
= n - 1
n(n - 2)
n
i=1
x
i
- x
s
3
die Rohschiefe = 0
g
1
= 1n
n
i=1
x
i
- x
s
3
die standardisierte Wölbung = 0
2
=
n(n - 1)
(n - 1)(n - 2)(n - 3)
n
i=1
x
i
- x
s
4
- 9n - 15
n
2
- 5n + 6
die Rohwölbung = 3
g
2
= 1n
n
i=1
x
i
- x
s
4
Prozess-Sicherheit II.
33

die Standardabweichung des Mittelwertes
error = s
x
= s
n
den Vertrauensbereich des arithmetischen Mittelwertes
un
ob
= x ! t
n-1,1-
/2
s
n
den Vertrauensbereich einer Varianz
s
2
(n - 1)
n-1,
/2
2
[
2
[
s
2
(n - 1)
n-1,1-
/2
2
die nur von n abhängige Standardabweichung der Schiefe
1
=
6n(n - 1)
(n - 2)(n + 1)(n + 3)
den Vertrauensbereich der Schiefe.
1 un
ob
=
1
! z
1-
/2
$
1
die nur von n abhängige Standardabweichung der Wölbung
2
=
24n(n - 1)
2
(n - 3)(n - 2)(n + 3)(n + 5)
den Vertrauensbereich der Wölbung.
2 un
ob
=
2
! z
1-
/2
$
2
Der Stichprobenumfang n ist die Anzahl der Messwerte. Alle Parameter der Normalverteilung rea-
gieren äußerst empfindlich auf Ausreißer. Deshalb wurden auch Parameter definiert bei denen
Abweichungen von der Normalverteilung ohne jegliche Wirkung sind Die wichtigste ist der Zen-
tralwert (engl. Median) dieser wird durch abzählen gewonnen, er ist definiert durch:
x = Q
0.5
(X)
Mit Q
0.5
wird ein Quantil der Daten definiert, dass dem Median entspricht. Der Median einer belie-
bigen Verteilung liegt immer exakt bei 50 %, zerlegt die Verteilung in zwei gleiche Anteile. Die
Messwerte sind noch nicht ausreichend beschrieben, es fehlen noch Parameter, welche die Streuung
der Messwerte charakterisieren. Es gibt noch ein weiteres Streuungsmaß, dass ähnlich robust wie
der Median (Q
0.5
) ist. Der Interquartilsabstand wird auch durch abzählen gewonnen, in seinem
Bereich liegen 50 % der Werte. Durch die Quartile (Q
0.25
und Q
0.75
) ist der Kernbereich der Box-
Plots definiert. Für beliebige Quantile gilt folgende Formel:
Rang = p $ (n + 1/3) + 1/3
Index = Rang
Gewicht = Rang - Index
x
1
= x
(Index)
der aufsteigend sortierten Werte
x
2
= x
(Index+1)
der aufsteigend sortierten Werte
Q
p
= x
1
+ Gewicht $ (x
2
- x
1
)
Alle Kennwerte sind erwartungstreue Schätzer für die Parameter der Grundgesamtheit. Alle Para-
meter sind Zufallsvariable und haben ihre eigenen Verteilungen.
Prozess-Sicherheit II.
34

4.8
Tests auf Normalverteilung
Es wurden eine Vielzahl von Test zur Normalverteilung entwickelt von denen nur einige eine aus-
reichende Qualität bzgl. der Schlussfolgerungen haben. Zu den Tests gehören:
Jarque-Bera Test:
Test mittels der Kumulanten Schiefe und Wölbung, ein einfacher auf der Chiquadrat-Vertei-
lung basierender Test.
Doornik-Hansen Test:
Test mittels der Kumulanten Schiefe und Wölbung, ein komplexer auf der Chiquadrat-Ver-
teilung basierender Test.
Anderson-Darling Test:
Test mittels empirischer Verteilungsfunktion, der in Minitab genutzt wird.
Ryan-Joiner Test:
Test vom Korrelations-Typ, der in Minitab verfügbar ist.
Epps-Pulley Test:
Test mittels empirischer charakteristischer Funktion, bester Test welcher auch mehrdimensi-
onale Normalverteilungen prüfen kann.
4.8.1
Jarque-Bera Test
Die meisten Tests für die Normalität basieren entweder auf dem Vergleich der empirischen kumula-
tiven Verteilung mit der theoretischen normalen kumulativen Verteilung (z.B. Anderson-Darling)
oder empirischen Quantilen mit den theoretischen Normalquantilen (z.B. Wilk-Shapiro). Die Jar-
que-Bera Teststatistik ist definiert als:
2
= n
6
1
2
+
2
2
4
Diese Teststatistik wird mit einer Chiquadrat-Verteilung mit 2 Freiheitsgraden verglichen (Normali-
tät wird abgelehnt, wenn die Teststatistik größer als der Schwellenwert der Chiquadrat-Verteilung
ist).
4.8.2
Doornik-Hansen Test
Der Doornik-Hansen Test fordert die Verwendung von Rohschiefe g
1
und Rohwölbung g
2
. Im ersten
Schritt wird die Schiefe in einen Wert z
1
der standardisierten Normalverteilung transformiert.
h
1
=
3(n
2
+ 27n - 70)(n + 1)(n + 3)
(n - 2)(n + 5)(n + 7)(n + 9)
h
2
= -1 + 2(h
1
- 1)
h
3
= 1/ ln h
2
h
4
= g
1
h
2
- 1
2
(n + 1)(n + 3)
6(n - 2)
z
1
= h
3
ln h
4
+ (h
4
2
+ 1)
Die Wölbung wird von einer Gamma-Verteilung in eine Chiquadrat-Verteilung transformiert und
dieser Wert wird mittels Wilson-Hilferty Transformation in den Wert z
2
der standardisierten Nor-
malverteilung transformiert.
Prozess-Sicherheit II.
35

h
1
= (n - 3)(n + 1)(n
2
+ 15n - 4)
h
2
=
(n - 2)(n + 5)(n + 7)(n
2
+ 27n - 70)
6h
1
h
3
=
(n - 7)(n + 5)(n + 7)(n
2
+ 2n - 5)
6h
1
h
4
=
(n + 5)(n + 7)(n
3
+ 37n
2
+ 11n - 313)
12h
1
h
5
= h
2
+ g
1
2
h
3
h
6
= (g
2
- 1 - g
1
2
)2h
4
z
2
=
3
h
6
2h
5
- 1 + 1
9h
5
9h
5
Die Testgröße der Chiquadrat-Verteilung (fg = 2) lautet:
2
= z
1
2
+ z
2
2
4.8.3
Anderson-Darling Test
Schreiben wir x
(1)
, x
(2)
, ... , x
(n)
für die geordnete Stichprobe, so ergeben sich die folgenden Formeln
für den Anderson-Darling Test zur Prüfung auf Normalverteilung.
AD = -n -
1
n
n
i=1
(2i - 1) $ [ln (x
i
)
+ ln(1 - (x
n+1-i
))]
AD
= AD $ 1 + 0.75
n
+ 2.25
n
2
Zur praktischen Durchführung des Anderson-Darling Tests im Fall
lehne man die Nullhypo-
n m 8
these zum Niveau 0.05 ab, falls
. Minitab und OQM-Stat rechnen den
in einen
AD
m 0.752
AD
p-Wert um.
4.8.4
Ryan-Joiner Test
Tests vom Korrelation-Typ bilden eine weitere begrifflich zusammenhängende Gruppe von Verfah-
ren zur Prüfung auf Normalverteilung. Die stets zu empfehlende grafische Prüfung Normalvertei-
lung mittels eines Wahrscheinlichkeitsnetzes beurteilt mit Augenmaß den Grad der Kollinearität.
Da im allgemeinen die Güte der Kollinearität einer Punktwolke durch den Pearson-Korrelationkoef-
fizienten geprüft wird, liegt es nahe diesen auch zur Prüfung der Normalität anzuwenden. Die Daten
werden wieder aufsteigend geordnet. Danach sind die Werte der X- und Y-Achse zu bestimmen. Der
Ryan-Joiner Test ist vergleichbar mit dem sehr bekannten Shapiro-Wilk Test. Der Korrelationskoef-
fizient bestimmt sich nun aus den Wertepaaren (x, y) mit folgender Formel.
x
i
=
x
i
- x
s
und y
i
=
-1
(h
i
) mit h
i
= Beta
-1
(0.5, n, i)
r =
n
i=1
x
i
y
i
- 1n
n
i=1
x
i
n
i=1
y
i
n
i=1
(x
i
- x)
2
n
i=1
(y
i
- y)
2
Zur praktischen Durchführung des Ryan-Joiner Tests im Fall
lehne man die Nullhypothese
n m 8
zum Niveau von
ab, falls
= 0.05
Prozess-Sicherheit II.
36

r m r
= 1.0063 - 0.1288
n
- 0.6118
n
+ 1.3505
n
2
Minitab und OQM-Stat rechnen den r* in ein p-Wert um.
4.8.5
Epps-Pulley Test
Epps und Pulley gehen von den standardisierten Größen der NV(0, 1) aus, welche sich berechnen
nach
z
i
=
x
i
- x
s
Als Prüfgröße zum Testen von H0 schlagen Epps und Pulley folgenden Ansatz vor, wobei kurz
geschrieben wurde.
Z
j
= Z
nj
, 1 [ j [ n,
EP
n
() = 1n
n
j,k=1
exp -
2
2
(z
j
- z
k
)
2
+
n
1 + 2
2
-
2
1 +
2
n
j=1
exp -
2
z
j
2
2(1 +
2
)
Aufgrund von Simulationen empfehlen Epps und Pulley
, damit wird die Gleichwertigkeit zum
= 1
Anderson-Darling und Ryan-Joiner-Test sichergestellt. Zur praktischen Durchführung des Epps-
Pulley Tests im Fall
berechne man die folgende modifizierte Prüfgröße.
n m 10
EP
= EP
n
(1) - 0.365
n
+ 1.34
n
2
1 +
1.3
n
Die p-Werte lassen sich mit Hilfe folgender Approximation gewinnen.
z
= 3.55295 + 1.23062 log
EP
+ 0.020682
-0.020682 + 2.26664 - EP
Die Nullhypothese zum Niveau wird abgelehnt, falls folgende Ungleichung
zu trifft.
z
m
(1-)
-1
Der Epps-Pulley-Test ist der effizienteste Test zur Prüfung der Normalverteilung von Daten.
4.9
Transformationen
Schiefe Verteilungen, Stichproben mit heterogenen Varianzen und Häufigkeitsdaten müssen vor der
Durchführung eines statistischen Tests zur Erzielung normalverteilter Werte (oder besser Residuen)
mit homogenen Varianzen transformiert werden. In der multiplen Regressionsanalyse werden
Powertransformationen nach der Box-Cox Methode verwendet. Die Powertransformationen bein-
halten eine Fülle von Transformationen zur Erreichung von angenähert normalverteilten Daten. Das
von Box-Cox entwickelte Verfahren erlaubt die Berechnung des besten Exponenten zur Symme-
trie und Normalisierung. Die Powertransformationen haben die Form:
f(z
i
)
=
x
i
- 1
oder
(x
i
+ A)
- 1
$ x
G
-1
wenn
! 1
f(z
i
)
= ln(x
i
) oder x
G
$ ln(x
i
+ A) wenn = 0
x
G
=
n
n
i=1
(x
i
+ A)
Die Box-Cox Transformationen sind nur für positive Werte erlaubt. Wenn man negative Werte in
der Stichprobe hat, dann berechnen wir einen Additionswert
und addieren diesen Wert
A = 1 - x
min
auf alle Messwerte. Dies wird die Stichprobe in nur positive Werte umwandeln. Eine nichtsymme-
trische Häufigkeitsverteilung der n positiven Einzelwerte x
1
, x
2
, ..., x
n
kann durch die Box-Cox
Transformationen bei geeigneter Wahl von in eine angenähert symmetrische Verteilung überführt
Prozess-Sicherheit II.
37
Ende der Leseprobe aus 511 Seiten

Details

Titel
Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung
Autor
Jahr
2017
Seiten
511
Katalognummer
V353127
ISBN (eBook)
9783668399440
ISBN (Buch)
9783668399457
Dateigröße
16070 KB
Sprache
Deutsch
Schlagworte
prozess-sicherheit, statistische, versuchsplanung, mischungsanalysen, d-optimale versuchspläne, multiple regession, varianzanalyse, taguchi-methode, shainin-methode
Arbeit zitieren
Eckehardt Spenhoff (Autor), 2017, Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung, München, GRIN Verlag, https://www.grin.com/document/353127

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden