Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung


Fachbuch, 2017
340 Seiten

Leseprobe

Inhaltsverzeichnis

1 Einleitung

2 Geschichte der Versuchsplanung (Statistik)

3 Grundlagen von Merkmalen und Versuchen
3.1 Stetige und diskrete Merkmale
3.2 Zufallsvariable, Einfluss- und Zielgrößen
3.3 Grundlegende Begriffe der Versuchsplanung
3.4 Richtlinien versus statistische Versuchsplanung
3.5 Einsatzmöglichkeiten und Grenzen der statistischen Versuchsplanung

4 Normalverteilung und Verwandtes
4.1 Standardisierte Normalverteilung
4.2 Grafiken zur NV
4.3 Zentraler Grenzwertsatz
4.4 Student- oder t-Verteilung
4.5 -Verteilung
4.6 F-Verteilung
4.7 Die Parameter der Normalverteilung
4.8 Tests auf Normalverteilung
4.8.1 Jarque-Bera Test
4.8.2 Doornik-Hansen Test
4.8.3 Anderson-Darling Test
4.8.4 Ryan-Joiner Test
4.8.5 Epps-Pulley Test
4.9 Transformationen

5 Der statistische Test
5.1ElementedesHypothesentests
5.2 Signifikanztests
5.3 Null- und Alternativhypothese
5.3.1 Risiko I. und II. Art

6 Mittelwertvergleiche (ANOVA)
6.1 Mittelwerte mit Zielwerten vergleichen
6.2 Vergleich unabhängiger Mittelwerte
6.3 Vergleich abhängiger Mittelwerte
6.4 Vergleich zweier Varianzen, F-Test
6.4.1 Levene und Browne-Forsythe Test
6.5 Die einfache Streuungszerlegung
6.6 Der Welch Test

7 Klassische Versuchsmethoden
7.1 Versuchspläne der einfaktoriellen Varianzanalyse
7.1.1 Statistische Versuchspläne für einen Einflussfaktor
7.1.2 Vollständige Zufallspläne
7.1.3 Zufällige Blockpläne
7.1.4 Lateinische Quadratpläne
7.1.5 Griechisch-Lateinische Quadratpläne
7.1.6 Hypergriechisch-Lateinische Quadratpläne
7.1.7Ausgewogene unvollständige Blockpläne
7.1.8 Youden Quadratpläne
7.2 Mehrfache Varianzanalyse
7.3 Die Modelle der Varianzanalyse
7.4 Berechnung mehrfacher Varianzanalysen
7.5 Grafische Interpretation der Varianzanalyse
7.6 Beispiel: Reißfestigkeit einer Folie (festes Modell)
7.7 Beispiel: Reißfestigkeit einer Folie (zufälliges Modell)
7.8 Unvollständige Versuchspläne
7.8.1 Zweifaktorielle hierarchische Versuchspläne
7.8.2 Dreifaktorielle unvollständige Versuchspläne
7.8.3 Dreifaktorielle teilhierarchische Versuchspläne
7.8.4 Varianzkomponenten hierarchischer Versuchspläne
7.8.5 Lateinische Quadrate

8 Einfache Regressionsanalyse
8.1LineareRegression
8.1.1 Methode der kleinsten Quadrate
8.1.2Korrelation
8.1.3 Beurteilung des Korrelationskoeffizienten
8.2 Grafische Beurteilung der Residuen
8.3 Vertrauensbereiche und Signifikanz
8.3.1 Vertrauensbereich für den Mittelwert py(x)
8.3.2 Vorhersagebereich für Einzelwerte y
8.4 Linearitätstest
8.5 Quasilineare Regression
8.6 Beispiel: Gewicht versus Luftfrachtkosten

9 Nichtlineare Regression

10 Multiple Regression
lO.lAnalysederRegression
10.2 Probleme mit ungeplanten Versuchen
10.3 Prüfung der Modelladäquatheit
10.3.1DasBestimmtheitsmaß
10.3.2 Residuen, normierte Residuen, Ausreißer
10.3.3 R2press, Präzisionsindex
10.3.4 Tests für Multikollinearität, VIF
10.4 Schrittweise Regression
10.5 Datenaufbereitung

11 Allgemeine Lineare Modelle
11.1 Anwendung der ALM
11.2 Sigmabeschränktes Modell
11.3 Überparametrisierte Modelle
11.3.1 Dummy-Codierung
11.3.2Effekt-Codierung
11.4 Bemerkungen zu ALM

12 Grundlagen der Versuchsplanung
12.1 Prinzipien der Versuchsplanung
12.1.1 Vergleichbarkeit, Verallgemeinerungsfähigkeit
12.1.2 Behandlung wissenschaftlicher Probleme
12.1.3 Die Grundprinzipien der DoE
12.1.4 Die moderne Versuchsplanung
12.1.5 Der zufällige Versuch
12.1.6 Versuchspunkte durch Fachkenntnisse festlegen
12.1.7Das Gitterlinienmodell
12.1.8DieEinfaktormethode
12.1.9 Die Methode des steilsten Anstiegs
12.2 Grundideen
12.3 Zusammenfassung
12.4 Systematisierung der statistischen Versuchsplanung
12.5 Projektinitialisierungsphase
12.6 Systemanalyse
12.6.1 DetaillierteProblemanalyse
12.6.2 Process Map
12.6.3 Ermittlung aller potentiellen Ziel-, Einfluss- und Störgrößen
12.7 Selektion der Variablen
12.7.1 Selektion von Zielgrößen
12.7.2 Korrelative Abhängigkeiten von Zielgrößen
12.7.3 Messbarkeit der Zielgrößen
12.7.4 Festlegung der Zielgrößen
12.7.5 Selektion und Festlegung von Faktoren und Störgrößen
12.7.6 Trennung von Stell- und Störgrößen
12.7.7 Bewertung von Einflussgrößen
12.7.8 Korrelation von Einflussgrößen
12.7.9 Bemerkungen zur Selektionsphase
12.7.10 Festlegung von Planfaktoren, Fixfaktoren und Störgrößen
12.7.11WahlderFaktorstufen
12.7.12Störgrößenbehandlung
12.8 Versuchsstrategie
12.8.1 Auswahl einer Versuchsmethode
12.8.2 Versuchsplanerstellung
12.8.3 Umfang des Versuchsplans
12.8.4 Festlegung der Versuchsreihenfolge
12.8.5 Überprüfung auf praktische Umsetzbarkeit
12.9 Versuchsdurchführung
12.9.1 Kennzeichnung der Versuchsteile
12.9.2 Messmittelüberprüfung
12.9.3 Durchführung aller Versuche (wie festgelegt)
12.9.4 Messdatenerfassung
12.9.5 Abweichungenjeglicher Art festhalten
12.9.6Aufbewahrung der Versuchsteile
12.10Versuchsauswertung
12.10.1 Datenaufbereitung
12.10.2 Modellsicherheit und Fehlersignifikanz festlegen
12.10.3 ÜberprüfungderNormalverteilung
12.10.4Ausreißeranalyse
12.10.5Residuenanalyse
12.10.6 Normalverteilungsplot der Residuen
12.10.7 Residuen gegen Faktoren
12.10.8 Residuen gegen Versuchsreihenfolge
12.10.9 Residuen gegen Modellschätzer
12.10.10 Beobachtungen gegen Vorhersagen
12.10.11 Effektanalyse (Haupt- und Wechselwirkungseffektanalyse)
12.10.12 Zentrierung und Skalierung
12.10.13 Interpretation der Effekte
12.10.14Regressionsanalyse
12.10.15 Varianzanalyse der Regression
12.10.16 Modelladäquatheitstests
12.10.17 Gütemaße des Modells
12.10.18Korrelationsanalyse
12.10.19 GraphischeAuswertung
12.10.20 Optimale Einstellungen bei mehreren Zielgrößen
12.10.21 Validierung
12.10.22 Interpretation und Rückschlüsse
12.10.23 Maßnahmen
12.10.24 Absicherung und weiteres Vorgehen
12.10.25 Bestätigungsversuch
12.10.26 Dokumentation abschließen und vervollständigen

13 Faktorielle Versuche
13.1 2k Faktoren-Versuche
13.2 Betrachtung faktorieller Versuchspläne
13.2.1 Definition der Faktorstufen
13.2.2 Voraussetzungen faktorieller Versuche
13.2.3 Normierung der Faktoren
13.2.4 Die Analyse faktorieller Versuche
13.2.5 Analyse mit Zentralpunkt
13.2.6 Grafische Darstellung faktorieller Versuche
13.2.7 Versuchsaufwand und Informationsgehalt
13.2.8 Blockbildung in faktoriellen Versuchen
13.3 Die teilfaktoriellen Versuchspläne
13.3.1 Grundlage teilfaktorieller Versuchspläne
13.3.2 Lösungstypen
13.3.3 Konstruktion teilfaktorieller Versuchspläne.
13.3.4 Generatoren und definierende Beziehungen
13.3.5 Berechnung von teilfaktoriellen Versuchsplänen
13.4 Plackett-Burman Versuchspläne

14 Zentrale zusammengesetzte Versuchspläne
14.1 Die Versuchspläne der Typen 3k und 5k
14.2 Planung zentraler Versuchspläne
14.3 Drehbarkeit und Orthogonalität
14.4 Voraussetzungen für Modelle zweiter Ordnung
14.5 Lösung von Optimierungsaufgaben
14.6 Kanonische Analyse
14.7WeitereVersuchspläne
14.7.1 Vollständige 3k - Versuchspläne
14.7.2 3k'p Teilfaktorenpläne
14.7.3 Gemischte 2k3k Faktorenpläne
14.7.4Box-Behnken Versuchspläne
14.7.5 Versuchspläne dritter Ordnung
14.8 Optimale Versuchsplanung
14.8.1 D-optimale Versuchspläne
14.8.2 Vor- und Nachteile von D-optimalen Versuchsplänen
14.8.3Modellansatz
14.8.4PotentielleEffekte
14.8.5 Beurteilungskriterien zurAuswahl eines D-optimalen Versuchsplans
14.8.6 Versuchspunkte
14.8.7Anzahl erforderlicher Versuche in Abhängigkeit vom Modell
14.8.8 Vorgehensweise zur Erstellung D-optimaler Pläne
14.8.9 Suchalgorithmen

15 Industrielle Mischungsexperimente
15.1 Die Methodik von Mischungsexperimenten
15.2 Modellbildung bei Mischungsexperimenten
15.3 Planung von Mischungsexperimenten
15.3.1 Standard-Simplex-Konstruktion
15.3.2 Pseudo-Simplex-Konstruktion
15.3.3 Extremwert-Konstruktion
15.3.4Ratio-Konstruktion
15.4 Analyse von Mischungsexperimenten
15.5 Beispiele zur Mischungsanalyse
15.5.1 Beispiel: Penetrationsoptimierung eines Wirkstoffs
15.5.2 Beispiel II: Optimierung der Viskosität eines Klebstoffs
15.5.3 Optimierung eines Klebeband
15.6 Zusammenfassung

16 Experimentelle Optimumsuche
16.1 Gradientenverfahren (steilster Anstieg)
16.2 Simplex-Methode
16.3 Einfaktor-Methode
16.3.1 Evolutionary Operation (EVOP)
16.4 Bemerkungen zur experimentellen Optimumssuche

17 Taguchi-Methodik
17.1 Historisches
17.2 Qualität-Philosophie von Taguchi
17.3 Verlustfunktion
17.4 Robustheit/Robust Design
17.5 Ursachen für Streuungen
17.6 Taguchis Drei-Stufen-Prozess zur Produkt- bzw. Prozessentwicklung
17.7 Parameter-Klassifikation
17.8 Taguchis orthogonale Felder/orthogonale Versuchspläne
17.8.1 Konzept der inneren und äußeren Felder
17.8.2 Bestimmung der Freiheitsgrade
17.8.3 Modifikation der orthogonalen Felder
17.8.4Analyse von Interaktionen mittels Wechselwirkungstabellen und linearen Graphen
17.8.5 Signal/Rausch-Verhältnisse
17.9 Analyse und Kritik an Taguchi-Versuchsplänen

18 Shainin-Methodik
18.1 Historisches
18.2 Shainins Philosophie
18.3 Werkzeuge von Shainin
18.3.1 Isoplot®
18.3.2MuIti-Vari-Karte
18.3.3 Komponententausch
18.3.4 Prozessabschnittstausch
18.3.5 Run-Test
18.3.6 Paarweiser Vergleich
18.3.7 Konzentrationsdiagramme
18.3.8 Variablenvergleich
18.3.9 Vollständiger Versuch
18.3.10 Validieren der Ergebnisse mit derAzu BAnalyse
18.3.11 Optimierung der Zielgröße mit dem Streudiagramm
18.3.12Multi-Spec-Analyse
18.4 Bemerkungen zur Shainin-Methodik

19 Polyoptimierung
19.1 Modelle
19.2 Wunschfunktion
19.2.1 Die individuelle Wunschfunktion di
19.2.2 Transformationen
19.2.3 Der gemeinsame Wunschwert D
19.2.4Differenzierbare Wunschfunktion
19.3 Beispiel: Optimierung eines Klebebandes
19.4 Polyoptimierung mittels dreier Verfahren
19.5 Polyoptimierung mittels Gradientenverfahren
19.6 Grafischer Vergleich der Ergebnisse

20 Analyse ungeplanter Daten der Fertigung
20.1 Datenaufbereitung für die Analyse
20.2 Datenanalyse

21 Verzeichnisse
21.1Abbildungen
21.2 Tabellen

22 Literaturverzeichnis

Vorwort zur ersten Auflage

Mit diesem Buch wird der Versuch unternommen statistische Methoden, wie sie in der Produkt- und Prozessentwicklung genutzt werden, zu behandeln. Bezüglich der mathematischen Herlei­tung müssen aufgrund des Buchumfanges Abstriche gemacht werden. Für die statistischen Me­thoden des operativen Qualitätsmanagement (Mess-System-Analyse, Statistische Prozessregelung, Statistische Prozessfähigkeitsanalyse, u.v.m) wird auf das Buch Prozess-Sicherheit I. hingewiesen, dort wurden diese Verfahren umfassend dargestellt. In diesem Buch werden die Varianzanalyse, Design of Experiments (DoE), Response Surface Methodology (RSM) und Mixtures Analysis aus­führlich behandelt. Neben einigen Grundlagen der Statistik findet der interessierte Leser eine de­taillierte Darstellung der wichtigsten Verfahren zur Versuchsplanung:

1) gekreuzte und hierarchische Varianzanalysen mit festen oder zufälligen Variablen
2) faktorielle und teilfaktorielle Versuchspläne mit stetigen und kategorialen Variablen
3) Response Surface Versuchspläne (Zentral zusammengesetzte Versuchspläne, Box-Behnken)
4) Mischungsanalysen mit und ohne Restriktionen inklusive von Prozessvariablen
5) D-optimale Versuchspläne
6) Polyoptimierung für mehrere Zielgrößen
7) Taguchi- und Shainin-Methoden
8) Umfangreiche Beispiele zur Planung und Analyse von Versuchen

Die dargestellten Verfahren werden teilweise durch das MS Excel® Add-in OQM-Stat unterstützt. Dies ist bei mir kostenfrei zu beziehen. Anforderungen richten sie bitte an mich OQM@ESPENHOFF.DE oder besuchen sie meine Webseite: www.espenhoff.de auf welcher in un­regelmäßigen Abständen immer wieder neues zu finden ist.

Dieses Buch wurde mit großer Sorgfalt erstellt, trotzdem sind Fehler nicht ausgeschlossen. Für diese Fehler bin nur ich verantwortlich und ich bitte sie mir diese Fehler mit zu teilen.

Holzwickede, imjanuar 2016

1 Einleitung

Die Literatur und sonstige Veröffentlichungen zur statistischen Versuchsplanung sind mit Beginn der 90er Jahre explosionsartig nach oben geschossen, Firmen haben Tausende von Mitarbeitern als Green oder Black Belts ausgebildet und trotzdem deutet die Häufigkeit durchgeführter Analysen auf einen Mangel an in statistischen Methoden gut ausgebildeten Ingenieuren und Entwicklern hin. Alle methodischen Ansätze, die Qualität bestehender oder neuer Produkte zu verbessern, fordern die An­wendung von statistischer Versuchsplanung. Als Beispiel seien die Six Sigma Methodiken DMAIC (für bestehende Produkte und Prozesse) und DFSS (für neue Produkte und Prozesse) genannt, wel­che die Anwendung von statistischer Versuchsplanung explizit fordern. Doch welche Versuchsme­thodik soll der Ingenieur erlernen? Er hat die Wahl zwischen der klassischen Versuchsmethodik, der Taguchi-Methodik und der Shainin-Methodik.

Die Industrieberater sind als Gurus der jeweiligen Methodik unterwegs und scheuen dabei auch kei­ne Unwahrheiten oder Übertreibungen um ihr Produkt anzupreisen. Häufig besitzen diese Berater auch nur eine eingeschränkte statistische Kenntnis und führen Versuche durch, die von vornherein zum Scheitern verurteilt sind. Durch solche Versuche geschädigte Ingenieure sind nur noch schwer von der Notwendigkeit der statistischen Versuchsplanung zu überzeugen.

Ein weiteres Problem hat sich in den Firmen eingeschlichen, Versuche dürfen nichts kosten. Berater preisen die Versuchsplanung als effizientes und effektives Werkzeug an, dass mit geringsten Kosten und Ressourcen ein bestmögliches Ergebnis erbringt. Das ist sicher richtig, wird aber häufig dahin­gehend missverstanden, das Versuchsplanung nichts kostet. Nehmen wir an, ein Problem erfordert 45 Versuche und wir geben dazu die Versuchskosten an, dann scheinen die Ingenieure und das Ma­nagement aus Zockern zu bestehen. Vielleicht reichen ja auch 2 oder 3 Versuche, man probiert sein Glück. Da man kein Glück hat, werden weitere Versuche gemacht und dann häufig mehr als not­wendig gewesen wären. Damit nicht genug, weil das Budget verbraucht wurde, gibt man sich mit nichtoptimalen Lösungen zufrieden oder wenn das Kind schon in den Brunnen gefallen ist, kann es kosten was es wolle, jenes Problem zu lösen. Es schlägt die Stunde der Berater.

Diesen Missständen kann man nur durch sachliche Information begegnen. Zu diesem Zweck wurde das Buch verfasst, dabei wurde auf folgende Themen besonderen Wert gelegt:

- Die Grundlagen der Versuchsplanung behandeln die Skalentypen, die Klassifizierung von Vari­ablen, die Normalverteilung, die Prüfverteilungen, den statistischen Hypothesentest, die Tests auf Normalverteilung, die Tests auf Varianzhomogenität, die Tests auf Ausreißer und die Tests auf Autokorrelation.
- Die Analysenverfahren der Versuchsplanung behandeln die Varianzanalyse von einfachen bis komplexen Anwendungsfällen, die Regressionsanalysen in all ihren Ausprägungen und das allgemeines lineares Modell.
- Die Ablaufplanung von Experimenten behandelt die Auswahl und Planung von Versuchen, die Definition der Zielgrößen und der Faktoren, die Auswahl des Versuchsplanes, die Ver­suchsvorbereitung, die Versuchsdurchführung, die Versuchsanalyse sowie die Interpretation und der Versuchsabschluss.
- Die Versuchsmethodiken behandeln die klassische statistische Versuchsplanung inklusive Aus­wahlpläne, faktorielle Versuchspläne, teilfaktorielle Versuchspläne, zentral zusammengesetzte Versuchspläne, spezielle Versuchspläne, Mischungspläne und D-, A- und I-optimale Versuchs­pläne sowie die Versuchsmethodik nach Shainin mit den sieben Standardwerkzeugen Multi-Va- ri-Bild, Komponententausch, Paarweiser Vergleich, Variablen Vergleich, Vollständiger Versuch, A zu В und Streudiagramm sowie der Versuchsmethodik nach Taguchi mit orthogona­le Feldern, inneren und äußeren Feldern, robustes Design und der Verlustfunktion.

Alle Methoden werden dargestellt, ausführlich diskutiert und anhand von Beispielen demonstriert. Auf Ableitungen der einzelnen Formel wird weitestgehend verzichtet. Der interessierte Leser wird in den Literaturhinweisen geeignete Quellen finden. Die Ingenieure, welche heute die statistischen

Methoden nutzen, können auf eine Vielzahl statistischer Software zu greifen. Man muss nicht selber rechnen oder programmieren, man muss aber die statistischen Erfordernisse verstehen und die Er­gebnisse der Analysen verstehen können. Ein weiteres Ziel dieses Buches ist deshalb, die methodi­sche Vorgehensweise bei statistischen Analysen zu erläutern, speziell für die Fälle in denen die Voraussetzungen nicht erfüllt werden.

Da nicht alle statistischen Verfahren in einem Buch niedergeschrieben werden können, empfehle ich auch, das Buch Prozess-Sicherheit I., Statistische Methoden für Ingenieure im operativen Qualitäts­Management zu lesen.

Alle Analysen im Buch werden mit Programm Minitab[1], Statistica[2] oder dem MS-Excel[3] Add-in OQM-Stat durchgeführt. Das Excel Add-in OQM-Stat kann bei mir unter oqm@espenhoff.de oder auf meiner Web-Seite www.espenhoff.de kostenfrei angefordert werden.

2 Geschichte der Versuchsplanung (Statistik)

Zurückblickend kann die historische Entwicklungsgeschichte der Versuchsplanung bis in die frü­hexperimentellen Untersuchungen naturphilosophischer Art durch griechisch-ionische Philosophen in Kleinasien verfolgt werden. Bereits 1450 erkannte der Mathematiker N. Cusanus (1401 - 1464) die Bedeutung quantitativer Untersuchungen für die Naturwissenschaft und hielt dies in seiner Schrift Idiota de staticis experiments (Versuche mit der Waage) fest. Im Bereich der experimentel­len Forschung hingegen wurden primär Methodentheorien durch so bekannte Forscher wie Galilei Galileo (1564 -1642), Francis Bacon (1561 -1626) oder Rene Descartes (1596 -1650) entwickelt. Descartes formulierte den bekannten Satz cogito ergo sum (Ich denke, also bin ich), d.h. nur das ei­gene Denken ist absolut sicher. Dieser Satz ist Kern einer Philosophie, die sehr richtig bemerkt, dass absolute Wahrheit nicht durch Beobachtung, sondern nur durch logisches Denken deduktiv gewon­nen werden kann, und die es deshalb generell ablehnt, sich auf empirische Beobachtungen als Grundlage zu stützen um zu neuen Erkenntnissen zu gelangen. Galileo bereitete so etwas wie eine Wende im Denken vor. Er beschäftigte sich mit der Berechnung von Chancen bei Glücksspielen, wobei er natürlich Beobachtungen zugrunde legte. Dabei versucht der Experimentator von Einzel­beobachtungen zu allgemeinen Schlüssen zu gelangen, dieses induktive Vorgehen ermöglichte erst den Fortschritt der Statistik. Bacon war es, der die These vertrat, dass sich wissenschaftliche Er­kenntnisse auf Beobachtungen und Experimente stützen müssen. Ein wahrer Wissenschaftler be­obachtet seine Umgebung, stellt dementsprechend Hypothesen auf und überprüft diese durch Versu­che. Hume (1711 -1776) vertritt ein Jahrhundert später einen extremen empiristischen Standpunkt. Er vertritt die philosophische Ansicht, dass man Dinge, die man nicht experimentell erarbeiten kann, auch nicht weiß. Nach Hume sind also nur Experimente geeignet, das Wissen zu vermehren; man kann nur induktiv, also durch den Schluss von der Wirkung auf die Ursache, vom Teil auf das Ganze, zu neuen Erkenntnissen gelangen.

Die Geschichte der Statistik (auch der statistischen Versuchsplanung) ist zunächst eine Geschichte der Wahrscheinlichkeitstheorie. Der Ursprung der Wahrscheinlichkeitstheorie hatte seinen Ursprung in Glücksspielen des Chevalier de Mere. Das Problem des Chevalier de Mere waren folgende Wetten:

- Ein Würfel wird 4 mal geworfen. Gesetzt wird darauf, dass dabei mindestens eine 6 auftritt.
- Zwei Würfel werden gleichzeitig 24 mal geworfen. Gesetzt wird darauf, dass dabei mindestens ein 6er-Pasch (d. h. beide Würfel zeigen gleichzeitig eine 6) auftritt.

Dieser fragte Blaise Pascal (1623 -1662) einem französischen Mathematiker aus dem Jahre 1654, ob es stimme, dass man bei der ersten Wette öfter gewinnt, als bei zweiten Wette. Daraufhin korre­spondierte Biaise Pascal mit Pierre de Fermat (1601 -1665) über dieses Problem. Pascal und Fer­mat konnten diese Vermutung des Chevaliers mathematisch bestätigen.

Jakob Bernoulli (1654 -1705) hat wesentlich zur Entwicklung der Wahrscheinlichkeitstheorie so­wie zur Variationsrechnung und zur Untersuchung von Potenzreihen beigetragen. Eines seiner wichtigsten Werke, die Ars Conjectandi, wurde erst 1713, also acht Jahre nach seinem Tod, in Basel veröffentlicht. Das Buch fasste Arbeiten anderer Autoren auf dem Gebiet der Wahrscheinlichkeits­rechnung zusammen und entwickelte sie weiter. Neben Strategien, verschiedene Glücksspiele zu ge­winnen, enthält das Werk auch die Bernoulli-Zahlen.

Abraham de Moivre (1667 -1754) beschäftigte sich von 1708 an vorwiegend mit Untersuchungen zur Glücksspielrechnung, aus denen die 1718 erschienen Doctrine of Chances hervorging. Nach der Entdeckung des Grenzwertsatzes für Binomialverteilung (1733) gab er 1738 eine zweite Auflage seiner Doctrine heraus. Die dritte, postum publizierte Ausgabe der Doctrine enthielt darüber hinaus de Moivres Untersuchungen über Sterblichkeits- und Rentenprobleme. Sie bot eine der wichtigsten Voraussetzungen für die Wahrscheinlichkeitstheorie von Laplace.

Thomas Bayes (1702 - 1761) entwickelte den nach ihm benannten Satz von Bayes, der in der Wahrscheinlichkeitsrechnung große Bedeutung hat. Der Satz von Bayes erlaubt in gewissem Sinn das Umkehren von Schlussfolgerungen:

- Die Berechnung von P (Ereignis \ Ursache) ist häufig einfach, aber oft ist eigentlich P (Ursa­che I Ereignis) gesucht, also ein Vertauschen der Argumente. Für das Verständnis können der Entscheidungsbaum und die A-Priori-Wahrscheinlichkeit helfen. Das Verfahren ist auch als Rückwärtsinduktion bekannt.

Ein großes Forschungsgebiet von Pierre Simon Marquis de Laplace (1749 - 1827) war die Wahrscheinlichkeitsrechnung. Für Laplace stellte sie einen Ausweg dar, um trotz fehlender Kenntnisse zu gewissen Resultaten zu kommen. In seinem zweibändigen Buch Théorie Analytique des Probabili­tés (1812) gab Laplace eine Definition der Wahrscheinlichkeit und befasste sich mit abhängigen und unabhängigen Ereignissen, vor allem in Verbindung mit Glücksspielen. Außerdem behandelte er in dem Buch den Erwartungswert, die Sterblichkeit und die Lebenserwartung. Dies war die erste Zusam­menfassung des Wissensstandes auf dem Gebiet der Wahrscheinlichkeitstheorie.

Mit achtzehn Jahren entdeckte Carl Friedrich Gauß (1777 -1855) die Methode der kleinsten quad­ratischen Abweichungen. Nach ihr lässt sich z.B. das wahrscheinlichste Ergebnis für eine neue Mes­sung aus einer genügend großen Zahl vorheriger Messungen ermitteln. Auf dieser Basis untersuchte er später Theorien zur Berechnung von Flächeninhalten unter Kurven (numerische Integration), die ihn zur gauss'schen Glockenkurve gelangen ließen. Die zugehörige Funktion ist bekannt als die Standardnormalverteilung und wird bei vielen Aufgaben zur Wahrscheinlichkeitsrechnung ange­wandt, wo sie die (asymptotische, d.h. für genügend große Datenmengen) Verteilungsfunktion von zufällig um einen Mittelwert streuenden Daten ist. Gauß selber machte davon u.a. in seiner erfolg­reichen Verwaltung der Witwen- und Waisenkasse der Göttinger Universität Gebrauch.

Bis zum Beginn des 20. Jahrhunderts wurden die Prozesse physikalischer Natur, die von einer ge­ringen Variablenanzahl gekennzeichnet waren, mit Hilfe des Ein-Faktor-Experiments sowie des ce­teris paribus - Grundsatzes (alle übrigen Bedingungen werden konstant gehalten) untersucht. Diese Methode ist auch unter dem Namen One-Factor-at-a-Time bekannt und sagt aus: Wenn in einem Experiment ein einzelner Faktor geändert wird und einen Effekt produziert, sonst alle anderen Fak­toren und Randbedingungen konstant bleiben, dann ist der veränderte Faktor die Ursache des be­obachteten Effektes.

Als theoretischer Begründer der neuzeitlichen Versuchsplanung kann John Stuart Mill (1806 - 1873) genannt werden. Unter Verwendung der mathematischen Statistik können seitdem zuneh­mend komplexere und umfangreichere Systeme mit einer Vielzahl an Variableneinflüssen und zu­sätzlich auftretenden Störgrößen mit vergleichbaren Experimenten analysiert werden, die Ära der klassischen Versuchsplanung begann.

Friedrich Robert Helmert (1843 -1917) war ein deutscher Geodät und Mathematiker. Die bekann­teste Leistung ist die Helmert-Transformation, ferner schrieb er ein wichtiges Buch über die Aus­gleichungsrechnung nach der Methode der kleinsten Quadrate und entdeckte die/2 -Verteilung.

Die Arbeit von Karl Pearson (1857 -1936) ist die Grundlage vieler klassischer statistischer Metho­den, die heute allgemein verwendet werden. Einige seiner Hauptbeiträge zur Statistik sind:

- Lineare Regressions- und Korrelationsanalyse, der Pearson-Produkt-Moment-Korrelations- koeffizient, die Einteilung verschiedener Wahrscheinlichkeitsverteilungen als Grundlage der exponentiellen Verteilungen, das allgemeine lineare Modell und den/2-Test.

William Sealey Gosset (1876 -1937) war ein englischer Statistiker. Er publizierte unter dem Pseu­donym Student. Sein Hauptwerk mündete in der t-Verteilung und dem t-Test, welcher es dem Sta­tistiker erlaubt, zu prüfen, ob sich die beiden Mittelwerte zweier Stichproben bedeutend unterscheiden oder nicht. Fast alle seiner Publikationen veröffentlichte Gosset unter seinem Pseudo­nym, ebenfalls The probable error of a mean, welche in Karl Pearsons Journal Biometrika erschien. Allerdings war es nicht Pearson, sondern der Statistiker Ronald Aylmer Fisher, welcher die Bedeu­tung von Gossets Arbeit über kleine Stichprobengrößen erkannte. Aus Gossets Formel führte Fisher die t-Form ein, weil diese mit seiner Theorie der Freiheitsgrade im Einklang stand. Fisher war auch verantwortlich für die Anwendung der t-Verteilung auf die Regressionsrechnung.

Einer der ersten Artikel, der sich mit der statistischen Versuchsplanung befasste, die später durch Fisher populär wurde, ist auf Dr. Kirstine Smith (1878-1939) zurückzuführen und trägt den Titel On the Standard Deviations of Adjusted and Interpolated Values of an Obeserved Polynomial Function and its Constant and the Guidance the give towards a Proper choice of the Distribution of Observations. Inhalt dieses Artikels ist die quantitative Bestimmung der Varianzeigenschaften von Versuchsplänen (G-Optimalität).

Die klassische Versuchsplanung, so wie man sie heute kennt, ist in erster Finie auf die Arbeiten des englischen Wissenschaftlers und Statistikers Sir Ronald Aylmer Fisher (1880-1962) zurückzufüh­ren. Er entwickelte die wesentlichen Grundsätze der faktoriellen Versuche, um eine Ertragssteige­rung in der Fandwirtschaft zu erreichen. Erstmals wurde 1924 dann ein Versuchsplan nach seinen Prinzipien angewendet. In diesem Zusammenhang wurde die Technik der Datenanalyse, die soge­nannte Varianzanalyse (ANOVA) konzipiert. Dank seiner Untersuchungen wurden die Versuchsan­ordnungen einfacher und übersichtlicher. 1925 brachte Fisher das Buch Statistical Methods for Reserach Workers heraus, ehe er zehn Jahre später das Grundlagenwerk zur Versuchsplanung The Design of Experiments fertig stellte. In diesem Grundlagenwerk machte er deutlich, dass die zuvor propagierte One-Factor-at-a-Time-Methode zumeist für die Forschung unzureichend ist, da die Problematik von Wechselwirkungen damit nicht erfassbar ist. So zeigte Fisher, dass mit seinen mehrfaktoriellen Ansätzen bei gleichbleibendem Aufwand sogar genauere Ergebnisse ermittelt wer­den können.

George Waddel Snedecor (1881 -1974) war ein amerikanischer Mathematiker und Statistiker. Er leitete aus der Vorarbeit von Ronald Aylmer Fisher die F-Verteilung ab und schrieb viele grundle­gende Artikel zu den Grundlagen der Varianzanalyse, Datenanalyse, Planung von Experimenten und statistischen Methodenlehre.

Die Theorie über Hypothesentests wurden von Jerzy Neymann (1894-1981) und Egon S. Pearson (1895-1980) entwickelt, diese ist eine Prozedur zur Entscheidung zwischen zwei alternativen, sich gegenseitig ausschließenden Annahmen über eine unbekannte Grundgesamtheit auf der Basis von Informationen, die mit Stichprobenfehlern behaftet sind. In Form eines Gedankenexperiments wird eine konstruierte Realität, nämlich die, die sich bei Gültigkeit der Nullhypothese ergäbe, mit den tat­sächlich vorliegenden Daten verglichen. Je nach Grad der Abweichungen zwischen den Daten und der konstruierten Realität wird die Nullhypothese entweder verworfen oder bestätigt.

L.H.C. Tippett, (1902-1985) der als Vater der Multimomentaufnahmen gilt, war ein Mitarbeiter Fis­hers und benutzte bereits im Jahr 1934 hochgradig unvollständige faktorielle Anwendungen, ehe 1937 das grundlegende Werk zu diesem Thema Design and Analysis of Factorial Experiments von Frank Yates (1902 -1994) erschien. Ein Schwerpunkt seiner Arbeit war die statistische Versuchs­planung und die Theorie der Varianzanalyse mit der Entwicklung des Yates Algorithmus und der balancierten unvollständigen Blockversuche.

Plackett und Burman leiteten um 1946 hochvermengte Versuchspläne aus unvollständig balancier­ten Plänen (Hadamard-Matrizen) ab, die von verschiedenen Autoren zur Vorauswahl von Variablen empfohlen wurden. Anwendungen in den technischen industriellen Bereichen wurden von Owen. L.

Davies in dem Buch The Design and Analysis of Industrial Experiments 1954 vorgeschlagen. Insbe­sondere von der chemischen Industrie wurden die Faktorenpläne erster und zweiter Ordnung für Forschungszwecke benutzt.

Mit Beginn der 50er Jahre fertigten George E.P. Box (1919 - 2013) und K.B. Wilson Versuchsplä­ne für Optimierungsaufgaben an und erschlossen damit Anwendungsgebiete außerhalb der Land­wirtschaft. In der Publikation On the Experimental Attainment of Optimal Conditions beschrieben Box und Wilson zum ersten Mal, wie die Antwort- und Wirkungsflächen mit der Versuchsplanung untersucht werden können. Es handelte sich hierbei um Versuchspläne für Optimierungsaufgaben. Mit dem 1978 erschienenen Buch Statistics for Experimenters (George E.P. Box, William G. Hun­ter, J.Stuart Hunter) gelang es ein noch heute gültiges Standardwerk der statistischen Versuchspla­nung zu schaffen.

Die optimale Versuchsplanung geht zum großen Teil auf die Arbeiten von Jack Carl Kiefer (1924 - 1981) zurück. Zusammen mit Jacob Wolfowitz (1910 - 1981) entwickelte er G- und D-optimale Pläne. Daher kann Jack Carl Kiefer auch als Begründer der D-optimalen Pläne genannt werden. Die Forschungen von Kiefer galten weiten Bereichen der mathematischen Statistik, aber von seinen über 100 Veröffentlichungen behandelten die Hälfte die optimale Versuchsplanung. Er war auf diesem Gebiet ein Wegbereiter. Die hauptsächlichen Arbeitsgebiete von Wolfowitz waren die statistische Entscheidungstheorie, nichtparametrische Tests und die sequentielle Analyse.

Versuchspläne speziell für Mischungen, die sogenannten Mixture-Designs, sind ein weiteres Unterge­biet der statistischen Versuchsplanung. Im Jahre 1953 wurde diese Art Versuchspläne zum ersten Mal in einer wissenschaftlichen Arbeit von M. H. Quenouille mit dem Titel The Design and Anlysis of Ex­periments behandelt. Die Bearbeitung von Mischungsversuchen mit Hilfe von Simplex-Konstruktio­nen für drei Komponenten erläuterte P. J. Claringbold 1955 in seinem Artikel Use of the simplex design in the study of the joint action of related hormones. Mit dem Werk Experiments with mixtures jedoch erschien 1958 die grundlegende Arbeit von Henry Scheffé (1907 -1977), die sich mit der Un­tersuchung von Mehrkomponentensystemen befasste. In diesem Werk führte Scheffé die Standard­Simplex-Konstruktion und das mathematische Regressionsmodell zur Berechnung von Mischungs­plänen detailliert auf. Hierin übernahm er auch weitere Anregungen aus der Literatur, z.B. die Ideen von G. W. Gibbs zur Darstellung von einem System mehrerer Komponenten in Zusammensetzungs- Eigenschafts-Diagrammen sowie die Gibbs'schen Dreieckskoordinaten für ein ternäres System. Eben­so übernahm er den Gedanken von N. S. Kirnakov von 1940, dass die Zusammensetzung eines k-dimensionalen Systems durch ein (k-l)-dimensionalen Versuchsraum, dem sogenannten Simplex, gegeben ist. 1963 erschien von Scheffé der Artikel The simplex-centroid design for experiments with mixtures, in dem er zum ersten Mal eine Alternative zur Standard-Simplex-Konstruktion aufführte. Den Bereich der Pseudokomponenten für die Pseudo-Simplex-Konstruktion definierte L. S. Kurotori 1966 in seinem Artikel Experiments with mixtures of components having lower bounds. Die umfang­reichste und ausführliche Darstellung des Themenkomplexes Mischungsanalysen ist dem Buch von J. A. Cornell (1941) mit dem Titel Experiments with mixtures von 1981 zu entnehmen. Es gilt als ein Standardwerk für die Planung, Durchführung und Auswertung von Mischungsversuchen. In der deutschsprachigen Literatur sind nur wenige Veröffentlichungen bezüglich der Mischungspläne zu finden.

Nach dem Zweiten Weltkrieg und dem damit verbundenen Informationstransfer wurde die Idee der konventionellen Versuchsplanung von Amerika nach Japan exportiert. Dort wurde sie aufgegriffen und in die industrielle Forschung und Entwicklung integriert. Vor allem der japanische Ingenieur Genichi Taguchi (1924 - 2012) trug entscheidend zur Weiterentwicklung der Versuchsplanung bei. Es entstand ein Methodenstreit zwischen den Anhängern der konventionellen Versuchsplanung und der Taguchi-Methodik.

Dieser Methodenstreit wurde durch die Forschungen von Dorian Shainin (1914 - 2000) noch wei­ter unterstützt. Seit den 70er Jahre existieren durch ihn weitere Verfahren, mit dessen Hilfe Quali­tätsprobleme bei industriell produzierten Produkten gelöst werden können. Die nach ihm benannten Shanin-Methoden stellen einen praktischen Werkzeugkasten dar, mit dessen Hilfe es möglich ist, schwerwiegende Problem zu lösen.

Die Entwicklung statistischen Versuchsplanung begann in Deutschland nur sehr schleppend erste Veröffentlichungen zur Versuchsplanung von Erna Weber (Grundriss der biologischen Statistik, 1948) und Arthur Linder (Planen und Auswerten von Versuchen, 1953), später traten dann Veröf­fentlichungen von Kurt Stange (Angewandte Statistik, 1971), Eberhard Scheffler (Statistische Ver­suchsplanung und -auswertung, 1974) und Retzlaff, G. u.a. (Statistische Versuchsplanung, 1978) hinzu. Während diese wenigen Veröffentlichungen eher der angewandten Statistik zu zuordnen wa­ren, gab es doch auch einige Bücher die der mathematischen Statistik zu geordnet werden müssen. Diese Veröffentlichungen sind: Bandemer, Hans u.a. (Optimale Versuchsplanung, 1973) und Bandemer, Hans u.a. (Theorie undAnwendung der optimalen Versuchsplanung, 1977).

Aufgrund der historischen Entwicklung liegt ein großer Teil der vorhandenen Literatur in englischer Sprache vor. Nur wenige Literaturstellen wurden ins Deutsche übersetzt. Aus diesem Grund hat sich im Laufe der Zeit eine englische Begriffswahl herausgebildet, die in der ISO 3534/3 /IS03534/ wie­dergegeben wird. In dieser ISO 3534/3 wurde versucht, den Begriffen eine einheitliche Bedeutung zu gegeben. Seit Dezember 1988 existiert der Normentwurf DIN 55350 T32-E /DIN55350b/ mit dem Namen Versuchsplanung, der allerdings nie veröffentlicht wurde. Mit diesem Entwurf ist ein erster Schritt gemacht worden, die Begriffe der Versuchsplanung auch im deutschen einheitlich zu definieren, damit keine Widersprüche entstehen. Dies ist notwendig, weil die Bezeichnung des eng­lischen Begriffs Design of Experiments (DoE) im deutschen vielfach mit den Begriffen Versuchs­methodik, statistische Versuchsmethodik oder statistische Versuchsplanung verwendet wird. In der Norm sind diese Unterschiede der Begriffsdefinitionen jedoch nicht ausgeräumt worden. DoE wird in der DIN 55350 T32-E mit Versuchsplanung übersetzt, inhaltlich wird DoE jedoch mit Versuchs­methodik und dies wiederum mit statistischer Versuchsplanung gleichgesetzt. Mit Design ofExperi- ments wird hingegen eindeutig der Planungs- und Gestaltungscharakter betont. Ausführlich ist im Normentwurf für Versuchsplanung zu lesen /DIN55350b/:

- Versuchsplanung mit Verwendung statistischer Methoden zur Auswertung und zur Planung.

- Anmerkung 1: auch Versuchsmethodik.
- Anmerkung 2: Die statistische Versuchsplanung (Abk. SVP) ermöglicht es, mit einer festge­legten Anzahl von Einzelversuchen einen (Gesamt-) Versuch so anzulegen, dass sich die Er­gebnisse mit statistischen Methoden - z.B. Varianz- und/oder Regressionsanalyse - einfach und erschöpfend auswerten lassen.

Eine weitere Definition ist in der Publikation VDI 2247 zu finden: Die statistische Versuchsplanung dient dazu, die Auswirkungen von metrischen oder attributiven Einflussfaktoren auf ein (in der Re­gel metrisches) Qualitätsmerkmal aufzudecken. Wünschenswert wäre daher, die bereits angefange­ne deutsche Norm zu vervollständigen, um sie anschließend der Reihe DIN 55350 offiziell beizufügen, denn eine einheitliche Begriffsbildung ist bei der Verbreitung hilfreich.

Das Einsatzspektrum der Versuchsplanungsmethoden ist, wie bereits aufgeführt, sehr umfangreich. So ist es nicht verwunderlich, wenn sich Schnittstellen bzw. Anwendungsmöglichkeiten in Verbindung mit an­deren Methoden wie z.B. FEM, neuronalen Netzen, Lebensdaueruntersuchungen, FMEA, QFD oder TRIZ ergeben. Ebenso ist die statistische Versuchsplanung ein fester Bestandteil von Six Sigma Pro­grammen. Durch Six Sigma entdeckte sogar das TOP Management, wie effizient die DoE-Methoden sind. So kann z.B. ein Versuchsplan

- bei FEM-Analysen oder Simulationsstudien helfen, eine systematische Abschätzung des Einflus­ses von bestimmten Faktoren auf eine Zielgröße zu erhalten. Anhand des Versuchsplans

(Fakorstufenkombinationen) werden virtuelle Modelle aufgebaut und anschließend berechnet. Somit wird eine optimale Kombination bzw. Ausprägung der Faktoren systematisch bestimmt.

- bei neuronalen Netzen helfen, auf gut strukturierte Daten zurückzugreifen. Auf diese kann dann das neuronale Netz aufgebaut werden. Denn stammen diese Daten aus einem Versuchs­plan, so sind die Rahmenbedingungen und die Vermengungen bekannt. Oft werden in diesem Zusammenhang Versuchspläne aufgrund eines vermuteten Modells, sogenannte D-optimale Pläne erstellt.

- bei Zuverlässigkeitsanalysen helfen, den Wunsch nach Reduzierung kostenintensiver experi­menteller Versuchsreihen zu realisieren. Die Übertragung der statistischen Versuchsplanung für mehrstufige Ermüdungsversuche von der Theorie in die Praxis zeigt einen breiten Einsatzhori­zont. Bei nicht ruhender, d.h. zeitlich veränderlicher Belastung muss ein Betriebsfestigkeitsnach­weis erbracht werden, um eine schwingbruchsichere Bemessung der Bauteile für deren Gebrauchsdauer zu gewährleisten. Speziell für den Ermüdungsfestigkeitsnachweis unter gestuf­ter Belastung zeigen nichtlineare Berechnungsverfahren deutliche Vorteile. Hierbei wird mittels nichtlinearer Schadensakkumulation der sogenannte Reihenfolgeeffekt unter Belastungswechsel mathematisch sehr gut beschrieben. Die statistische Versuchsplanung dient in diesem Zusam­menhang als Planungs- und Auswertewerkzeug um möglichst viele Informationen aus wenigen Versuchen zu ziehen.

Im Methodenverbund mit den Quality-Engineering-Methoden QFD[4], FMEA[5], LEAN[6], VA[7], sowie der TRIZ-Methodik[8], wird die statistische Versuchsplanung generell da propagiert, wo Versuche durchzuführen sind.

3 Grundlagen von Merkmalen und Versuchen

Merkmalsausprägungen können unterschiedlichster Form sein: Sie sind nicht immer Zahlen, sie können z.B. auch Zustände sein. (Aus diesem Grund sprechen wir auch von Daten- und nicht von Zahlenmaterial.) Ausgehend von solchen Unterschieden möglicher Ausprägungen werden Merkma­le in Klassen eingeteilt. Eine Art der Klassifizierung ist die Unterscheidung quantitativer und quali­tativer Merkmale: Die Ausprägungen quantitativer Merkmale unterscheiden sich durch ihre Größe, die Ausprägungen qualitativer Merkmale durch ihre Art. Um die Ausprägung eines Merkmals mes­sen zu können, muss man natürlich zunächst eine Skala festlegen, die alle möglichen Ausprägungen eines Merkmals beinhaltet. Man unterscheidet:

- Nominalskala (topologisch)

Die einfachste Form der Messung findet auf der Nominalskala statt. Die Zahlen, Buchstaben, Symbole der Nominalskala bezeichnen bestimmte Ausprägungen einer Einheit; sie haben also eine namengebende Funktion. Merkmale, deren Ausprägungen einer solchen Skala genügen, nennt man auch nominale Merkmale. Mit dieser Skalierung ist keine Wertung oder Anord­nung verbunden. Beispiele für die Nominalskala sind: Postleitzahlen, Autokennzeichen, Pro­duktionsnummern, Artikelbezeichnungen usw. Es können zur Analyse nur absolute oder relative Häufigkeiten bzgl. der Ausprägungen gebildet werden. Erlaubte Transformationen sind:

Abbildung in dieser Leseprobe nicht enthalten

Tab. 1 Transformationen für nominale Merkmale

- Ordinalskala (topologisch)

Die Skalenwerte der Ordinalskala (Rangskala) bezeichnen Intensitäten der Merkmalsausprägung, sie haben eine ordnende Funktion. Mit der Skalierung ist eine Wertung verbunden. Beispiele für die Ordinalskala sind: Schulnoten, militärische Dienstgrade, Güteklassen, Beurteilungen sensori­scher Merkmale usw. Es können zur Analyse verteilungsfreie und in besonderen Fällen auch pa­rametrische Methoden eingesetzt werden. Erlaubte Transformationen sind:

Abbildung in dieser Leseprobe nicht enthalten

Tab. 2 Ordinales Merkmal

- Intervallskala (metrisch, kardinal)

Bei der Intervallskala ist jeder Skalenwert ein Produkt aus einem Zahlenwert und der Maßein­heit, in der das Merkmal gemessen wird. Die Differenz zwischen zwei Skalenwerten ist sinn­voll. Auf Intervallskalen sind alle positiven linearen Transformationen (Y = aX + b) zulässig. Beispiele für die Intervallskala sind: Temperaturen in °C, °R und °F, Kalenderdatum usw.

- Verhältnisskala (metrisch, kardinal)

Die Verhältnisskala hat alle Eigenschaften der Intervallskala und darüber hinaus einen absolu­ten Nullpunkt. Bei der Verhältnisskala sind auch die Quotienten von Skalenwerten sinnvoll. Auf Verhältnisskalen sind alle Ähnlichkeitstransformationen entsprechend (Y = aX) zulässig. Beispiele für die Verhältnisskala sind: Temperatur in K, Lebensalter, Längen und alle in SI- Einheiten gemessenen Merkmale.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 3 Metrisches Merkmal

3.1 Stetige und diskrete Merkmale

Wir wollen nun noch eine weitere Art der Klassifizierung von Merkmalen kennen lernen, nämlich die Einteilung in stetige und diskrete Merkmale. Als Beispiel mögen Schrauben dienen.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 4 Stetige und diskrete Merkmale

Ein diskretes Merkmal kann nur endlich viele Ausprägungen besitzen. Dagegen nennen wir ein Merkmal stetig, wenn es als Ausprägung jeden beliebigen Wert in einem Bereich haben kann. Steti­ge Merkmale werden in der Regel mit der Normalverteilung und diskrete Merkmale werden mit der Binomial- und Poisson-Verteilung analysiert.

3.2 Zufallsvariable, Einfluss- und Zielgrößen

In der Statistik bezeichnet man die betrachteten Charakteristika der Untersuchungsobjekte als Merk­male. Diese treten an den Untersuchungsobjekten, an den Einheiten oder Merkmalsträgern - die ein oder mehrere Merkmale aufweisen -, in verschiedenen Ausprägungen auf. Das Auffinden aussage­kräftiger Merkmale ist eine wichtige Teilaufgabe der Statistik. Je nachdem wie die Merkmalsaus­prägungen beschrieben werden, unterscheidet man durch Zählen (Anzahl Sitzplätze) oder Messen (Höchstgeschwindigkeit) erfasste quantitative Merkmale von den qualitativen Merkmalen, wie z.B. Geschlecht, Beruf, Familienstand sowie ordinale Merkmale, die sich nach der Intensität der Merk­malsausprägung in eine Rangfolge mit numerisch nicht definierbaren Intervallen bringen lassen (Schulnoten). Die Menge aller möglichen Einheiten, welche der statistischen Betrachtung zugrunde liegen, nennen wir Grundgesamtheit.

Man unterscheidet zwei Arten von Grundgesamtheiten: Einmal eine endliche Grundgesamtheit exis­tierender Objekte wie sie für eine Erhebung typisch ist, zum anderen eine beliebig große Grundge­samtheit hypothetischer Objekte, wie sie für Experimente typisch sind; hier wird durch Wiederho­lung der Messung unter gleichen bis ähnlichen Bedingungen eine Grundgesamtheit von Messwer­ten geschaffen, die als Realisierungen von Zufallsvariablen mit bestimmter Verteilung aufgefasst werden.

Betrachten wir den Bremsweg eines Autos. Dieser wird von vielen Variablen wie Geschwindigkeit, Gewicht des Autos, Reifendruck, Reifentyp, Fahrbahn und vielen weiteren Variablen beeinflusst. Ändert sich eine Ausprägung dieser Variablen ändert sich auch der Bremsweg. Dies ist aber kein zufälliges Ergebnis, sondern durch Veränderung (Spezielle Ursachen, nicht regelbar) einer Einfluss­größe verursacht. Würde man nun die alle bekannten Einflussgrößen konstant halten und wiederhol­te Messungen durchführen, erhielte man trotzdem abweichende Bremswege. Diese Unterschiede in den Bremswegen sind auf kleinste Abweichungen (allgemeine Ursachen, regelbar) aller Einfluss­größen zurückzuführen. Man spricht deshalb von zufälligen Abweichungen, der Bremsweg ist also eine Zufallsvariable. Wird man von einem Wagentyp den Bremsweg wissen wollen, wird nur eine Teilmenge aller Fahrzeuge geprüft werden können. Von dieser Teilmenge, der Zufallsstichprobe, wird dann auf den Bremsweg aller Autos diesen Wagentyps geschlossen. Da alle Messwerte

Zufallsergebnisse sind, ist der arithmetische Mittelwert (der Erwartungswert) für alle Fahrzeuge der Grundgesamtheit auch eine Zufallsvariable. Dieser hat, wie auch die Messwerte, einen definierten Streubereich, d.h. die Auswirkungen des Zufalls sind berechenbar. Im folgenden sollen einige we­sentliche Begriffe erläutert werden. Wir stellen dazu zunächst die verschiedenen, häufig verwende­ten Arten von Variablen zusammen. Wir nehmen an, dass im Versuch neben der messbaren abhängigen eine oder mehrere unabhängige Variablen auftreten. In der induktiven Statistik werden die Merkmale, man spricht besser von Variablen, wie folgt unterteilt:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1 Definition von Variablen

Variable sind oft von einander abhängig, sie bilden einfache oder auch komplexe Kausalketten. Bei­spiel Steinwurf: Die Wurfweite ist abhängig von der Abwurfgeschwindigkeit, dem Gewicht des Steins und des Abwurfwinkels. Die Abwurfgeschwindigkeit ist wiederum abhängig von der Wurf­technik, der Fitness und der Erfahrung des Werfers. Die Fitness wird vom Training und dem Alter des Werfers beeinflusst, etc. Diese Unterteilung und Definition der Variablen ist eine der wesentli­chen Aufgaben der statistischen Versuchsplanung.

3.3 Grundlegende Begriffe der Versuchsplanung

Unter einem Versuch versteht man im allgemeinen die Gesamtheit aller Einzelversuche (auch: Ge­samtversuch, Experiment), die in einem Versuchsplan festgelegt sind. Spätere Versuchsergebnisse lassen sich dann entsprechend zuordnen. Bei umfangreichen Untersuchungen und Projekten kann der Versuch in mehrere Teilversuche unterteilt werden. Der Versuchsplan enthält die Liste der Ein­zelversuche mit den Faktorstufenkombinationen der Versuchsparameter, die in Verbindung mit der Gesamtheit der Versuchseinheiten des Versuchsobjektes den Versuchsraum (Materialien, Aus­rüstung, Versuchsbedingungen einschl. Umweltbedingungen) beschreiben. Weiterhin umfasst ein Versuchsplan neben den Einzelversuchen, Angaben über deren Reihenfolge (Randomisierung: Zu­fällige Zuordnung der Einzelversuche zu den Versuchseinheiten) sowie aller beim Versuch konstant zu haltenden Einflussgrößen. In der Antwortmatrix werden die Zielgrößen Y¡, die geforderte Anzahl der Realisierungen (Replikationen) bestimmt. Diese Angaben nehmen entscheidenden Einfluss auf die Größe der Antwortmatrix. Der Aufbau eines Versuchsplans wird durch die Anzahl der Faktoren Xi bestimmt. Als Faktor (auch bekannt unter: Versuchsparameter, Variablen oder Einflussgrößen) wird eine unabhängige, willkürlich einstellbare quantitative oder qualitative Größe bezeichnet, von der ein starker Einfluss auf das Versuchsergebnis erwartet wird. Diese Einflussgrößen werden mit mindestens zwei Stufen in den Versuch einbezogen. Zu diesen Versuchsvariablen sind ebenfalls die Störgrößen zu zählen. Sie werden meistens nicht in den Versuchsplan aufgenommen. Ihre Wirkung ist wie eine zufällige Einflussgröße zu behandeln und die damit verbundene Versuchsstreuung klein zu halten. Faktorstufen sind Einstellwerte in der Planmatrix, mit denen die Versuchsparameter im Rahmen der Versuche variiert werden. Dementsprechend ist unter Faktorstufenkombination eine Kombination aus je einer Faktorstufe eines jeden Faktors zu verstehen. Mit Zielgröße wird eine quantitative oder qualitative Größe beschrieben, die das Versuchsergebnis dokumentiert. Es wird die Abhängigkeit zwischen den Versuchsvariablen charakterisiert. Die Auswertung der Zielgrößen erfolgt meistens einzeln. Es können jedoch mehrere Zielgrößen zu einer abgeleiteten oder globalen Zielgröße zusammengefasst werden. Wenn die Zielgröße und die Messgröße nicht identisch sind, weißt Scheffler auf eine Unterscheidung zwischen Ziel- und Antwortgröße hin. Diese Unterschei­dung ist nicht zwingend, doch manchmal sehr ratsam, um einer Verwechselung vorzubeugen.

Die Effekte, d.h. die Gegenüberstellung der Versuchsergebnisse aus der Antwortmatrix mit der Va­riation der Faktoren, gibt Aufschluss, wie sich die Faktoren auf die Ergebnisse auswirken bzw. wel­chen Einfluss sie ausüben. Hier wird zwischen Haupteffekten (HE) und Wechselwirkungseffekten (WE) unterschieden. Unter Haupteffekten wird der Einfluss einer einzigen Variablen bei Variation über alle Stufen dieses Faktors auf die Zielgröße verstanden. Mit dem Begriff Wechselwirkungsef­fekt wird die Veränderung der Zielgröße bei gleichzeitiger Variation mehrerer Faktoren bezeichnet. Anders als bei Haupteffekten können Wechselwirkungseffekte nur dann auftreten, wenn zwei oder mehrere Parameter zugleich ihre Stufenhöhe verändern. Wechselwirkungseffekte werden mit Hilfe der Versuchsparametersymbole gekennzeichnet. Eine Zweifaktor-Wechselwirkung (2-FWW) des Faktors Xi und des Faktors X2 ist in der Matrix der unabhängigen Variablen mit 'X1X2 zu erkennen.

- Effektvariable:

auch Zielgröße (engl. Response), Regressand, Antwortgröße, abhängige (Zufalls-) Variable des Versuchs, auf sie ist die statistische Hypothese gerichtet, ihre Messung ist zentrales Anliegen des Versuchs. Beispiele: Qualitätsverbesserung, Leistungszuwachs, Kostensenkung, Umsatz.

- Faktorvariable:

auch Bedingung, Regressor oder Faktor: unabhängige Variable des Versuch, also Einflussgröße die in der statistischen Hypothese als Untersuchungsbedingung mitformuliert wird und im Ver­such in verschiedenen Ausprägungen auftritt. Diese Ausprägungen können Faktorstufen sein. Faktorvariable sind messbare oder auch nicht messbare (nur in Kategorien definierte) Größen und lassen sich unterteilen in Planfaktor-, Fixfaktor- und organismische Variable ^ Planfaktorvariable, auch Planfaktor; bewusst variierte kontrollierbare Einflussgröße. Beispie­le: Organisationsform, Herstellungsmethode, Maschineneinstellung, Lösungsstrategie,

Mischungsanteil.

- Fixfaktorvariable, auch Fixfaktor; konstant zu haltende, kontrollierbare Einflussgröße. Bei­spiele: Rohmaterial, Prüfer, Untersuchungsmilieu.

- Kovariable, auch organismische Variable, wenn sie nicht in Versuch berücksichtigt wird, auch Störvariable; aufgrund natürlicher Variation in den Versuch eingehende, messbare Einflussgröße, welche selten auch regelbar ist. Liegen die Ausprägungen der Variablen in Form intervallskalierter Daten vor, so kann diese als Kovariable im Versuch berücksichtigt werden. Beispiele: Lagerzeit, Rohmateriallos, Luftfeuchtigkeit, Raumtemperatur.

- Faktorstufen:

auch Behandlungen; Ausprägungen oder Zusammenfassungen von Ausprägungen der Faktorva­riablen. Bei nicht messbaren Faktorvariablen sind die Ausprägungen selbst die Faktorstufen. Im Falle messbarer Faktorvariablen entstehen die Faktorstufen im allgemeinen erst durch Zusam­menfassung mehrerer Ausprägungen, also durch Gruppenbildung oder Einstellung. Die Fak­torstufen werden bei der Versuchsplanung zielgerichtet gewählt und in den Versuch einbezogen. Der Begriff der Faktorstufe ist sehr umfassend. Beispiele für Faktorvariable:

- Lösungsstrategie: algorithmisches Vorgehen, heuristisches Vorgehen;
- Alter: Vorschulalter, Unterstufe, Mittelstufe;
- Temperatur: 100 °C und 120 °C.
- Effekt:

Differenz zwischen Anfangs- und Endzustand der Effektvariablen als Resultat der Wirkung der Faktorvariablen.

Innerhalb der Literatur und der Normung gibt es unterschiedliche Definitionen zu den verschiede­nen Begriffen der statistischen Versuchsplanung. Die folgende Grafik kann als Hilfestellung genutzt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2 Elemente eines Versuchsplanes

Die Planmatrix (Versuchsplan, Design-Matrix) besteht aus der laufenden Versuchsnummer (De­sign-Order), der Zufallsordnung (Run-Order) und dem vollständigen Satz von Faktorstufenkombi­nationen (Versuchseinstellung) inklusive der wiederholten Realisierungen (Wiederholungen). Die Planmatrixergänzung ergibt sich durch Multiplikation der entsprechenden Faktorstufen, sie ist be­deutsam für die Entwicklung reduzierter Versuchspläne. Die Blöcke sind Bestandteil der Planung, sie ergeben sich aus Mehrfach-Wechselwirkungen und werden für Variable genutzt, die möglicher Weise einen Einfluss haben aber nur bedingt eingestellt werden können (z.B. Rohmaterialchargen). Bei der Durchführung der Versuche ergeben sich manchmal Messwerte nicht regelbarer Variablen, diese werden als Kovariable bei jedem Versuch gemessen und ergeben die Kovariablenmatrix. Die Antwortmatrix (Ergebnismatrix) ist das gemessene Ergebnis jedes Versuches und Zweck der Versuchsplanung.

3.4 Richtlinien versus statistische Versuchsplanung

Normen bzw. Richtlinien zum Qualitätsmanagement, allen voran die, die im Bereich der Automo­bilbranche bestehen, heben den Einsatz statistischer Methoden hervor. Grundsätzlich geht es darum, die Aussagekraft und -Sicherheit von Versuchsergebnissen zu gewährleisten, um diese quantitativ zu bewerten. So ist in der ISO/TS 16949 von 1999 zu DoE - statistische Versuchsplanung - ver­zeichnet:

Eine experimentelle Technik, die zur Variation von Prozessvorgaben mit dem Ziel verwendet wird, deren Wir­kung aufdie Prozessergebnisse besser zu verstehen.

In der Anmerkung wird weiter ausgeführt:

DieAuswirkungen werden unter den unterschiedlichen Bedingungen bewertet, um

1) die einflussnehmenden Bedingungen unter allen getesteten Variablen zu bestimmen,
2) dieAuswirkungen insgesamt zu quantifizieren,
3) die kausalen Zusammenhänge im Prozess besser zu verstehen und
4) die Aus- und Wechselwirkungen zu vergleichen.

Ebenso weist die VDA 6.1 von 1996 auf die Wichtigkeit von statistischen Methoden hin:

Die Anwendung statistischer Methoden ist ein wichtiges QM-Element in allen Phasen des Qualitätskreises und ist von den Produkten und eingesetzten Herstellverfahren abhängig. [...]

Die Anwendung statistischer Methoden im Versuch erhöht bei geringer Anzahl von Versuchsträgern die Aussa­gekraft und -Sicherheit [...].

Ihr Einsatz ermöglicht es, mit wirtschaftlichem Aufwand richtige Aussagen über das Qualitätsniveau und seine Veränderungen zu treffen. [...]

Typische Methoden sind: Statistische Versuchsplanung [...]

In der QS 9000 wird die Anwendung des DoE nicht zwingend gefordert. Lediglich auf den Einsatz von statistischen Methoden wird verwiesen.

3.5 Einsatzmöglichkeiten und Grenzen der statistischen Versuchsplanung

Die statistische Versuchsplanung gilt als Hilfsmittel zur gezielten Systemanalyse und -Optimierung. Im Rahmen des TQM-Konzeptes[9] und der Quality-Engineering-Methoden sind die Verfahren der statistischen Versuchsplanung bereichsübergreifend in den Produktentstehungsphasen

- Definitions- und Entwurfsphase,
- Entwicklungs- und Produktionsphase,
- Beschaffungs- und Vorserienphase sowie der
- Serienphase

einsetzbar. Überall, wo in der Produktentstehungskette der Begriff Versuche durchführen fällt, bes­teht fast immer die Möglichkeit zum Einsatz von statistisch geplanten Versuchen. Bei einer ange­strebten Produkt- oder Prozessverbesserung wird versucht, die auftretenden Prozess-Streuungen möglichst klein zu halten. Dies hängt von den Einflussgrößen, Störgrößen und der Reproduzierbar­keit ab. Zur Bestimmung und Einstellung dieser Größen kann die statistische Versuchsmethodik als Werkzeug verwendet werden. Als Stand der Technik kann jedoch immer noch das Trial-and-Error - Verfahren genannt werden, bei dem die Einstellung der Einflussgrößen solange geändert werden, bis ein akzeptables Ergebnis erreicht ist. Diese Strategie ist nicht nur teuer und unsystematisch, son­dern erfordert auch viel Zeit. Die statistische Versuchsplanung bietet hingegen folgende Vorteile:

- Sie reduziert den Versuchsaufwand erheblich, indem für die Aufgabenstellung eine geeignete Strategie gewählt wird.
- Weiterhin ist es möglich, eine objektive und präzisierte Aussage und eine grobe Modellierung der Zusammenhänge aufgrund der statistischen Auswertung zu erhalten.
- Des Weiteren ist eine komplexe Vergleichbarkeit, hohe Aussagekraft, Übersichtlichkeit und Do­kumentation gewährleistet.

Erfolgreiche Anwendungsbeispiele der statistischen Versuchsplanung bei Auslegungs- und Opti­mierungsaufgaben in Forschung, Industrie, sowie dem Dienstleistungsbereich sind zu finden in allen Industrien. Im Rahmen des Forschungsprojektes Untersuchung zur technologischen und wirtschaft­lichen Effizienz einer systematisierten Versuchsplanungsmethodik in der Produktentwicklung, wel­ches von der Stiftung Industrieforschung von 1999 - 2001 gefördert wurde, wurden innerhalb eines Arbeitskreises vielfältige Projekte abgewickelt. Diese Projekte belegen, wie vielfältig das Anwen­dungsspektrum der statistischen Versuchsplanung ist. Natürlich gibt es auch Anwendungsfälle, für die der Einsatz derartiger Versuchsmethoden nur eingeschränkt empfehlenswert und möglich ist. Zu nennen sind hier:

- Forderung nach Extrapolierbarkeit der ermittelten Funktion aus dem untersuchten Bereich hinaus,
- Analyse des Zeit- und Antwortverhaltens von Systemen z.B. Einschwingen oder
- Systeme mit unstetigem oder periodischem Verhalten.

Weitere Hindernisse bzw. Grenzen bei der Anwendung von Versuchsplanungsmethoden sind in den verfügbaren Kapazitäten an Zeit, Personal, Material, Maschinen und Geld zu nennen. Verzichtet werden kann zum Teil auf den Einsatz, wenn bei geringem Aufwand in kurzer Zeit viele Versuche abgearbeitet werden können (z.B. Gittermodell) und trotz der vielen Versuche die Übersicht erhal­ten bleibt, sowie geringe Forderungen an die Auswertung gestellt werden.

Die statistische Versuchsplanung beschäftigt sich unter anderem mit der Beantwortung folgenden Fragen:

- Welche Einflussgröße ist wichtig zur Veränderung der Zielgröße?
- Wie groß ist der Effekt einer Einflussgröße auf die Zielgröße?
- In welcher Richtung wirkt der Effekt?
- Ist die Wirkung der Einflussgröße linear?
- Sind Wechselwirkungen zwischen Einflussgrößen vorhanden?
- Welche Variablen sind voneinander abhängig?
- Welche Strukturen sind zwischen den Variablen erkennbar?
- Lassen sich mit den Einflussgrößen Prognosemodelle für die Zielgrößen entwickeln?
- Wie ist die Güte der Prognosen?
- Wie werden Forderungen an die Zielgrößen erfüllt?
- Gibt es gemeinsame Schnittmengen bzgl. der Zielvorgaben mehrerer Zielgrößen?
- Bei welchen Faktorenstellungen werden diese Schnittmengen erreicht?

4 Normalverteilung und Verwandtes

Die Gauß- oder Normalverteilung (nach Carl Friedrich Gauß) ist eine in der Inferenzstatistik beson­ders wichtige stetige theoretische Wahrscheinlichkeitsverteilungen. Ihre Wahrscheinlichkeitsdichte wird auch Gauß-Funktion, Gauß-Kurve, Gauß-Glocke oder Glockenkurve genannt. Die besondere Bedeutung der Normalverteilung beruht unter anderem auf dem zentralen Grenzwertsatz, der besagt, dass eine Summe von n unabhängigen, identisch verteilten Zufallsvariablen im Grenzwert normalverteilt ist. Das bedeutet, dass man Zufallsvariablen dann als normalverteilt ansehen kann, wenn sie durch Überlagerung einer großen Zahl von Einflüssen entstehen, wobei jede einzelne Ein­flussgröße einen im Verhältnis zur Gesamtsumme unbedeutenden Beitrag liefert.

Viele natur-, wirtschafts- und ingenieurswissenschaftliche Vorgänge lassen sich durch die Normal­verteilung entweder exakt oder wenigstens in sehr guter Näherung beschreiben (vor allem Prozesse, die in mehreren Faktoren unabhängig voneinander in verschiedene Richtungen wirken). Die Nor­malverteilung ist eine in der Statistik sehr weit verbreitete stetige Verteilung (wie der Name nahe legt vielleicht die am weitesten verbreitete Verteilung überhaupt). Wegen der Form der Verteilungs­dichte wird sie auch als Glockenkurve bezeichnet. Gründe für Verbreitung und Bedeutung der Normalverteilung

- Die Summe bzw. der Durchschnitt von (unendlich) vielen voneinander unabhängigen Einzel­werten ist normalverteilt (zentraler Grenzwertsatz), unabhängig von der Verteilung der Einzel­werte. Häufig sind Messfehler oder sonstige zufällige Abweichungen das Ergebnis vieler kleiner Einzelbeiträge. Sie werden dann gut durch die Normalverteilung beschrieben.
- Viele andere Verteilungen können unter bestimmten Randbedingungen gut durch eine Nor­malverteilung angenähert werden.
- Für die Normalverteilung existieren sehr viele abgeleitete Testverfahren. Normalverteilte Daten können daher gut analysiert werden. Die Annahme der Normalverteilung ist daher nützlich, auch wenn sie nur näherungsweise erfüllt ist.

Es muss allerdings ganz deutlich darauf hingewiesen werden, dass Messwerte nicht normalverteilt sein müssen und es treten auch oft Abweichungen von der Normalverteilung auf. Deshalb muss die Annahme der Normalverteilung in jedem Fall überprüft werden. Manchmal ist es möglich, nicht normalverteilte Daten durch eine geeignete Transformation in (näherungsweise) normalverteilte Da­ten zu überführen (z.B. indem man alle Einzelwerte logarithmiert und die Logarithmen als neue Messwerte behandelt - logarithmische Normalverteilung).

Abbildung in dieser Leseprobe nicht enthalten

Die Dichte der Normalverteilung f(x) ist gegeben durch:

Abbildung in dieser Leseprobe nicht enthalten

Dabei ist x = Merkmalswert, μ = Mittelwert der Verteilung (d.h. der Mittelwert der Grundgesamt­heit) und σ = Standardabweichung der Verteilung (Varianz σ2). Die Normalverteilung enthält also nur zwei Parameter. Mittelwert und Standardabweichung beschreiben die gesamte Verteilung vollständig. Der Mittelwert μ beschreibt die Lage der Verteilung, die Standardabweichung σ die Breite der Verteilung.

Abbildung in dieser Leseprobe nicht enthalten

Die Normalverteilung ist ein mathematisches Modell, das häufig genutzt wird, um Häufigkeitsver­teilungen zu beschreiben. Die Normalverteilung wird durch die Parameter/r und σ bestimmt, ihre Eigenschaften und Bedeutungen sind:

- Bei graphischer Darstellung ergibt die Dichtefunktion einer Normalverteilung eine glockenför­mige Kurve, die symmetrisch zur Geraden x = μ ist. Der Erwartungswert/i fällt mit dem Modus und dem Median zusammen.
- Die Glockenkurve hat Wendepunkte bei den Abszissen μ + σ bzw .μ - σ.
- Annähernd normalverteilte Merkmale sind in der Wirtschaft gelegentlich, im technisch naturwissenschaftlichen Bereich des öfteren zu beobachten. Dies ist durch den Zentralen Grenzwertsatz begründbar.
- Außerdem ist der Stichprobendurchschnitt (arithmetisches Mittel) bei großem Stichprobenum­fang annähernd auch dann als normalverteilt zu betrachten, wenn über die Verteilung der Grundgesamtheit nichts bekannt ist.
- Schließlich eignet sich die Normalverteilung zur Approximation vieler theoretischer Verteilun­gen unter gewissen Voraussetzungen, etwa der Binomial-Verteilung, der Poisson-Verteilung, der /2-Quadrat-Verteilung, etc.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4 Dichte der NV für verschiedene Werte von μ

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5 F(x) für NV mit unterschiedlichem Mittelwert μ

Das Maximum der Verteilungsdichte liegt am Mittelwert. Die Verteilung ist symmetrisch zum Mit­telwert. Je größer σ, desto breiter ist die Verteilung (da die Gesamtfläche unter f(x) immer 1 ist, ist das Maximum umso niedriger, je breiter die Verteilung ist).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 6 Dichte der NV für verschiedene Werte von σ

Abbildung in dieser Leseprobe nicht enthalten

Abb. 7 F(x) für NV mit unterschiedlicher Standardabweichung σ

Unabhängig von den Werten für μ und σ bleibt die Gesamtform erhalten und es gilt:

- die Verteilungsdichte ist symmetrisch zum Mittelwert/i
- die Breite der Verteilungsdichte ist proportional zu σ
- die Höhe des Maximums ist umgekehrt proportional zu σ.
- die Kurve hat ein einziges Maximum,
- die beiden Äste der Kurve nähern sich asymptotisch der Abszisse,
- die Fläche unter der Kurve ist gleich 1,
- arithmetisches Mittel, Modus und Median fallen zusammen,
- die Verteilung reicht von -bis + œ,
- die Kennwerte der Verteilung sind einfach bestimmbar aber
- das Integral der Verteilungsfunktion F(x) ist explizit nicht berechenbar.

4.1 Standardisierte Normalverteilung

Da die Kennwerte μ und σ der Normalverteilung beliebig sein können und man nicht jede Vertei­lungsfunktion tabellieren kann, wird eine beliebige Normalverteilung in eine standardisierte Nor­malverteilung überführt. Die standardisierte Normalverteilung (kurz: W(0, l) hat den Mittelwert μ = 0 und die Standardabweichung σ = 1. Sie wird häufig auch als z-Verteilung bezeichnet. Die For­meln zur Umrechnung von einer beliebigen W( μ, σ) in eine standardisierte iW(0,1) lauten:

Abbildung in dieser Leseprobe nicht enthalten

Um einen beliebigen Zufallswert x einer beliebigen NormalverteilungiW( μ, σ) in einen Zufallswert der Standardnormalverteilung NV(0,1) umzurechnen, wird zuerst der Mittelwert^ subtrahiert. Wird dies für alle Werte durchgeführt, erhält man eine Normalverteilung W(0, σ) mit dem Mittelwert μ z = 0, d.h. die Verteilung wurde auf den Nullpunkt geschoben. Die Differenz zwischen den be­obachteten Werte X; und dem Parameter μ nennt man Residuum e¡ :

Abbildung in dieser Leseprobe nicht enthalten

Man muss nun noch die Streuung normieren, dies wird erreicht durch Division mit der Standardab­weichung σ. Das Ergebnis ist die standardisierte NormalverteilungW(0,1). Die Zwischenergebnis­se nennt man auch standardisiertes Residuum.

Abbildung in dieser Leseprobe nicht enthalten

Folgende Tab. 5 soll die die Zusammenhänge der Formeln erläutern:

Abbildung in dieser Leseprobe nicht enthalten

Tab. 5 Standardisierte Residuen

Jedem z-Wert der standardisierten Normalverteilung ist eine Wahrscheinlichkeit zugeordnet, wie die folgende Grafik zeigt.

Abbildung in dieser Leseprobe nicht enthalten

Die Tab. 6 zeigt die Wahrscheinlichkeiten der NV und die dazugehörigen Schranken (z) der standar­disierten Normalverteilung für einseitige und zweiseitige Fragestellungen. Aufgrund der Symmetrie der NV werden nur positive z-Werte tabelliert.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 6 Tabelle ausgewählterz-Werte

4.2 Grafiken zur NV

Viele Messwerte bzw. die Residuen sind angenähert normalverteilt. Es gilt für alle Variablen, dass die Residuen und nicht der Messwert angenähert normalverteilt sein sollen, denn nur so kann si­chergestellt werden, dass alle Tests und auch die Vertrauensbereiche gültig sind. Aus diesem Grund ist eine grafische Überprüfung der Voraussetzungen eine Notwendigkeit.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 7 Zwei Datensätze zur Darstellung von Grafiken zur NV

Die meist genutzte Grafik zur Prüfung der Normalverteilung ist das Histogramm. Die klassierten Häufigkeiten zeigen häufig eine glockenförmige Gestalt, wie für die Normalverteilung zu erwarten ist. Die Daten unserer Beispiele sind jeweils als Histogramm in folgenden Grafiken dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Der Datensatz 1 zeigt eine gute Anpassung an die Normalverteilung, während der Datensatz 2 nicht als angenähert normalverteilt gelten darf. Das Histogramm des Datensatz 2 ist schief mit Extrem­werten auf der rechten Seite. Ein bedeutender Nachteil von Histogrammen ist, dass man einen rela­tiv großen Datensatz (n > 50) haben muss, um die Verteilung sinnvoll interpretieren zu können. Auch die willkürliche Festlegung der Klassen ist ein Störfaktor. Von Vorteil ist, dass grobe Abwei­chungen von der Normalverteilung schnell zu sehen sind. Eine weitere Darstellungsmöglichkeit ist die Grafik der Summenfunktion, bei der jedoch die Auflösung der interessanten Bereiche sehr ge­ring ist.

Abbildung in dieser Leseprobe nicht enthalten

Währen die Linien der Summenhäufigkeiten sich für Datensatz 1 kaum unterscheiden, sind die Un­terschiede der Linien beim Datensatz 2 sehr deutlich. Die Nachteile der Summenfunktion können durch das Wahrscheinlichkeitsnetz oder gleichwertig durch ein Q-Q Plot behoben werden. Dabei wird der Maßstab der Summenhäufigkeit so verzerrt, dass sich für die Normalverteilung eine Gera­de ergibt. Das Wahrscheinlichkeitsnetz kann auch bei kleinen Stichproben (n < 50) zur Beurteilung der Normalität genutzt werden. Ein weiterer Vorteil ist, dass Einzelwerte eingetragen werden und eine Klassifizierung somit entfällt. Im Wahrscheinlichkeitsnetz können die Kennwerte Mittelwert, Standardabweichung und Anteilswerte abgelesen werden.

Abbildung in dieser Leseprobe nicht enthalten

Eine weitere nützliche Darstellung einer Normalverteilung ist das P-P Plot. Während das Q-Q Plot Abweichungen eher an den Enden zeigt, werden beim P-P Plot Abweichungen in der Mitte deutlich.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 12 P-PPIotsderDatensätze

Das P-P Plot ist für Datensatz 1 als normalverteilt anzusehen. Für den Datensatz 2 zeigen sich dage­gen zwei Probleme, eine ungenügende Messauflösung und eine fehlende Anpassung an die Gerade. Eine weitere Grafik zeigt den geübten Anwendern Abweichungen von der Normalverteilung, darü­ber hinaus ist sie auch ein wesentlicher Indikator für Autokorrelation der Daten. Voraussetzung für diese Darstellung ist es, dass die Messdaten nicht in ihrer zeitlichen Erhebung verändert werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 13 Urwertkarten derDatensätze

Es wird deutlich, dass beim Datensatz 1 die Werte überwiegend innerhalb der Warngrenzen liegen und dabei ein zufälliges Erscheinungsbild darstellen. Anders dagegen sind beim Datensatz 2 Häu­fungen der Daten unterhalb des Mittelwertes festzustellen. Außerdem sind Werte außerhalb der obe­ren Eingriffsgrenze feststellbar. Ein Modell ist eine das Wesentliche eines Sachverhaltes erfassende formalisierte Darstellung. Ein statistisches Modell ist eine Beschreibung der Wahrscheinlichkeits­verteilung der Daten, die als beobachtete Zufallsvariablen aufgefasst werden. Meist ist man an den unbekannten Parametern dieser Wahrscheinlichkeitsverteilung und den Wahrscheinlichkeiten inte­ressiert. Das Modell der Normalverteilung ist:

- Ein idealisiertes, mathematisches Modell für empirische Häufigkeitsverteilungen
- Bedeutungsvoll als theoretische Verteilung
- Viele theoretische Verteilungen lassen sich durch die Normalverteilung gut annähern.

4.3 Zentraler Grenzwertsatz

Grenzwertsätze sind schwach-konvergente Resultate der Wahrscheinlichkeitstheorie. Diese Lehrsät­ze drücken aus, dass die Summe vieler unabhängiger, gleich verteilter Zufallsvariablen zu einer Verteilung tendiert. Der bekannteste, als zentraler Grenzwertsatz bezeichnet, sagt aus, dass die Summe unabhängiger Variablen normalverteilt ist. Da es in der Natur viele solcher Prozesse gibt, erklärt dies das häufige Auftreten der Normalverteilung.

Beispiel: Wie aus einer Mischverteilung eine Normalverteilung wird.

Zunächst wählen wir eine Grundgesamtheit mit einer unbekannten Dichteverteilungsfunktion (z.B. eine bimodale Verteilung wie im ersten Bild). Dann nehmen wir eine zufällige Stichprobe von n = 10 Beobachtungen und be­rechnen deren Mittelwert. Wenn wir diesen Vorgang viele Male (k = 1000) wiederholen und das Histogramm der Mittelwerte (zweites Bild) darstellen, sieht man die Ähnlichkeit mit der Normalverteilung. Auch mit anderen Verteilung bekommen wir wieder normalverteilte Mittelwerte. Allerdings zeigen die Mittelwerte nicht mehr die gleiche Streuung und verschleiern den Ursprung der Ausgangsdaten. In der Praxis werden bei der Herstellung von Bahnware (Folien, Gewebe, etc.) werden oft Messungen quer zur Bahn gemittelt um die durchschnittliche Dicke zu schätzen. Wird ein Profil gefahren, kann man dieses nicht erkennen und auch nicht korrigieren. Eine Angabe über den Zufallsstreubereich der Dicke wäre falsch.

Abbildung in dieser Leseprobe nicht enthalten

Die Konsequenz des zentralen Grenzwertsatzes in der Theorie der Statistik ist: Wenn man eine zu­fällige Stichprobe von n Beobachtungen aus einer beliebigen Grundgesamtheit nimmt, dann wird - wenn n ausreichend groß ist - die Verteilung des Stichprobenmittelwertes annähernd normal sein. Die Mindestgröße einer Stichprobe um normal verteilte Mittelwerte zu erhalten, hängt von der Ver­teilungsfunktion der Grundgesamtheit ab. Im Allgemeinen, muss n für sehr asymmetrische Vertei­lungsfunktionen größer sein als für symmetrische unimodale Verteilungen. Für n größer als 30 wird man sehr gute Annäherungen an die Normalverteilung erhalten. Der Zentraler Grenzwertsatz gilt auch für diskrete Verteilungen.

4.4 Student-odert-Verteilung

Die Student- oder t-Verteilung wurde 1908 vom englischen Statistiker W.S. Gosset, der unter dem Pseudonym Student publizierte, im Zusammenhang mit Untersuchungen zur Verteilungsfunktion des arithmetischen Mittelwertes im Falle kleiner Stichproben (n < 30) und unbekannter Varianz ei­ner normalverteilten Grundgesamtheit abgeleitet. Bei bekannter Varianz der normalverteilten Grundgesamtheit mit E(X) = μ und Var(X) = σ2 gilt, dass die Zufallsgröße X normalverteilt ist mit E(X) = μ. W.S. Gosset demonstrierte 1908, dass das Verhältnis t zwischen der Differenz des Stich­probenmittelwertes und des Populationsmittelwertes und dem Standardfehler des Mittelwertes nicht normalverteilt ist, wenn die Populationsparameter unbekannt sind:

Abbildung in dieser Leseprobe nicht enthalten

Dieses Verhältnis folgt einer speziellen Verteilung, der so genannten t-Verteilung. Die t-Verteilung ist für eine kleine Stichprobenanzahl breiter als die Normalverteilung und nähert sich der Normal­verteilung für eine große Stichproben an. In der Darstellung sieht man die t-Verteilung für 1, 3 und 10 Freiheitsgrade mit der Dichtefunktion10.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 15 Normalverteilung versus t-Verteilung (f = 1, 3, 10)

Wie leicht erkannt wird, konvergiert die t-Verteilung mit wachsendem Freiheitsgrad sehr schnell zu einer angenäherten Normalverteilung. Für Freiheitsgrade größer 30 ist der Unterschied zur Normal­verteilung vernachlässigbar.

4.5 χ2-Verteilung

Um Rückschlüsse über die Verteilung der Grundgesamtheit auf der Basis der Probenvarianz zu zie­hen, müssen wir eine spezielle Verteilung berücksichtigen, die Chi-Quadrat-Verteilung(^2): Ist eine zufällige Variable X normalverteilt (mit dem Mittelwert μ und der Varianz σ2), dann zeigt die Größe: eine /2-Verteilung mit n-1 Freiheitsgraden für eine zufällige Stichprobe der Größe n. Einige Bei­spiele für die ^-Verteilung für verschiedene Freiheitsgrade werden in der folgenden Darstellung gezeigt. Wie Sie sehen können, ist die/2-Verteilung asymmetrisch und immer positiv. Der Mittel­wert der ^-Verteilung ist gleich der Anzahl der Freiheitsgrade n-1; die Varianz ist gleich der dop­pelten Anzahl an Freiheitsgraden. Die χ2 -Verteilung wird zum Testen der Unterschiede zwischen Grundgesamtheiten und Stichprobenvarianzen sowie zwischen theoretischen und beobachteten Ver­teilungen verwendet. Ihr Verteilungsdichte11 lautet:

Abbildung in dieser Leseprobe nicht enthalten

Eine wichtige Eigenschaft der/2-Verteilung ist deren Additivität: Wenn zwei unabhängige Größen χ2-verteilt sind (mit den Freiheitsgraden fj und f2), dann ist die Summe der beiden Größen χ2 -ver­teilt mit dem Freiheitsgrad fi + f2.

4.6 F-Verteilung

Die F-Verteilung (nach R.A. Fisher benannt) ist relevant für die Berechnung der Verhältnisse der Varianzen von normal-verteilten Statistiken. Nehmen wir an, wir haben zwei Proben mit nj und n2 Beobachtungen. Das Verhältnis ist nach einer F-Verteilung verteilt, mit fj = ni-1 Freiheitsgraden für den Zähler des Quotienten und mit f2 = n2-l Freiheitsgraden für den Nenner.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 17 F-Verteilung

Beachten Sie, dass drei der wichtigsten Verteilungen (nämlich die Normalverteilung, die t-Vertei­lung und die Chi-Quadrat-Verteilung) als Spezialfälle der F-Verteilung angesehen werden können:

- Normalverteilung = F(l, unendlich)
- t-Verteilung = F(l,f2)
- Chi-Quadrat-Verteilung = F(fu unendlich)

4.7 Die Parameter der Normalverteilung

Die wichtigsten Parameter der Normalverteilung sind der arithmetische Mittelwert (kurz: Mittelwert) und die Standardabweichung. Weitere Parameter sind die Schiefe und Wölbung der Verteilung. Der arithmetische Mittelwert (engl. Mean) ist wohl die bekannteste Größe, sie be­schreibt die Fage der Verteilung und wird deshalb auch Fageparameter genannt. Die Formeln zur Berechnung der Kennwerte lauten für:

- den arithmetischen Mittelwert (Durchschnitt)

Abbildung in dieser Leseprobe nicht enthalten

- die Varianz

Abbildung in dieser Leseprobe nicht enthalten

die Standardabweichung

Abbildung in dieser Leseprobe nicht enthalten

- die standardisierte Schiefe = 0

Abbildung in dieser Leseprobe nicht enthalten

Rohschiefe = 0

Abbildung in dieser Leseprobe nicht enthalten

Rohwölbung = 3

Abbildung in dieser Leseprobe nicht enthalten

die Standardabweichung des Mittelwertes

Abbildung in dieser Leseprobe nicht enthalten

- den Vertrauensbereich des arithmetischen Mittelwertes

Abbildung in dieser Leseprobe nicht enthalten

- den Vertrauensbereich einer Varianz.

Abbildung in dieser Leseprobe nicht enthalten

- die nur von n abhängige Standardabweichung der Schiefe.

Abbildung in dieser Leseprobe nicht enthalten

- den Vertrauensbereich der Schiefe.

Abbildung in dieser Leseprobe nicht enthalten

- die nur von n abhängige Standardabweichung der Schiefe.

Abbildung in dieser Leseprobe nicht enthalten

- den Vertrauensbereich der Wölbung.

Abbildung in dieser Leseprobe nicht enthalten

Der Stichprobenumfang n ist die Anzahl der Messwerte. Alle Parameter der Normalverteilung rea­gieren äußerst empfindlich auf Ausreißer. Deshalb wurden auch Parameter definiert bei denen Ab­weichungen von der Normalverteilung ohne jegliche Wirkung sind Die wichtigste ist der Zentral­wert (engl. Median) dieser wird durch abzählen gewonnen, er ist definiert durch:

Abbildung in dieser Leseprobe nicht enthalten

Mit Qo.s wird ein Quantil der Daten definiert, dass dem Median entspricht. Der Median einer belie­bigen Verteilung liegt immer exakt bei 50 %, zerlegt die Verteilung in zwei gleiche Anteile. Die Messwerte sind noch nicht ausreichend beschrieben, es fehlen noch Parameter, welche die Streuung der Messwerte charakterisieren. Es gibt noch ein weiteres Streuungsmaß, dass ähnlich robust wie der Median (Q0.5) ist. Der Interquartilsabstand wird auch durch abzählen gewonnen, in seinem Be­reich liegen 50 % der Werte. Durch die Quartile (Q0.25 und Q0.75) ist der Kernbereich der Box-Plots definiert.

Alle Kennwerte sind erwartungstreue Schätzer für die Parameter der Grundgesamtheit. Alle Para­meter sind Zufallsvariable und haben ihre eigenen Verteilungen.

4.8 Tests auf Normalverteilung

Es wurden eine Vielzahl von Test zur Normalverteilung entwickelt von denen nur einige eine aus­reichende Qualität bzgl. der Schlussfolgerungen haben. Zu den Tests gehören:

- Jarque-Bera Test:

Test mittels der Kumulanten Schiefe und Wölbung, ein einfacher auf der/2-Verteilung basie­render Test.

- Doornik-Hansen Test:

Test mittels der Kumulanten Schiefe und Wölbung, ein komplexer auf der/2-Verteilung ba­sierender Test.

- Anderson-Darling Test:

Test mittels empirischer Verteilungsfunktion, der in Minitab genutzt wird.

- Ryan-Joiner Test:

Test vom Korrelations-Typ, der in Minitab verfügbar ist.

- Epps-Pulley Test:

Test mittels empirischer charakteristischer Funktion, bester Test welcher auch mehrdimensio­nale Normalverteilungen prüfen kann.

4.8.1 Jarque-BeraTest

Die meisten Tests für die Normalität basieren entweder auf dem Vergleich der empirischen kumula­tiven Verteilung mit der theoretischen normalen kumulativen Verteilung (z.B. Anderson-Darling) oder empirischen Quantilen mit den theoretischen Normalquantilen (z.B. Wilk-Shapiro). Die Jar- que-Bera Teststatistik ist definiert als:

Diese Teststatistik wird mit einer/2-Verteilung mit 2 Freiheitsgraden verglichen (Normalität wird abgelehnt, wenn die Teststatistik größer als der/2 Chi-Quadrat ist Wert).

4.8.2 Doornik-Hansen Test

Der Doornik-Hansen Test fordert die Verwendung von Rohschiefe Qi und Rohwölbung g2. Im ersten Schritt wird die Schiefe in ein Wert Zj der standardisierten Normalverteilung transformiert.

Abbildung in dieser Leseprobe nicht enthalten

Die Wölbung wird von einer Gamma-Verteilung in eine χ2-Verteilung transformiert und dieser Wert wird mittels Wilson-Hilferty Transformation in den Wert z2 der standardisierten Normalvertei­lung transformiert.

Abbildung in dieser Leseprobe nicht enthalten

Die Testgröße der/2-Verteilung (fg = 2) lautet:

4.8.3 Anderson-Darling Test

Schreiben wir x(1), x(2), ... , X(„) für die geordnete Stichprobe, so ergeben sich die folgenden Formeln für den Anderson-Darling Test zur Prüfung auf Normalverteilung.

Abbildung in dieser Leseprobe nicht enthalten

Zur praktischen Durchführung des Anderson-Darling Tests im Fall n ^ 8 lehne man die Nullhypo­these zum Niveau 0.05 ab, falls AD ^ 0.752. Minitab und OQM-Stat rechnen den AD in einen p- Wert um.

4.8.4 Ryan-JoinerTest

Tests vom Korrelation-Typ bilden eine weitere begrifflich zusammenhängende Gruppe von Verfah­ren zur Prüfung auf Normalverteilung. Die stets zu empfehlende grafische Prüfung Normalvertei­lung mittels eines Wahrscheinlichkeitsnetzes beurteilt mit Augenmaß den Grad der Kollinearität. Da im allgemeinen die Güte der Kollinearität einer Punktwolke durch den Pearson-Korrelationkoef- fizienten geprüft wird, liegt es nahe diesen auch zur Prüfung der Normalität anzuwenden. Die Daten werden wieder aufsteigend geordnet. Danach sind die Werte der X- und Y-Achse zu bestimmen. Der Ryan-Joiner Test ist vergleichbar mit dem sehr bekannten Shapiro-Wilk Test.

Abbildung in dieser Leseprobe nicht enthalten

Der Korrelationskoeffizient bestimmt sich nun aus den Wertepaaren (x,y) mit folgender Formel.

Abbildung in dieser Leseprobe nicht enthalten

Zur praktischen Durchführung des Ryan-Joiner Tests im Fall n ^ 8 lehne man die Nullhypothese zum Niveau von a = 0.05 ab, falls

Abbildung in dieser Leseprobe nicht enthalten

Minitab und OQM-Stat rechnen den r* in ein p-Wert um.

4.8.5 Epps-Pulley Test

Epps und Pulley gehen aus von den standardisierten Größen der W(0, l), welche sich berechnen nach

Abbildung in dieser Leseprobe nicht enthalten

Als Prüfgröße zum Testen von HO schlagen Epps und Pulley folgenden Ansatz vor, wobei kurz Zj = zn,j, 1 < j < n, geschrieben wurde.

Abbildung in dieser Leseprobe nicht enthalten

Aufgrund von Simulationen empfehlen Epps und Pulley ß = 1, damit wird die Gleichwertigkeit zum Anderson-Darling und Ryan-Joiner-Test sichergestellt. Zur praktischen Durchführung des Epps- Pulley Tests im Fall n ^ 10 berechne man die folgende modifizierte Prüfgröße.

Abbildung in dieser Leseprobe nicht enthalten

Die p-Werte lassen sich mit Hilfe folgender Approximation gewinnen.

Die Nullhypothese zum Niveau a wird abgelehnt, falls folgende Ungleichung z* > Φ[ί_α) zu trifft. Der Epps-Pulley-Test ist der effizienteste Test zur Prüfung der Normalverteilung von Daten.

4.9 Transformationen

Schiefe Verteilungen, Stichproben mit heterogenen Varianzen und Häufigkeitsdaten müssen vor der Durchführung eines statistischen Tests zur Erzielung normalverteilter Werte (oder besser Residuen) mit homogenen Varianzen transformiert werden. In der multiplen Regressionsanalyse werden Po­wertransformationen nach der Box-Cox Methode verwendet. Die Powertransformationen beinhalten eine Fülle von Transformationen zur Erreichung von angenähert normalverteilten Daten. Das von Box-Cox entwickelte Verfahren erlaubt die Berechnung des besten Exponenten λ zur Symmetrie und Normalisierung. Die Powertransformationen haben die Form:

Abbildung in dieser Leseprobe nicht enthalten

Die Box-Cox Transformationen sind nur für positive Werte erlaubt. Wenn man negative Werte in der Stichprobe hat, dann berechnen wir einen Additionswert A = l-xm¡„ und addieren diesen Wert auf alle Messwerte. Dies wird die Stichprobe in nur positive Werte umwandeln. Eine nichtsymme­trische Häufigkeitsverteilung der n positiven Einzelwerte xu x2, ..., xn kann durch die Box-Cox Transformationen bei geeigneter Wahl von λ in eine angenähert symmetrische Verteilung überführt werden. Die Wahl von λ ist nicht einfach und wird iterativ mit Hilfe numerischer Methoden berech­net. Dabei ist die Größe lnLmax(l) berechnet nach

Abbildung in dieser Leseprobe nicht enthalten

das Maß für die optimale Wahl von λ. σ^ ist die Standardabweichung der mit λ transformierten Werte. Trägt man lnLmaxU) für verschiedene λ über λ auf, dann liefert das Maximum den Wert Я, der die Häufigkeitsverteilung am besten symmetrisiert.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 18 Box-CoxTransformation

Das Verfahren ist in Minitab und OQM-Stat. Die berechneten Exponenten λ werden großzügig auf­oder abgerundet. Nachdem wir wissen, dass die Messwerte des zweiten Datensatzes (Tabelle 7) nicht normalverteilt sind führen wir nun die Box-Cox Transformation durch. Das Ergebnis der Box­Cox Transformation zeigt ein λ = 0.0, d.h. eine logarithmische Transformation ist notwendig. Durch die Transformation ln(x¡) sollten die Messwerte angenähert normalverteilt sein. Andere Probleme wie eine zu geringe Messauflösung werden nicht beseitigt, sondern treten deutlicher auf. Während der Jacque-Bera, Doornik-Hansen und Epps-Pulley Test die Nullhypothese (Daten sind normalver­teilt) bestätigen, weisen der Anderson-Darling und der Ryan-Joiner Test die Nullhypothese zurück. Dies hängt, wie auch die Grafiken zeigen, mit der durch die Messauflösung bedingten Klassierung zusammen. So mit sind die Werte der Stichprobe zwar nicht normalverteilt, allerdings sehr symme­trisch zur Verteilungsfunktion der Normalverteilung dargestellt. Das Problem wird nur durch ein Messmittel mit deutlich höherer Auslösung beseitigt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 19 Darstellung und Analyse transformierter Daten

[...]


[1] Minitab® ist ein eingetragenes Warenzeichen

[2] Statistica/® ist ein eingetragenes Warenzeichen

[3] MS-Excel® ist ein eingetragenes Warenzeichen

[4] »Quality Function Deployment« (QFD) ist eine Methode, die sich als unterstützendes Werkzeug für die Weiterentwicklung von Produkten, aber auch Dienstleistungen eignet. Die Grundlage von QFD ist die Übersetzung von Kundenanforderungen in spezi­fizierbare Qualitätsmerkmale eins Produkts oder einer Dienstleistung. Die Methode des QFD als Grundkonzept zur Qualitätspla­nunggeht zurück aufden Japaner Yoji Akao im Jahre 1966.

[5] FMEA sowie FMECA sind analytische Methoden der Zuverlässigkeitstechnik, um potenzielle Schwachstellen zu finden. Im Rah­men des Qualitätsmanagements bzw. Sicherheitsmanagements wird die FMEA zur Fehlervermeidung und Erhöhung der tech­nischen Zuverlässigkeit vorbeugend eingesetzt.

[6] Der Begriff Lean Management bezeichnet die Gesamtheit der Denkprinzipien, Methoden und Verfahrensweisen zur effizienten Gestaltung der gesamten Wertschöpfungskette industrieller Güter. (engl, für schlanke Produktion) eine Form der Arbeitsorganisation, in deres flache Hierarchien, Gruppenarbeit sowie einen ho­hen Grad derAutomatisierung gibt, und die Zeit und Kosten senken soll.

[7] Wertanalyse (Value Analysis, Value Engineering) ist eine Managementmethode welche 1947 von Larry Miles in den USA erfun­den wurde.

[8] TRIZ ist das russische Akronym für »Theorie zur Lösung erfinderischer Probleme“. Die Methodik wurde von Genrich Saulo- witsch Altschuller um 1954-1956 entwickelt.

[9] TQM = Total Quality Management, zu deutsch umfassendes Qualitätsmanagement DIN8402

Ende der Leseprobe aus 340 Seiten

Details

Titel
Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung
Autor
Jahr
2017
Seiten
340
Katalognummer
V353127
ISBN (eBook)
9783668399440
ISBN (Buch)
9783668399457
Dateigröße
16070 KB
Sprache
Deutsch
Schlagworte
prozess-sicherheit, statistische, versuchsplanung, Mischungsanalysen D-optimale Versuchspläne Multiple Regression Varianzanalyse Taguchi-Methodik Shainin-Methodik
Arbeit zitieren
Eckehardt Spenhoff (Autor), 2017, Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung, München, GRIN Verlag, https://www.grin.com/document/353127

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden