Mit diesem Buch wird der Versuch unternommen, statistische Methoden wie sie in der Produkt- und Prozessentwicklung genutzt werden, zu behandeln. Bezüglich der mathematischen Herleitung müssen aufgrund des Buchumfanges Abstriche gemacht werden. Für die statistischen Methoden des operativen Qualitätsmanagement (Mess-System-Analyse, Statistische Prozessregelung, Statistische Prozessfähigkeitsanalyse und vieles mehr) wird auf das Buch Prozess-Sicherheit I. hingewiesen. Dort wurden diese Verfahren umfassend dargestellt. In diesem Buch werden die Varianzanalyse, Design of Experiments (DoE), Response Surface Methodology (RSM) und Mixtures Analysis ausführlich behandelt.
Neben einigen Grundlagen der Statistik findet der interessierte Leser eine detaillierte Darstellung der wichtigsten Verfahren zur Versuchsplanung:
1) gekreuzte und hierarchische Varianzanalysen mit festen oder zufälligen Variablen;
2) faktorielle und teilfaktorielle Versuchspläne mit stetigen und kategorialen Variablen;
3) Response Surface Versuchspläne (Zentral zusammengesetzte Versuchspläne, Box-Behnken);
4) Mischungsanalysen mit und ohne Restriktionen inklusive von Prozessvariablen;
5) D-optimale Versuchspläne;
6) Polyoptimierung für mehrere Zielgrößen;
7) Taguchi- und Shainin-Methoden;
8) Umfangreiche Beispiele zur Planung und Analyse von Versuchen
Inhaltsverzeichnis
1. Einleitung
2. Grundlagen von Merkmalen und Versuchen
2.1. Nominalskala (topologisch)
2.2. Ordinalskala (topologisch)
2.3. Intervallskala (metrisch, kardinal)
2.4. Verhältnisskala (metrisch, kardinal)
2.5. Stetige und diskrete Merkmale
2.6. Zufallsvariable, Einfluss- und Zielgrößen
2.7. Grundlegende Begriffe der Versuchsplanung
2.8. Richtlinien versus statistische Versuchsplanung
2.9. Einsatzmöglichkeiten der statistischen Versuchsplanung
3. Normalverteilung und Verwandtes
3.1. Standardisierte Normalverteilung
3.2. Grafiken zur NV
3.2.1. Histogramme der Datensätze
3.2.2. Summenhäufigkeiten der Datensätze
3.2.3. Wahrscheinlichkeitsnetz (Quantil-Quantil-Diagramm)
3.2.4. Probability-Probability-Diagramm
3.2.5. Formale Definition einer Ordnungsstatistik
3.2.6. Urwertkarten der Datensätze
3.3. Zentraler Grenzwertsatz
3.3.1. Beispiel: Wie aus einer Mischverteilung eine Normalverteilung wird
3.4. Student- oder t-Verteilung
3.5. X^2-Verteilung
3.6. F-Verteilung
3.7. Die Parameter der Normalverteilung
3.8. Tests auf Normalverteilung
3.8.1. Jarque-Bera Test
3.8.2. Doornik-Hansen Test
3.8.3. Anderson-Darling Test
3.8.4. Ryan-Joiner Test
3.8.5. Epps-Pulley Test
3.9. Transformationen
4. Der statistische Test
4.1. Elemente des Hypothesentests
4.2. Signifikanztests
4.3. Null- und Alternativhypothese
4.4. Risiko I. und II. Art
4.4.1. Beispiel: Schmerzmittelprüfung
5. Mittelwertvergleiche (ANOVA)
5.1. Mittelwerte mit Zielwerten vergleichen
5.1.1. Beispiel: erster Datensatz
5.2. Vergleich unabhängiger Mittelwerte
5.2.1. Beispiel: Abzugskraft
5.3. Äquivalenztest
5.4. Vergleich abhängiger Mittelwerte
5.4.1. Beispiel: Wieder lösbares Befestigungssystem
5.5. Vergleich zweier Varianzen, F-Test
5.5.1. Beispiel: eine Million Stifte
5.5.2. Der F-Test
5.6. Levene und Brown-Forsythe Test
5.7. Die einfache Streuungszerlegung
5.8. Der Welch Test
5.8.1. Beispiel: Bolzenlänge auf fünf Maschinen gefertigt
6. Klassische Versuchsmethoden der Varianzanalyse
6.1. Versuchspläne der Varianzanalyse
6.2. Vollständige Zufallspläne
6.3. Zufällige Blockpläne
6.4. Lateinische Quadratpläne
6.4.1. Griechisch-Lateinische Quadratpläne
6.4.2. Hypergriechisch-Lateinische Quadratpläne
6.5. Ausgewogene unvollständige Blockpläne
6.6. Youden Quadratpläne
6.7. Mehrfache Varianzanalyse
6.7.1. Die Modelle der Varianzanalyse
6.7.2. Berechnung mehrfacher Varianzanalysen
6.7.3. Grafische Interpretation der Varianzanalyse
6.8. Beispiel: Reißfestigkeit einer Folie (festes Modell)
6.9. Beispiel: Reißfestigkeit einer Folie (zufälliges Modell)
6.10. Unvollständige Versuchspläne
6.10.1. Zweifache hierarchische Versuchspläne
6.10.2. Dreifache unvollständige Versuchspläne
6.10.3. Dreifache teilhierarchische Versuchspläne
6.10.4. Varianzkomponenten hierarchischer Versuchspläne
6.10.5. Lateinische Quadrate
7. Korrelations- und Regressionsanalyse
7.1. Modelle der Regressionsanalysen
7.2. Arten der Korrelation
7.2.1. Formale Korrelation
7.2.2. Inhomogenitätskorrelation
7.2.3. Gemeinsamkeitskorrelation
7.2.4. Kausale Korrelation
7.3. Lineare Regression
7.3.1. Methode der kleinsten Quadrate
7.3.2. Bildung der ANOVA
7.3.3. Korrelation
7.3.4. Beurteilung der Abhängigkeit von Variablen
7.3.5. Grafische Beurteilung der Residuen
7.3.6. Vertrauensbereiche und Signifikanz
7.3.7. Vertrauensbereich für den Korrelationskoeffizienten
7.3.8. Vertrauensbereich für den Mittelwert My(x)
7.3.9. Vorhersagebereich für Einzelwerte y
7.3.10. Simultanes Vertrauensband der Regressionsgeraden
7.3.11. Breusch-Pagan Test zur Prüfung der Homoskedastizität
7.4. Regression durch den Ursprung
7.5. Orthogonale Regression
7.6. Beispiel: Aushärtung von Beton
7.7. Quasi-lineare Regression
7.7.1. Beispiel: Gewicht versus Luftfrachtkosten
8. Nichtlineare Regression
8.1. Beispiel: BMI versus Attraktivität
9. Multiple Regression
9.1. Allgemeines Regressionsmodell
9.1.1. Regression durch den Ursprung
9.1.2. Regression für Mischungen
9.1.3. Polynomiales Regressionsmodell
9.1.4. Faktorielles Regressionsmodell
9.1.5. Zentral zusammengesetztes Regressionsmodell
9.1.6. Diskriminanzanalyse im Zweigruppenfall
9.1.7. Regressionsanalysen mit Indikatorvariablen
9.2. Analyse der Regression
9.3. Vertrauens- und Prognoseintervalle
9.4. Probleme mit ungeplanten Versuchen
9.4.1. Problem: Heterogenität der Daten
9.4.2. Problem: Scheinkorrelation
9.4.3. Problem: Multikollinearität
9.4.4. Problem: Heteroskedastizität
9.5. Prüfung der Modelladäquatheit
9.6. Residuen, normierte Residuen, Ausreißer
9.6.1. Arten von Residuen
9.6.2. R^2PRESS, Präzisionsindex
9.6.3. Beispiel: Körpergröße und Körpergewicht
9.7. Schrittweise Regression
9.8. Datenaufbereitung
10. Allgemeine Lineare Modelle
10.1. Anwendung der ALM
10.2. Sigmabeschränktes Modell
10.3. Überparametrisierte Modelle
10.4. Zahlenbeispiel für eine zweifache gekreuzte ANOVA
10.5. Dummy-Codierung
10.6. Effekt-Codierung
10.7. Bemerkungen zu ALM
11. Grundlagen der Versuchsplanung
11.1. Prinzipien der Versuchsplanung
11.1.1. Vergleichbarkeit, Verallgemeinerungsfähigkeit
11.1.2. Behandlung wissenschaftlicher Probleme
11.1.3. Die Grundprinzipien der DoE
11.2. Die moderne Versuchsplanung
11.2.1. Der zufällige Versuch
11.2.2. Versuchspunkte durch Fachkenntnisse festlegen
11.2.3. Das Gitterlinienmodell
11.2.4. Die Einfaktormethode
11.2.5. Die Methode des steilsten Anstiegs
11.2.6. Versuchsplan-Modell für kompletten Versuchsraum
11.3. Grundideen
11.3.1. Beispiel: Herstellung von Wirkstoffpflastern
11.3.2. Beispiel: Zahngold-Optimierung
11.3.3. Beispiel: Entwicklung einer Farbkaldruckfixierung
11.3.4. Beispiel: Ertrag einer chemischen Reaktion
11.3.5. Beispiel: Herstellung eines Klebebandes
11.4. Allgemeine Hauptthemen
11.5. Methodiken der Versuchsplanung
11.6. Systematisierung der statistischen Versuchsplanung
11.6.1. Vorgehen bei einfacher Versuchsplanung
11.6.2. Vorgehen bei komplexer Versuchsplanung
11.7. Projektinitialisierungsphase
11.8. Systemanalyse
11.8.1. Detaillierte Problemanalyse
11.8.2. Prozessabbildung
11.8.3. Ermittlung aller potentiellen Ziel-, Einfluss- und Störgrößen
11.9. Selektion der Variablen
11.9.1. Selektion von Zielgrößen
11.9.2. Korrelative Abhängigkeiten von Zielgrößen
11.9.3. Messbarkeit der Zielgrößen
11.9.4. Festlegung der Zielgrößen
11.9.5. Selektion und Festlegung von Faktoren und Störgrößen
11.9.6. Bewertung von Einflussgrößen
11.9.7. Korrelation von Einflussgrößen
11.9.8. Bemerkungen zur Selektionsphase
11.9.9. Festlegung von Planfaktoren, Fixfaktoren und Störgrößen
11.9.10. Wahl der Faktorstufen
11.9.11. Störgrößenbehandlung
11.10. Versuchsstrategie
11.10.1. Auswahl einer Versuchsmethode
11.10.2. Versuchsplanerstellung
11.10.3. Umfang des Versuchsplans
11.10.4. Festlegung der Versuchsreihenfolge
11.10.5. Überprüfung auf praktische Umsetzbarkeit
11.11. Versuchsdurchführung
11.11.1. Kennzeichnung der Versuchsteile
11.11.2. Messmittelüberprüfung
11.11.3. Durchführung aller Versuche (wie festgelegt)
11.11.4. Messdatenerfassung
11.11.5. Abweichungen jeglicher Art festhalten
11.11.6. Aufbewahrung der Versuchsteile
11.12. Versuchsauswertung
11.12.1. Datenaufbereitung
11.12.2. Signifikanzniveau festlegen
11.12.3. Überprüfung der Normalverteilung und Homoskedastizität
11.12.4. Ausreißeranalyse
11.12.5. Residuenanalyse
11.12.6. Residuen gegen Faktoren
11.12.7. Residuen gegen Versuchsreihenfolge
11.12.8. Residuen gegen Modellschätzer
11.12.9. Beobachtungen gegen Vorhersagen
11.12.10. Effektanalyse (Haupt- und Wechselwirkungseffektanalyse)
11.12.11. Zentrierung und Skalierung
11.12.12. Interpretation der Effekte
11.12.13. Regressionsanalyse
11.12.14. Varianzanalyse der Regression
11.12.15. Adäquatheit des Modells
11.12.16. Gütemaße des Modells
11.12.17. Korrelationsanalyse
11.12.18. Graphische Auswertung
11.12.19. Optimale Einstellungen bei mehreren Zielgrößen
11.13. Validierung
11.13.1. Interpretation und Rückschlüsse
11.13.2. Maßnahmen
11.13.3. Absicherung und weiteres Vorgehen
11.13.4. Bestätigungsversuch
11.13.5. Dokumentation abschließen und vervollständigen
12. Faktorielle Versuche
12.1. 2^k Faktoren-Versuche
12.2. Betrachtung faktorieller Versuchspläne
12.2.1. Definition der Faktorstufen
12.2.2. Voraussetzungen faktorieller Versuche
12.2.3. Normierung der Faktoren
12.3. Die Analyse faktorieller Versuche
12.4. Analyse mit Zentralpunkt
12.4.1. Grafische Darstellung faktorieller Versuche
12.4.2. Versuchsaufwand und Informationsgehalt
12.4.3. Blockbildung in faktoriellen Versuchen
12.4.4. Faktorielle Versuche für Polybeutel
12.5. Die teilfaktoriellen Versuchspläne
12.5.1. Grundlage teilfaktorieller Versuchspläne
12.5.2. Beispiel: Sportschütze
12.5.3. Lösungstypen
12.5.4. Konstruktion teilfaktorieller Versuchspläne
12.5.5. Generatoren und definierende Beziehungen
12.5.6. Berechnung von teilfaktoriellen Versuchsplänen
12.6. Verkleinerte Versuchspläne durch Aussieben
12.6.1. Plackett-Burman Versuchspläne
12.6.2. Beispiel für einen Plackett-Burman Versuchsplan
13. Zentrale zusammengesetzte Versuchspläne
13.1. Die Versuchspläne der Typen 3^k und 5^k
13.2. Planung zentraler Versuchspläne
13.3. Drehbarkeit und Orthogonalität
13.4. Voraussetzungen für Modelle zweiter Ordnung
13.5. Lösung von Optimierungsaufgaben
13.6. Kanonische Analyse
13.7. Weitere Versuchspläne
13.7.1. Vollständige 3^k - Versuchspläne
13.7.2. 3^k-p Teilfaktorenpläne
13.7.3. Gemischte 2^k 3^k Faktorenpläne
13.7.4. Box-Behnken Versuchspläne
13.7.5. Versuchspläne dritter Ordnung
13.8. Optimale Versuchsplanung
13.8.1. D-optimale Versuchspläne
13.8.2. Vor- und Nachteile von D-optimalen Versuchsplänen
13.8.3. Beispiel: D-optimaler Versuchsplan
13.8.4. Modellansatz
13.8.5. Potentielle Effekte
13.8.6. Beurteilungskriterien zur Auswahl eines D-optimalen Versuchsplans
13.8.7. Versuchspunkte
13.8.8. Beispiel: Einschränkungen des Versuchsraumes
13.8.9. Beispiel: D-optimale Modellergänzung
13.8.10. Anzahl erforderlicher Versuche in Abhängigkeit vom Modell
13.8.11. Vorgehensweise zur Erstellung D-optimaler Pläne
13.8.12. Suchalgorithmen
13.8.13. Bemerkungen zu D-optimalen Versuchen
13.9. Beispiel: Fortsetzung des Plackett-Burman Versuchsplanes
14. Industrielle Mischungsexperimente
14.1. Die Methodik von Mischungsexperimenten
14.2. Modellbildung bei Mischungsexperimenten
14.3. Planung von Mischungsexperimenten
14.3.1. Standard-Simplex-Konstruktion
14.3.2. Beispiel: Fruchtsaftmischung
14.3.3. Pseudo-Simplex-Konstruktion
14.3.4. Beispiel: Liquidus-Temperaturen einer Goldlegierung 585
14.3.5. Extremwert-Konstruktion
14.3.6. Ratio-Konstruktion
14.4. Analyse von Mischungsexperimenten
14.5. Beispiele zur Mischungsanalyse
14.5.1. Beispiel: Optimierung der Penetration eines Wirkstoffs
14.5.2. Beispiel: Optimierung der Viskosität eines Klebstoffs
14.5.3. Beispiel: Viskosität und Trübung eines Reinigungsmittels
14.5.4. Beispiel: Optimierung eines Klebebands
14.5.5. Zusammenfassung
15. Experimentelle Optimumsuche
15.1. Gradientenverfahren (steilster Anstieg)
15.2. Simplex-Methode
15.3. Einfaktor-Methode
15.4. Evolutionary Operation (EVOP)
15.5. Bemerkungen zur experimentellen Optimumsuche
16. Taguchi-Methodik
16.1. Historisches
16.2. Qualität-Philosophie von Taguchi
16.3. Verlustfunktion
16.4. Robustheit / Robust Design
16.5. Ursachen für Streuungen
16.6. Taguchis Drei-Stufen-Prozess zur Produkt- bzw. Prozessentwicklung
16.7. Parameter-Klassifikation
16.8. Taguchis orthogonale Felder/orthogonale Versuchspläne
16.8.1. Konzept der inneren und äußeren Felder
16.8.2. Bestimmung der Freiheitsgrade
16.8.3. Modifikation der orthogonalen Felder
16.8.4. Analyse von mittels Wechselwirkungstabellen und linearen Graphen
16.8.5. Signal/Rausch-Verhältnisse
16.9. Analyse und Kritik an Taguchi-Versuchsplänen
17. Shainin-Methodik
17.1. Historisches
17.2. Shainins Philosophie
17.3. Werkzeuge von Shainin
17.3.1. Isoplot®
17.3.2. Multi-Vari-Karte
17.3.3. Komponententausch
17.3.4. Prozessabschnittstausch
17.3.5. Run-Test
17.3.6. Paarweiser Vergleich
17.3.7. Konzentrationsdiagramme
17.3.8. Variablenvergleich
17.3.9. Vollständiger Versuch
17.3.10. Validieren der Ergebnisse mit der A zu B Analyse
17.3.11. Optimierung der Zielgröße mit dem Streudiagramm
17.3.12. Multi-Spec-Analyse
17.4. Bemerkungen zur Shainin-Methodik
18. Polyoptimierung
18.1. Modelle
18.2. Wunschfunktion
18.2.1. Die individuelle Wunschfunktion d_i
18.2.2. Transformationen
18.2.3. Der gemeinsame Wunschwert D
18.2.4. Differenzierbare Wunschfunktion
18.3. Beispiel: Optimierung eines Klebebandes
18.3.1. Durchführung der Polyoptimierung
19. Analyse ungeplanter (historischer) Daten der Fertigung
19.1. Datenaufbereitung für die Analyse
19.2. Datenanalyse
20. Geschichte der Versuchsplanung (Statistik)
Zielsetzung und Themenbereiche
Dieses Buch zielt darauf ab, Ingenieuren in der Produkt- und Prozessentwicklung fundierte statistische Methoden für die Versuchsplanung (Design of Experiments - DoE) an die Hand zu geben, um Prozesse effizient zu optimieren, Fehlerquellen zu identifizieren und die Qualität bei minimalem Ressourcenaufwand zu maximieren.
- Statistische Methoden für die Produkt- und Prozessoptimierung
- Umfassende Verfahren zur Versuchsplanung und -analyse (DoE)
- Anwendung von Varianzanalysen, Regressionsmodellen und Mischungsexperimenten
- Praktische Unterstützung durch Software-Add-ins wie OQM-Stat
- Gegenüberstellung klassischer, Taguchi- und Shainin-Methodiken
Auszug aus dem Buch
1. Einleitung
Die Literatur und sonstige Veröffentlichungen zur statistischen Versuchsplanung sind mit Beginn der 90-er Jahre explosionsartig nach oben geschossen, Firmen haben Tausende von Mitarbeitern als Green Belts oder Black Belts ausgebildet und trotzdem deutet die Häufigkeit durchgeführter Analysen auf einen Mangel an statistischen Methoden gut ausgebildeten Ingenieuren und Entwicklern hin. Alle methodischen Ansätze, die Qualität bestehender oder neuer Produkte zu verbessern, fordern die Anwendung von statistischer Versuchsplanung. Als Beispiel seien die Six Sigma Methoden DMAIC (für bestehende Produkte und Prozesse) und DFSS (für neue Produkte und Prozesse) genannt, welche die Anwendung von statistischer Versuchsplanung explizit fordern. Doch welche Versuchsmethodik soll der Ingenieur erlernen? Er hat die Wahl zwischen der klassischen Versuchsmethodik, der Taguchi-Methodik und der Shainin-Methodik.
Industrieberater sind als Gurus der jeweiligen Methodik unterwegs und scheuen dabei auch Unwahrheiten oder Übertreibungen um ihr Produkt anzupreisen. Häufig besitzen diese Berater auch nur eine eingeschränkte statistische Kenntnis und führen Versuche durch, die von vornherein zum Scheitern verurteilt sind. Durch solche Versuche geschädigte Ingenieure sind nur noch schwer von der Notwendigkeit der statistischen Versuchsplanung zu überzeugen.
Ein weiteres Problem hat sich in den Firmen eingeschlichen, so dürfen Versuche nichts kosten. Berater preisen die Versuchsplanung als effizientes und effektives Werkzeug an, dass mit geringsten Kosten und Ressourcen ein bestmögliches Ergebnis erbringt. Das ist sicher richtig, wird aber häufig dahingehend missverstanden, dass Versuchsplanung nichts kostet. Nehmen wir an, ein Problem erfordert 45 Versuche und wir geben dazu die Versuchskosten an, dann scheinen die Ingenieure und das Management aus Zockern zu bestehen. Vielleicht reichen ja auch 2 oder 3 Versuche, man probiert sein Glück. Da man kein Glück hat, werden weitere Versuche gemacht und dann häufig mehr als notwendig gewesen wären. Damit nicht genug, weil das Budget verbraucht wurde, gibt man sich mit nicht optimalen Lösungen zufrieden oder wenn das Kind schon in den Brunnen gefallen ist, kann es kosten was es wolle, jenes Problem zu lösen. Es schlägt die Stunde der Berater.
Zusammenfassung der Hauptkapitel
1. Einleitung: Erläutert die Notwendigkeit und den Stellenwert statistischer Versuchsplanung in modernen Unternehmen unter Berücksichtigung methodischer Herausforderungen.
2. Grundlagen von Merkmalen und Versuchen: Definiert fundamentale Begriffe wie Skalenniveaus, Variablenarten und die Grundprinzipien des Versuchsaufbaus.
3. Normalverteilung und Verwandtes: Vermittelt die theoretischen Grundlagen der Normalverteilung und wichtiger verwandter Verteilungsmodelle für statistische Analysen.
4. Der statistische Test: Beschreibt das Vorgehen bei Hypothesentests, Signifikanzprüfungen sowie das Verständnis von Fehlern erster und zweiter Art.
5. Mittelwertvergleiche (ANOVA): Detailliert die statistischen Methoden zum Vergleich von Mittelwerten und Varianzen zwischen verschiedenen Gruppen.
6. Klassische Versuchsmethoden der Varianzanalyse: Führt in verschiedene klassische Versuchsdesigns ein, inklusive blockbasierter Versuchspläne und lateinischer Quadrate.
7. Korrelations- und Regressionsanalyse: Behandelt die Analyse linearer und nichtlinearer Zusammenhänge zwischen Variablen sowie die Prüfung der Modellgüte.
8. Nichtlineare Regression: Erweitert das Regressionsmodell um Fälle, in denen Zusammenhänge nicht linear durch einfache Transformationen abbildbar sind.
9. Multiple Regression: Erläutert die Analyse komplexerer Zusammenhänge mit mehreren Einflussgrößen und diskutiert Probleme wie Multikollinearität.
10. Allgemeine Lineare Modelle: Beschreibt die theoretische Integration von Varianz- und Regressionsanalyse in einem flexiblen statistischen Rahmen.
11. Grundlagen der Versuchsplanung: Vertieft die moderne, systematische Versuchsplanung von der Projektinitiierung bis zur abschließenden Validierung der Ergebnisse.
12. Faktorielle Versuche: Analysiert den Einfluss mehrerer Faktoren auf Zielgrößen und deren Wechselwirkungen in strukturierten Versuchsreihen.
13. Zentrale zusammengesetzte Versuchspläne: Fokussiert auf effiziente Versuchspläne zur Optimierung quadratischer Antwortflächenmodelle.
14. Industrielle Mischungsexperimente: Spezialkapitel für Versuchsdesigns, bei denen die Summe der Komponentenanteile konstant gehalten werden muss.
15. Experimentelle Optimumsuche: Diskutiert sequenzielle Optimierungsstrategien zur effizienten Annäherung an einen Zielbereich.
16. Taguchi-Methodik: Stellt die robustheitsorientierte Designphilosophie von Dr. Genichi Taguchi vor.
17. Shainin-Methodik: Präsentiert den problemlösungsorientierten Werkzeugkasten zur schnellen Identifikation dominanter Einflussfaktoren.
18. Polyoptimierung: Behandelt die methodische Herangehensweise zur gleichzeitigen Optimierung mehrerer, teilweise widersprüchlicher Zielgrößen.
19. Analyse ungeplanter (historischer) Daten der Fertigung: Gibt Hinweise zur wertvollen Nutzung bereits existierender Prozessdaten für analytische Zwecke.
20. Geschichte der Versuchsplanung (Statistik): Bietet einen historischen Abriss der Entwicklung statistischer Methoden von den Anfängen bis zur modernen industriellen Anwendung.
Schlüsselwörter
Statistische Versuchsplanung, DoE, Design of Experiments, Varianzanalyse, ANOVA, Regressionsanalyse, Korrelationsanalyse, Mischungsexperimente, Taguchi-Methodik, Shainin-Methodik, Prozessoptimierung, Qualitätsmanagement, Modellvalidierung, Robust Design, Polyoptimierung
Häufig gestellte Fragen
Worum geht es in diesem Werk grundsätzlich?
Das Buch vermittelt Ingenieuren und Entwicklern statistische Werkzeuge, um Prozesse in der Produkt- und Prozessentwicklung durch geplante Versuche datenbasiert zu optimieren und abzusichern.
Was sind die zentralen Themenfelder?
Die Schwerpunkte liegen auf der Versuchsplanung (DoE), der statistischen Analyse von Zusammenhängen (Regression, Varianzanalyse) und spezialisierten Optimierungsverfahren wie Mischungsexperimenten oder der Taguchi-Methode.
Was ist das primäre Ziel der Arbeit?
Das Ziel ist die Vermittlung von Kompetenzen, um mit möglichst geringem Ressourcenaufwand (Anzahl der Versuche) präzise Aussagen über Prozesseinflüsse treffen und das bestmögliche Prozessoptimum finden zu können.
Welche wissenschaftliche Methodik wird verwendet?
Es werden induktive und deskriptive statistische Verfahren angewandt, die durch moderne Software-Add-ins (wie OQM-Stat) praxisnah in Excel oder speziellen Statistikprogrammen umgesetzt werden können.
Was wird im Hauptteil der Arbeit behandelt?
Der Hauptteil gliedert sich in methodische Bausteine: von statistischen Grundlagen (Normalverteilung, Tests) über ANOVA, Regressionsanalysen, faktoriellen Versuchsplänen bis hin zu fortgeschrittenen Themen wie der Polyoptimierung und historischen Prozessdatenanalyse.
Welche Schlüsselwörter charakterisieren die Arbeit?
Zentrale Begriffe sind Versuchsplanung (DoE), Varianzanalyse (ANOVA), Regression, Robust Design (Taguchi), Shainin-Werkzeuge sowie Polyoptimierung und Mischungsplanung.
Wie unterscheidet sich die Vorgehensweise bei den klassischen Versuchsplänen von der Taguchi-Methode?
Während klassische Pläne oft auf Modellbildung und die Analyse von Wechselwirkungen abzielen, fokussiert die Taguchi-Methode primär auf die Robustheit eines Prozesses gegenüber Störgrößen durch Parameter- und Toleranz-Design.
Warum ist die Analyse von "historischen Daten" (ungeplante Versuche) in Kapitel 19 relevant?
Unternehmen verfügen oft über große Datenmengen aus der laufenden Produktion. Das Kapitel zeigt, wie man diese "ungeplanten" Daten nutzen kann, um wichtige Erkenntnisse zu gewinnen, ohne zwingend neue Versuche durchführen zu müssen.
Was ist der Kern der Polyoptimierung (Kapitel 18)?
In der Praxis müssen oft mehrere Zielgrößen (z.B. Kosten, Festigkeit, Viskosität) gleichzeitig optimiert werden, die sich teilweise gegenseitig beeinflussen. Die Polyoptimierung nutzt die Wunschfunktion (Desirability Function), um diese widersprüchlichen Ziele in einem gemeinsamen Optimum abzuwägen.
- Citar trabajo
- Eckehardt Spenhoff (Autor), 2017, Prozess-Sicherheit II. Statistische Versuchsplanung für Ingenieure in Produkt- und Prozessentwicklung, Múnich, GRIN Verlag, https://www.grin.com/document/353127