Ein Buch, das viele statistische Verteilungen und ihre Anwendungsbereiche erklärt. So lassen sich auch Prozessfähigkeitsindizes für nicht normalverteilte Werte berechnen. Ergänzt durch die Varianz- und Regressionsanalyse, welche zur Lösung von Versuchsplänen (faktorielle, quadratische Versuchspläne und Mischungsanalysen) beitragen. Die DoE-Verfahren werden umfassend erörtert und grafisch dargestellt.
Inhaltsverzeichnis
1 Einführung in die Statistik
1.1 Vorbehalte, Fehler und Manipulation
1.2 Aufgabenbereiche der Statistik
1.3 Merkmalsdefinitionen
1.4 Skalentypen und ihre Anwendungen
1.5 Zufallsvariable, Einfluss- und Zielgrößen
1.6 Grundlegende Begriffe der Versuchsplanung
1.7 Einsatzmöglichkeiten der statistischen Versuchsplanung
1.8 Verhältniszahlen
1.9 Datengewinnung
1.10 Umfang der Datenerhebung
1.10.1 Zufallsstichproben
1.10.2 Stratifizierte Stichproben
1.10.3 Systematische Stichproben
1.10.4 Stichproben aufs Geratewohl
1.10.5 Clusterstichproben
1.10.6 Quotenstichproben
1.10.7 Auswahlfehler
1.10.8 Arten statistischer Untersuchungen
1.11 Stichprobenumfang
2 Wahrscheinlichkeit und Wahrscheinlichkeitsverteilungen
2.1 Statistische Unabhängigkeit
2.2 Verteilungsfunktion
3 Diskrete Wahrscheinlichkeitsverteilungen
3.1 Bernoulli-Verteilung
3.1.1 Beispiel: Bernoulli-Verteilung mit Add-on OQM-Stat
3.2 Binomialverteilung
3.2.1 Beispiel: Binomial-Verteilung mit Addon OQM-Stat
3.3 Hypergeometrische Verteilung
3.3.1 Beispiel: Hypergeometrisch Verteilung mit Add-on OQM-Stat
3.4 Poisson-Verteilung
3.4.1 Beispiel: Poisson-Verteilung mit Add-on OQM-Stat
3.5 Geometrische Verteilung
3.5.1 Beispiel: Geometrische Verteilung mit Addon OQM-Stat
3.6 Negativ binomiale Verteilung
3.6.1 Beispiel: negative Binomial-Verteilung mit Add-on OQM-Stat
3.7 Negative hypergeometrische Verteilung
3.7.1 Beispiel: negative Binomial-Verteilung mit Add-on OQM-Stat
4 Normalverteilung
4.1 Ableitung der Standardnormalverteilung
4.1.1 Beispiel: Normalverteilung mit Add-on OQM-Stat
4.2 Tests auf Normalverteilung
4.2.1 Jarque-Bera-Test
4.2.2 Doornik-Hansen-Test
4.2.3 Anderson-Darling-Test
4.2.4 Ryan-Joiner-Test
4.2.5 Epps-Pulley-Test
4.2.6 Beispiel: Anpassungstests der Normalverteilung mit Add-on OQM-Stat
4.3 Ausreißertest
4.3.1 Ausreißertest nach Grubbs
4.3.2 Ausreißertest nach Nalimov
4.3.3 Ausreißertest nach Müller-Neumann-Storm
4.3.4 Beispiel: Ausreißertests der Normalverteilung mit Add-on OQM-Stat
4.4 Tests auf Autokorrelation
4.4.1 Neumann Trendtest
4.4.2 Iterationstest (Runs-Test)
4.4.3 Phasenhäufigkeitstest
4.4.4 Ljung-Box-Test
4.4.5 Beispiel: Tests auf Autokorrelation der Normalverteilung mit Add-on OQM-Stat
4.5 Prozessfähigkeit und Prozessleistung
4.5.1 Prozessfähigkeitsindizes
4.5.2 Prozessleistungsindizes
4.5.3 Beispiel: Schätzung von Cp, Cpk, Pp und Ppk mit Add-on OQM-Stat
4.6 Resampling-Methoden für nicht normalverteilte Daten
4.6.1 Jackknife-Methode
4.6.2 Beispiel: Jackknife-Methode in OQM-Stat
4.6.3 Die Bootstrapping-Methode
4.6.4 Beispiel: Bootstrapping-Methode in OQM-Stat
4.7 Schiefe Normalverteilung
4.8 Die verallgemeinerte Normalverteilung
4.9 Logarithmische Normalverteilungen
4.9.1 Beispiel: Histogramme für Bruttoeinkommen mit Add-on OQM-Stat
4.10 Harmonische Normalverteilungen
4.10.1 Beispiel: Q-Q-Plot für Geschwindigkeit mit Add-on OQM-Stat
4.11 Normalverteilung mit Box-Cox-Transformation
4.11.1 Beispiel: Q-Q-Plot für Box-Cox mit Add-on OQM-Stat
4.12 Normalverteilung mit Johnson-Transformationen
4.12.1 Berechnung der geeigneten Johnson-Transformation
4.12.2 SU-Transformation
4.12.3 Beispiel: Grafiken zu Johnson SU mit Add-on OQM-Stat
5 Numerische Ermittlung von Parametern
5.1 ADE-Schätzungen
5.2 LSE-Schätzungen
5.3 QE-Schätzungen
5.4 MLE-Schätzungen
5.5 Beispiel zu den vier Schätzmethoden anhand einer GLO
6 Prüfverteilungen
6.1 Die zentrale t-Verteilung
6.1.1 Funktionen der zentralen t-Verteilung
6.1.2 nichtzentrale t-Verteilung
6.2 Die zentrale F-Verteilung
6.2.1 Funktionen der zentralen F-Verteilung
6.2.2 Nichtzentrale F-Verteilung
6.3 Die zentrale χ²-Verteilung
6.3.1 Funktionen der zentralen χ²-Verteilung
6.3.2 Nichtzentrale χ²-Verteilung
7 Unbegrenzte Verteilungen
7.1 Mischverteilung normalverteilter Teilstichproben
7.1.1 EM-Algorithmus
7.1.2 Beispiel für eine Mischverteilung mit OQM-Stat
7.2 Logistische-Verteilung
7.2.1 Logistische Verteilung (zwei Parameter)
7.2.2 Schätzung der Parameter
7.3 3-parametrische logistische Verteilung
7.3.1 Berechnung der Kennwerte
8 Beidseitig begrenzte Verteilungen
8.1 Gestutzte Normalverteilungen
8.1.1 Berechnungsgrundlagen für PDF und CDF
8.1.2 Beispiel : Aussortierte Wellen
8.2 Beta-Verteilung
8.2.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
8.2.2 Schätzung der Parameter mit der Momentenmethode
8.2.3 Eigenschaften der Beta-Verteilung
8.2.4 Ableitung der vierparametrigen Beta-Verteilung
8.2.5 Beispiel: Beta-Verteilung mit Add-on OQM-Stat
8.3 Kumaraswamy-Verteilung
8.3.1 Zweiparametrische Kumaraswamy-Verteilung
8.3.2 Berechnung der Parameter
8.3.3 Die vierparametrische Kumaraswamy-Verteilung
8.3.4 Beispiel: Kumaraswamy-Verteilung mit Add-on OQM-Stat
8.4 Rechteck-Verteilung
8.5 Dreiecksverteilung
9 Einseitig begrenzte Verteilungen
9.1 Gefaltete Normalverteilungen
9.1.1 Bestimmung der Parameter der ursprünglichen Verteilung
9.1.2 Beispiel für eine Betragsverteilung 1. Art
9.2 Gamma-Verteilung
9.2.1 Wahrscheinlichkeitsdichtefunktion (PDF) und Verteilungsfunktion (CDF)
9.2.2 Schätzung der Parameter
9.2.3 Ableitung der 3-parametrische Gamma-Verteilung
9.2.4 Beispiel: Gamma-Verteilung mit Add-on OQM-Stat
9.3 3-parametrische Log-Logistik Verteilung
9.3.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
9.3.2 Schätzung der Parameter
9.3.3 Beispiel: Beschwerdefreiheit von Erkrankten mit Add-on OQM-Stat
9.4 inverse Gaussian Verteilung
9.4.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
9.4.2 Schätzung der Parameter
9.4.3 Beispiel: Simulationsdaten mit Add-on OQM-Stat
9.5 Pareto-Verteilung
9.5.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
9.5.2 Schätzung der Parameter
9.5.3 Beispiel: Einkommen verschiedener Berufsgruppen mit Add-on OQM-Stat
10 Extremwert-Verteilungen
10.1 Maximum Extremwert Gumbel-Verteilung
10.1.1 Verteilungsdichte (PDF) und -wahrscheinlichkeit (CDF)
10.1.2 Schätzung der Parameter
10.1.3 Beispiel: Maximale Abflüsse der Rhone mit Add-on OQM-Stat
10.2 Minimum Extremwert Gumbel-Verteilung
10.2.1 Verteilungsdichte (PDF) und -wahrscheinlichkeit (CDF)
10.2.2 Schätzung der Parameter
10.2.3 Beispiel: Tiefstände eines Stiftungsvermögen mit dem Add-on OQM-Stat
10.3 Extremwert Gumbel-Verteilung Typ II
10.3.1 Verteilungsdichte (PDF) und -wahrscheinlichkeit (CDF)
10.3.2 Schätzung der Parameter
10.3.3 Beispiel: Mortalität bei Corona mit dem Add-on OQM-Stat
10.4 3-parametrische Frechët Verteilung Typ II
10.4.1 Verteilungsdichte (PDF) und -wahrscheinlichkeit (CDF)
10.4.2 Schätzung der Parameter
10.4.3 Beispiel: Wasserdurchfluss mit dem Add-on OQM-Stat
10.5 Weibull-Verteilung Typ III
10.5.1 Dichtefunktion (PDF) und kumulative Verteilungsfunktion (CDF)
10.5.2 Schätzung der Parameter für die Weibull-Verteilung
10.5.3 Beispiel: Weibull-Verteilung mit Add-on OQM-Stat
10.5.4 Exponential-Verteilung
10.5.5 Schätzung der Parameter für die Exponential-Verteilung
10.5.6 Beispiel: Exponential-Verteilung mit Add-on OQM-Stat
10.5.7 Rayleigh-Verteilung
10.5.8 Schätzung des Parameters
10.5.9 Beispiel: Rayleigh-Verteilung mit Add-on OQM-Stat
10.6 Anwendungen der Weibull-Verteilung in der Praxis
10.6.1 Zuverlässigkeitsanalysen
10.6.2 Grundlagen der Zuverlässigkeitstechnik
10.6.3 Lebensdauerverteilungen
10.6.4 Reparierbare Systeme
10.6.5 Auswertung von Lebensdauerversuchen
10.6.6 Auswertung zensierter Daten
10.6.7 Einfache Zuverlässigkeitsberechnungen eines System
11 Generalisierte Verteilung
11.1 verallgemeinerte Frechët Verteilung GFD
11.1.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
11.1.2 Schätzung des Parameters
11.1.3 Beispiel: Bruchfestigkeit von Kohlefasern mit Add-on OQM-Stat
11.2 Verallgemeinerte logistische Verteilung (GLO)
11.2.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
11.2.2 Schätzung des Parameters
11.2.3 Beispiel: Abfluss von Hochwasserspitzen mit Add-on OQM-Stat
11.2.4 Charakteristik der GLO
11.3 verallgemeinerte Log-Logistic Verteilung GLLO
11.3.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
11.3.2 Schätzung der Parameter
11.3.3 Beispiel: Ausfalldaten von Klimaanlagen mit Add-on OQM-Stat
11.4 verallgemeinerte Pareto Verteilung GPD
11.4.1 Dichtefunktion (PDF) und Wahrscheinlichkeitsfunktion (CDF)
11.4.2 Schätzung des Parameters
11.4.3 Beispiel: Abfluss von Hochwasserspitzen mit Add-on OQM-Stat
12 Der statistische Test
12.1 Elemente des Hypothesentests
12.2 Signifikanztests
12.3 Null- und Alternativhypothese
12.3.1 Risiko I. und II. Art
12.3.2 Testgüte (auch Trennschärfe, Test Power)
12.3.3 Statistische Konfidenzintervalle
12.4 Test auf Ausreißer
12.5 Test auf Autokorrelation
12.5.1 Sukzessiven Differenzen
12.5.2 Phasenhäufigkeitstest
12.5.3 Iterationstest
12.6 Mittelwertvergleiche (ANOVA)
12.6.1 Mittelwerte mit Zielwerten vergleichen
12.6.2 Äquivalenztest mit einer Stichprobe
12.6.3 Paarweise verbundene Stichproben
13 Resampling-Methoden
13.1 Jackknife-Methode
13.2 Bootstrapping-Methode
13.2.1 Weitere Anwendungen für Bootstrapping mit OQM-Stat
13.3 Bootstrap-Regression
13.3.1 Berechnung von Bootstrap-Parametern
13.4 Planung von Bootstrap-Stichproben
14 Vergleich von Varianzen (Homo- und Heteroskedastizität)
14.1 Methoden zum Testen auf Heteroskedastizität
14.2 Vergleich zweier Varianzen, F-Test
14.3 Levene und Browne-Forsythe Test
14.4 Bartlett-Test zur Prüfung der Homoskedastizität
14.5 Breusch-Pagan Test zur Prüfung der Homoskedastizität
15 Varianzanalysen
15.1 Die einfache Streuungszerlegung
15.2 Der Welch Test
15.3 Lineare Kontraste
15.4 Klassische Versuchsmethoden der Varianzanalyse
15.4.1 Versuchspläne der Varianzanalyse
15.4.2 Zufällige Blockpläne
15.4.3 Lateinische Quadratpläne
15.4.4 Griechisch-Lateinische Quadratpläne
15.4.5 Hypergriechisch-Lateinische Quadratpläne
15.5 Ausgewogene unvollständige Blockpläne
15.6 Youden Quadratpläne
15.7 Mehrfache Varianzanalyse
15.7.1 Modelle der Varianzanalyse
15.7.2 Berechnung mehrfacher Varianzanalysen
15.7.3 Grafische Interpretation der Varianzanalyse
15.8 Unvollständige Versuchspläne
15.8.1 Zweifache hierarchische Versuchspläne
15.8.2 Dreifache unvollständige Versuchspläne
15.8.3 Dreifache teilhierarchische Versuchspläne
15.8.4 Varianzkomponenten hierarchischer Versuchspläne
16 Messunsicherheit und Messmittelfähigkeit
16.1 Auflösung von Messgeräten
16.2 Definitionen der Messmittelfähigkeitsanalyse
16.2.1 Richtigkeit (engl. trueness)
16.2.2 Präzision (precision)
16.2.3 Stabilität (engl. stability)
16.2.4 Linearität (engl. linearity)
16.3 MSA für Wiederholpräzision und Richtigkeit
16.3.1 Berechnung von Wiederholpräzision und Richtigkeit
16.3.2 Messmittelfähigkeitsindizes
16.4 Linearität und Homogenität
16.5 Stabilität des Messungen
16.5.1 Anwendung einer Qualitätsregelkarte
16.6 Gage R&R Analyse
16.7 Gage R&R Analysis mit Prüfautomaten
16.8 Messunsicherheitsanalyse
16.8.1 Wert der Zufallskomponente uz
16.8.2 Wert der systematischen Komponente us
16.8.3 Zusammensetzung der Komponenten
16.8.4 Erweiterte Messunsicherheit
16.8.5 Messunsicherheit in der Normung
16.8.6 Gütekriterien von Messungen
16.8.7 Einflussgrößen auf Messunsicherheit
16.8.8 Interpretation der erweiterten Messunsicherheit U
16.8.9 Bestimmung des Messunsicherheitsbudgets
16.8.10 Bemerkungen zur MSA
17 Statistische Prozesslenkung
17.1 Die Analyse des Vorlaufes
17.2 Berechnung der Grenzen einer QRK
17.3 Erweiterte Grenzen für QRK
17.4 Annahmeregelkarten
17.5 I-MR Chart die Einzelwert-Methode
17.6 Qualitätsregelkartentechnik
17.7 Anwendung von Qualitätsregelkarten (QRK)
17.7.1 Prüfung auf unnatürliche Linienzüge
18 Fähigkeitsuntersuchungen
18.1 Klassische Berechnung der PFI
18.2 Zeitabhängige Verteilungsmodelle
19 Korrelations- und Regressionsanalyse
19.1 Modelle der Regressionsanalysen
19.2 Arten der Korrelation
19.2.1 Formale Korrelation
19.2.2 Inhomogenitätskorrelation
19.2.3 Gemeinsamkeitskorrelation
19.2.4 Kausale Korrelation
19.3 Lineare Regression
19.3.1 Methode der kleinsten Quadrate
19.3.2 Bildung der ANOVA
19.3.3 Korrelation
19.3.4 Beurteilung der Abhängigkeit von Variablen
19.3.5 Grafische Beurteilung der Residuen
19.3.6 Vertrauensbereiche und Signifikanz
19.3.7 Vertrauensbereich für den Korrelationskoeffizienten
19.3.8 Vertrauensbereich für den Mittelwert μy(x)
19.3.9 Vorhersagebereich für Einzelwerte y
19.3.10 Simultanes Vertrauensband der Regressionsgeraden
19.3.11 Breusch-Pagan Test zur Prüfung der Homoskedastizität
19.4 Regression durch den Ursprung
19.5 Orthogonale Regression
19.6 Quasi-lineare Regression
20 Nichtlineare Regression
20.1 Definition nichtlinearer Regressionsmodelle
20.2 Erstellung einer XY-Grafik
20.3 Auswahl des nichtlinearen Regressionsmodells
20.4 Definition der Startwerte
20.4.1 Anfangswert aus Vorkenntnissen
20.4.2 Startwerte linearisierbarer Regressionsfunktionen
20.4.3 Anfangswerte über die geometrische Bedeutung des Parameters
20.4.4 Bedingte Linearisierung
20.5 Nichtlineare Regressionsanalyse
20.5.1 Aufstellung der Anova
20.5.2 Prüfung der Konvergenz
20.5.3 Prüfung des Regressionsmodells (inkl. Residuenanalyse)
20.5.4 Liste der Residuen und ungewöhnliche Beobachtungen
20.6 Konfidenzintervalle für Regressionskoeffizienten
20.6.1 Asymptotische Konfidenzintervalle
20.6.2 Konfidenzintervalle mit Monte Carlo Simulation
20.6.3 Individuelle und globale Konfidenzintervalle
20.7 Schätzungen mit Gewichtung
20.7.1 Methode der absoluten Abweichungen
20.7.2 Gewichtete Verlustfunktionen
20.7.3 Tukey's biweight Verlustfunktion
20.8 Transformationen von Variablen
21 Multiple Regression
21.1 Grundkonzept der multiplen Regression
21.1.1 Regression durch den Ursprung
21.1.2 Regression für Mischungen
21.1.3 Polynomiales Regressionsmodell
21.1.4 Faktorielle Regressionsanalyse
21.1.5 Zentral zusammengesetztes Regressionsmodell
21.1.6 Diskriminanzanalyse im Zweigruppenfall
21.2 Analyse der Regression
21.2.1 Vertrauens- und Prognoseintervalle
21.3 Probleme mit ungeplanten Versuchen
21.3.1 Problem: Heterogenität der Daten
21.3.2 Problem: Scheinkorrelation
21.3.3 Problem: Multikollinearität
21.3.4 Problem: Heteroskedastizität
21.3.5 Prüfung der Modelladäquatheit
21.3.6 Das Bestimmtheitsmaß
21.4 Residuen, normierte Residuen, Ausreißer
21.4.1 Arten von Residuen
21.4.2 R²PRESS, Präzisionsindex
21.5 Schrittweise Regression
21.6 Datenaufbereitung
22 Allgemeine Lineare Modelle
22.1 Anwendung der ALM
22.2 Sigmabeschränktes Modell
22.3 Überparametrisierte Modelle
22.4 Dummy-Codierung
22.5 Effekt-Codierung
22.6 Bemerkungen zu ALM
23 Grundlagen der Versuchsplanung
23.1 Prinzipien der Versuchsplanung
23.2 Behandlung wissenschaftlicher Probleme
23.2.1 Die Grundprinzipien der DoE
23.3 Die moderne Versuchsplanung
23.3.1 Ungeplante Experimente und ihre Grenzen
23.3.2 Versuchspunkte durch Fachkenntnisse festlegen
23.3.3 Das Gitterlinienmodell
23.3.4 Die Einfaktormethode
23.3.5 Die Methode des steilsten Anstiegs
23.3.6 Versuchsplan-Modell für kompletten Versuchsraum
23.4 Planung von Versuchen
23.5 Versuchsauswertung
23.5.1 Datenaufbereitung
23.6 Analyse der Residuen
23.7 Regressionsanalyse des Versuchs
23.8 Graphische Darstellung des Regressionsmodells
23.9 Nach der Analyse von Versuchen
24 Faktorielle und teilfaktorielle Versuche
24.1 Planung faktorieller Versuchspläne
24.1.1 Definition der Faktorstufen
24.1.2 Voraussetzungen faktorieller Versuche
24.1.3 Normierung der Faktoren
24.2 Die Analyse faktorieller Versuche
24.2.1 Analyse mit Zentralpunkt
24.2.2 Grafische Darstellung faktorieller Versuche
24.2.3 Versuchsaufwand und Informationsgehalt
24.2.4 Blockbildung in faktoriellen Versuchen
24.3 Die teilfaktoriellen Versuchspläne
24.3.1 Grundlage teilfaktorieller Versuchspläne
24.3.2 Lösungstypen
24.3.3 Konstruktion teilfaktorieller Versuchspläne
24.3.4 Generatoren und definierende Beziehungen
24.3.5 Berechnung von teilfaktoriellen Versuchsplänen
24.4 Faktorielle Versuche mit OQM-Stat
24.4.1 Charakterisierung der faktoriellen Versuchsplänen
24.4.2 Planung faktorieller Versuchspläne mit OQM-Stat
25 Response Surface Methodology (RSM)
25.1 Zentral zusammengesetzte Versuchspläne
25.1.1 Die reduzierten Versuchspläne 3k und 5k
25.1.2 Planung zentral zusammengesetzter Versuchspläne
25.1.3 Drehbarkeit und Orthogonalität
25.1.4 Voraussetzungen für Modelle zweiter Ordnung
25.2 Lösung von Optimierungsaufgaben
25.2.1 Kanonische Analyse
25.3 Weitere Versuchspläne
25.3.1 Vollständige 3k - Versuchspläne
25.3.2 Box-Behnken Versuchspläne
25.3.3 Erweiterte Versuchspläne dritter Ordnung
25.3.4 D-optimale Versuchspläne
25.4 RSM-Versuchspläne mit OQM-Stat
25.4.1 Orthogonaler CCD
25.4.2 Drehbarer CCD
25.4.3 Drehbarer CCI
25.4.4 Pseudo- orthogonaler CCD
25.4.5 Flächenzentrierte CCD
25.4.6 Faktorielle 3k Versuch
25.4.7 Faktorieller Versuch 3k mit Sternpunkten
25.4.8 Box-Behnken Versuchspläne (BBD)
25.4.9 Box-Behnken Versuch mit Sternpunkten
25.5 RSM-Beispiele
25.5.1 Beispiel für ein orthogonales CCD in der Pharmaindustrie
25.5.2 Beispiel für den Ertrag eines chemischen Prozesses
25.5.3 Beispiel für die Sicherheit von Gurten in LKW
25.5.4 Reaktionsrate eines chemischen Prozesses
26 Mischungsversuchspläne
26.1 Industrielle Mischungsexperimente
26.2 Die Methodik von Mischungsexperimenten
26.3 Modellbildung bei Mischungsexperimenten
26.4 Planung von Mischungsexperimenten
26.4.1 Standard-Simplex-Konstruktion
26.4.2 Beispiel: Fruchtsaftmischung
26.4.3 Pseudo-Simplex-Konstruktion
26.4.4 Beispiel: Liquidus-Temperaturen einer Goldlegierung 585
26.4.5 Extremwert-Konstruktion
26.4.6 Ratio-Konstruktion
26.5 Analyse von Mischungsexperimenten
26.6 Beispiele zur Mischungsanalyse
26.6.1 Beispiel: Optimierung der Penetration eines Wirkstoffs
26.6.2 Beispiel: Optimierung der Viskosität eines Klebstoffs
26.6.3 Beispiel: Viskosität und Trübung eines Reinigungsmittels
26.6.4 Beispiel: Optimierung eines Klebebands
26.6.5 Zusammenfassung
27 Die Programmstruktur von OQM-Stat
27.1 Stetige Verteilungen
27.1.1 Klassen von Verteilungen
27.1.2 Mischverteilung
27.1.3 Skewed und generalized NV
27.1.4 Betragsverteilung 1. Art
27.1.5 Rayleigh-Verteilung
27.1.6 Weibull-Verteilung
27.1.7 beidseitig begrenzte Verteilungen
27.1.8 Extremwertverteilungen
27.2 Diskrete Verteilungen
27.3 Stichprobenplänen
27.3.1 Stichprobenplan für nicht quantitative Merkmale
27.3.2 Chain-Sampling Stichprobenplan
27.3.3 Seq. Stichprobenplan für nicht quantitative Merkmale
27.3.4 Stichprobenplan für quantitative Merkmale
27.4 Anova
27.4.1 Einfache Streuungszerlegung
27.4.2 Äquivalenztests
27.4.3 Zweifache gekreuzte Varianzanalyse
27.4.4 Zweifache hierarchische Varianzanalyse
27.4.5 Klassische MSA
27.5 Regression
27.5.1 Einfache lineare Regression
27.5.2 Nichtlineare Regression
27.5.3 Polynominale Regressionen
27.5.4 Multiple Regression
27.5.5 Isolinien -Grafik (Konturlinien)
27.5.6 Ternäre Grafiken (Mischungsgrafik)
27.5.7 Polyoptimierung
27.5.8 Werkzeuge
27.6 Kontingenz
27.6.1 Paarweiser Vergleich
27.6.2 Kontingenztafeln
27.7 Resampling
27.7.1 Bootstrap
27.7.2 Bootstrap-Anova
27.8 DoE Planung
27.8.1 Faktorielles Design
27.8.2 Anwortflächen Design
27.8.3 Mixture Design
27.9 Zeitreihenanalysen
27.9.1 Holt-Winters-Analyse
27.9.2 Hodrick-Prescott-Filter
27.9.3 ARIMA und SARIMA
27.10 NelderMead Solver
Zielsetzung & Forschungsschwerpunkte
Dieses Buch hat das Ziel, Ingenieuren und Technikern fundierte statistische Methoden für die Analyse und Optimierung von Prozessen an die Hand zu geben, wobei die praktische Anwendung durch das Software-Add-on OQM-Stat in Excel im Vordergrund steht, um komplexe statistische Berechnungen im industriellen Alltag effizient umzusetzen.
- Grundlagen der statistischen Versuchsplanung und Datengewinnung.
- Wahrscheinlichkeitstheorie sowie diskrete und kontinuierliche Verteilungsmodelle.
- Methoden der Regressionsanalyse, von einfach-linear bis zu komplexen nichtlinearen und multiplen Modellen.
- Einsatz von statistischen Versuchsplanungen (DoE) zur Prozessoptimierung und Qualitätsverbesserung.
- Statistische Prozesslenkung (SPC) und Messsystemanalysen (MSA) für eine präzise Qualitätssicherung.
Auszug aus dem Buch
1.1 Vorbehalte, Fehler und Manipulation
Das Wort Statistik hat jeder schon gehört und benutzt. Begriffe wie Verkaufsstatistik, Unfallstatistik, Bevölkerungsstatistik, Verkehrsstatistik usw. lesen wir täglich in der Zeitung. Es handelt sich bei diesen Statistiken um die zahlenmäßige Beobachtung von Massenerscheinungen der Natur und des Menschenlebens. So assoziiert man die Statistik immer mit Aussagen über den Durchschnitt, das arithmetische Mittel. Man spricht über die durchschnittliche Lebenserwartung von Frauen und Männern, von der mittleren Zuschauerzahl, von der durchschnittlichen Jahrestemperatur usw., alle diese Angaben begegnen uns ständig in den Medien. Die Aussagekraft der Statistik und ihre Unentbehrlichkeit wird in zunehmendem Maße anerkannt; gewisse zum Teil unberechtigte Vorwürfe richten sich weniger gegen die statistische Methode als den häufigen Missbrauch der Statistik zu populären, keiner wissenschaftlichen Kritik standhaltenden Beweisführungen. So definiert der statistische Laie: Es gibt drei Arten von Lügen, so definierte der englische Staatsmann Benjamin Disraeli (nach Aussage von Mark Twain): Es gibt drei Arten von Lügen: Lügen, verdammte Lügen und Statistiken.
Aussagen wie diese sind keine Seltenheit. Die Menschen bringen der Statistik (durchaus nicht immer zu unrecht) ein gehöriges Maß an Misstrauen entgegen. Dies muss nicht sein: Wenn man mit dem Werkzeug der Statistik vertraut ist, kann man oft ganz schnell einen Fehler oder eine Manipulation in einer statistischen Darstellung entlarven. Viele Möglichkeiten werden anhand unterschiedlicher Bereiche der Statistik kurz vorgestellt. Dies ist wohl der meist zitierte Ausspruch zum Thema Statistik, der in den verschiedensten Variationen immer wieder auftaucht. Er besagt, dass die Statistik eine besonders heimtückische Form der Lüge darstellt. Dieser Ruf begründet sich durch den bewussten Missbrauch der Statistik und ihrer Kennwerte zur Manipulation um so bestimmte Ziele zu erreichen. So reden beispielsweise die Gewerkschaften von prozentualen Gewinnen um damit Lohnforderungen zu begründen, während der Unternehmer vom Gewinnzuwachs sprechen um die Lohnforderungen als überhöht abzulehnen. Wenn diese Manipulation erkannt werden soll, muss man wissen, dass bei hohen und gleichbleibenden Gewinnen der Gewinnzuwachs ständig geringer und sogar negativ werden kann.
Zusammenfassung der Kapitel
1 Einführung in die Statistik: Das Kapitel führt in die Grundlagen der Statistik ein, beleuchtet kritisch Fehlerquellen und Manipulationen und definiert wichtige Begriffe wie Stichprobenarten und Skalenniveaus.
2 Wahrscheinlichkeit und Wahrscheinlichkeitsverteilungen: Dieses Kapitel behandelt die theoretischen Grundlagen der Wahrscheinlichkeitsrechnung, einschließlich der statistischen Unabhängigkeit und der Bedeutung von Verteilungsfunktionen.
3 Diskrete Wahrscheinlichkeitsverteilungen: Hier werden diskrete Verteilungsmodelle wie Bernoulli-, Binomial-, Hypergeometrische, Poisson- und weitere Verteilungen erläutert und deren Anwendung mit dem Add-on OQM-Stat demonstriert.
4 Normalverteilung: Das Kapitel widmet sich intensiv der Normalverteilung als zentraler statistischer Verteilung, inklusive Anpassungstests, Ausreißertests und verschiedenen Transformationen wie Box-Cox und Johnson.
5 Numerische Ermittlung von Parametern: Es werden numerische Verfahren zur Parameterschätzung wie ADE-, LSE-, QE- und MLE-Schätzungen vorgestellt, um Daten an Verteilungsmodelle anzupassen.
6 Prüfverteilungen: Das Kapitel erklärt zentrale und nicht-zentrale t-, F- und χ²-Verteilungen als wichtige Werkzeuge für statistische Hypothesentests.
7 Unbegrenzte Verteilungen: Hier werden Mischverteilungen sowie die logistische Verteilung und ihre 3-parametrische Variante zur Modellierung von Daten beschrieben.
8 Beidseitig begrenzte Verteilungen: Behandelt werden gestutzte Normalverteilungen sowie Beta- und Kumaraswamy-Verteilungen, die auf ein Intervall beschränkt sind.
9 Einseitig begrenzte Verteilungen: Fokus auf gefaltete Normal-, Gamma-, Log-Logistik- und Pareto-Verteilungen, die oft bei der Modellierung extremer oder schief verteilter Daten vorkommen.
10 Extremwert-Verteilungen: Dieses Kapitel erläutert Gumbel-, Frechét- und Weibull-Verteilungen, die essenziell für die Zuverlässigkeitstechnik und die Modellierung extremer Ereignisse sind.
Schlüsselwörter
Statistik, Versuchsplanung, Wahrscheinlichkeitsverteilung, Normalverteilung, Regressionsanalyse, OQM-Stat, Prozessfähigkeit, Qualitätssicherung, Stichprobe, Hypothesentest, Varianzanalyse, Messunsicherheit, Modellbildung, Parameter, Optimierung
Häufig gestellte Fragen
Worum geht es in diesem Buch grundsätzlich?
Das Buch bietet einen praxisorientierten Leitfaden zur angewandten Statistik für Prozess- und Qualitätsingenieure, wobei die statistischen Methoden direkt mit dem Excel-Add-on OQM-Stat angewendet werden.
Welches ist das primäre Ziel der Arbeit?
Das Ziel ist es, Ingenieuren ein Werkzeug an die Hand zu geben, mit dem sie Daten wissenschaftlich fundiert auswerten, Prozessfähigkeiten bewerten und Prozessoptimierungen mittels statistischer Methoden sicher durchführen können.
Was sind die zentralen Themenfelder?
Zentrale Themen sind die statistische Versuchsplanung (DoE), Regressionsanalysen, Wahrscheinlichkeitsverteilungen, Messsystemanalysen (MSA) und die Statistische Prozesslenkung (SPC).
Welche wissenschaftliche Methode wird primär verwendet?
Die Arbeit nutzt Methoden der beschreibenden und schließenden Statistik, insbesondere die Varianzanalyse (ANOVA) und Regressionsmodelle, ergänzt durch computergestützte Simulationen und iterative numerische Verfahren.
Was wird im Hauptteil behandelt?
Der Hauptteil umfasst eine detaillierte Erläuterung verschiedener Verteilungsmodelle, deren Anwendung in der Praxis, komplexe statistische Tests sowie Techniken der Response Surface Methodology (RSM) und Mischungsexperimente.
Welche Schlüsselwörter charakterisieren das Werk?
Statistik, Versuchsplanung, Normalverteilung, Regression, OQM-Stat, Prozessoptimierung, Qualitätsmanagement, Varianzanalyse, Messunsicherheit, Zuverlässigkeit.
Wie unterstützt OQM-Stat den Anwender bei der statistischen Analyse?
OQM-Stat fungiert als in Excel integriertes Werkzeug, das komplexe Berechnungen wie Parameterschätzungen, Anpassungstests und die Erstellung von Regelkarten oder Versuchsplan-Matrizen automatisiert und so die praktische Anwendung erleichtert.
Warum ist die Unterscheidung von Zensierungsarten für Lebensdauerversuche wichtig?
Die Unterscheidung (z.B. Typ I oder Typ II Zensierung) ist kritisch für die korrekte statistische Auswertung von Lebensdauerdaten, da sie bestimmt, wie mit Datenpunkten umgegangen wird, bei denen das Ausfallereignis nicht vollständig beobachtet wurde.
Welche Rolle spielen Transformationen wie Box-Cox bei der Datenanalyse?
Transformationen sind notwendig, um nicht-normalverteilte Daten in eine Form zu bringen, die die Voraussetzungen für klassische parametrische statistische Tests (wie ANOVA oder Regression) erfüllt, um valide Schlussfolgerungen zu ziehen.
Wie wird die Messunsicherheit in der Qualitätssicherung interpretiert?
Messunsicherheit wird als essenzieller Bestandteil jedes Messergebnisses gesehen; die Angabe einer Messunsicherheit ist Ausdruck einer qualitätsbewussten Messung und notwendig für die korrekte Bewertung von Spezifikationsüberschreitungen.
- Quote paper
- Eckehardt Spenhoff (Author), 2023, Angewandte Statistik für Prozess- und Qualitätsingenieure, Munich, GRIN Verlag, https://www.grin.com/document/1599259