Varianzanalysen und ihre Voraussetzungen und Einsatzfelder. Durchführung in SPSS


Einsendeaufgabe, 2019

62 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Anlage
Tabellenanhang

1 Aufgabe A1

2 Aufgabe A2

3 Aufgabe A3

Literaturverzeichnis

Anlage
Tabellenanhang

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Dialogbox „Univariat“

Abbildung 2: Dialogbox „Univariat: Optionen“

Abbildung 3: Dialogbox „Kolmogorov-Smirnov-Test bei einer Stichprobe“

Abbildung 4: Dialogbox „Nicht parametrische Tests mindestens zwei unabhängige Stichproben“ – Reiter <Ziel>

Abbildung 5: Dialogbox „Nicht parametrische Tests: mindestens zwei unabhängige Stichproben“ – Reiter <Variablen>

Abbildung 6: Dialogbox „Nicht parametrische Tests: mindestens zwei unabhängige Stichproben“ – Reiter <Einstellungen>

Abbildung 7: Hypothesentestübersicht

Abbildung 8: KSA bei zwei unabhängigen Stichproben

Abbildung 9: Balkendiagramm - Subskalen BFI-Persönlichkeitsmerkmale

Abbildung 10: Balkendiagramm - Subskalen positive und negative Affektivität

Abbildung 11: Balkendiagramm - Subskala emotionale Expressivität

Tabellenverzeichnis

Tabelle 1: Typen der Varianzanalyse

Tabelle 2: KSA für die Variable Alter

Tabelle 3: Deskriptive Auswertung - Variable Alter

Tabelle 4: Häufigkeitsauszählung - Variable Geschlecht

Tabelle 5: Deskriptive Statistik - Subskalen BFI-Persönlichkeitsmerkmale

Tabelle 6: Deskriptive Statistik - Subskalen positive und negative Affektivität

Tabelle 7: Deskriptive Statistik - Subskala emotionale Expressivität

Anlage

Anlage 1: Streudiagramm – BFI Extraversion * BFI Extraversion

Anlage 2: Streudiagramm – BFI Extraversion * BFI Neurotizismus

Anlage 3: Streudiagramm – BFI Extraversion * BFI Gewissenhaftigkeit

Anlage 4: Streudiagramm – BFI Extraversion * BFI Verträglichkeit

Anlage 5: Streudiagramm – BFI Extraversion * BFI Offenheit

Anlage 6: Streudiagramm – BFI Extraversion * Positive Affektivität

Anlage 7: Streudiagramm – BFI Extraversion * Negative Affektivität

Anlage 8: Streudiagramm – BFI Extraversion * Emotionale Expressivität

Anlage 9: Streudiagramm – BFI Neurotizismus * BFI Neurotizismus

Anlage 10: Streudiagramm – BFI Neurotizismus * BFI Gewissenhaftigkeit

Anlage 11: Streudiagramm – BFI Neurotizismus * BFI Verträglichkeit

Anlage 12: Streudiagramm – BFI Neurotizismus * BFI Offenheit

Anlage 13: Streudiagramm – BFI Neurotizismus * Positive Affektivität

Anlage 14: Streudiagramm – BFI Neurotizismus * Negative Affektivität

Anlage 15: Streudiagramm – BFI Neurotizismus * Emotionale Expressivität

Anlage 16: Streudiagramm – BFI Gewissenhaftigkeit * BFI Gewissenhaftigkeit

Anlage 17: Streudiagramm – BFI Gewissenhaftigkeit * BFI Verträglichkeit

Anlage 18: Streudiagramm – BFI Gewissenhaftigkeit * BFI Offenheit

Anlage 19: Streudiagramm – BFI Gewissenhaftigkeit * Positive Affektivität

Anlage 20: Streudiagramm – BFI Gewissenhaftigkeit * Negative Affektivität

Anlage 21: Streudiagramm – BFI Gewissenhaftigkeit * Emotionale Expressivität

Anlage 22: Streudiagramm – BFI Verträglichkeit * BFI Verträglichkeit

Anlage 23: Streudiagramm – BFI Verträglichkeit * BFI Offenheit

Anlage 24: Streudiagramm – BFI Verträglichkeit * Positive Affektivität

Anlage 25: Streudiagramm – BFI Verträglichkeit * Negative Affektivität

Anlage 26: Streudiagramm – BFI Verträglichkeit * Emotionale Expressivität

Anlage 27: Streudiagramm – BFI Offenheit * BFI Offenheit

Anlage 28: Streudiagramm – BFI Offenheit * Positive Affektivität

Anlage 29: Streudiagramm – BFI Offenheit * Negative Affektivität

Anlage 30: Streudiagramm – BFI Offenheit * Emotionale Expressivität

Anlage 31: Streudiagramm – Positive Affektivität * Positive Affektivität

Anlage 32: Streudiagramm – Positive Affektivität * Negative Affektivität

Anlage 33: Streudiagramm – Positive Affektivität * Emotionale Expressivität

Anlage 34: Streudiagramm – Negative Affektivität * Negative Affektivität

Anlage 35: Streudiagramm – Negative Affektivität * Emotionale Expressivität

Anlage 36: Streudiagramm – Emotionale Expressivität * Emotionale Expressivität

Tabellenanhang

Tabellenanhang 1: Häufigkeitsauszählung des Alters

Tabellenanhang 2: KSA für Subskalen der Persönlichkeitsmerkmale

Tabellenanhang 3: Spearman-Korrelation für die Persönlichkeitsmerkmale

Tabellenanhang 4: Kendall-Korrelation für die Persönlichkeitsmerkmale

Tabellenanhang 5: KSA für Persönlichkeitsmerkmale (BFI Extraversion, BFI Neurotizismus und BFI Gewissenhaftigkeit) in Abhängigkeit vom Geschlecht

Tabellenanhang 6: KSA für Persönlichkeitsmerkmale (BFI Verträglichkeit, BFI Offenheit und BEQ) in Abhängigkeit vom Geschlecht

Tabellenanhang 7: Gruppenstatistik für t-Test

Tabellenanhang 8: t-Test für unabhängige Stichprobe – Persönlichkeitsmerkmale in Abhängigkeit von dem Geschlecht

1 Aufgabe A1

In der Psychologie gibt es verschiedenste Untersuchungsdesigns wie die Befragung, das Experiment oder die Feldstudie. Mithilfe der ermittelten Daten aus diesen Untersuchungsdesigns möchten Psychologinnen und Psychologen meist mehr als nur zwei Stichproben (Gruppen) miteinander vergleichen (Sedlmeier & Renkewitz, 2013, S. 418). Um den Effekt einer oder mehrerer unabhängiger Variablen auf eine abhängige Variable zu untersuchen, wird die Varianzanalyse herangezogen (Backhaus, Erichson, Plinke, Schuchard-Ficher & Weiber, 1987, S. 43). Die Varianzanalyse kommt zur Anwendung, wenn Mittelwerte mehrerer Gruppen untereinander verglichen werden sollen (Raab-Steiner & Benesch, 2012, S. 155). In der Literatur wird auch von einer Verallgemeinerung des t-Test gesprochen (Bühner & Ziegler, 2009, S. 328). Zucchini, Schlegel, Nenadic und Sperlich (2009) führen verschiedene Anwendungsfälle für eine Varianzanalyse an. Zum Beispiel kann untersucht werden, ob ein neues Medikament oder eine neues Therapieverfahren effektiver ist als ein bereits bestehendes. Für die Personalabteilung ist zum Beispiel interessant, wie sich die Fehlzeiten durch Krankheit an unterschiedlichen Tagen in der Woche, im Monat oder im Jahr bemerkbar machen. In der Soziologie, Psychologie und Medizin, aber auch in anderen Bereichen, interessiert häufig die Fragestellung, wie sich eine bestimmte Teilmenge aus einer Grundgesamtheit in bestimmten Bereichen von der Grundgesamtheit unterscheidet. Ein aktuelles Thema ist hierbei zum Beispiel, wie sich unter 30-jährige Personen aus den neuen Bundesländern in Bezug auf die Einstellung, ob sie sich als Deutsche oder als „Ossis“ wahrnehmen, von den Menschen insgesamt aus den neuen Bundesländern unterscheiden (Zucchini et al., 2009, S. 381).

In der varianzanalytischen Terminologie ist mit der abhängigen Variable das Merkmal gemeint, dass bei einer Varianzanalyse untersucht wird (Bortz & Schuster, 2010, S. 205). Angenommen in einer Studie konnte gezeigt werden, dass die Farbe eines Sportwagens einen Einfluss auf den Absatz des Wagens hat. Nun kann die Frage gestellt werden, wie dieser Unterschied zustande kommt. Um diesen Gegensatz zu untersuchen, werden die unabhängigen Variablen, auch Faktoren genannt, betrachtet (Jancyk & Pfister, 2015, S. 93). Die verschiedenen Ausprägungen der Faktoren werden als Faktorstufen bezeichnet (Moosbrugger & Reiß, 2010, S. 420). Bezogen auf das Beispiel kann neben der Farbe mit den Ausprägungen „blau“, „schwarz“, „weiß“ und „rot“ ebenso die Ausstattung, die Leistung oder der Verbrauch einen Einfluss haben (Bortz & Schuster, 2010, S. 205). Für die Varianzanalyse gilt, dass die abhängige Variable ein metrisches Skalenniveau besitzen muss und die unabhängige Variable mindestens nominalskaliert ist (Backhaus et al., 1987, S. 43; Holling & Gediga, 2016, S. 223). Durch das metrische Skalenniveau der abhängigen Variable kann deren Variation mit dem Streuungsmaß der Varianz gemessen werden (Moosbrugger & Reiß, 2010, S. 420). Leonhardt (2017) beschreibt vier weitere Kriterien, die vor der Durchführung einer Varianzanalyse geprüft werden müssen. (1) Die abhängige Variable der Stichprobe muss eine Normalverteilung aufweisen. (2) Jede Stichprobe, das heißt, jede zu untersuchende Gruppe, muss mindestens 20 Elemente enthalten. (3) Die Stichproben müssen ähnlich stark besetzt sein. Diese Voraussetzung ist erfüllt, wenn die größte Gruppe maximal die 1,5-fache Anzahl an Probanden besitzt, wie die kleineste Stichprobe. (4) Und zwischen den einzelnen Stichproben muss für die abhängige Variable eine Varianzhomogenität bestehen. Dies kann zum Beispiel mit dem Levene-Test überprüft werden (Leonhardt, 2017, S. 392-394). Weiterhin ist zu beachten, dass jeder Messwert in der abhängigen Variable eindeutig einer Faktorstufe zugeordnet sein muss (Moosbrugger & Reiß, 2010, S. 420).

Die Varianzanalyse (VA) heißt im englischsprachigen Raum Analysis of Variance weshalb sie gerne mit ANOVA abgekürzt wird (Jancyk & Pfister, 2015, S. 93). Die Varianzanalyse kann in verschiedene Kategorien eingeteilt werden, je nachdem was untersucht werden soll. Nach Moosbrugger und Reiß (2010) kann die univariate Varianzanalyse mit einer abhängigen Variablen anhand der Anzahl der Faktoren, die auf die abhängige Variable wirken, untersucht werden. Hierbei wird unterschieden, ob die Wirkung einer unabhängige Variable auf die abhängige Variable untersucht wird (einfaktorielle Varianzanalyse) oder ob zwei oder mehr unabhängige Variablen einen potenziellen Einfluss auf die abhängige Variable haben kann. In diesem Fall wird von mehrfaktoriellen Varianzanalysen gesprochen. Weiterhin findet eine Unterscheidung im Hinblick auf eventuell vorhandene Messwiederholungen statt. Wenn die Auswirkungen einer oder mehrerer unabhängiger Variablen auf mehrere abhängige Variablen untersucht werden, wird von einer multivariaten Varianzanalyse (MANOVA) gesprochen. Eine dritte Form der Varianzanalyse ist die Kovarianzanalyse (ANCOVA) (Moosbrugger & Reiß, 2010, S. 421-422). In dieser Arbeit werden die MANOVA und die ANCOVA nicht weiter betrachtet. Die Tabelle 1 gibt einen Überblick über die verschiedenen Typen der Varianzanalyse.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Typen der Varianzanalyse

(Quelle: Eigene Darstellung in Anlehnung an Backhaus et al., 1987, S. 44)

Bevor die verschiedenen Typen der Varianzanalysen näher betrachtet werden, soll die Frage geklärt werden, warum nicht einfach mehrere t-Test durchgeführt werden. Schließlich wurde weiter oben beschrieben, dass die Varianzanalyse eine Verallgemeinerung des t-Test darstellt (Jancyk & Pfister, 2015, S. 93). Mithilfe des t-Test wird der Unterschied zwischen zwei Gruppen untersucht, hingegen wird mit der Varianzanalyse überprüft, ob eine oder mehrere unabhängige Variablen einen Einfluss auf eine oder mehrere abhängige Variablen haben (Bühner & Ziegler, 2009, S. 328). Wenn zum Beispiel vier unabhängige Variablen vorliegen und deren Einfluss auf die abhängige Variable überprüft werden soll, erhöht sich mit jedem t-Test die Wahrscheinlichkeit fälschlicherweise die Alternativhypothese anzunehmen (Sedlmeier & Renkewitz, 2013, S. 420). Wenn die α-Fehlerwahrscheinlichkeit bei 5 % für einen t-Test liegt, würde die α-Fehlerwahrscheinlichkeit bei der Durchführung von vier t-Test nicht mehr bei 5 % liegen sondern bereits bei 18,5 % (Sedlmeier & Renkewitz, 2013, S. 420). Bühner und Ziegler (2009) schreiben, dass mit einer Wahrscheinlichkeit von 18,5 % die Nullhypothese verworfen wird, obwohl sie zugetroffen hätte. Dies wird als α-Fehlerinflation bezeichnet. Die α-Fehlerinflation beschreibt mit welcher Wahrscheinlichkeit ein Test fälschlicherweise signifikant wird (Bühner & Ziegler, 2009, S. 329-330). Sedlmeier und Renkewitz (2013) beschreiben weiterhin, dass durch die Bonferroni-Korrektur der α-Fehler kontrolliert werden kann. Hierbei wird das Signifikanzniveau auf ein niedrigeres Niveau gesetzt, was zur Folge hat, dass die Wahrscheinlichkeit ein signifikantes Ergebnis zu erhalten deutlich verringert wird. Daraus folgt, dass die Teststärke, des t-Test abnimmt (Sedlmeier & Renkewitz, 2013, S. 421). Durch die Anwendung der Varianzanalyse kann, nach Bühner und Ziegler (2009), die α-Fehlerinflation vermieden werden, da nur ein Test durchgeführt wird. Auf der anderen Seite besagt ein signifikantes Ergebnis in der Varianzanalyse nur, dass es einen Unterschied zwischen zwei Mittelwerten gibt, aber nicht wo dieser Unterschied ist (Bühner & Ziegler, 2009, S. 331). Hierfür gibt es aber entsprechende Tests, die nach der Varianzanalyse durchgeführt werden können (vgl. Leonhardt, 2017, S. 417-428). Im Gegensatz zum t-Test, der die Differenzen von Mittelwerten beschreibt, untersucht die Varianzanalyse die Varianzen von verschiedenen Mittelwerten (Schäfer, 2016, S. 217).

Schäfer (2016) beschreibt, dass es bei der Varianzanalyse drei Varianzen gibt, die von Bedeutung sind (S. 219). Diese drei Arten von Varianzen werden im Folgenden kurz beschrieben. Die Gesamtvarianz ist die Varianz, die die Streuung der Gesamtstichprobe angibt und bezieht sich demnach auf die abhängige Variable (Schäfer, 2016, S. 219). Nach Schäfer (2016) setzt sich die Gesamtvarianz aus der erklärten Varianz und der nicht-erklärten Varianz zusammen. Dabei bezieht sich die erklärte Varianz auf die unabhängigen Variablen und geht aus den Differenzen der Mittelwerte der einzelnen Faktoren hervor. Die erklärte Varianz wird deshalb auch „Varianz zwischen den Gruppen“ oder between-Varianz genannt. Die nicht-erklärte Varianz geht auf die Varianzen, die innerhalb einer Gruppe bestehen, zurück. Aufgrund dessen wird diese Varianzart auch „Varianz innerhalb der Gruppen“ oder within-Varianz genannt. In diese Varianzart fallen neben den Unterschieden, die zwischen Menschen auftreten, auch Messfehler hinein. Diese Unterschiede und Messfehler sind nicht erklärbar. Die within-Varianz wird deshalb als Fehler betrachtet, der die Aussagekraft der Mittelwerte einschränkt. Daraus lässt sich ableiten, dass die Varianzanalyse versucht zu prüfen, ob die gefundenen Mittelwertdifferenzen ausreichend aussagekräftig sind, um eine Verallgemeinerung auf die Gesamtpopulation vorzunehmen. Das Verhältnis zwischen erklärender und nicht-erklärender Varianz wird durch die Prüfgröße F ausgedrückt. Der F-Wert wird umso größer, desto kleiner die Fehlervarianz (within-Varianz) ist (Schäfer, 2016, S. 219-220).

Im nachfolgenden werden ausgewählte Typen von Varianzanalysen beschrieben. Begonnen wird mit der einfaktoriellen Varianzanalyse. Leonhardt (2017) unterscheidet bei Varianzanalysen solche mit festen Effekten, welche mit zufälligen und gemischten Effekten und Varianzanalysen mit Messwiederholungen. Feste Effekte bezeichnen dabei, dass die unabhängigen Variablen nominalskaliert sind, also feste Ausprägungen haben, wie zum Beispiel „weiblich“, „männlich“ und „divers“. Zufällige und gemischte Effekte hingegen beschreiben, dass die unabhängige Variable ebenfalls intervallskaliert ist und mindestens zwei Ausprägungen besitzt. Ein Beispiel wäre das Alter (Leonhardt, 2017, S. 386). Einfaktorielle Varianzanalysen untersuchen, ob es zwischen den Mittelwerten der Faktorstufen signifikante Unterschiede gibt (Leonhardt, 2017, S. 386). Dabei besagt die Nullhypothese laut Leonhardt (2017), dass zwischen den Gruppen keine Unterschiede in den Mittelwerten der Gesamtpopulation bestehen. Die Alternativhypothese besagt hingegen, dass mindestens ein paarweiser Mittelwertunterschied zwischen den untersuchten Teilstichproben besteht (Leonhardt, 2017, S. 404). Dabei muss beachtet werden, dass wenn zwischen den einzelnen Stichprobenmittelwerten kaum Unterschiede gefunden wurden, aber eine große Streuung innerhalb der Gruppe besteht, ein signifikanter Unterschied zwischen den Faktorstufen besteht. Andersrum besteht ein signifikanter Unterschied zwischen den verschiedenen Teilpopulationen, wenn innerhalb der einzelnen Stichproben kaum Varianz beobachtet wurde, aber die Gruppenmittelwerte sich stark unterscheiden (Leonhardt, 2017, S. 389).

Bei der mehrfaktoriellen Varianzanalyse gibt es mehrere unabhängige Variablen, deren Einfluss auf eine abhängige Variable untersucht werden soll. Leonhardt (2017) schreibt, dass bei dieser Form der Varianzanalyse ebenso die Mittelwerte der einzelnen Faktorstufen auf signifikante Unterschiede analysiert werden (S. 386). Bei der zweifaktoriellen Varianzanalyse gibt es nicht nur eine abhängige und eine unabhängige Variable sondern zwei unabhängige Variablen, die auf Unterschiede geprüft werden (Leonhardt, 2017, S. 434). Dabei werden nach Leonhardt (2017) die unabhängigen Variablen als Faktor A und Faktor B benannt. Entsprechend wird der Einfluss der Faktoren über Mittelwertdifferenzen erläutert. Im Gegensatz zur einfaktoriellen Varianzanalyse ergeben sich mehrere Arten von Effekten, die analysiert werden. Diese Effekte sind die Haupteffekte, die Zelleneffekte und die Interaktionseffekte. Ein Haupteffekt ist ein Effekt, der nur auf eine unabhängige Variable zurückzuführen ist (Leonhardt, 2017, S. 434-435). Es könnte zum Beispiel gesagt werden, dass Menschen bis 30 Jahre eine höhere Merkfähigkeit haben als Menschen, die zwischen 31 und 50 Jahre alt sind oder Menschen, die über 50 Jahre alt sind. Bei der zweifaktoriellen Varianzanalyse wird für den zweiten Faktor ein zweiter Haupteffekt aufgestellt (Leonhardt, 2017, S. 436). Dieser könnte heißen, dass es einen Unterschied zwischen den Leistungen in der Merkfähigkeit zwischen Frauen und Männern gibt. Zelleneffekte entstehen nach Leonhardt (2017) durch die Kombination einzelner Stufen der beiden Faktoren. Eine Auswertung ist nur bedingt sinnvoll, da die Unterschiede durch die Haupteffekte beeinflusst werden können (Leonhardt, 2017, S. 437), weshalb hierauf nicht näher eingegangen wird. Die dritte Art von Effekten sind die Interaktionseffekte. Laut Leonhardt (2017) gehen diese Effekte auf die Kombination der Faktorstufen zurück (S. 437). Der Interaktionseffekt könnte zum Beispiel wie folgt lauten: Eine Veränderung der Merkfähigkeit kann nur bei Männern festgestellt werden. Für die zweifaktorielle Varianzanalyse werden insgesamt drei Nullhypothesen aufgestellt, die alle für sich auf eine mögliche Signifikanz geprüft werden. Die Nullhypothesen setzten sich auf dem Haupteffekt für Faktor A und den Haupteffekt für Faktor B und dem Interaktionseffekt zusammen (Leonhardt, 2017, S. 439).

Abschließend wird noch die Varianzanalyse mit Messwiederholungen vorgestellt. Im Gegensatz zur einfaktoriellen Varianzanalyse mit festen Effekten hat die Varianzanalyse mit Messwiederholungen eine abhängige Variable, die intervallskaliert ist und bei den Versuchspersonen mehrmals, also zu verschiedenen Messzeitpunkten erhoben wurde (Leonhardt, 2017, S. 387). Dabei werden nach Leonhardt (2017) die Probanden als Stufen eines Zufallseffektes gesehen. Bei dieser Form der Varianzanalyse gibt es zwei verschiedene Faktoren. Ein Faktor, der Personenfaktor, beinhaltet die Abweichungen zwischen den Versuchspersonen. Der andere Faktor, der Messwiederholungsfaktor, erfasst die Unterschiedlichkeiten zwischen den einzelnen Messzeitpunkten. Der Messwiederholungsfaktor wird dabei als fester Faktor erhoben und für diesen wird die Nullhypothese aufgestellt. Der Personenfaktor wird nicht betrachtet, weil es für diese Art der Fragestellung unerheblich ist, ob Unterschiede zwischen den Personen bestehen (Leonhardt, 2017, S. 495, S 502).

Im nachfolgenden Text wird beschrieben, wie eine zweifaktoriellen Varianzanalyse in SPSS durchgeführt wird. Dazu wird der Datensatz ANOVA.sap verwendet. Dieser Datensatz ist ein fiktiver Datensatz, der die Merkfähigkeit von Versuchspersonen testet. Neben der Merkfähigkeit wurden außerdem das Alter und das Geschlecht der Probanden erhoben. Die unabhängige Variable Alter hat drei Ausprägungen („bis 30 Jahre“, „31 – 50 Jahre“ und „über 50 Jahre). Die zweite unabhängige Variable Geschlecht hat die Ausprägungen „weiblich“ und „männlich.

Um die Varianzanalyse in SPSS durchzuführen wird im Menü <Analysieren> <Allgemeines lineares Modell> ausgewählt und anschließend <Univariat …>. Es öffnet sich die in Abbildung 1 dargestellte Dialogbox. In dem Quellvariablenfeld werden alle Variablen aus der Datei ANOVA.sap dargestellt. Mithilfe der Transport-Schaltfläche wird die Variable Merkfähigkeit in das Feld „Abhängige Variable“ verschoben und die beiden unabhängigen Variablen Geschlecht und Alter in das Feld „Feste Faktoren“.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Dialogbox „Univariat“

(Quelle: Screenshot aus SPSS)

Anschließend können über die Buttons auf der rechten Seite weitere Eingaben getätigt werden. In der Dialogbox „Univariat: Modell“ wird nichts geändert. Es bleibt „Gesättigtes Modell“ und „Quadratsumme: Typ III“ ausgewählt sowie der Hacken bei „Konstanten Term in Modell einschließen“ gesetzt. In der Dialogbox „Univariate: Kontraste“ wird ebenfalls nichts verändert. In der Dialogbox „Univariate: Profilplots“ (Button Diagramme), können Stufenmittelwerte für die Faktoren dargestellt werden. Aufgrund der begrenzten Seitenzahl, wird darauf nicht näher eingegangen. Dies gilt ebenso für die Dialogbox „Univariat: Post-hoc Mehrfachvergleiche für beobachteten Mittelwert“. In dieser Dialogbox wird kein Post-hoc-Test ausgewählt. In der Dialogbox „Univariat: Geschätzte Randmittel“ werden keine Variablen für die Anzeige von Mittelwerten ausgewählt. In der Dialogbox „Speichern“ wird ebenfalls nichts geändert. In der Dialogbox „Univariat: Optionen“ wird ausgewählt, dass die deskriptive Statistik und die Homogenitätstests angezeigt werden sollen. Das Signifikanzniveau wird auf 0,05 eingestellt. Diese Dialogbox ist in der Abbildung 2 dargestellt. Abschließend wird in der Dialogbox „Univariat“ auf den Button „OK“ gedrückt und SPSS zeigt die Ergebnisse im Ausgabefenster an.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Dialogbox „Univariat: Optionen“

(Quelle: Screenshot aus SPSS)

2 Aufgabe A2

In der Inferenzstatistik gibt es einige Fragestellungen, die eine Normalverteilung voraussetzen, wie zum Beispiel der t-Test oder die Varianzanalyse (Döring & Bortz, 2016, S. 250). Eine Normalverteilung ist eine Verteilung, bei der sich die Häufigkeiten um den Mittelwert herum gruppieren, wodurch die Verteilung eingipfelig und symmetrisch ist (Raithel, 2008, S. 121). Nach Raithel (2008) gibt es in SPSS die Möglichkeit sich ein Histogramm mit einer Normalverteilungskurve ausgeben zu lassen. Je nach Verteilung der Werte kann optisch gesehen werden, dass keine Normalverteilung vorliegt (Raithel, 2008, S. 122). Im Umkehrschluss ist es gar nicht so einfach optisch herauszufinden, ob die Verteilung nun normalverteilt ist oder nicht (Schäfer, 2016, S. 241). Hierfür gibt es verschiedene mathematische Verfahren. Eins davon ist der Kolmogorov-Smirnov-Anpassungstest (KSA) (Nachtigall & Wirtz, 2013, S. 171). Der KSA wurde von den Mathematikern Andrei N. Kolmogorov und Nikolaj W. Smirnov entwickelt (Smirnov, 1939; zitiert nach Bertling, 2010, S. 406). Der KSA findet eine breite Anwendung, weil der KSA in gleichem Maße Unterschiede in den Lage-, Streuungs-, Schiefe- und Wölbungsparametern einer beobachteten Verteilung im Vergleich zu einer theoretischen Verteilung aufzeigen kann (Eckstein, 2006, S. 94). Bei Einstichproben überprüft der KSA ob die metrischen Daten einer Standardnormalverteilung entsprechen (Duller, 2008, S. 108). Für die Variable Alter einer Stichprobe könnten die Nullhypothese (H0) und die Alternativhypothese (H1) folgendermaßen aussehen (Holling & Gediga, 2016, S. 107):

H10: „Das Alter der Stichprobe entspricht einer Normalverteilung.“

H11: „Das Alter der Stichprobe entspricht keiner Normalverteilung.“

Bevor der KSA für Einstichproben durchgeführt werden kann, müssen nach Duller (2008) bestimmte Voraussetzungen erfüllt sein. Die zu überprüfende Variable muss stetig sein und ein metrisches Skalenniveau besitzen (Duller, 2008, S. 108). Im Gegensatz zu sonstigen Tests in der Inferenzstatistik wird beim KSA versucht die Nullhypothese zu bestätigen (Eid, Gollwitzer & Schmitt, 2017, S. 322). Für die aufgestellte Null- und Alternativhypothese der Variable Alter erfolgt die Überprüfung weiter unten.

Beim Zweistichprobentest wird wie beim Einstichprobentest die maximale Differenz der Verteilungsfunktion als Teststatistik verwendet (Duller, 2008, S. 156). Nur werden beim Zweistichprobentest zwei Variablen einer Stichprobe als Grundlage für den KSA verwendet (Holling & Gediga, 2016, S. 186). Im Gegensatz zum Einstichproben-KSA benötigt der Zweistichproben-KSA nur eine stetige Verteilungsfunktion (Holling & Gediga, 2016, S. 188). Eine mögliche Null- und Alternativhypothese für den Zweistichproben-KSA kann nach Holling und Gediga (2016) wie folgt aussehen (S. 187):

H20: „Die Anzahl der Arztbesuche sind für Studierende mit wenigen und vielen Krankheitssymptomen unterschiedlich.“

H21: „Die Anzahl der Arztbesuche sind für Studierende mit wenigen und vielen Krankheitssymptomen nicht unterschiedlich.“

Die Überprüfung der Hypothesen erfolgt weiter unten in dieser Arbeit.

Nachtigall und Wirtz (2013) empfehlen den KSA erst ab Stichproben von n > 50 anzuwenden (S. 170), Leonhardt (2017) schreibt dazu, dass der KSA bei so geringer Stichprobengröße eigentlich nie signifikant ist (S. 257). Weiterhin weist Leonhardt (2017) darauf hin, dass bei einer Stichprobe n > 300 die Gefahr besteht, dass der KSA zu sensitiv ist. Das heißt, dass der Test bereits bei einflusslosen Abweichungen ein signifikantes Ergebnis ausgibt (Leonhardt, 2017, S. 257).

Für die Durchführung eines KSA gibt es in SPSS mehrere Möglichkeiten. Im Nachfolgenden wird jeweils ein Weg für eine Stichprobe und ein Weg für zwei Stichproben dargestellt und die SPSS-Ausgaben erläutert. Dafür wird der Datensatz EPS_1.sav verwendet.1

Es wird im Menü <Analysieren> der Punkt <Nicht parametrische Tests> ausgewählt. Anschließend öffnet sich ein neues Menü mit den Punkten <Eine Stichprobe …>, <Unabhängige Stichproben …>, <Verbundene Stichproben …“ und <Alte Dialogfelder>. Bei den drei erstgenannten Optionen öffnet sich jeweils eine separate Dialogbox. Unter dem letzten Menüpunkt öffnet sich ein neues Menü, in dem unter anderem folgenden Optionen ausgewählt werden können: <K-S bei einer Stichprobe>, <2 unabhängige Stichproben> und <2 verbundene Stichproben>. Hierbei öffnet sich ebenfalls jeweils wieder eine Dialogbox.2

Um bei einer Stichprobe den KSA durchführen zu können, wird an dieser Stelle die Möglichkeit über den alten Weg vorgestellte. Es wird <K-S bei einer Stichprobe> ausgewählt und es öffnet sich die in Abbildung 3 dargestellte Dialogbox.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Dialogbox „Kolmogorov-Smirnov-Test bei einer Stichprobe“

(Quelle: Screenshot aus SPSS)

In dem Quellvariablenfeld sind alle Variablen aus der Datei „EPS_1.sav“ aufgelistet. Für die Analyse wird die Variable Alter mithilfe der Transport-Schaltfläche in die Testvariablenliste verschoben. Unter Testverteilung kann ausgewählt werden, nach welcher Verteilung der Test durchgeführt werden soll. An dieser Stelle wird sich für eine Normalverteilung entschieden. Unter dem Punkt <Optionen> öffnet sich eine neue Dialogbox in der angegeben werden kann, ob eine „Deskriptive Statistik“ oder „Quartile“ mit ausgegeben werden sollen. Weiterhin kann entschieden werden, ob für fehlende Werte ein „Fallausschluss Test für Test“ erfolgen soll oder ein „Listenweiser Fallausschluss“.3

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: KSA für die Variable Alter

(Quelle: SPSS-Ausgabe)

In der Tabelle 2 ist das Ergebnis des KSA dargestellt. In der zweiten Zeile kann die Fallzahl abgelesen werden. In der dritten und vierten Zeile werden der Mittelwert und die Standardabweichung für die ausgewählte Stichprobe dargestellt. Für die Variable Alter bedeutet dies, dass 100 Personen die Frage beantwortet haben. Das Alter lag im Mittel bei 24 Jahren (SD = 6,213). In den Zeilen zur extremsten Differenz wird die getestete Variable mit der theoretischen Normalverteilung verglichen. Es werden die größte absolute, die größte positive und die größte negative Abweichung der beiden Verteilungen von einander in der Tabelle ausgewiesen. In der letzten Zeile wird das eigentliche Testergebnis angezeigt. Die asymptotische Signifikanz ist in diesem Fall p < 0,001. Das heißt, dass die Nullhypothese H10 für die Variable Alter verworfen werden muss, weil keine Normalverteilung vorliegt.

Um eine Stichprobe mit zwei Variablen auf Normalverteilung zu testen, kann, wie oben beschrieben, über das Menü <Analysieren> <Nicht parametrische Test> gegangen werden. Anschließend wird der Punkt <Unabhängige Stichprobe> ausgewählt und es öffnet sich die in Abbildung 4 dargestellte Dialogbox.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Dialogbox „Nicht parametrische Tests mindestens zwei unabhängige Stichproben“ – Reiter <Ziel>

(Quelle: Screenshot aus SPSS)

Unter dem Reiter <Ziel> wird ausgewählt, dass die Analyse angepasst werden soll. In der Abbildung 5 wird der Reiter <Variablen> dargestellt. Aus dem Quellvariablenbereich wird mit der Transport-Schaltfläche die Variable „Hausarztbesuche“ in das Feld für Testvariablen verschoben. Die Variable „Symptomgruppen (viele vs. wenige Symptome)“ wird in das Feld Gruppen verschoben. Bei der Variablen für die Gruppe ist zu beachten, dass diese nur zwei Ausprägungen besitzen darf, da ansonsten der Test nicht durchgeführt werden kann.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Dialogbox „Nicht parametrische Tests: mindestens zwei unabhängige Stichproben“ – Reiter <Variablen>

(Quelle: Screenshot aus SPSS)

Anschließend wird, wie in Abbildung 6 dargestellt, im Reiter <Einstellungen> für das Element „Test auswählen“ der Punkt „Tests anpassen“ gewählt. Da die Verteilung zwischen Gruppen verglichen wird, wird ein Hacken bei „Kolmogorov-Smirnov (2 Stichproben)“ gesetzt. Unter Testoptionen kann das Signifikanzniveau und das Konfidenzintervall angepasst werden. In diesem Fall werden die Voreinstellungen beibehalten. Unter benutzerdefinierte fehlende Werte kann entschieden werden, ob fehlende Werte für kategoriale Variablen ein- oder ausgeschlossen werden soll. Hier wird sich ebenfalls für die Voreinstellung entschieden, dass die fehlenden Werte ausgeschlossen werden. Anschließend können die Eingaben mit <Ausführen> bestätigt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Dialogbox „Nicht parametrische Tests: mindestens zwei unabhängige Stichproben“ – Reiter <Einstellungen>

(Quelle: Screenshot aus SPSS)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Hypothesentestübersicht

(Quelle: SPSS-Ausgabe)

SPSS gibt anschließend das in Abbildung 7 dargestellte Fenster aus. In diesem wird eine mögliche Formulierung der Nullhypothese vorgeschlagen. In der zweiten Spalte wird beschrieben, welcher Test durchgeführt wurde und in der dritten Spalte ist der Signifikanzwert p abgebildet. In der letzten Spalte gibt SPSS auf Grundlage der eingebenden Daten für das Signifikanzniveau und das Konfidenzintervall eine Empfehlung ab, ob die Nullhypothese angenommen werden soll oder nicht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: KSA bei zwei unabhängigen Stichproben

(Quelle: SPSS-Ausgabe)

Mit einem Doppelklick auf die Ausgabe in SPSS öffnet sich ein neues Fenster. Dieses Fenster ist in der Abbildung 8 zu sehen. Im oberen Abschnitt zeigt SPSS für den KSA eine Populationspyramide an. Im unteren Abschnitt wird eine Tabelle angezeigt, die bereits aus dem vorherigen Test für die Variable Alter bekannt ist. In diesem Fall konnte SPSS für die Hausarztbesuche in Abhängigkeit der Symptomgruppen n = 98 gültige Fälle ermitteln. Das heißt zwei Personen haben zu einer der beiden Variablen keine Angaben gemacht. Im mittleren Bereich der Tabelle werden wieder die extremsten Differenzen zwischen den ausgewerteten Daten und der theoretischen Annahme beschrieben. In der letzten Zeile wird die asymptotische Signifikanz für einen zweiseitigen Test angeführt. Dies ist mit p = 0,037 nicht signifikant. Das heißt, dass die Stichprobe für die zwei Variablen nicht normalverteilt ist und die oben aufgestellte Nullhypothese H20 abzulehnen ist. Diese Interpretation entspricht dem, was SPSS in der Tabelle aus Abbildung 7 ebenfalls empfohlen hat.

[...]


1 Die zu testende Verteilung ist eine Normalverteilung.

2 Aus den Daten berechnet.

3 Signifikanzkorrektur nach Lillifors.

Ende der Leseprobe aus 62 Seiten

Details

Titel
Varianzanalysen und ihre Voraussetzungen und Einsatzfelder. Durchführung in SPSS
Hochschule
SRH Fernhochschule
Note
1,3
Autor
Jahr
2019
Seiten
62
Katalognummer
V1041457
ISBN (eBook)
9783346467256
ISBN (Buch)
9783346467263
Sprache
Deutsch
Schlagworte
Quantitative Datenanalyse, Varianzanalyse, Kolmogorov-Smirnov-Anpassungstest, KSA
Arbeit zitieren
Madeleine Hartleff (Autor:in), 2019, Varianzanalysen und ihre Voraussetzungen und Einsatzfelder. Durchführung in SPSS, München, GRIN Verlag, https://www.grin.com/document/1041457

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Varianzanalysen und ihre Voraussetzungen und Einsatzfelder. Durchführung in SPSS



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden