Die vorliegende Arbeit thematisiert in drei Kapiteln verschiedene Methoden der quantitativen Datenanalyse in SPSS. Das erste Kapitel beschäftigt sich mit der Faktorenanalyse und zeigt, wie eine Hauptkomponentenanalyse in SPSS durchgeführt wird. Im zweiten Kapitel wird die Berechnung des Cronbachs-Alpha-Werts mithilfe von SPSS demonstriert. Im letzten Kapitel wird schließlich ein Beispieldatensatz mithilfe von deskriptiven und interferenzstatistischen Methoden analysiert. Hierfür wird der Datensatz zunächst deskriptiv beschrieben und im Anschluss daran eine Clusteranalyse durchgeführt. Zum Schluss werden die gefundenen Cluster im Rahmen eines T-Tests spezifiziert.
Inhaltsverzeichnis
1. Faktorenanalyse
1.1 Grundprinzip, Voraussetzungen und Ablauf
1.2 Arten und Einsatzfelder der Faktorenanalyse
1.3 Durchführung einer Hauptkomponentenanalyse in SPSS
2. Cronbachs Alpha
2.1 Allgemein
2.2 Berechnung mit SPSS
3. Analyse der Stichprobe aus dem Datensatz „EPS_1.sav“
3.1 Deskriptive Statistiken
3.2 Clusteranalyse
3.3 Interferenzstatistische Analyse zur Beschreibung der Cluster
Zielsetzung & Themen
Das Hauptziel dieser Arbeit ist die praxisnahe Vermittlung und Anwendung statistischer Verfahren mittels der Software SPSS, insbesondere mit Fokus auf Persönlichkeitspsychologie und Gesundheitsaspekte. Die Forschungsfrage untersucht dabei sowohl die Eignung verschiedener Datensätze für statistische Analysen als auch die Identifikation homogener Personengruppen innerhalb einer Stichprobe.
- Methodische Grundlagen der Faktorenanalyse und ihre Anwendung bei der Fragebogenentwicklung.
- Schätzung der Reliabilität von Messinstrumenten durch den Cronbachs-Alpha-Koeffizienten.
- Durchführung und Interpretation komplexer, multivariater statistischer Auswertungen.
- Deskriptive Beschreibung von Stichprobendaten und deren grafische Visualisierung.
- Durchführung einer Clusteranalyse zur Ermittlung homogener Personengruppen.
- Überprüfung von Gruppenunterschieden mittels interferenzstatistischer t-Tests.
Auszug aus dem Buch
1.1 Grundprinzip, Voraussetzungen und Ablauf
Die Faktorenanalyse (FA) ist ein „statistisches Verfahren zur Identifikation informationsähnlicher Variablen (hoch korrelierender Variablengruppen) mit dem Ziel der Daten- bzw. Variablenreduktion oder der Identifikation unterliegender latenter Variablen.“ (Faktorenanalyse im Dorsch Lexikon, 2021) Es handelt sich also um eine Methode der quantitativen Datenanalyse, bei welcher, ausgehend von den korrelativen Beziehungen der Variablen eines Datensatzes, neue Konstrukte (Faktoren) generiert werden. (Backhaus, Erichson, Gensler, Weiber & Weiber, 2021, S. 414) Ein beliebtes Einsatzgebiet der FA stellt z. B. die Fragebogenkonstruktion dar. Bevor jedoch genauer auf die verschiedenen Anwendungszwecke und Arten der FA eingegangen wird, soll ein Grundverständnis für die Elemente der Methode geschaffen werden. Im Folgenden werden daher grob die einzelnen Schritte der Durchführung skizziert.
Zunächst ist zu verdeutlichen, dass die FA einer bestimmten Interpretationslogik folgen. Korrelieren zwei Variablen x1 und x2 miteinander, wird unterstellt, dass sich diese beobachtbare Korrelation auf eine dritte Variable, also eine dahinterstehende gemeinsame Ursache (Faktor F), zurückführen lässt. (Backhaus et al., 2021, S. 416; Bortz & Schuster, 2010, S. 386) Es muss dahingehend sichergestellt werden, dass die geschilderte Logik für die Fragestellung sinnvoll und relevant ist. Gleichzeitig ist es notwendig dem Datensatz eine empirische Prüfung zu unterziehen. Daten eigenen sich nur dann für eine FA, wenn die Variablen des Datensatzes ausreichend hohe Korrelationen aufweisen. (Backhaus et al., 2021, S. 416) Diese Voraussetzung wird überprüft, indem die sog. Korrelationsmatrix berechnet wird. Diese bildet die Wechselbeziehungen der Variablen ab und kann mithilfe spezifischer Testverfahren überprüft werden. (Leonhart, 2014b, S. 67) Darüber hinaus setzt eine FA ein quasi-metrisches Skalenniveau und einen Datensatz, welcher in etwa zehnmal so viele Befragte wie Items umfasst, voraus. (Budischewski, 2019, S. 110) Die Eignungsprüfung der Daten kann somit als erster Schritt der FA festgehalten werden.
Zusammenfassung der Kapitel
1. Faktorenanalyse: Dieses Kapitel erläutert die theoretischen Grundlagen des statistischen Verfahrens zur Datenreduktion und beschreibt deren schrittweise Durchführung am Beispiel der Hauptkomponentenanalyse in SPSS.
2. Cronbachs Alpha: Es wird das Konzept der internen Konsistenz als Reliabilitätsmaß eingeführt und anhand des „Offenheit“-Faktors demonstriert, wie die Konsistenz einer Skala in SPSS berechnet und optimiert werden kann.
3. Analyse der Stichprobe aus dem Datensatz „EPS_1.sav“: Dieses Kapitel verknüpft die zuvor gelernten Methoden durch eine deskriptive Auswertung von Persönlichkeitsmerkmalen mit einer Clusteranalyse und anschließender statistischer Überprüfung von Gruppenunterschieden.
Schlüsselwörter
Faktorenanalyse, Hauptkomponentenanalyse, SPSS, Cronbachs Alpha, Reliabilität, Interne Konsistenz, Clusteranalyse, t-Test, Varianzhomogenität, Stichprobenanalyse, Deskriptive Statistik, Persönlichkeitspsychologie, Big Five, Datenreduktion, Signifikanzniveau.
Häufig gestellte Fragen
Was ist das grundlegende Ziel dieser Arbeit?
Die Arbeit dient der praxisnahen Einführung in multivariate statistische Verfahren wie die Faktorenanalyse, die Reliabilitätsprüfung und die Clusteranalyse unter Anwendung der Software SPSS.
Welche zentralen Themenfelder werden bearbeitet?
Die Schwerpunkte liegen auf der Datenreduktion, der psychometrischen Evaluation von Skalen sowie der statistischen Differenzierung homogener Personengruppen innerhalb einer Stichprobe.
Welche Forschungsfrage wird verfolgt?
Das Ziel ist es, durch Anwendung statistischer Verfahren ein tieferes Verständnis für Persönlichkeitsmerkmale und Gesundheitsaspekte in einer studentischen Stichprobe zu gewinnen und die methodische Vorgehensweise in SPSS zu demonstrieren.
Welche wissenschaftliche Methode findet primär Anwendung?
Es werden quantitative Ansätze der Statistik genutzt, insbesondere die explorative Faktorenanalyse, die Cronbachs-Alpha-Reliabilitätsanalyse sowie die hierarchische Clusteranalyse und unabhängige t-Tests.
Was umfasst der inhaltliche Hauptteil der Arbeit?
Der Hauptteil gliedert sich in die theoretische Einführung und praktische Umsetzung von Faktorenanalyse und Reliabilitätsprüfung sowie eine abschließende Analyse eines Beispieldatensatzes zur Identifikation von Clustern.
Welche Schlüsselbegriffe sind charakteristisch?
Wesentliche Begriffe sind Faktorenanalyse, Cronbachs Alpha, Clusteranalyse, SPSS-Anwendung, Reliabilität und statistische Signifikanzprüfung.
Wie unterscheidet sich die explorative Faktorenanalyse (EFA) von der konfirmatorischen (CFA)?
Die EFA dient primär der Entdeckung von Faktorenstrukturen und Datenreduktion, während die CFA ein strukturüberprüfendes Verfahren darstellt, um a priori aufgestellte Hypothesen zur Faktorenstruktur zu verifizieren.
Warum ist das Skalenniveau bei der Clusteranalyse entscheidend?
Die Clusteranalyse erfordert grundsätzlich eine einheitliche Skalierung der Variablen; bei gemischten Skalenniveaus (wie nominalem Geschlecht und intervallskaliertem Alter) besteht das Risiko einer verzerrten Interpretation, wenn die Daten nicht korrekt transformiert wurden.
Wo liegen die Grenzen bei der PCA im Vergleich zur klassischen Faktorenanalyse?
Die PCA reduziert Daten rein auf ihre Hauptkomponenten ohne das Ziel, latente Strukturen aufzudecken, weshalb sie in der Psychologie kritisch von der strengen explorativen Faktorenanalyse abgegrenzt wird.
Was sagen die t-Testergebnisse über die identifizierten Cluster aus?
Die t-Tests bestätigen, dass sich die gebildeten Cluster signifikant hinsichtlich ihrer Geschlechtszugehörigkeit und ihres Alters unterscheiden, während bezüglich der Affektivitätswerte und Symptomberichte keine signifikanten Gruppenunterschiede vorliegen.
- Arbeit zitieren
- Daline Ostermaier (Autor:in), 2022, Anwendung verschiedener Methoden der quantitativen Datenanalyse in SPSS, München, GRIN Verlag, https://www.grin.com/document/1297820