Grundlagen multivariater Analyseverfahren und mögliche Einsatzgebiete für die wichtigste Verfahren


Seminararbeit, 2000
9 Seiten, Note: Noch nicht

Gratis online lesen

EINLEITUNG

Einfache Analyseverfahren erweisen sich zumeist als unzureichend bei der Untersuchung komplexer Marketing-Phänomene. Aufgrund dessen werden vermehrt multivariate Analyseverfahren eingesetzt. Dabei wird gleichzeitige Analyse einer größeren Zahl von Variablen untersucht.

Bei den multivariaten Verfahren wird unterschieden in:

1.) Dependenzanalyse:

Dabei wird zu untersuchende Variablenmenge vor der Analyse in abhängige und abhängige Komponenten unterteilt. Man geht davon aus, dass eine oder mehrere Variable (Kriteriumsvariable) von anderen Variablen (Prediktoren) beeinflusst werden. Ziel ist die Beschreibung und Analyse dieses Einflusses.

2.) Interdependenzanalyse:

Bei der Interdependenzanalyse wird der Datensatz auf bestehenden Strukturen zwischen den Variablen und den Elementen untersucht.

ANALYSEARTEN

1. Multiple Korrelationsanalyse

Ziel dieses Verfahrens ist es, den Zusammenhang zwischen einer variablen und der Gesamtheit der restlichen Variablen zu bestimmen. Die multiple Korrelationsanalyse ist somit nur eine einfache Korrelation zwischen zwei Variablen, wobei eine Variable aus zwei oder mehreren Variablen zusammengesetzt ist. Durch diese rechnerische Hinzufügung anderer Variablen in eine zunächst nur zwischen zwei Variablen bestehende Korrelation erhöht die Ausgangskorrelation und liefert damit einen erhöhten Erklärungsbeitrag.

In der Marktforschung hat dieses Verfahren geringe Relevanz.

2. Multiple Regressionsanalyse

Die Regressionsanalyse ist wohl das am häufigsten angewendete multivariate Analyseverfahren. Dabei wird die Beziehung zwischen einer abhängigen und mindestens einer unabhängigen Variablen untersucht, die alle metrisch skaliert sind. Grundvoraussetzungen für die multiple Regressionsanalyse, die für die Güte des Ergebnisses von großer Bedeutung sind:

- Metrisches Messniveau muss eingesetzt werden
- Beziehung zwischen der eingesetzten abhängigen und den einzelnen unabhängigen Variablen muss gegeben sein
- Additive Verknüpfung der Variablen
- Es darf keine Multikollinearität vorliegen, d.h. die unabhängige Variablen dürfen nicht miteinander korrelieren

Bei der multiplen Regressionsanalyse werden mindestens 2 unabhängige Variablen (z.B.Einkommen, Alter) in die Regressionsgleichung miteinbezogen, welche die Abhängigkeit der unabhängigen Variablen von der abhängigen Variablen (z.B Zigarettenkonsum) aufzeigen soll.

Regressionsgleichung:

Abbildung in dieser Leseprobe nicht enthalten

Komponente der Gleichung:

y’ = Schätzwert für die abh. Variable „Zigarettenkonsum“

y = tatsächlicher Wert für den Zigarettenkonsum

x1 = unabhängige Variable „Einkommen“

x2 = unabhängige Variable „Alter“

a = Regressionskonstante

bj = Regressionskoeffizienten (j = 1,2)

e = Residuum oder Störgröße

Es sollen die Regressionskoeffizienten für die unabhängige variable derart bestimmt werden, dass die errechneten Werte für die abhängige Variable den tatsächlichen Wert möglichst nahe kommen. Um zusätzlich erkennen zu können, wie wichtig die verschiedenen unabhängigen variablen für die Ausprägung der abhängigen Variablen sind, benötigt man die sogenannten Beta-Koeffizienten (= standardisierte Regressionskoeffizienten).

Abbildung in dieser Leseprobe nicht enthalten

Eingesetzt in die obige Regressionsgleichung erhält man die standardisierte Regressionsgleichung. Darin ist direkt aus den Werten der jeweiligen Beta-Koeffizienten der Beitrag der einzelnen unabhängigen Variablen zur Ausprägung der abhängigen Variablen abzulesen. Je größer Beta, desto stärker ist der Einfluss der unabhängige Variable auf die abhängige Variable.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1.: Struktur der Regressionsanalyse

3. Varianzanalyse

Die Varianzanalyse findet Anwendung, wenn die unabhängigen Variablen nicht-metrisch und die abhängigen Variablen metrisch skaliert sind. Besondere Bedeutung kommt diesem verfahren bei der Anwendung von Experimenten zu, wobei die nicht-metrisch skalierten unabhängigen Variablen die experimentellen Einwirkungen wiedergeben. Die Varianzanalyse untersucht die Streuungen (Varianzen) für die Ausprägungen der nicht-metrischen unabhängigen Variablen um deren einzelnen Mittelwerte. Der Abstand von diesen Mittelwerten der Merkmalausprägungen zum Gesamtmittelwert über alle Elemente wird erklärte Abweichung genannt. Der Abstand jedes einzelnen Elementes zu diesen Mittelwerten wird nicht erklärte Abweichung genannt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2.: Struktur der Varianzanalyse

Bezugnehmend auf die Zahl der einbezogenen abhängigen und unabhängigen Variablen unterscheidet man drei Arten der Varianzanalyse:

1. Einfache Varianzanalyse (eine unabh. Variable, eine abh. Variable)
2. n-fache Varianzanalyse (n-unabh. Variablen, eine abh. Variable)
3. Multiple Varianzanalyse (n-unabh. Variablen, n-abh. Variablen)

Beispiel zur multiplen Varianzanalyse: Mit Hilfe der multiplen Varianzanalyse wird die Wirkung zweier Produktalternativen auf die Preis- und Qualitätswahrnehmung sowie die Kaufbereitschaft durch die Konsumenten untersucht.

Das Grundkonzept der einfachen Varianzanalyse kann auf die mehrfache bzw. multiple Varianzanalyse übertragen werden. Anstatt der multiplen Varianzanalyse können theoretisch mehrere einfache Varianzanalysen vorgenommen werden. Bei dieser Vorgehensweise werden allerdings im Unterschied zur multiplen Varianzanalyse eventuell vorhandene Korrelationen zwischen den abhängigen Variablen vernachlässigt.

Erklärung der Vorgangsweise anhand eines Beispiels:

Man zeichnet die Verkaufszahlen von 2 Produkten (P1 und P2) einen Monat lang auf. Wenn die Produktgestaltung keinen Einfluss auf die Verkaufsmenge hat, sind die Verkaufszahlen

der Produkte ungefähr gleich. Weiters berechnet man die erklärte und die ungeklärte Abweichung und quadriert diese. Die Ergebnisse geben Aufschluss darüber, ob die unabhängige variable Einfluss auf die abhängige Variable hat.

Je größer die erklärte Abweichung gegenüber der ungeklärten Abweichung ist, desto eher besteht ein Zusammenhang zwischen der unabhängigen und der abhängigen Variablen.

Voraussetzungen bei der Varianzanalyse:

- Grundgesamtheit muss normalverteilt sein
- Die Auswahl muss nach dem Zufallsprinzip erfolgen
- Erklärte und unerklärte Variablen müssen additiv verknüpft sein · Varianzhomogenität soll vorliegen

4. Diskriminanzanalyse

Die Diskriminanzanalyse setzt eine nicht-metrische skalierte abhängige Variable und metrisch skalierte unabhängige Variablen voraus. Hauptaufgabe dieses Verfahrens ist die Analyse von Gruppenunterschieden, wobei die abhängige Analyse die Gruppenzugehörigkeit beschreibt und die unabhängigen Variablen die Gruppenelemente identifizieren. Die Diskruminanzanalyse versucht durch Bildung von Diskriminanzfunktionen die vorgegebenen Gruppen bestmöglich anhand der unabhängigen Variablen zu trennen.

Wir unterscheiden zwischen:

- Einfache Diskriminanzanalyse: die abhängige Variable ist dichotom, d.h. es gibt nur zwei unterschiedliche Gruppen (z.B. Geschlecht)

- Multiple Diskriminanzanalyse: es liegen mehr als zwei verschiedene Gruppen vor

Im Gegensatz zur multiplen Regressionsanalyse, die einer Minimierungszielsetzung folgt, ist man hier bestrebt, dass der Abstand bzw. die Entfernung zwischen den Gruppenmittelwerten möglichst groß ist.

Folgende Fragestellungen lassen sich nun mit Hilfe der Diskriminanzanalyse beantworten:

-Bestehen zwischen den a priori vorgegebenen Gruppen signifikante Unterschiede?

-Mit welcher Kombination von Merkmalen lassen sich die Gruppen bestmöglich trennen?

-Welche relative Gewichtung kommt den einzelnen Merkmalen bei der Trennung der Gruppe zu?

- Welcher der Gruppen muss ein neu zu untersuchendes Element zugeordnet werden?

5. Faktorenanalyse

Die Faktoranalyse ist ein Verfahren der Datenreduktion bezüglich der Vielzahl von gleichgerichteten Variablen. Sie analysiert die mögliche Abhängikeit von Variablen. Sind z.B. bestimmte Eigenschaften eines Produktes nach den Ergebnissen der Analyse gleichgerichtet und sehr stark voneinander abhängig, so werden diese durcheine Hypervariable, den Faktor, ersetzt. Dieser Faktor beinhaltet ohne großen Informationsverlust die Aussagefähigkeit der Einzelvariablen vorgenommen.

Die Faktoranalyse lässt sich mittels Vektorendarstellung geometrisch darstellen, wobei der Korrelationskoeffizient ® der Kosinus des eingeschlossenen Winkels ist.

Werden zwei Variable durch einen dahinter stehenden Faktor ausgedrückt, so heißt das, dass die beide Vektoren (Variablen) durch eine Resultante (Faktor) repräsentiert werden. Die Faktorladung ist der Korrelationskoeffizient aus dem Winkel zwischen dem Variablenvektor und dem Faktorenvektor, also die Korrelation zwischen der Variable und dem Faktor. Je kleiner diese Winkel ist, d.h. je größe die Korrelation zwischen die beiden Variablen ist, desto größer ist die Faktorladung des Faktors im Bezug auf die Variablen.

Ziel der Faktoranalyse ist es, Faktoren mit hoher Faktorladung im Bezug auf mehrere Variablen zu finden.

Ablauf:

1.Schritt: Die Variablen werden so standardisiert, dass der Mittelwert jeder Variable über alle Untersuchungspersonen 0 und Ihre Standardabweichung 1 beträgt.

2.Schritt:Ausganspunkt ist die Matrix der Korrelationskoeffizienten. Ein hoher r bedeutet einen gegenseitigen Zusammenhang diese Variable; dahinter steht ein Faktor, der für diesen Zusammenhang verantwortlich ist.

3.Schritt: Faktorenextraktion

4.Schritt:Komunalität ( h² )

5.Schritt:Faktorinterpretation

6.Schritt:Ermittlung der Faktorwerte Ziele der Faktorenanalyse:

Reduzierung der Variablenmenge:

Durch die Reduzierung umfangreicher Variablenbestände auf einige wenige, voneinander

unabhängige Dimensionen soll eine Erhöhung des Ausagewertes und der

Überschaubarkeit erzielt werden.

Die hinter den Variablen stehenden Latenten Verursachungsgründe (Faktoren), werden durch eine Analyse der Beziehungen von Variablen, die in einem engen Zusammenhang stehen, sichtbar.

Die Faktorenanalyse kann sowohl als eigenständiges Verfahren zur Anwendung gebraucht werden, als auch als ergänzendes Verfahren zu Reduktion von Variablen anderer Analyseverfahren (so zum Beispiel im Zusammenhang mit einer Regressionsanalyse zur Vermeidung der Multikollinearität).

6. Clusteranalyse

Die Clusteranalyse komprimiert die Objekte, indem sie feststellt, welche Objekte weitgehend durch gleiche Merkmalausprägung gekennzeichnet sind. Ziel ist, die Gesamtheit der Objekte entsprechend ihrer Merkmalsausprägung so in Gruppen (=Cluster) zusammenzufassen, dass die einzelnen Gruppen in sich möglichst homogen, die Unterschiede zwischen den Gruppen aber möglichst groß sind.

Beispiel:

12 Untersuchungspersonen sollen anhand der Merkmale „Einkaufsfähigkeit der Marke X“ und „Alter“ klassifiziert und gruppiert werden. Die Verteilung der Untersuchungspersonen zeigt schließlich, dass sie sich in drei voneinander abgegrenzten Gruppen zusammenfassen lassen:

Intensivkäufer - Normalkäufer - Nichtkäufer Bzw. Schwachkäufer

In der Realität müssen oft mehr als zwei Variable untersucht werden. Wir sprechen von einem vieldimensionalen Merkmalsraum.

Die Clusteranalyse geht in zwei Schritten vor:

1) Quantifizierung der Ähnlichkeit von Objekten anhand eines Poximitätsmaßes

2) Zusammenfassung der Objekte aufgrund des Proximitätsmaßes, so dass in sich homogene und nach außen heterogene Gruppen entstehen.

Ad 1. Quantifizierung der Ähnlichkeit von Objekten anhand eines Proximitätsmaßes

Da in einem vieldimensionalen Raum die Ähnlichkeit von Objekten nicht optisch erfassbar ist, werden die Ähnlichkeiten von Objekten anhand eines Proximitätsmaßes untersucht, wobei Proximitätsmaße immer auf Paarvergleich beruhen, d.h. es werden immer zwei Objekte auf ihre Ähnlichkeit untersucht,

Folgende 4 Gruppen von Proximitätsmaßen lassen sich unterscheiden:

a) Korrelationsmaße

Korrelationskoeffizienten werden (entsprechend der Methode der Faktoranalyse) als Ähnlichkeitsmaße verwendet. Dies ist methodisch äußerst umstritten.

b) Distanzmaße

Distanzmaße, wie die CITY - BLOCK - DISTANZ oder die EUKLID’SCHE DISTANZ ziehen zur Ähnlichkeitserfassung von Objekten deren Distanz im geometrischen Raum heran, wobei man zwei Objekte dann als sehr ähnlich bezeichnen kann, wenn ihre Distanz voneinander gering ist. Diese Distanzmaße setzen metrisches Messniveau voraus.

c) Ähnlichkeitskoeffizienten

Diese werden dann herangezogen, wenn nominalskalierte Daten verglichen werden müssen (Geschlecht, Familienstand, Wohnort usw.) z.B. der Tanimoto-Koeffizient.

d) Probabilistische Proximitätsmaße

Die bisherigen Proximitätmaße lassen außer acht, dass es auch zufällige Übereinstimmungen zwischen Objekten geben könnte. Probabilistische Proximitätsmaße berücksichtigen dies, indem sie mittels Wahrscheinlichkeitsrechnung die tatsächlich beobachteten Übereinstimmungen mit jenen vergleichen, die bei reinem Zufall zu erwarten wären.

Ad 2. Zusammenfassung der Objekte

a) Hierarchische Verfahren Beispiel:

SINGLE-LINKAGE-VERFAHREN

Stufe 1:

Jedes Objekt wird als Cluster aufgefasst, so dass man gleich viele Cluster wie Objekte hat.

Stufe 2:

Die beiden Objekte bzw. Cluster mit der geringsten Distanz werden zu einem neuen, aus zwei Objekten bestehenden Cluster zusammengefasst.

Stufe 3:

Der Schritt wird wiederholt. Weist jedoch ein Objekt die geringste Distanz zu einem Objekt auf, das sich schon gemeinsam mit einem anderen Objekt in einem Cluster befindet, wird es diesem Cluster zugeordnet.

Stufe 4:

Die Schritte 2 und 3 werden so lange wiederholt, bis nur mehr ein einziger Cluster übrigbleibt. Erst dann wird über die optimale Zahl der Cluster entschieden und diese eingeteilt.

b) Nicht- Hierarchische Verfahren

Ein autonom vorgegebener Schwellenwert für die Distanz steuert die Zuordnung zu einem Cluster. Es wird ein Clusterzentum gewählt und alle Objekte, deren Distanz zum Clusterzentrum unter dem Schwellenwert liegt, werden diesem Clusterzentrum zugeordnet. Für die übrigen Objekte wird wiederum ein Clusterzentrum gewählt und der Vorgang wiederholt.

Problematisch bei allen Clusterverfahren ist die Bestimmung der optimalen Zahl von Clustern.

Anwendung:

Hauptanwendung ist die Marktsegmentierung:

7. Multidimensionale Skalierung

Ziel ist, Objekte in einem mehrdimensionalen Raum so zu positionieren, dass deren Position und Entfernung mit ihrer tatsächlichen Entfernung möglichst weit übereinstimmen.

Beispiel:

Es liegt eine Tabelle vor, die die Straßenentfernungskilometer zwischen den österreichischen Landeshauptstädten in Zahlen nennt. Aufgabe der MDS wäre es nun, diese Städte in einem geometrischen Raum so abzubilden, dass diese Entfernungen mit den tatsächlichen Entfernungen möglichst gut übereinstimmen.

Das Beispiel hat metrisches Skalenniveau vorausgesetzt. Die MDS funktioniert auch mit originalskalierten Daten: Die Objekte werden so in einem n - dimensionalen Raum positionier, dass die Rangordnung der räumlichen Distanzen zwischen den Punkten möglichst genau die Rangordnung der Eingangsdaten wiedergibt.

Die MDS wird immer dann angewendet, wenn Objekte (z.B. Produktmarken) von Untersuchungspersonen auf ihre Ähnlichkeit hin beurteilt und das Ergebnis in einer geringdimensionalen Abbildung dargestellt werden soll.

Vorgang:

1) Die Untersuchungspersonen bestimmen im direkten Paarvergleich global (ohne ein bestimmtes Kriterium) die Ähnlichkeit von 2 Objekten. Bewährt: Rating- Skala

2) Erst danach werden jene Dimensionen ermittelt, die für die beurteilte Unterschiedlichkeit 8 der Objekte verantwortlich ist. So können keinerlei Eigenschaften des Objekts übersehen werden.

3) Anordnung der Objekte im geometrischen Raum, so dass ähnliche Objekte eine geringe Distanz aufweisen.

Anwendung:

Vor allem bei Marktpositionierungsanalysen. Dabei lässt sich zusätzlich zu der Positionierung der Objekte aufgrund von Ähnlichkeitsbeurteilungen auch das „Idealobjekt“ positionieren. Dabei werden die Untersuchungspersonen nicht nur nach der Ähnlichkeit der Objekte befragt, sondern sie müssen zusätzlich eine Rangfolge gemäß ihrer Bevorzugung erstellen.

Häufigste Fehlerquellen bei der Anwendung

Auswahlverfahren

Die Stichprobenauswahl darf ausschließlich auf der Basis einer Zufallsauswahl stattfinden.

Skalenniveau

Jedes multivarianten Verfahren verlangt ein bestimmtes Skalenniveau der Eingabedaten. Originalskalen sollten nicht zu Intervallskalen uminterpretiert werden

Eingesetzter Verfahrensuntertyp

Häufig werden die Verfahren nicht konkret und einzeln angewendet, sondern zahlreiche Verfahrensuntertypen. Dementsprechend gibt es auch eine Vielzahl von Lösungen. Der Hinweis, welcher Verfahrensuntertyp angewendet wurde, ist deshalb unabdingbar.

Interpretationsspielräume

Da es eine Vielzahl von Lösungen geben kann, wird häufig die am leichtesten zu interpretierende genommen und als einzig richtige präsentiert.

Literatur:

Kamenz Uwe: Marktforschung, Schäffer-Poeschel Verlag Stuttgart, 1997

Brekowen Ludwig: Marktforschung, 8. Auflage; Gabler, Wiesbaden 1999

Bruhn M.: Marketing, Grundlagen für Studium u. Praxis, 4. Auflage, Gabler Verlag 1999

9 von 9 Seiten

Details

Titel
Grundlagen multivariater Analyseverfahren und mögliche Einsatzgebiete für die wichtigste Verfahren
Hochschule
Karl-Franzens-Universität Graz
Veranstaltung
PS Marktforschung
Note
Noch nicht
Autor
Jahr
2000
Seiten
9
Katalognummer
V96948
Dateigröße
364 KB
Sprache
Deutsch
Anmerkungen
Referat im Rahmen der Lehrveranstaltung: Marktforschung
Schlagworte
Grundlagen, Analyseverfahren, Einsatzgebiete, Verfahren, Marktforschung
Arbeit zitieren
Adnan Harmandic (Autor), 2000, Grundlagen multivariater Analyseverfahren und mögliche Einsatzgebiete für die wichtigste Verfahren, München, GRIN Verlag, https://www.grin.com/document/96948

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Grundlagen multivariater Analyseverfahren und mögliche Einsatzgebiete für die wichtigste Verfahren


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden