Fallauswahl in der Qualitativen Forschung


Hausarbeit, 2011
20 Seiten, Note: 1,7

Leseprobe

Inhaltsverzeichnis

ABBILDUNGSVERZEICHNIS

ABSTRACT

1 QUANTITATIVE UND QUALITATIVE STATISTIK
1.1 QUANTITATIVE FORSCHUNG
1.2 QUALITATIVE FORSCHUNG

2 ABSICHTSVOLLE STICHPROBENZIEHUNG
2.1 SYSTEMATISIERUNG
2.2 VERFAHREN DER FALLAUSWAHL
2.2.1 AUSWAHL TYPISCHER FÄLLE
2.2.2 AUSWAHL VON EXTREMFÄLLEN
2.2.3 AUSWAHL KONTRASTIERENDER FÄLLE
2.2.4 SCHNEEBALLVERFAHREN
2.2.5 QUALITATIVE STICHPROBENPLÄNE
2.2.6 KRITERIENORIENTIERTE FALLAUSWAHL
2.3 GÜTEKRITERIEN

3 AUSBLICK

LITERATURVERZEICHNIS

Abbildungsverzeichnis

Abbildung 1: Das 1-Reaktor Atomkraftwerk im Kanton Bern liegt direkt an einem Radweg (Quelle: Eigenes Bild)

Abbildung 2: Schematische Darstellung vom Allgemeinem (A) im Individuellen (I)

Abbildung 3: Systematisierungsübersicht der Absichtsvollen Stichprobenziehung

Abbildung 4: Stichprobenplan für die Stakeholdergruppe Erkrankte Bevölkerung aus einer Untersuchung von Schreier et al. aus dem Jahre 2008 (2010)

Abstract

In der Qualitativen Forschung werden einige wenige Fälle im Detail zum Testen oder Generieren von Hypothesen betrachtet. Im Gegensatz zur Quantitativen Forschung muss, bedingt durch die geringe Fallzahl, darauf geachtet werden, dass die Fälle, welche in die Untersuchung eingeschlossen werden, besonders informationshaltig sind. Um dies zu gewährleisten, gibt es mehrere Methoden, die Fälle bewusst auszuwählen. Die hier vorliegende Hausarbeit beschäftigt sich mit einigen ausgewählten, für die Marktforschung relevanten, Methoden der sogenannten absichtsvollen Fallauswahl. Ebenso thematisiert werden die damit verbundenen Schwierigkeiten der von der Quantitativen Forschung geprägten Gütekriterien.

1 Quantitative und Qualitative Statistik

In seinem Buch Die Frau und der Sozialismus aus dem Jahre 1879 visionierte August Bebel (Wikiquote, o.J.)DZ „Die Statistik ist die wichtigste Hilfswissenschaft in der neu- en Gesellschaft, sie liefert das Maß für alle gesellschaftliche Tätigkeit." Nach nun- mehr dreizehn Dekaden ist Bebel‘s Vision aktueller denn jeDZ Statistiken und Wahr- scheinlichkeiten, in ihrer Fülle an Erscheinungsformen, sind aus dem Leben nicht mehr wegzudenken. Dabei geht es längst nicht mehr nur um Daten, welche den Staat betreffen, wie die lateinische (statisticum = den Staat betreffend) und italienische (statista = Staatsmann, Politiker) Wortherkunft nahelegt (Wikipedia, o.J.).

Die jüngsten Ereignisse in Japan beispielsweise wären bedeutend verheeren- der ausgefallen, wenn sich die Statistik, seit ihrer uns heute bekannten Entstehung vor ca. 5.800 Jahren (Wikipedia, o.J.), nicht weiterentwickelt hätte. Sowohl Tsunami- (Focus Online, 2011), als auch Erdbebenfrühwarnsysteme (3sat, 2011) arbeiten mit von Sonden aufgezeichnete Daten, die permanent überwacht und analysiert werden. Überschreiten die Messdaten einen vorgegebenen Wert, welcher durch statistische Analysen ermittelt wurde1, werden halb- und vollautomatisch Maßnahmen eingelei- tet, die größere Katastrophen verhindern oder zumindest eindämmen können. So wurden zum Beispiel sämtliche Atomkraftwerke der Katastrophenregion Fukushima binnen weniger Sekunden abgeschaltet, akustischer sowie visueller Alarm ausgelöst und weitere Notfallmaßnahmen eingeleitet (Focus Online, 2011). Eine weitere An- ordnung war das Verteilen von Jod-Tabletten an die Betroffenen, um die Wahrscheinlichkeit von Strahlenschäden zu mindern (Umweltinstitut München e.V., o.J.). In den Schweizer Atomge- genden (siehe Abbildung 1) be- kommt man diese Tabletten sogar vorsorglich mit einem Willkom- menspaket von den jeweiligen Kantonen zugeschickt, sobald man sich dort als Anwohner registriert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Das 1-Reaktor Atomkraftwerk im Kanton Bern liegt direkt an einem Radweg (Quelle: Eigenes Bild).

Medizinische Langzeitstudien, die sich die Statistik im vollen Umfang zu Nut- ze machten, haben zum einen gezeigt, dass die Vergabe von Jod unmittelbar vor oder nach der Exposition erfolgen muss, um hinreichend Wirkung zeigen zu können und zum anderen, dass die Vergabe keine Wirkung auf andere durch radioaktive Strah- lung beeinflusste Bereiche außer der Jod-absorbierenden Schilddrüse hat (Umweltinstitut München e.V., o.J.). Auch wenn diese „schlechte Nachrichte“ nicht als direkter Erfolg bezeichnet werden kann, so hat die nachgewiesene eingeschränkte Wirkung von Jod-Tabletten zumindest die Folge, dass man genau weiß, dass man weiter nach Medikamenten forschen muss. Diese werden dann nicht leichtsinnig an Menschen verteilt, sondern im Vorfeld in klinischen Studien ausgiebig auf ihre Wirk- samkeit und Sicherheit hin getestet (Schumacher & Schulgen/Kristiansen, 2009).

Nicht nur Medikamente oder Therapieformen werden geprüft, bevor sie zum Endverbraucher gelangen, sondern auch ganz alltägliche Dinge wie Deodorants. Die Firma Unilever zum Beispiel überlässt bei ihrer Kosmetikmarke AXE nichts dem Zu- fall - sondern der Analyse von Daten (Scharf, Schubert & Hehn, 2009): Nachdem Duftdesigner einen möglicherweise relevanten Duft kreiert haben, wird erst einmal getestet, ob er zum Leitgedanken AXE ist und macht sexy (Unilever, o.J.) passt und von den Endkunden angenommen wird. Ferner wird eine Marktanalyse durchge- führt, wie viel Gewinn durch die neue Sorte erwirtschaftet werden kann. Dabei wird mittels differenzierter Betrachtung unterschieden, ob die Käufer von der Konkurrenz oder von anderen AXE-Sorten zu dem neuen Produkt wechseln. Selbst bei der Kon- zeption des Werbespots wird darauf geachtet, dass es zum einen zur Marke passt und zum anderen den zukünftigen Käufern gefällt. Nachdem es der neue Duft auf den Markt geschafft hat, er also alles vorangestellten Tests erfolgreich durchlaufen hat, überwacht und analysiert Unilever die Verkaufskennzahlen. Anhand derer wer- den Zusatzmaßnahmen für die Bewerbung geplant oder es wird im schlimmsten Fal- le entschieden, dass das Produkt vom Markt genommen werden muss (Scharf et al., 2009).

1.1 Quantitative Forschung

Bei einem derart breiten Anwendungsspektrum, wie es die Statistik bietet (vgl. Abschnitt 1) und mit allen daraus resultierenden Konsequenzen, ist es verständlich, dass die Ergebnisse, die sie liefert, möglichst exakt sein sollen. Man stelle sich nur einmal vor, dass aufgrund falscher Zahlen entschieden wird, dass die Bundesregierung die Bundeswehr in ein Krisengebiet schickt, obwohl es besser wäre, wenn sie anders entscheidet. Denn auch bei derartigen Bestimmungen spielen Statistiken eine Rolle: Von schlichten Zählungen oder Schätzungen, z.B. der Truppenstärken, bis hin zu komplizierten Wahrscheinlichkeitsrechnungen, die gemacht werden, um Verlaufsszenarien zu erstellen (Fink & Siebe, 2006).

Vereinfacht ausgedrückt bedeutet exakt (s.o.) im statistischen Sinn, dass egal wer (Objektivität) und egal wie oft (Reliabilität) eine Untersuchung gemacht wird und Statistiken erstellt werden, die Daten und Ergebnisse möglichst gleich bleiben. Über- dies hinaus sollte sichergestellt sein, dass man auch das misst, was man messen möchte und nicht versehentlich etwas anderes (Validität). Um diesen sogenannten Gütekriterien gerecht zu werden, setzt man zur Erhebung, bei der Aufbereitung so- wie der Auswertung weitestgehend standardisierte, also einheitliche oder vereinheit- lichte, Methoden ein (Bortz & Döring, 2006). Im einfachsten Fall bedeutet das, dass jeder Befragte dieselben Fragen gestellt bekommt und auch dieselben Antwortmög- lichkeiten zur Verfügung hat. Diese Vorgehensweise hat den großen Vorteil, dass man die so gewonnenen Daten unter- und miteinander vergleichen kann. Es lassen sich einfache Aussagen treffen wieDZ „25% der Anwohner aus der Evakuierungszone um das Kernkraftwerk Fukushima 1 kehren, trotz eindringlicher Warnungen der Re- gierung, wieder in ihre Dörfer zurück.“ Wenn darüber hinaus noch sozio- demographische Variablen abgefragt werden, kann man ohne weiteres die besagten Anwohner näher beschreiben. Ebenso gut ist es möglich, dass man Zusammenhänge zwischen verschiedenen Variablen herstellen kann: „Es sieht so aus, dass es einen statistisch bedeutsamen (signifikanten) Zusammenhang zwischen dem Alter der Dorfbewohner und ihrer Entscheidung zurückzukehren, gibt“ (Beispiele in Anlehnung an Spiegel Online, 2011). Dieser Zusammenhang ließe sich dann ebenso numerisch darstellen, wie das Mindest- oder Durchschnittsalter der Rückkehrer.

Die Möglichkeit der numerischen Darstellung z.B. in Tabellen, Diagrammen und Kennzahlen, ist eine der zwei Prämissen (Fröhlich, 2008, S. 398), welche erfüllt sein müssen, um sagen zu können, dass es sich um Quantität, beziehungsweise quantitative Daten handelt. Gleichzeitig müssen die erhobenen Daten unmittelbar Auskunft über „[…Ǿ Eigenschaften der Größe bzw. Intensität, deren Ausprägungs- grad bei einem bestimmten Gegenstand oder Sachverhalt meßbar […Ǿ ist.“ geben. Sind darüber hinaus bestimmte Voraussetzungen erfüllt, kann man die gewonnen Erkenntnisse auf die betreffende Grundgesamtheit, also die „Gesamtheit aller denk- möglichen Merkmalsträger, aus der [dieǾ Stichprobe gezogen [wurdeǾ“ (Fröhlich, 2008, S. 374), verallgemeinern. Die eingangs erwähnten klinischen Studien über Jod beziehen sich zum Beispiel auf die Grundgesamt „alle Menschen“, da die Wir- kungsweise bei allen Menschen gleichermaßen abläuft und dieselben Auswirkungen hat. Wohingegen bei einer Studie zur Behandlung von akuten Herzinfarkten die Grundgesamtheit „Menschen mit einem Herzinfarkt“ sind, da sie nur bei diesen Pa- tienten wie gewollt anschlägt (Schumacher & Schulgen/Kristiansen, 2009). Verallge- meinerung kann als primäres Ziel quantitativer Forschung jeglicher Fachrichtungen angesehen werden. Dabei ist es unerheblich, ob Hypothesen, also Vermutungen da- rüber was und wie etwas passiert, wenn die Erklärung (= Theorie) eines Forschungsgegenstandes richtig hergeleitet ist, erst durch die Forschungsarbeit generiert oder eine vorher aufgestellte überprüft werden (Bortz & Döring, 2006).

1.2 Qualitative Forschung

Im Gegensatz zur Quantitativen Forschung (vgl. Abschnitt 1.1), hat man bei qualita- tiven Forschungen zumeist kein großes Interesse an der Verteilung von Merkmalen und Merkmalsausprägungen in einer Grundgesamtheit (Schreier, 2010). Die Zielset- zung besteht vielmehr darin, eine detaillierte und in die Tiefe gehende Analyse der ausgewählten Fälle vorzunehmen. Durch umfangreiche Längs- und Querschnittstu- dien konnte vor einigen Jahren eine neue Konsumentengruppe identifiziert werden, welche seit 2000 unter dem Begriff LOHAS (Kurzform für: Lifestyle of Health and Sustainability) zunehmend an Bekanntheit und Einfluss gewinnt (Glöckner, Balderjahn & Peyer, 2010). Doch wer sich hinter den geschätzten 30% (Scharf et al., 2009) der Konsumenten und Schlagworten wie „faire Gesellschaft“, „Körper, Geist und Seele im Einklang“ und „Authentizität, Ehrlichkeit und Natürlichkeit“ verbirgt und wieso solche Aspekte einen höheren Stellenwert in der Entscheidungskette ha- ben, als beispielsweise ein objektiver Kosten-Nutzen-Vergleich, können die überwie- gend quantitativen Studien nicht und wenn nur durch Schlussfolgerungen erklären. Hier bietet es sich an mit qualitativen Methoden, wie zum Beispiel halb- oder nicht- standardisierten Interviews oder Gruppendiskussionen, die Betroffenen direkt zu befragen, um situativ reagieren und nachhaken zu können (Mey & Mruck, 2010). Ei- ne solche flexible Vorgehensweise ist besonders geeignet, wenn der Forschungsgen- stand neu ist oder wenn man Hypothesen generieren möchte (Schreier, 2010).

Wie man sich leicht vorstellen kann, erhält man durch die tiefergehende De- tailerhebung eine Flut an Daten, welche trotzt modernster Technik nur mit erhebli- chem Aufwand ausgewertet werden können. Folglich ist es nicht ohne weiteres mög- lich, eine größere Anzahl an Untersuchungsobjekten abzuhandeln - wohingegen die Quantitative Forschung von großen Fallzahlen lebt (Bortz & Döring, 2006). Dennoch möchte man, gemäß dem Sinn der Forschung als solcher, die gewonnenen Erkennt- nisse verallgemeinern können. Dies ist möglich, wenn man die Überlegung, dass das Allgemeine im Individuellen angelegt ist, einbezieht (Schreier, 2010). Dieser Gedanke existiert in zwei Variationen (Bourne & Ekstrand, 2005; Schreier, 2010): Zum einen kann man durch Vergleiche das Allgemeine vom Individuellen trennen, wobei das Allgemeine für die Schnittmenge A und das Individuelle für die Symmetrische Diffe- renz I steht, wie Abbildung 2 schematisch zeigt. Zum anderen kann die Grundge- samtheit so homogen sein, dass eine geringe Fallzahl bereits ausreicht, um diese mit großer Wahrscheinlichkeit treffend zu beschrei-ben – immerhin wirft man auch nur eine Nudel an die Wand, um zu entscheiden, dass alle im Topf gar sind.

[...]


1 In der hier vorliegenden Hausarbeit wurde aufgrund der Seitenzahlenbeschränkung wissentlich darauf verzich- tet, Analysemethoden oder Klassifizierungen (sofern nicht notwendig) der Statistik zu erläutern. Eine gute Ein- führung bietet: Fahrmeier et. al. (2007). Statistik: Der Weg zur Datenanalyse (6. Auflage). Berlin, Heidelberg: Sprin- ger-Verlag.

Ende der Leseprobe aus 20 Seiten

Details

Titel
Fallauswahl in der Qualitativen Forschung
Hochschule
Hochschule Harz - Hochschule für angewandte Wissenschaften (FH)
Veranstaltung
Werbe- und Konsumentenpsychologie
Note
1,7
Autor
Jahr
2011
Seiten
20
Katalognummer
V187053
ISBN (eBook)
9783656105350
Dateigröße
1108 KB
Sprache
Deutsch
Anmerkungen
Schlagworte
Qualitative Fallauswahl, Fallauswahl, Methoden, Psychologie, Forschung, Qualitative Forschung, Absichtsvolle Fallauswahl
Arbeit zitieren
B. Sc. Sarah Anna Busch (Autor), 2011, Fallauswahl in der Qualitativen Forschung, München, GRIN Verlag, https://www.grin.com/document/187053

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Fallauswahl in der Qualitativen Forschung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden