Wahrnehmung akustischer Bewegungen und visueller Positionen - ein Fall audiovisueller Integration?


Diplomarbeit, 2006

97 Seiten, Note: sehr gut


Leseprobe


Inhaltsverzeichnis:

1. Zusammenfassung

2. Die Wahrnehmung – eine multisensorische Aufgabe
2.1. Cross– modale Wahrnehmungsphänomene
2.1.1. Ausgewählte experimentelle Befunde zum Einfluss der visuellen
Modalität auf die auditive Wahrnehmung
2.1.2. Befunde zum Einfluss der auditiven Modalität
auf die visuelle Wahrnehmung
2.1.3. Neuronale Befunde zu cross-modalen Interaktionen
2.1.4. Integration multimodaler Ereignisse – Erklärungsansätze
2.2. Nacheffekte
2.2.1. Visuelle Bewegungsnacheffekte (vMAE)
2.2.2. Auditive Bewegungsnacheffekte (aMAE)
2.2.3. Auditive Positionsnacheffekte (aDAE)
2.2.4. Visuelle Positionsnacheffekte (vDAE)
2.3. Aufgabenstellung dieser Arbeit

3. Generelle Methodik
3.1. Methode
3.1.1. Personen
3.1.2. Versuchsaufbau
3.1.2.1. Apparatur
3.1.2.2. Stimuli
3.1.2.3. Durchführung
3.2. Datenauswertung und Statistik
3.2.1. Datenreduktion
3.2.2. Inferenzstatistik

4. Experiment 1
4.1. Methode
4.1.1. Personen
4.1.2. Versuchsaufbau
4.1.2.1. Stimuli
4.1.2.2. Design
4.1.2.3. Durchführung
4.2. Datenauswertung und Statistik
4.3. Ergebnisse
4.3.1. Allgemein
4.3.2. LED-Positionen
4.4. Diskussion

5. Experiment 2a
5.1. Methode
5.1.1. Personen
5.1.2. Versuchsaufbau
5.1.2.1. Apparatur
5.1.2.2. Stimuli
5.1.2.3. Design
5.1.2.4. Durchführung
5.1.3. Datenauswertung und Statistik
5.1.3.1. Allgemein
5.1.3.2. LED-Positionen
5.1.3.3. Blickbewegungsdaten
5.2. Ergebnisse
5.2.1. Allgemein
5.2.2. Augenbewegungsdaten
5.2.3. LED-Positionen
5.3. Diskussion

6. Experiment 2b
6.1. Methode
6.1.1. Personen
6.1.2. Versuchsaufbau
6.1.2.1. Apparatur
6.1.2.2. Stimuli
6.1.2.3. Design
6.1.2.4. Durchführung
6.1.3. Datenauswertung und Statistik
6.1.3.1. Datenreduktion unter der Bedingung Urteil
6.1.3.2. Allgemein
6.1.3.3. LED-Positionen
6.2. Ergebnisse
6.2.1. Allgemein
6.2.2. LED-Positionen
6.3. Diskussion

7. Experiment 3
7.1. Methode
7.1.1. Personen
7.1.2. Versuchsaufbau
7.1.2.1. Design
7.1.2.2. Durchführung
7.1.3. Datenauswertung und Statistik
7.1.3.1. Allgemein
7.1.3.2. LED-Positionen
7.2. Ergebnisse
7.2.1. Allgemein
7.2.2. Augenbewegungsdaten
7.2.3. LED-Positionen
7.3. Diskussion

8. Gesamtdiskussion
8.1. Experiment 1
8.2. Experiment 2a
8.3. Experiment 2 b
8.4. Experiment 3

9. Zusammenfassung und Ausblick

10. Bibliographie

11. Anhang

Abbildungsverzeichnis:

Abbildung 1: Darstellung der gegenseitigen Einflüsse bei allen möglichen Paarungen der untersuchten Modalitäten (aus Soto-Faraco et al., 2004)

Abbildung 2: Definition des Bewegungs- und des Positionsnacheffektes.

Abbildung 3: Zeitliche und inhaltliche Struktur der Experimente dieser Arbeit

Abbildung 4: Schematische Darstellung der Experimentalanordnung

Abbildung 5: Zeitverlauf der einzelnen Versuchstrials im Experiment 1

Abbildung 6: Normierte Positionsverschiebung der visuellen Stimuli in Abhängigkeit der Bewegungsrichtung

Abbildung 7: Normierte Positionsverschiebung der visuellen Stimuli in Abhängigkeit der Bewegungsrichtung und des Gesichtsfeldes

Abbildung 8: Schematische Darstellung der Ergebnisse der Experimente von Bock (1986) und Henriques et al. (1998) übertragen auf die vorliegende Untersuchung

Abbildung 9: Zeitverlauf der einzelnen Versuchstrials in Experiment 2 a

Abbildung 10: Blickbewegungsdaten in Abhängigkeit der Bedingungen bew und lok

Abbildung 11: Normierte Positionsverschiebung der visuellen Stimuli in Abhängigkeit der Augenbewegungsbedingungen

Abbildung 12: Normierte Positionsverschiebung der visuellen Stimuli in Abhängigkeit der Augenbewegungen und der Richtung der akustischen Bewegung

Abbildung 13: Beispiel für die Blickbewegungen in der Experimentalbedingung im Vergleich zur Kontrollbedingung

Abbildung 14: Zeitverlauf der einzelnen Versuchstrials im Experiment 2 b

Abbildung 15: Normierte Positionsverschiebung der visuellen Stimuli in Abhängigkeit des Erhebungsinstrumentes

Abbildung 16: Schematische Darstellung der nach Hypothese 1 zu erwartenden Fehler in Bedingung lok

Abbildung 17: Blickbewegungsdaten in Abhängigkeit der Bedingungen lok und fix

Abbildung 18: Werte der normierten Positionsverschiebung in lok getrennt für die Position im Gesichtsfeld

Abbildung 19: Werte der normierten Positionsverschiebung in fix getrennt für die Reihenfolge der Darbietung

1. Zusammenfassung

In der vorliegenden Diplomarbeit wurde untersucht, ob die Wahrnehmung visueller Positionen durch adaptive Prozesse, die von einer akustischen Bewegung hervorgerufen wurden, verändert wird. Entsprechend den Ergebnissen anderer Studien wurde erwartet, dass die visuellen Stimuli entgegen der Richtung der akustischen Bewegung – in der Literatur als displacement aftereffect (DAE) bezeichnet – verschoben erscheinen würden.

Zu diesem Zweck wurden vier Experimente durchgeführt, die in der akustischen Kammer der Ruhr-Universität Bochum stattfanden. Dort wurden den Versuchspersonen in Dunkelheit akustische Bewegungen dargeboten, die durch eine Reihe halbkreisförmig angeordneter Lautsprecher produziert wurden. Anschließend lokalisierten die ProbandInnen die Positionen der visuellen Stimuli mittels eines manuellen Handzeigers.

Nachdem im ersten Experiment, wie erwartet, eine Positionsverschiebung der visuellen Stimuli entgegen der Richtung der akustischen Bewegung aufgetreten war, beschäftigten sich die folgenden Untersuchungen mit den Auswirkungen von Augenbewegungen vor und während der Lokalisation der visuellen Stimuli, von der Geschwindigkeit der akustischen Adaptationsbewegung und der Art der Lokalisation auf den DAE.

Als Ergebnis ließ sich festhalten, dass vor allem die Augenbewegungen vor und während der Positionsbestimmung der visuellen Stimuli eine entscheidende Rolle spielten. Sie schienen zu systematischen Fehlern zu führen, die einen zweifelsfreien Nachweis des auditiv-visuellen DAE´s verhinderten. Erst wenn jegliche Augenbewegungen unterbunden wurden, zeigte sich eine deutliche Positionsverschiebung, die stärker auftrat, wenn die Versuchspersonen bereits eine längere Zeit in der akustischen Kammer verbracht bzw. visuelle Stimuli lokalisiert hatten. Dies lässt darauf schließen, dass zusätzlich Übung oder Ermüdung die Größe des DAE ´ s erhöhen.

Darüber hinaus wurden Hinweise auf eine Geschwindigkeits- und Richtungsab-hängigkeit des DAE´s gefunden. Es zeigten sich aber keine Unterschiede zwischen der Erhebung des DAE´s mit Hilfe des manuellen Handzeigers und eines per Antwortbox erhobenen Alternativurteils.

Es lässt sich festhalten, dass die Entstehung des auditiv-visuellen DAE´s eine hohe Komplexität aufweist. Hierbei spielen nicht nur die Adaptation beeinflussende Faktoren eine Rolle, sondern auch Aspekte der cross-modalen Integration. Deshalb werden abschließend verschiedene Restriktionen für die Erhebung des DAE´s diskutiert.

2. Die Wahrnehmung – eine multisensorische Aufgabe

Die Wahrnehmung der Umwelt durch Lebewesen erfolgt mit allen vorhandenen Sinnen: visuell, auditiv, somatosensorisch, olfaktorisch und gustatorisch. Die meisten Eindrücke werden nicht durch einen Sinn allein erfasst, sondern entstehen durch eine Kombination der verschiedenen sensorischen Eingänge. Die Integration der verschiedenen Informationen bietet jeder Spezies in ihrem speziellen Lebensraum und dessen Anforderungen einen Überlebensvorteil. Die Informationsdichte wird erhöht, wodurch sich eine bessere Anpassungsfähigkeit und eine höhere Wahrscheinlichkeit für das Überleben ergeben sollten. Eine multimodale Informationsaufnahme und -verarbeitung verringert die Einschränkungen der Wahrnehmung durch äußere Umstände, so kann z.B. der Hörsinn bei Dunkelheit den eingeschränkten Sehsinn unterstützen oder gar ersetzen. Das Wissen über die Multimodalität der Wahrnehmung wurde allerdings über einen langen Zeitraum zugunsten einer unisensorisch orientierten Forschung vernachlässigt, die die grundlegende Funktionsweise einzelner Sinne zum Gegenstand hatte. Dadurch wurden zwar wesentliche Befunde zum Verständnis der Verarbeitung der einzelnen sensorischen Informationen beigetragen, allerdings kann es trotz dieser unimodalen Interpretation als wahrscheinlich angesehen werden, dass in derartigen Untersuchungen auch andere Modalitäten eine Rolle gespielt oder die Ergebnisse beeinflusst haben.

Inzwischen wurde aufgrund verschiedenster Befunde, die eine Beeinflussung zwischen den Modalitäten widerspiegeln, das Interesse an der cross-modalen Wahrnehmung geweckt. Die Existenz von Beeinflussungen zwischen Sehen und Hören aber auch Fühlen, Geruch und Geschmack sind heute nicht mehr umstritten, sondern Gegenstand vielfältiger Forschungsbemühungen. Stein & Meredith (1993) fassen diese Erkenntnis in ihrem Buch "Merging of the senses" folgendermaßen zusammen:

"In fact, we know of no animal with a nervous system in which the different sensory representations are organized so that they maintain exclusivity from one another" (Stein & Meredith, 1993, p. xii).

Die Forschung der letzten Jahre förderte vielfältige Befunde zur gemeinsamen Verarbeitung verschiedener sensorischer Informationen sowohl auf neuronaler Ebene als auch in der Psychophysik und für diverse Spezies zutage. Im Bereich der experimentellen Psychologie sind dabei vor allem Untersuchungen angesiedelt, deren Forschungsgegenstand die kortikale Integration und Gewichtung verschiedener sensorischer Eingänge ist. Bis dato konnte diese Fragestellung aber noch nicht befriedigend geklärt werden.

Für die Raumwahrnehmung, die im Mittelpunkt dieser Arbeit steht, sind vor allem die visuelle und die akustische Modalität von entscheidender Bedeutung. Die traditionell gewachsene Meinung bezüglich der menschlichen Raumwahrnehmung ist, dass das Sehen das Hören dominiert. Dieser Umstand prägte die Bemühungen der letzten Jahre in diesem Forschungszweig, wodurch viele Untersuchungen lediglich den Einfluss des Sehens auf die akustische Wahrnehmung zum Gegenstand hatten. Demgegenüber strebt diese Arbeit an, einen Aspekt der Beeinflussung der visuellen Wahrnehmung durch akustische Ereignisse zu untersuchen.

2.1. Cross-modale Wahrnehmungsphänomene

Dieser Teil der Arbeit bezieht sich auf Untersuchungen zur integrativen Wahrnehmung von Stimuli der akustischen und visuellen Modalität, genauer gesagt, inwiefern sich die Wahrnehmung eines Stimulus der einen Modalität durch einen Konkurrenzstimulus der anderen Modalität verändert.

Das Auftreten von Objekten und Situationen wird von verschiedenen sensorischen Informationen begleitet. Ein Beispiel dafür ist die menschliche Sprachwahrnehmung zu der psychoakustische Studien zeigen, dass sich zum Verstehen der gesprochenen Sprache nicht nur des akustischen Signals, sondern auch der Bewegungen der Lippen bedient wird (Sumby & Pollack, 1954). Dies hilft vor allem bei schwierigen Hörverhältnissen, z.B. bei einem ungünstigen Signal-Rausch-Abstand die eingeschränkte auditive Information durch die visuelle zu unterstützen und zu ergänzen. Der Vorteil der multimodalen Interaktion liegt hierbei auf der Hand: die Modalitäten besitzen unterschiedliche Stärken, wodurch ein einheit-liches und sicheres Perzept gebildet werden kann, wenn die Uneindeutigkeit einer Situation durch die Zusammenführung der unterschiedlichen sensorischen Eingänge reduziert wird.

Andererseits kann diese Integration zu Missinterpretationen führen, nämlich dann, wenn den Wahrnehmungskanälen unterschiedliche Informationen zur Verfügung gestellt werden. Ein sehr beeindruckendes Beispiel dafür ist der McGurk-Effekt, bei welchem ProbandInnen akustisch ein /ba/ vorgespielt wird, die Lippenbewegungen jedoch einem /ga/ entsprechen. Die meisten ProbandInnen geben danach an, dass sie etwas gehört haben, was ungefähr einem /da/ entspricht (McGurk & McDonald, 1976).

Der „Bauchredner“- oder „Ventriloquismus-Effekt“ ist exemplarisch für eine andere Art der Zusammenführung verschiedener Raumwahrnehmungen. Hierbei wird die Quelle der auditiven Modalität, d.h. der Mund des Bauchredners, dem Ort der visuellen, d.h. dem Mund der Handpuppe, angepasst. Dieser Effekt ist nur ein Beispiel dafür, dass die Sinne nicht in allen Belangen der Wahrnehmung gleichberechtigte Informationen liefern, die sich gegenseitig ergänzen, sondern auch die Möglichkeit einer hierarchischen Zusammenführung besteht, in der vorrangig eine Modalität den Gesamteindruck bestimmt.

2.1.1. Ausgewählte experimentelle Befunde zum Einfluss der visuellen Modalität auf die auditive Wahrnehmung

In ihrer Untersuchung von 1981 erhoben Bertelson und Radeau den so genannten „cross-modal bias“. Die Aufgabe der Versuchspersonen bestand darin, die Position eines Stimulus´, dem so genannten Zielreiz, während der Darbietung eines zweiten, dem Konkurrenzreiz, zu bestimmen. Der „cross-modal bias“ ergibt sich aus der Differenz zwischen wahrgenommener und wahrer Position des Zielstimulus´. Zusätzlich gaben die ProbandInnen ein Urteil darüber ab, ob Konkurrenz- und Zielreiz einen gemeinsamen Ursprungsort hatten oder nicht. Als Ergebnis ließ sich festhalten, dass die Position eines akustischen Stimulus in Richtung des gleichzeitig präsentierten visuellen Stimulus verschoben erschien, selbst wenn die ProbandInnen erkannten, dass sich die Reize an unterschiedlichen Positionen befanden.

Prinzipiell kann der „Ventriloquismus-Effekt“ als ebensolche Interaktion statischer Stimuli betrachtet werden, hat aber wie auch der McGurk-Effekt eine starke kognitive Komponente, da sich die oben beschriebenen Beispiele auf die menschliche Sprachwahrnehmung beziehen. Inzwischen haben sich aber auch grundlagenorientierte Experimentalanordnungen entwickelt, die mit einfachen Stimuli wie abstrakten Lichtreizen und Tönen arbeiten. Dabei zeigt sich immer wieder beeindruckend die Dominanz des visuellen Ereignisses (für einen Überblick: Vroomen & de Gelder, 2004; Woods & Recanzone, 2004) bei der Bestimmung der Position eines auditiven Stimulus. Darüber hinaus deuten die Ergebnisse von
Recanzone (1998) und Frissen, Vroomen, de Gelder und Bertelson (2003) darauf hin, dass dieser Effekt nicht nur bei gleichzeitig präsentierten Stimuli auftritt, sondern sich ebenso in einem Adaptationsphänomen äußert, dem „Ventriloquismus-Nacheffekt“.

Für ein tieferes Verständnis cross-modaler Effekte wurden die speziellen Bedingungen für die Wahrnehmung eines gemeinsamen bzw. unterschiedlicher Ereignisse untersucht. Beispielsweise berichteten Soto-Faraco, Spence, Lloyd und Kingstone (2004), dass die Beeinflussung der Modalitäten untereinander besonders stark war, wenn sie eine räumliche Koinzidenz aufwiesen. Sie präsentierten ihren Versuchspersonen auditive und visuelle Bewegungen in gleicher oder entgegen gesetzter Richtung. Die Aufgabe der ProbandInnen war es, die wahrgenommene Richtung der auditiven Bewegungen anzugeben. Solange beide Modalitäten die gleiche Richtung angaben oder an unterschiedlichen Stellen auftraten, bewältigten die ProbandInnen diese Aufgabe korrekt. Hatten auditive und visuelle Bewegung entgegen gesetzte Richtungen und traten räumlich gemeinsam auf, gaben die ProbandInnen gehäuft an, beide würden sich in Richtung der visuellen Modalität bewegen. In einer weiteren Studie von Soto-Faraco, Kingstone und Spence (2003, zitiert nach Soto-Faraco et al., 2004) wurden dynamische visuelle, auditive und somatosensorische Reize in allen möglichen Kombinationen als Ziel- und Konkurrenzstimulus gepaart. Die ProbandInnen hatten die Aufgabe, die Richtung der Ziel- unter dem Einfluss der jeweils Konkurrenzmodalität anzugeben. Die Autoren errechneten daraus einen Kongruenz-Effekt, der das Verhältnis der richtigen Antworten unter der kongruenten Bedingung (Ziel- und Konkurrenzstimulus bewegen sich in dieselbe Richtung) abzüglich des Verhältnisses der richtigen Antworten unter der inkongruenten Bedingung (Ziel- und Konkurrenzstimulus bewegen sich in entgegen gesetzter Richtung) darstellt. Dabei zeigte sich ein starker Effekt der visuellen Modalität sowohl auf die auditive als auch auf die somatosensorische Modalität
(Soto-Faraco et al., 2004, siehe Abb. 1).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Darstellung der erhobenen Einflüsse in der Inkongruenzbedingung zwischen den untersuchten Modalitäten (aus Soto-Faraco et al., 2004). Capture bezieht sich dabei auf die Stärke (in %) der Beeinflussung des Urteils über die Richtung der Bewegung einer Modalität bei entgegen gesetzten Richtungs-informationen der zweiten Modalität.

Die erreichten 46% Einfluss (capture) der visuellen auf die auditive Modalität, bedeuten, dass in 46% der Urteile über die Richtung der akustischen Bewegung in der inkongruenten Bedingung die Richtung angegeben wurde, die der Richtung der visuellen Modalität entsprach. Andererseits wurde in mehr als der Hälfte der Entscheidungen, die Richtung der akustischen Bewegung trotz konkurrierender Information aus der visuellen Modalität richtig angegeben.

Mateeff, Hohnsbein und Noack (1985) zeigten in ihrer Studie, dass eine Geräuschquelle von einer gleichzeitig präsentierten visuellen Bewegung „mitgerissen“ wird. Dieser Effekt wurde von den Autoren als „dynamic visual capture“ bezeichnet. Dies erfolgte in Anlehnung an den von Hay et al. (1965, zitiert nach Woods & Recanzone, 2004) eingeführten Begriff des „visual capture“ für die Dominanz der visuellen Information über die anderen sensorischen Eingänge. Ein weiteres Ergebnis dieser Untersuchung war, dass der Effekt unabhängig davon auftrat, ob die Bewegung mit den Augen verfolgt wurde oder nicht.

Einen anderen Aspekt der Beeinflussung der auditiven durch die visuelle Modalität zeigten Ehrenstein und Reinhardt-Rutland (1996). Sie setzten ihre Versuchspersonen für 150 Sekunden einer visuellen Bewegung aus und ließen sie anschließend eine statische Geräuschquelle mit einem Handzeiger lokalisieren. Im Ergebnis konnten sie nachweisen, dass der Lautsprecher in der Wahrnehmung der ProbandInnen um etwa 2° entgegen der visuellen Bewegung verschoben erschien.

Zusammenfassend lässt sich sagen, dass nachgewiesenermaßen die visuelle Modalität die auditive Wahrnehmung innerhalb verschiedenster Versuchsanordnungen beeinflussen konnte.

2.1.2. Befunde zum Einfluss der auditiven Modalität auf die visuelle Wahrnehmung

Bertelson und Radeau (1981) untersuchten in der bereits oben beschriebenen Studie ebenfalls den Einfluss des auditiven Stimulus´ auf die Wahrnehmung der Position eines visuellen Reizes. In dieser Kombination zeigten sich sehr widersprüchliche Resultate: in einem Vorversuch konnte nachgewiesen werden, dass die visuelle Position in Richtung der akustischen verschoben erschien. Dieser Effekt fand sich allerdings im Hauptversuch nicht mehr. Ebenso konnten Soto-Faraco et al. (2004) in ihrem zuvor beschriebenen Versuch keinen Einfluss der akustischen Bewegung auf die Wahrnehmung der visuellen nachweisen.

Andere Studien hingegen produzierten eindeutige Ergebnisse. Ein besonders beeindruckendes Beispiel hierfür ist der „sound-induced illusory flash“ (Shams, Kamitani &
Shimojo 2002). Bei diesem Effekt verändert sich die Wahrnehmung eines einfachen Lichtblitzes lediglich durch das gleichzeitige Darbieten mehrerer akustischer Pieptöne in die Wahrnehmung eines multiplen Lichtblitzes. In dem hier vorgestellten Versuch blieb dieser Eindruck sogar dann erhalten, wenn die ProbandInnen über den Effekt aufgeklärt wurden oder verschiedene Parameter der Stimuli verändert wurden. Die Autoren interpretierten dies als Hinweis darauf, dass es sich hier um einen Wahrnehmungsfehler ohne kognitive Komponente handelt. Ebenso schlossen sie aus, dass dieses Ergebnis durch die Schwierigkeit der Aufgabe bedingt sein könnte.

Die Studie von Scheier, Nijwahan und Shimojo (1999) zeigte ein weiteres interessantes Resultat: die zeitbezogene Auflösung der visuellen Wahrnehmung konnte durch zusätzliche akustische Stimuli verbessert werden. Wenn vor und nach der Darbietung der visuellen Stimuli ein akustischer Reiz ertönte, konnte die Reihenfolge des Aufleuchtens der verwendeten Lichtreize sicher angegeben werden. Fehlten die Töne, sank die Fähigkeit erheblich, die Reihenfolge zu bestimmen.

Meyer und Wuerger (2001) wiesen den Einfluss der auditiven auf die visuelle Modalität bei der Wahrnehmung von Bewegungen nach. Dazu präsentierten sie den ProbandInnen einen Bildschirm mit bewegten Bildpunkten. Diese bewegten sich mit unterschiedlich hoher Kohärenz in eine dadurch mehr oder weniger eindeutig gekennzeichnete Richtung. Bei einer gleichzeitig präsentierten akustischen Bewegung wiesen die Versuchspersonen die Tendenz auf, sich dafür zu entscheiden, dass die visuelle Bewegung ebenfalls in deren Richtung verlief. Diesen Effekt nannten die Autoren „audio-visual motion capture“.

Shams, Allman und Shimojo (2001, zitiert nach Shams et al., 2004) untersuchten
ebenfalls den Einfluss einer auditiven Bewegung auf die Wahrnehmung eines visuellen Objektes. Dabei nutzten sie als Zielreiz nicht eine uneindeutige visuelle Situation wie Meyer und Wuerger (2001), sondern einen physikalisch stationären, visuellen Stimulus. Dabei konnten sie beobachten, dass die auditive Bewegung eine Scheinbewegung in das visuelle Objekt induzierte. Dagegen konnten die Autoren keine Beeinflussung der Wahrnehmung einer sta-tionären Geräuschquelle durch einen bewegten Lichtblitz nachweisen.

Bushara et al. (2003) zeigten ihren ProbandInnen Sequenzen von sich aufeinander zu bewegenden Objekten, die bei Präsentation eines Tones den Eindruck hinterließen, zusammengestoßen zu sein. Wurde kein akustischer Reiz dargeboten, gaben die Versuchspersonen mehrheitlich an, dass sie sich aneinander vorbei bewegten.

Insgesamt lässt sich festhalten, dass mehrere Untersuchungen darauf hinweisen, dass akustische Informationen die visuelle Wahrnehmung beeinflussen können.

2.1.3. Neuronale Befunde zu cross-modalen Interaktionen

Auch für die Verarbeitung auf neuronaler Ebene existieren inzwischen viele Befunde, die auf die Existenz von Neuronen hinweisen, die durch den Eingang sensorischer Informationen unterschiedlicher Modalitäten stimuliert werden.

Mittels fMRT untersuchten Bushara et al. (2003) neben den oben genannten Unterschieden in der Wahrnehmung der cross-modalen bzw. unimodalen Situation deren Auswirkungen auf die neuronale Aktivität im Gehirn. Es zeigten sich dabei stärkere kortikale Verarbeitungsprozesse in multimodalen Bereichen des Gehirns bei einer gleichzeitigen Verringerung der Aktivität in den unimodalen visuellen Bereichen, wenn die Sequenz mit dem Ton präsentiert wurde statt der ohne.

Stein und Meredith (1993) identifizierten das neuronale Zentrum der cross-modalen Verarbeitung im Superior Colliculus. Sie fanden z.B. bei Katzen in diesem Bereich des Hirns Neuronen, die erst bei bi- oder multimodalen sensorischen Informationen aktiviert wurden (Stein & Meredith, 1993).

Bei Menschen konnte durch fMRT- und PET-Studien gezeigt werden, dass bei der unimodalen Bewegungswahrnehmung andere Hirnareale aktiviert werden als bei der bimodalen (für einen Überblick: siehe Calvert & Lewis, 2004). Andere Studien haben gezeigt, dass Areale im Intraparietalen Sulcus und präzentralen Gyrus sowohl durch visuelle als auch auditive und taktile Stimuli aktiviert werden können (Soto-Faraco et al., 2004).

Zusammenfassend kann man sagen, dass neuronale Befunde die wahrnehmungs-experimentellen Ergebnisse zu cross-modalen Phänomenen durch den Nachweis der Existenz multimodaler Nervenzellen und Hirnbereiche unterstützen.

2.1.4. Integration multimodaler Ereignisse – Erklärungsansätze

In den letzten Abschnitten wurden experimentelle und neuronale Befunde zusammengetragen, die exemplarisch für die multisensorische Wahrnehmung sind. Im Folgenden werden verschiedene theoretische Modelle vorgestellt, die beschreiben, in welcher Art und Weise die einzelnen sensorischen Eingänge zu einem gemeinsamen Eindruck verarbeitet werden.

Eine räumliche und auch eine zeitliche Koinzidenz machen nach Meinung von Soto-Faraco et al. (2004) Sinn, weil natürlicherweise das Auftreten eines Objektes mit multisensorischen Bewegungsinformationen einhergeht, die untereinander korrelieren. In Bezug auf die Ergebnisse von Bushara et al. (2003) geben Shams et al. (2004) eine mögliche Erklärung, indem sie diese vor einem ökologisch sinnvollen Hintergrund interpretieren: In natürlicher Umgebung geht ein Zusammenstoß von Objekten zumeist mit einer Geräuschentwicklung einher, die zu einer gelernten assoziativen Verbindung bei entsprechend synchron auftretender Stimulation führt. Diese Erklärung kann man auch auf die Entstehung des
„Ventriloquismus-Effekt“ anwenden: Sprache geht mit Bewegungen des Mundes einher. Während die Handpuppe diese Voraussetzung erfüllt, lässt der Bauchredner seine Lippen möglichst unbewegt, wodurch einer Fehlwahrnehmung Vorschub geleistet wird.

Die Entwicklung von weiterführenden Hypothesen, die das intermodale Zusammenwirken theoretisch erklären könnten, basieren zum größten Teil auf Erkenntnissen, die bei der Erforschung des „cross-modal bias“ (u.a. Bertelson & Radeau, 1981) erzielt wurden. Diese Resultate sollten sich aber auch auf die hier untersuchten Adaptationseffekte anwenden lassen. Im Speziellen gilt dies für die „directed-attention-Hypothese“, für deren Gültigkeit in Bezug auf Adaptationseffekte bereits Ergebnisse vorliegen (nach Welch & Warren, 1980). Nach dieser Ansicht ist die Modalität dominant, der die größere Aufmerksamkeit zukommt. Welch und Warren (1980) erweiterten diese Hypothese durch die Einführung einer Unterteilung in primäre und sekundäre Aufmerksamkeit. Mit primärer Aufmerksamkeit wird in diesem Sinne die Modalität belegt, die für die zu bewältigende Situation am besten geeignet ist. Für sekundäre Aufmerksamkeit sorgen dagegen Instruktionen, Charakteristika der Situation oder frühere Erfahrungen.

Das Konzept der primären Aufmerksamkeit kann mit Hilfe der „modality-appropriateness-Hypothese“ (O´Connor & Hermelin, 1972; Freides, 1974) erklärt werden. In ihr wird die grundsätzliche Auffassung vertreten, dass die einzelnen Modalitäten sich zur Bewältigung vielfältiger Aufgaben eignen und für eine bestimmte Art von Situationen am besten. In diesen Situationen liefern sie dann auch bessere Ergebnisse als alle anderen Modalitäten. Nach Freides (1974) gilt dies besonders für komplexe Aufgaben, während für relativ einfache Aufgaben die Modalitäten keine großen Unterschiede in ihrer Effektivität zeigen. Entsprechend ist die visuelle Modalität die am besten geeignete Modalität für Lokalisationsaufgaben: sie ist genauer in der räumlichen Auflösung als die auditive Modalität (Welch & Warren, 1986) und sollte damit bei entsprechenden Aufgaben den Gesamteindruck prägen. Diese Erklärung kann beispielsweise auf den „Ventriloquismus-Effekt“ angewendet werden.

Dagegen ist die zeitliche Auflösung in der auditiven Modalität besser als in der visuellen. Somit sollte bei solchen Aufgaben, in denen es um die Zeitdauer oder um die Häufigkeit eines aufgetretenen Ereignisses geht, die auditive Wahrnehmung die ausschlaggebende sein. Dies erklärt, z.B. die Ergebnisse von Scheier, Nijwahan und Shimojo (1999), in denen sich die Bewertung der zeitlichen Reihenfolge visueller Stimuli durch die Darbietung von Tönen verbesserte, wenn vor und nach dem Aufleuchten der LEDs ein akustischer Hinweis erfolgte.

Solche und ähnliche Ergebnisse zur Beeinflussung visueller durch akustische Reize können mit der oben angesprochenen Theorie über die Dominanz der „besseren“ Modalität bei der Entstehung eines Gesamteindrucks gut erklärt werden.

Dennoch eignet sich die „modality-appropriateness-Hypothese“ nicht zur Erklärung anderer Ergebnisse, wie z.B. die von Meyer und Wuerger (2001), die den Einfluss der auditiven auf die visuelle Modalität bei der Wahrnehmung von Bewegungen nachwiesen. Ein weiteres Beispiel ist die Untersuchung von Shams et al. (2001, zitiert nach Shams et al., 2004). Dort konnte beobachtet werden, dass eine auditive Bewegung eine Scheinbewegung in einen visuellen Reiz induzierte, während eine Beeinflussung einer stationären Geräuschquelle durch einen bewegten Lichtblitz nicht nachgewiesen werden konnte. Solche Resultate wären beispielsweise durch das Konzept der sekundären Aufmerksamkeit der „directed-attention-Hypothese“ erklärbar, wenn man annimmt, dass die Aufmerksamkeit durch die Versuchsanordnung und Instruktion der Versuchspersonen auf die auditive Modalität gelenkt und damit ihre Dominanz erhöht worden ist.

Es lässt sich festhalten, dass keines der Konzepte allein für die Erklärung aller Resultate geeignet ist. Somit können Einflüsse der auditiven auf die visuelle Modalität auch bei der räumlichen Wahrnehmung erwartet werden. Und zwar in solchen Situationen, in denen die sekundäre Aufmerksamkeit ein stärkeres Gewicht bei der Wahrnehmung hat als die primäre Aufmerksamkeit.

2.2. Nacheffekte

Im nun folgenden Teil werden Adaptations- oder Nacheffekte als ein möglicher Rahmen zur Untersuchung der Funktionsweise räumlicher Wahrnehmung vorgestellt.

Als Nacheffekte können alle Phänomene bezeichnet werden, bei denen aufgrund einer vorherigen Beeinflussung die Wahrnehmung eines darauf folgenden Reizes verändert wird. Der Grund für diese Veränderung ist ein adaptiver Prozess. Adaptation stellt eine Anpassung an die Umwelt dar, die dabei hilft, bei der Wahrnehmung die wichtigen Informationen aus den unwichtigen herauszufiltern. Dabei wird die Empfindlichkeit für Reizänderungen und dynamische Stimuli erhöht, während lang andauernde Reize adaptiert werden (Birbaumer & Schmidt, 1996). Von allen Sinnesmodalitäten bildet lediglich der Schmerz eine Ausnahme, weil er nicht adaptierbar ist. Der Verlauf und die Dauer der Adaptation sind charakteristisch für die einzelnen Modalitäten.

Aufgrund der Art der Auswirkungen einer Stimulation auf die Wahrnehmung des nachfolgenden Reizes sind Rückschlüsse möglich, die zur Erklärung der Integration dyna-mischer und statischer Informationen und deren Rolle bei der Raumrepräsentation beitragen. Im Rahmen dieser Arbeit werden vor allem die Auswirkungen der Adaptation einer vorausgehenden Bewegung auf die nachfolgend Wahrnehmung eines stationären Reizes dargestellt. Dabei lassen sich zwei grundlegende Phänomene unterscheiden: der Bewegungsnacheffekt (m otion a fter e ffect, MAE), bei dem der eigentlich stationäre Teststimulus in eine scheinbare Gegenbewegung versetzt wird und der Positionsnacheffekt (d isplacement a fter e ffect, DAE), der eine Verschiebung der Position des Testreizes entgegen der Adaptationsrichtung ohne die Wahrnehmung einer Bewegung beschreibt (siehe Abbildung 2). Ent-sprechend der Sinnesmodalität, derer die Stimuli zugehörig sind, werden sie mit dem Kürzel „v“ für visuell und „a“ für auditiv gekennzeichnet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Definition des Bewegungs- und des Positionsnacheffektes.

2.2.1. Visuelle Bewegungsnacheffekte (vMAE)

Die Beschreibung des visuellen Bewegungsnacheffektes – also die Wahrnehmung einer Bewegung eines physikalisch stationären Reizes entgegen einer vorher über eine längere Zeit beobachteten Bewegung in eine bestimmte Richtung – geht bereits auf Aristoteles und Titus Lucretius Carus zurück. In der Moderne wurde dieser Effekt von Jan Evangeliste Purkinje erstmalig 1820 und später von Robert Adams erwähnt. Adams (1834) beschrieb diesen Effekt nach einem Ausflug an die Falls of Foyers in Schottland im „London & Edinburgh Philosophical Magazine and Journal of Science“:

"Having steadfastly looked for a few seconds at a particular part of the cascade, admiring the confluence and decussation of the currents forming the liquid drapery of waters, and then suddenly directed my eyes to the left, to observe the face of the sombre age-worn rocks immediately contiguous to the water-fall, I saw the rocky surface as if in motion upwards, and with an apparent velocity equal to that of the descending water, which the moment before had prepared my eyes to behold that singular deception" (Adams, 1834, pp. 373 - 374) .

Erstmals gebraucht wurde der heute gängige Begriff „waterfall illusion“ im Jahre 1880 in einer Veröffentlichung von Silvanus Thompson und tauchte danach wiederkehrend in anderen Publikationen auf. Es wird spekuliert, dass Thompson die Entdeckungen von Purkinje unbekannt waren und sich deswegen der Name in Anlehnung an die Episode von Adams festsetzte. Die Faszination dieser Beobachtung hält bis heute an und eine Vielzahl von Arbeiten beschäftigt sich immer noch mit dem Einfluss visueller Bewegungen auf die Wahrnehmung statischer visueller Reize (Verstraten, 1996).

Grundsätzlich geht man davon aus, dass es richtungsspezifische Neuronen für die Wahrnehmung von Bewegungen gibt. Normalerweise ist deren Aktivität bei der Betrachtung einer unbewegten Szene ausbalanciert. Werden die Neuronen für eine Richtung durch eine fortdauernde Bewegung adaptiert, führt dies dazu, dass es bei der nachfolgenden Präsentation eines stationären Teststimulus zu einer übermäßigen Aktivität der Nervenzellen kommt, die die entgegen gesetzte Richtung kodieren (z.B. Mather, Anstis & Verstraten, 1998). So scheint sich ein stationärer Reiz nach der Adaptation in Gegenrichtung zu bewegen.

Die Untersuchungen zu diesem Thema haben im visuellen Bereich inzwischen ein sehr hohes Niveau erreicht, bei dem es nicht mehr um die grundsätzliche Frage nach der Existenz von Neuronen für die Kodierung einer Bewegungsrichtung geht, sondern um deren charakteristischen Eigenschaften. So untersuchten, z.B. Verstraten, van der Smagt und van de Grind (1998) die Frage, ob es geschwindigkeitsspezifische Kanäle zur Verarbeitung von Bewegungen gibt. Die Ergebnisse deuten darauf hin, dass es solche Kanäle gibt und diese durch verschiedene Adaptations- und Testreize stimuliert werden können. Es zeigte sich nach einer Adaptation mit hohen Geschwindigkeiten ein besonders großer vMAE, wenn ein dynamisches Muster als Testreiz benutzt wurde. Die Dynamik des Reizes zeichnete sich durch eine sich stetig verändernde Pixelanordnung aus, was einen Bewegungseindruck innerhalb des Stimulus nach sich zog. Dagegen eignete sich ein statischer Testreiz besser nach niedrigeren Adaptationsgeschwindigkeiten. Diese Fragestellung spezifizierten Verstraten, van der Smagt, Fredericksen und van de Grind (1999) dahingehend, ob es möglich wäre, gleichzeitig verschiedene richtungsspezifische Neuronen durch einen mehrschichtigen Adaptationsreiz zu stimulieren. Sie benutzten dazu einen Teststimulus, der „transparente“ Bewegungen mit unterschiedlichen Richtungen und Geschwindigkeiten aufwies und konnten zeigen, dass sich die Richtung des resultierenden vMAE in Abhängigkeit vom verwendeten Testmuster änderte. Dieses Ergebnis würde nicht auftreten, wenn lediglich die Adaptation einzelner Neuronen möglich wäre und wurde somit von den Autoren als Hinweis auf die stufenweise Verarbeitung von Bewegungsinformationen entlang des visuellen Pfades interpretiert.

Des Weiteren wurde untersucht, welche Möglichkeiten es zur Stimulation der richtungsspezifischen Neuronen gibt. Z.B. zeigten Freeman, Sumnall und Snowden (2003), dass es zusätzlich zu einem durch Bewegungen des Stimulus auf der Retina ausgelösten vMAE, einen vMAE gibt, der allein durch den Optokinetischen Nystagmus ausgelöst zu werden schien. Dieser extra-retinale vMAE deutet darauf hin, dass an der Entstehung des vMAE zusätzlich zu den auf der Retina erzeugten Bewegungsinformationen auch muskuläre Signale der Augenbewegungen beteiligt sein könnten.

2.2.2. Auditive Bewegungsnacheffekte (aMAE)

Die Untersuchungen zu einem ähnlichen Phänomen in der auditiven Modalität stehen dagegen auf einer fraglichen empirischen Grundlage. Dong, Swindale, Zakarauskas, Hayward und Cynader (2000) konnten einen aMAE einschließlich seiner Eigenschaften bzgl. Frequenz, Geschwindigkeit und räumlicher Anordnung von Adaptations- und Zielreiz nachweisen. Die Begründung für Entstehung des vMAE´s wurden direkt auf die auditive Modalität übertragen und Dong et al. (2000) vermuteten entsprechend:

„that, like the visual system, the auditory system contains specialized mechanisms for auditory spatial motion detection“ (Dong et al., 2000, p. 1106).

Neelon und Jenison (2004) gingen der Frage nach, wie sich verschiedene Adapta-tions- und der Verzögerungszeiten nach der Adaptation auf die Größe des aMAE´s auswirken. Wurde eine längere Adaptationszeit (5 s) benutzt, war der aMAE größer und blieb über einen längeren Zeitraum stabil, während nach kurzer Adaptationszeit (1 s) zwar ein aMAE auftrat, der allerdings kleiner und in seinem Zeitverlauf deutlich instabiler war.

2.2.3. Auditive Positionsnacheffekte (aDAE)

Ehrenstein (1984) ging davon aus, dass sich aufgrund des gemeinsamen Sinnesraums akustischer und visueller Raum- und Bewegungswahrnehmung parallele Sinnesleistungen, z.B. bei der Adaptation, finden lassen müssten. Im Gegensatz zu den oben genannten Arbeiten, nahmen die Versuchspersonen im Vorversuch seines Experimentes trotz einer bis zu 5 Minuten langen Adaptationszeit keine der Adaptation nachfolgende Bewegung eines stationären Lautsprechers in Gegenrichtung wahr. Dagegen schien dieser in seiner Position entgegen der Bewegungsrichtung verschoben (aDAE). Diese Ergebnisse veranlassten den Autor dazu, auch im menschlichen Hörsystem richtungs-spezifische Neuronen anzunehmen. Das Ausbleiben eines akustischen Bewegungsnacheffekts spricht allerdings seines Erachtens gegen die Existenz von Bewegungsdetektoren in der akustischen Modalität. Offen blieb darüber hinaus, ob es überhaupt einen Zusammenhang zwischen den bekannten Bewegungs- und den von ihm gefundenen statischen Nachwirkungen in der akustischen Modalität gibt.

Weitere Ergebnisse von Ehrenstein (1994) zeigten, dass der aDAE auch durch eine simulierte Bewegung ausgelöst werden konnte. Diese Simulation bot die Möglichkeit, die von der akustischen Modalität genutzten Bewegungsinformationen getrennt darzubieten. Diese können aus den interauralen Laufzeit- und Intensitätsunterschieden generiert werden. Laufzeitunterschiede werden vor allem bei der Beurteilung hoher Frequenzen benutzt, während die Intensitätsunterschiede der Analyse tieffrequenter Richtungsinformationen dienen. Es stellte sich heraus, dass eine durch Laufzeitunterschiede im Gegensatz zu der durch Intensitätsunterschiede simulierten Bewegung keinen aDAE auslösen konnte.

Wie bereits angedeutet ist die Befundlage zur Existenz eines aMAE´s widersprüchlich. Dong et al. (2000) sind der Überzeugung, dass aufgrund der Versuchsanordnung, die
Ehrenstein (1994) in seinem Experiment wählte, kein aMAE ausgelöst werden konnte. Sie vertreten die Auffassung, dass in der akustischen Modalität, sowohl der Adaptations- als auch der Testreiz eine reale Bewegung vollführen müssen, um einen aMAE auszulösen.

2.2.4. Visuelle Positionsnacheffekte (vDAE)

Während mit Ehrenstein bereits 1984 die Untersuchung der Auswirkungen dynamischer Adaptation auf die Wahrnehmung statischer Testreize begann, fanden diese erst im vergangenen Jahrzehnt Eingang in den Bereich der visuellen Modalität. Der Beginn kann in den Studien von Nishida und Johnston (1999) und Snowden (1998) gesehen werden. Die Autoren entdeckten unabhängig voneinander, dass der vMAE von einer Positionsverschiebung des Testreizes begleitet wird (vDAE).

Snowden (1998) zeigte, dass die zeitliche Entwicklung der Größe beider Effekte und deren Abhängigkeit von der Geschwindigkeit der dargebotenen Bewegung ähnlich war und schloss daraus, dass die

„position information is modified by apparent motion and hence these dimensions are not entirely separate” (Snowden, 1998, S. 1344).

Nishida und Johnston (1999) präsentierten in ihren Ergebnissen, dass ohne den vMAE kein vDAE auftrat. Sie gingen deshalb davon aus, dass die Verarbeitung von visuellen Bewegungen und Positionen zwar in verschiedenen Systemen erfolgt, aber die Repräsentation der Position fortwährend durch Neuronen aktualisiert wird, die auch der Analyse von Bewegungen dienen.

McGraw, Whitaker, Skillen und Chung (2002) untersuchten den vMAE und den vDAE hinsichtlich ihrer Entwicklung bei Unterschieden zwischen Adaptations- und Teststimulus und konnten feststellen, dass der vDAE gegenüber Ungleichheiten in der Geschwindigkeit, im Kontrast und in der Frequenz robust zu sein scheint, während sich die Größe des vMAE drastisch reduzierte. Dies führte zu der Annahme der Autoren, dass sich die Adaptation in Form eines feed-back-Mechanismus auf die Positionsrepräsentation in den niedrigen kortikalen Strukturen V1 und V2 auswirkt.

Whitney und Cavanagh (2003) gingen davon aus, dass es für eine Positionsverschiebung aufgrund einer Bewegungsadaptation ausreichend ist, wenn überhaupt eine Bewegung im optischen Feld auftritt, sie muss nicht unbedingt durch den Teststimulus selbst vollzogen werden. Sie entschieden anhand ihrer Ergebnisse, dass es durch den vMAE zu einem vDAE kommen kann. Darüber hinaus scheint es aber trotz allem eine Positionsverschiebung zu geben, wenn man den vMAE physikalisch durch eine Gegenbewegung aufhebt. Diesen unabhängigen Effekt nannten sie „aftereffect of motion adaption“ (AMA). Aufgrund des Auftretens des AMA vermuteten sie, dass die Verarbeitung von Bewegungen und stationären Objekten zuerst getrennt erfolgt und später auf einem höheren kortikalen Niveau zu einem gemeinsamen Sinneseindruck führen.

Aufgrund der Befundlage kann inzwischen zumindest in der visuellen Modalität davon ausgegangen werden, dass sowohl die Positionsverschiebung in Form des vDAE´s als auch die Bewegungswahrnehmung in Form des vMAE´s nach einer Adaptation unabhängig zu erhebende Phänomene sind, die durch die Wahrnehmung einer Bewegung entstehen können. Für den akustischen Bereich stehen parallele Untersuchungen noch aus. Hier fehlen zurzeit immer noch grundlegende Befunde zu beiden Phänomenen, die der Erforschung dieser weiterführenden Fragestellung vorausgehen sollten.

Auch wenn der Ablauf der Integration dynamischer und statischer Reize noch unklar ist, scheinen die aufgeführten Studien darin überein zu stimmen, dass beide zu einer gemeinsamen Wahrnehmung zusammengeführt werden. Somit kann man erwarten, dass nach einer Adaptation mittels einer Bewegung, die Wahrnehmung einer Position beeinflusst werden kann.

2.3. Aufgabenstellung dieser Arbeit

Vor allem die Resultate von Shams et al. (2001, zitiert nach Shams et al., 2004) zum auditiv-visuellen MAE, also einer visuellen Wahrnehmungsveränderung durch eine akustische Bewegung, und Ehrenstein und Reinhard-Rutland (1996) zum visuell-auditiven DAE, hier ist der Einfluss einer visuellen Bewegung auf die auditive Positionswahrnehmung gemeint, haben gezeigt, dass sich die im letzten Teil der Arbeit dargestellten Befunde zur Bewegungs- und Positionswahrnehmung nicht auf unimodale Phänomene beschränken lassen.

Zusätzlich zeigte sich in den dargestellten Arbeiten, dass bei gleichzeitiger Präsentation von Adaptations- und Zielreiz ein so genannter capture-Effekt, also ein „Mitreißen“ des Zielreizes durch die Bewegung auftrat (Mateeff et al., 1985; Meyer & Wuerger, 2001;
Soto-Faraco et al. 2004), während sich im Rahmen von Nacheffekten, die Position entgegen der Bewegungsrichtung zu verschieben schien (Ehrenstein, 1984; Ehrenstein & Reinhard-Rutland, 1996, Snowden, 1998; Nishida & Johnston, 1999).

Darüber hinaus stellten andere Forscher Befunde zur Verfügung, die der „modality- appropriateness-Hypothese“ (nach Welch und Warren, 1980), die eine einseitige Beeinflussung der auditiven durch die visuelle Modalität in allen Belangen der räumlichen Repräsentation vorhersagt, widersprechen (Meyer & Wuerger, 2001; Shams et al., 2001, zitiert nach Shams et al., 2002, 2004). Auf Basis der bisherigen empirischen Erkenntnisse scheint sich somit der Einfluss der auditiven auf die visuelle Modalität nicht nur auf zeitliche Phänomene beschränken zu lassen. Es kann auch erwartet werden, dass die auditive Modalität in der Lage ist, die räumlichen Informationen der visuellen Wahrnehmung zu modulieren, wenn im Rahmen der directed-attention-Hypothese (Welch & Warren, 1980, 1986) die sekundäre Aufmerksamkeit zum Tragen kommt.

Das Ziel dieser Arbeit ist, ein bisher unbesetztes Feld zu untersuchen, nämlich den Einfluss einer akustischen Bewegung auf die nachfolgende Wahrnehmung eines stationären visuellen Reizes. Grundsätzlich war aufgrund der vorher aufgezeigten Forschungsarbeiten zu erwarten, dass ein auditiv-visueller DAE, also eine wahrgenommene visuelle Positionsverschiebung durch eine akustische Bewegungsadaptation, auftreten würde.

Die Forschungshypothese dieser Arbeit war demzufolge:

Aufgrund des Einwirkens einer akustischen Bewegung kommt es zu einer wahrgenommenen Verschiebung der Position eines visuellen Stimulus und zwar entgegen der Richtung der akustischen Bewegung.

Zur Klärung dieser Fragestellung wurden im Folgenden 4 Experimente durchgeführt, deren zeitliche und inhaltliche Struktur in Abbildung 3 dargestellt ist:

- Experiment 1 beschäftigte sich mit der Untersuchung eines auditiv-visuellen DAE´s, bei dem nach einer akustischen Adaptationsbewegung eine Verschiebung der Position eines visuellen Reizes auftreten sollte.
- Experiment 2a untersuchte den Einfluss von Augenbewegungen während der akustischen Adaptationsphase auf den DAE.
- Experiment 2b prüfte, inwieweit die Veränderung der subjektiven Raumrepräsentation oder motorische Prozesse zum Auftreten des DAE´s beitragen.
- Experiment 3 erforschte, ob zusätzlich zum DAE ein okulomotorisch bedingter Fehler bei der Lokalisation der LEDs auftritt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Zeitliche und inhaltliche Struktur der Experimente dieser Arbeit.

3. Generelle Methodik

3.1. Methode

3.1.1. Personen

Der Datenpool bestand zum Großteil aus Psychologie-Studenten, die für ihre Teilnahme Versuchspersonenstunden gutgeschrieben bekamen. Die übrigen Teilnehmer waren Freiwillige, die sich aus dem universitären Umfeld rekrutierten.

3.1.2. Versuchsaufbau

3.1.2.1. Apparatur

Alle Untersuchungen fanden in der Akustischen Kammer der Ruhr-Universität Bochum statt. Der schallgedämpfte, reflexionsfreie Raum war 5,4 m x 4,4 m x 2,1 m groß. Während des gesamten Versuchs herrschte absolute Dunkelheit. Wie in Abbildung 4 schematisch dargestellt waren 91 Lautsprecher in horizontaler Ebene halbkreisförmig in einer Entfernung von 1,5 m von der Versuchsperson angeordnet. Der Abstand zwischen den Zentren der Lautsprechermembranen betrug jeweils 2°. Die Versuchspersonen saßen auf einem auf 0° ausgerichteten, höhenverstellbaren Sitz, der an deren Körpergröße so angepasst wurde, dass sich die Ohren auf Höhe der Lautsprecher befanden. Die Stirn- und die Kinnstütze wurden passend eingestellt, um den Versuchspersonen das Ruhighalten des Kopfes zu erleichtern. Über eine Infrarot-Kamera und eine Gegensprechanlage wurde der Versuchsraum überwacht.

Die Richtungslokalisation erfolgte in allen Experimenten mittels drehbaren Handzeigers, der fest vor der Versuchsperson montiert wurde. Die angepeilte Winkelposition wurde in dem verwendeten Computerprogramm gespeichert. Lediglich in Experiment 2b wurde zusätzlich zum Handzeiger eine andere Methode der Lokalisation eingesetzt. Die dort genutzte Prozedur zur Erhebung eines Alternativurteils wird im entsprechenden Abschnitt näher beschrieben (siehe Kapitel 6).

Die auditiven Stimuli wurden digital generiert, mit einem 133 MHz Pentium PC mit 16-bit-Auflösung, mit einer Abtastrate von 44,1 kHz gespeichert und mit einer 16 bit Stereo- Soundkarte und Breitbandlautsprechern (Visation FRWS 13) dargeboten.

3.1.2.2. Stimuli

Als akustischer Stimulus diente bandpassgefiltertes, gepulstes Weißes Rauschen mit einem Frequenzspektrum von 1 bis 3 kHz. Die Dauer der Pulse belief sich auf 50 ms, die Lautstärke am Ohr der Versuchsperson betrug etwa 68 dB(A). Es wurden über die Lautsprecher auditive Bewegungen dargeboten, die entweder von links nach rechts oder umgekehrt verliefen. Als Kontrollbedingung dienten stationäre Geräusche an den Positionen der visuellen Stimuli. Dies waren LEDs, die unterhalb der Lautsprecher angebracht waren.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Schematische Darstellung der Experimentalanordnung.

[...]

Ende der Leseprobe aus 97 Seiten

Details

Titel
Wahrnehmung akustischer Bewegungen und visueller Positionen - ein Fall audiovisueller Integration?
Hochschule
Ruhr-Universität Bochum
Note
sehr gut
Autor
Jahr
2006
Seiten
97
Katalognummer
V61754
ISBN (eBook)
9783638551427
ISBN (Buch)
9783656801849
Dateigröße
952 KB
Sprache
Deutsch
Anmerkungen
In der vorliegenden Diplomarbeit wurde untersucht, ob die Wahrnehmung visueller Positionen durch adaptive Prozesse, die von einer akustischen Bewegung hervorgerufen wurden, verändert wird. Entsprechend den Ergebnissen anderer Studien wurde erwartet, dass die visuellen Stimuli entgegen der Richtung der akustischen Bewegung - in der Literatur als displacement aftereffect bezeichnet - verschoben erscheinen würden.
Schlagworte
Wahrnehmung, Bewegungen, Positionen, Fall, Integration
Arbeit zitieren
Rosa-Linde Fischer (Autor:in), 2006, Wahrnehmung akustischer Bewegungen und visueller Positionen - ein Fall audiovisueller Integration?, München, GRIN Verlag, https://www.grin.com/document/61754

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Wahrnehmung akustischer Bewegungen und visueller Positionen - ein Fall audiovisueller Integration?



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden