Kritische Auseinandersetzung mit Modellen der Sprachproduktion und Sprachrezeption


Thèse de Bachelor, 2013

90 Pages, Note: 1,0


Extrait


Inhaltsverzeichnis

Anmerkungen:

Abkürzungsverzeichnis

I. Einführung
1. Erster Überblick über die Sprachproduktion und die Sprachrezeption
2. Definition „Modell“
3. Praktischer Aspekt

II. Methodisches Vorgehen
1. Auseinandersetzung mit Versprechern
2. Analyse von Sprechpausen
3. Rückschlüsse durch Aphasien
4. Beobachtung zerebraler Vorgänge
5. Experimentelle Methoden
6. Simulative Methodik
7. Kritik an Methoden

III. Sprachrezeption
1. Klassifizierung der Theorien
2. Theorien zur Worterkennung
3. Theorien des Satzverständnisses
4. Theorien der Diskursrezeption

IV. Sprachproduktion
1. Klassifizierung der Theorien
2. Sprachproduktionsmodell nach Garrett
3. Sprachproduktionsmodell nach Dell
4. Zusammenfassende und vergleichende Kommentare I
5. Sprachproduktionsmodell nach Levelt
A. Prämissen
B. Einzelne Module und Teilprozesse
1. Die Konzeptualisierung
2. Die Formulierung
3. Die Artikulation
4. Monitoring und Reparatur
6. Zusammenfassende und vergleichende Kommentare II

V. Fokus auf die Lexikalisierung

1. Das mentale Lexikon

2. Lexikalisierung

3. Eine eigene Theorie zur Lexikalisierung.

A. Struktur

1. die konzeptuelle Ebene

2. die Meta-Ebene

3. die Lexem-Ebene

4. Nach der Lexem-Ebene.

B. Generelle Anmerkungen.

C. Schlussbemerkung zum eigenen Lexikalisierungsmodell

VI. Schlussteil

VII. Appendix

Bibliographie

Anmerkungen:

1) Es sei angemerkt, dass in der vorliegenden Arbeit Termini der Art "der Forscher / der Wissenschaftler / der Sprecher / das Gegenüber / u.ä." nicht nur die maskuline sondern aus platzökonomischen Gründen auch die feminine Form implizieren, wenn nicht explizit anderweitig vermerkt.

2) Des Weiteren werde ich die von den einzelnen Modellautoren (hiermit sind die Ideengeber und Verfasser des jeweiligen Modelles gemeint) gegebenen Sprachbeispiele in meiner Thesis verwenden. Unter Betrachtung der Tatsache, dass es sich hier um die Abschlussarbeit eines Romanistik-Studiums handelt, werde ich vorzugsweise französische und italienische Beispiele auswählen. Erst im Teil der eigenständigen Arbeit werde ich explizit von mir gewählte fremdsprachige Beispiele einsetzen, um dem Titel meines Studiengangs und nicht der vorherrschenden Sprache der Wissenschaft, Englisch, gerecht zu werden.

3) Abbildungen werden auf der entsprechenden Seite angesprochen. Der Übersichtlichkeit halber werden die Abbildungen samt Bildunterschrift im Appendix angehängt.

4) Werden sprachliche Beispiele genannt, so werden sie auf lautlicher Ebene in richtiger Groß- und Kleinschreibung festgehalten, während Konzepte immer in Großbuchstaben ausgeschrieben werden (Bsp.: das Wort „ fuoco “ vs. das Konzept „ FUOCO “).

Abkürzungsverzeichnis:

Abbildung in dieser Leseprobe nicht enthalten

I. Einführung

Betrachtet man alle Lebewesen dieser Erde und deren Fähigkeiten im Vergleich, so wird man feststellen, dass einige recht außerordentliche Besonderheiten bei der menschlichen Rasse zu finden sind. Auf rudimentäre Weise sind viele Lebewesen in der Lage zu kommunizieren, doch nur vom Menschen kann behauptet werden, dass er in der Lage ist, zu sprechen (Vgl. Dunbar 1996:4).

Seit circa 35 000 Jahren, so geht man aus, ist der Mensch in der Lage, differenzierte Laute von sich zu geben, die unserer heutigen Vorstellung von Sprache entsprechen (Vgl. Stein 2010:2). Grundsätzlich ist der Mensch von seinen Vorgängern und von seinen nächsten Verwandten im Tierreich, den Primaten, durch die Art der sozialen Kommunikation zu unterscheiden. Primaten zeigen ihre soziale Haltung gegenüber anderen Artgenossen unter anderem durch die gegenseitige Fellpflege. Hiervon hat sich der Mensch weitgehend gelöst und ersetzt diese Art und Weise der Kommunikation durch zwischenmenschliche Sprache (Vgl. Levelt 1999:83).

Doch wodurch ist diese Entwicklung der Sprachfähigkeit bedingt? Nicht nur haben sich der Kehlkopf, der Rachenraum, die Zunge und die Lippen stark weiterentwickelt (Vgl. Levelt 1999:84), was sie zu geeigneten Instrumenten der Artikulation menschlicher Sprache macht, sondern stehen sie auch unter der Kontrolle besser entwickelter Gehirnregionen. Tierische Laute spiegeln direkt die Emotionen des Tieres wieder und stehen unter der Kontrolle des anterioren Gyrus cinguli, welcher zum limbischen System gehört. Die Artikulationsorgane des Menschen werden jedoch vom Neocortex kontrolliert, was eine Neuheit in der Evolution darstellt. Das alte Äußerungssystem wurde jedoch nicht vollständig abgelegt. So drückt der Mensch auch heute noch Emotionen, welche vom limbischen System ausgehen, durch die Sprachmelodie, die Prosodie, aus (Vgl. Levelt 1999:84). Die Kreationen durch das Zusammenspiel der nun kontrollierbaren Organe bilden Silben, die mit einer gewissen Bedeutung angereichert werden. Diese Beziehung wird anschließend festgehalten und zur Reproduktion gespeichert. Dies ist der erste große Entwicklungsschritt zur menschlichen Sprache.

Der zweite Schritt ist bedingt durch die Entwicklung neuer sozialer Kompetenzen. Wie schon angesprochen hat der Mensch das zwischenmenschliche Fellpflegeverhalten weitgehend abgelegt und die Sprache an dessen Stelle für sich entdeckt. Der verhältnismäßig große Neocortex des Homo sapiens, welcher der Erkennung von Personen durch Gesicht und Stimme, der Erkennung von Gesichtsausdrücken und den Sprachprozessen dient, unterstützt die Theorie von Dunbar (1992), wonach die Größe dieser speziellen Gehirnregion stark von der durchschnittlichen Gruppengröße eines Lebewesens abhängig ist (Vgl. Dunbar 1992:469). Mit der stetig wachsenden Komplexität der sozialen Beziehungen in menschlichen Gruppen, ist diese Entwicklung leicht nachvollziehbar.

Einführung

Menschliche Sprache ist somit von zentraler Wichtigkeit im Alltag und eine außerordentliche Fähigkeit, die den Menschen von allen anderen Lebewesen unseres Planeten unterscheidet. Das Thema dieser Bachelorarbeit ist die kritische Auseinandersetzung mit eben den Prozessen, die hinter der Sprachrezeption und der Sprachproduktion stehen. Da man zwar die physiologischen Aktivitäten unseres Gehirns betrachten kann, jedoch nicht dessen genaue Funktionsweise, werden Theorien und

Modelle zu dessen Ergründung angefertigt, wovon hier eine Auswahl vorgestellt wird.

1. Erster Überblick über die Sprachproduktion und die Sprachrezeption

Der Vorgang des Sprechens ist das Herz der Sprache, wobei allein schon hier zwei Parteien festzuhalten sind: der Sprecher und der Rezipient. Hieraus sind zwei Prozesse ableitbar, nämlich die Sprachproduktion und die Sprachrezeption. Bei der Sprachproduktion werden Gedanken, die in unseren Köpfen entstehen, in eine linguistische Form gebracht, wobei bei der Sprachrezeption der Sprachstrom in die entgegengesetzte Richtung fließt. Der Rezipient oder Hörer einer sprachlichen Äußerung geht von akustischen Signalen aus, die analysiert werden und schließlich in Form von Gedanken im Gehirn repräsentiert werden. Das zentrale Element ist somit das Gehirn, dessen Erforschung aufgrund der mangelnden Möglichkeit, in unsere Köpfe hineinzuschauen, von großer Schwierigkeit ist. Eben mit dieser Schwierigkeit setzt sich die Psycholinguistik, der Schnittpunkt zwischen Psychologie und Linguistik, auseinander. An sich sind die beiden Prozesse aufgrund ihres gemeinsamen Elementes, dem Gehirn, nicht getrennt zu betrachten, wobei dennoch in der Forschung von zwei verschiedenen Richtungen und somit von zwei verschiedenen Prozessen ausgegangen wird. Diese Trennung wird notwendigerweise auch in der vorliegenden Arbeit gemacht, wobei zunächst der Prozess der Sprachrezeption, also der Wahrnehmung von Sprache, im Mittelpunkt stehen wird. Anschließend wird auf den Sprachproduktionsprozess eingegangen. Die Reihenfolge und Gewichtung der Abhandlung ist hierbei jedoch nicht zufällig gewählt: Der Prozess der Sprachproduktion steht an finaler Stelle dieser Arbeit, da hierauf detaillierter eingegangen wird. Dies wird insofern geschehen, als dass ein Teilschritt des Gesamtprozesses genauer untersucht wird und mit eigenen Ideen angereichert wird.

Menschliche Sprache wird primär mit der Artikulation und der auditiven Rezeption von gesprochenen Wörtern assoziiert. Es sei jedoch das Sekundärsystem, die schriftliche Form, nicht zu vergessen. Da deren Behandlung jedoch eine Rahmensprengung zur Folge hätte, wird der Untersuchungsgegenstand dieser Arbeit lediglich das gesprochene Wort sein. Da einige Prozesse der Sprachproduktion und -rezeption jedoch durch Methoden, die graphisch präsentierte Elemente beinhalten, untersucht werden, soll die schriftliche Form der Sprache nicht unvergessen jedoch weitgehend unbehandelt bleiben.

Zunächst soll im nächsten Kapitel auf die methodischen Vorgehensweise zur Erforschung der Sprachprozesse eingegangen werden, wonach die beschriebene Trennung in Sprachrezeption und Sprachproduktion vorgenommen wird.

2. Definition "Modell"

In der vorliegenden Arbeit wird das Wort "Modell" mit sehr hoher Frequenz eingesetzt, weswegen es einer genaueren Betrachtung bedarf.

Modelle in der Sprachwissenschaft sind vereinfachte Darstellungen sprachlicher Sachverhalte. Sie können Theorien abbilden oder vortheoretisch als Denkmodelle dienen. (Homberger 2000:340)

Kognitive Modelle haben für die Bewältigung komplexer Situationen eine wichtige Funktion, da sie diese auf ihre wesentlichen Eigenschaften reduzieren. Obwohl Modelle die Funktion haben, ihren Gegenstand abzubilden, kann diese Abbildung immer nur bestimmte Aspekte des Gegenstands oder der Situation beinhalten. Modelle sind ein Produkt der Problemlösungsversuche des Menschen und daher Konstruktionen, die subjektive und Bei Modellen ist zu bedenken, daß sie ``symbolische Modelle'' sind. Diese Eigenschaft darf u. a. auch deshalb nicht übersehen werden, weil sie eine unüberbrückbare Barriere darstellt zwischen Modell und Original. Ein Modell kann niemals (gerade auch theoretisch nicht) durch Verfeinerung und Präzisierung bildlich gesprochen in ein Original umschlagen. Wenn ein Sturm auf einem Computer simuliert wird, stürmt es nicht tatsächlich, auch dann nicht, wenn das Modell einen Ausgehend von diesen Definitionen ergibt sich bereits ein umfassendes Bild des Begriffes. So kann es zur Darstellung desselben Sachverhaltes durchaus mehrere Modelle geben, wobei jedoch deren Resultat immer dasselbe sein sollte (Vgl. Aitchison 1997:36). Ein Nachteil bei derartig undurchsichtigen Problematiken wie der Sprachproduktion und Sprachrezeption ist, dass der Forscher für die Konstruktion seines Modells abgesehen von seiner Intelligenz und Kreativität lediglich eine verhältnismäßig kleine aber bunte Menge von nutzbaren Hinweisen verwenden kann (Vgl. Aitchison 1997:20), wobei dies natürlich auch die Gefahr in sich birgt, dass der Forscher oder die Forscherin möglicherweise unbewusst die zur Theorie passenden Hinweise anderen Hinweisen vorzieht (Vgl. Aitchison 1997:43).

3. Praktischer Aspekt

Um das Gesamtbild der Arbeit nicht auf theoretischer Basis zu belassen, sondern der Realität etwas näher zu bringen, werden in dieser Arbeit unter anderem alltägliche Fragen wie "Wieso passieren mir Versprecher?" oder "Wie heißt denn dieses Wort?" ausgelegt und geklärt.

Im Internet wird das folgende Sprachspiel als IQ-Test angepriesen:

"1. Frage: Was fließt in Deinen Adern?

Antwort: Blut?
2. Frage: Was kommt aus einer Wunde? Antwort: Blut.
3. Frage: Was pumpt Dein Herz? Antwort: Blut!

Fangfrage: Bei welcher Farbe gehst Du über die Ampel?

Antwort: Rot!"

(http://home.arcor.de/fuenfundachtzig/fun/iqtests.htm , letzter Zugriff: 11.11.13 , 18:20.)

Spiele dieser Art dürften jedem geläufig sein. In den folgenden Kapiteln wird auch betrachtet, weswegen eine derartige Antwort resultierend aus den vorhergegangenen Fragen durchaus provoziert werden kann und nicht so sehr die Intelligenz eines Menschen, sondern eher dessen kognitive Struktur widerspiegelt.

II. Methodisches Vorgehen

Die Kognitive Linguistik als Schnittpunkt von Psychologie und Linguistik ist eine verhältnismäßig junge Disziplin. Erst in den späten 1950ern läutet Noam Chomsky mit seiner Kritik am Behaviorismus die kognitive Wende ein und legt den Grundstein für die Psycholinguistik (Vgl. Rickheit et al. 2010:10). Gegen Ende der 1960er beginnt die systematische Erforschung der Prozesse, die hinter den Phänomenen der Sprachrezeption und Sprachproduktion stehen (Vgl. Cacciari 2006:145.). Zwar werden bereits Ende des 19. Jahrhunderts wichtige Versprecher-Korpora von Meringer und Mayer (z.B. 1896) angefertigt und auch erste wichtige Hypothesen zum Hintergrund und zum Entstehen von Versprechern von Siegmund Freud (1904) formuliert, dennoch bleibt der Fokus der Linguistik nicht hierauf stehen. Erst einige Jahrzehnte später sollte sich die Wissenschaft erneut und intensiver mit den Sprachprozessen auseinandersetzen.

Diese relativ späte Auseinandersetzung mit der Materie rührt mitunter daher, dass es sich hierbei um Prozesse handelt, die kaum im menschlichen Gehirn zu beobachten waren bis die technische Entwicklung für die Nutzung der Psycholinguistik geeignet war. So bemerkte Wittgenstein (1958) zum Thema Intention und Bedeutung, dass die Auseinandersetzung hiermit zwangsläufig zu mentalen Krämpfen führen müsse (Vgl. Harley 2001:349).

Diese Tatsache war mitunter bedingt durch große methodische Schwierigkeiten, die sich in der empirischen Untersuchung der Sprachproduktion ergaben (Vgl. Rickheit et al. 2010:23). Im Vergleich zur Erforschung der Sprachrezeption ist in Experimenten zur Sprachproduktion der Input weit schwieriger zu kontrollieren, da es sich hierbei nicht um greifbares Material wie sprachliche Äußerungen handelt, sondern um gedankliches Material (Vgl. Harley 2001:349).

In den folgenden Abschnitten wird das methodische Vorgehen der psycholinguistischen Forschung veranschaulicht. Die einzelnen Methoden werden den Prozessen der Sprachrezeption (SR) und der Sprachproduktion (SP) zugeordnet.

1. Auseinandersetzung mit Versprechern (SP)

Eine traditionelle Vorgehensweise der Sprachproduktionsforschung ist die bereits erwähnte Methode der Analyse von Versprechern. Versprecher oder Sprachfehler passieren dem durchschnittlichen erwachsenen Sprecher ein bis zwei Mal in 1000 Wörtern 1 (Vgl. Dell et al. 1997:123), weswegen sich Anthony Cohen (1965 und 1968), der als Pionier der Sprachfehleruntersuchung in der modernen Psycholinguistik gilt (Vgl. Levelt 1989:214), diesen verstärkt zuwandte. Um diese für die Linguistik nutzbar zu machen, werden sie in Korpora systematisch festgehalten. Wichtige Korpora hierzu sind Methodisches Vorgehen der schon genannte Korpus von Meringer und Mayer, der erst Mitte des 20. Jahrhunderts neue Beachtung fand, und unter anderem die Anthologien zur Versprecheranalyse von V. A. Fromkin (1973 und 1980). Auch die Arbeit von M. F. Garrett (z.B. 1976 und 1980), dessen Modell Gegenstand des Kapitels IV.2. sein wird, hat stark zur Erforschung von Versprechern 2 beigetragen.

Generell können Versprecher durch die involvierten Einheiten und Mechanismen klassifiziert werden. Zu den Einheiten können einzelne Laute, Silben, Morpheme, Wörter und auch Phrasen gehören. Gängige Mechanismen sind Verschmelzung (engl. blend), Substitution (engl. substitution), Austausch (engl. exchange), Hinzufügen (engl. addition) und Löschung (engl. deletion) der eben genannten Einheiten (Vgl. Harley (2001:351).

In Abbildung 1 (s. Appendix) wird eine Übersicht über die Mechanismen der zu beobachtenden Sprachfehler an englischen Beispielen veranschaulicht.

Zusätzlich zu den bereits erwähnten Mechanismen sind besonders zwei andere Situationen von Sprachfehlern zu erwähnen. Zum Einen handelt es sich hierbei um den Freudschen Versprecher, welcher sich, so Freud, dadurch auszeichnen, dass sie unterdrückte Gedanken aufdecken. Gegen die landläufige Annahme muss es sich hierbei nicht notwendigerweise um sexuelle Gedanken handeln (Vgl. Harley 2001:351).

Zum Anderen muss die Situation einer verlängerten Wortsuche angesprochen werden. Hiermit werden Situationen gemeint, in der der Sprecher sicher weiß, was die Bedeutung des Wortes ist, aber die dazugehörige Wortform nicht finden kann. Dieser Zustand zeichnet sich durch seine Dauer aus, die sich im Gegensatz zur flüssigen Sprachproduktion durch eine längere Sprechpause auszeichnet und in Extremfällen auch wochenlang anhalten kann. Dieser Zustand ist außerdem von dem Gefühl, dass man dieses Wort an sich kenne, begleitet. Da man sich hierbei fühlt, als würde die Wortbedeutung auf der Zungenspitze liegen, bezeichnet man diese Situation als tip-ofthe-tongue Zustand, kurz TOT-Zustand (Harley 2001:362.). Dieser Zustand wurde zum ersten Mal von Brown und McNeill (1966:327) experimentell induziert und erforscht, wonach das Experiment vielfach wiederholt und modifiziert wurde (Vgl. Levelt 1989:320). All diese Arten von Versprechern bieten zumindest den Ansatz eines Einblicks in die Funktionsweise der Sprachproduktion. So lassen sich gewisse Regelmäßigkeiten unter den Fehlern feststellen, was deren Vorhersage erlaubt. Hieraus können je nach Modell Schlüsse zu Parallelität und Modularität der Vorgänge in der Sprachproduktion getroffen werden.

2. Analyse von Sprechpausen (SP)

Zur Analyse der Versprechermechanismen kommt die Analyse von Sprechpausen, die sich durch eine Länge von mehr als 0,2 - 0,25 Sekunden auszeichnen, hinzu (Vgl. Harley 2001:374f). Diese werden durch Aufzeichnung und anschließende Auswertung analysiert. Die Position des verzögerten Sprechflusses, der mit Füllwörtern wie "Ähm" oder Wortwiederholungen überbrückt werden kann oder bei dem es zu vollständiger Stille kommen kann, ist hierbei von entscheidender Wichtigkeit. So kann hieraus auf Eigenschaften der Prozesse des lexikalischen Zugriffes, also Informationsentnahme aus dem sogenannten mentalen Lexikon (Vgl. Warren 2013:23), und auf Prozesse der Satzplanung (Vgl. Harley 2001:374ff) geschlossen werden. Wichtige Erkenntnisse zu Funktionen und zu einer zyklischen Struktur von Sprechpausen werden unter anderem in den Veröffentlichungen von Henderson et al. (1966:216) und Goldman-Eisler (1968:127) festgehalten.

3. Rückschlüsse durch Aphasien (SR + SP)

Ein weiterer Anhaltspunkt zur Erstellung von Theorien und Modellen bietet die Beobachtung der Sprache von Menschen, die unter einer Aphasie leiden. Aphasien sind Sprachstörungen, die aus einer Beeinträchtigung von bestimmten der Sprachproduktion und -rezeption zuarbeitenden Gehirnarealen, resultieren. Hierunter sind vor allem die Broca-Aphasie und die Wernicke-Aphasie bekannt, deren Namen von den Entdeckern der spezifischen Hirnregionen in der linken Gehirnhälfte und deren Funktionen stammen (Vgl. Warren 2013:220f). Jede der verschiedenen Arten von Aphasien werden mit daraus resultierenden Mustern und Auffälligkeiten im Sprachverhalten verbunden.

Die Broca-Aphasie, auch expressive Aphasie genannt, zeichnet sich typischerweise durch stockenden Sprachfluss, wenig Intonation, Artikulierungsschwierigkeiten, Wortfindungsschwierigkeiten aber gutes Sprachverstehen aus. Im Gegensatz hierzu steht die Wernicke-Aphasie, auch rezeptive Aphasie, mit den typischen Eigenschaften der flüssigen aber bedeutungslosen Sprache und Verständnisschwierigkeiten bis hin zur absoluten Worttaubheit (Vgl. Harley 2001:278).

Generalisierungen zu den verschiedenen Typen von Aphasien sind kaum vertretbar, da es immer Ausnahmen und Besonderheiten gibt. Dennoch wären manche Muster von Symptomen nicht möglich, wenn die Struktur des normal arbeitenden kognitiven Systems nicht von ganz bestimmter Natur wäre (Vgl. Aitchison 1997:27). Der Einfachheit halber wird somit eine grobe Zuordnung zur Broca-Aphasie oder Wernicke-Aphasie vorgenommen.

Eine gute Einführung und einen guten Überblick über das Thema der Sprachstörungen bietet Harley (2001), da er nicht nur die beiden genannten Typen der Aphasie behandelt, sondern unter anderem näher auf die Begriffe des Agrammatismus (syntaktische oder grammatische Störung) und der Anomie (Störung der Wortfindungsmechanismen) eingeht (Vgl. Harley 2001:376-386).

Problematisch bei der Betrachtung von Aphasien und den daraus gewonnenen Schlussfolgerungen ist, dass die Spanne von Erklärungen für ein und denselben Output, die Äußerung, sehr groß und ungenau sein kann. Auch sind die Zustände von Aphasikern sehr variabel und können sich von Tag zu Tag ändern, was eine systematische Auswertung erschweren kann (Vgl. Aitchison 1997:28f).

4. Beobachtung zerebraler Vorgänge (SR + SP)

Eine lange Tradition in der Psychologie und somit auch in der Psycholinguistik hat die Erforschung der Gehirnaktivitäten durch elektrophysiologische Techniken, wobei diese Methoden auch in der zuvor angesprochenen Aphasiologie angewandt werden. Um diese Aktivitäten sichtbar und nutzbar für eine analytische Auswertung zu machen, werden unter anderem Elektroenzephalogramme (EEG), Event Related Potentials (ERP), Magnetoenzephalographien (MEG), und Computertomographien (TC) eingesetzt (Vgl. Cacciari 2001:90ff). Die Auswertung der gewonnenen Bilder erlaubt Rückschlüsse auf zeitliche Abläufe und aktive Zentren in verschiedenen sprachlichen Situationen. Hieraus erstellen Forscher wie beispielsweise Indefrey und Levelt (2004) zeitbasierte neurokognitive Sprachmodelle.

5. Experimentelle Methoden

Die soeben angesprochenen Methoden der Beobachtung unterscheiden sich dadurch von der experimentellen Arbeit, dass Experimente sich nicht ausschließlich auf die passive Beobachtung stützen, sondern künstliche Sprechsituationen erzeugen, um kognitive Funktionsweisen gezielt nachvollziehen zu können.

Zu den am häufigsten genutzten experimentellen Methoden gehören (Vgl. Rickheit et al. 2010:25-34):

a) Nachsprechen und lautes Lesen (SR): Diese Methode hat das Ziel, Verarbeitungsprozesse, die sonst still ablaufen, hörbar zu machen. Gemessen wird hierbei die Latenzzeit zwischen der Darbietung der Wörter und dem Beginn der Wiedergabe, was zur Untersuchung semantischer Rezeptionsprozesse eingesetzt wird.
b) Eyetracking (SR): Hierbei werden beim Leseprozess die Augenbewegungen gemessen und verfolgt, was Aufschlüsse über den Verarbeitungsprozess mit sich bringt. Ein Resultat ist beispielsweise, dass das letzte Wort des Satzes eine längere Fixation erhält, da am Ende des Satzes versucht wird, den Sinn des gelesenen Satzes zu erfassen (sentence wrap-up process). Selbst wenn sich die vorliegende

Arbeit vor allem auf die gesprochene Sprache und nicht auf das Sekundärsystem der Schrift konzentriert, ist die Methode des Eye-Tracking dennoch erwähnenswert.

c) Lesezeitmessung (SR): Hierdurch wird ermittelt, in welcher Zeitspanne der Leser eine auf einem Bildschirm präsentierte Einheit verarbeitet. Dem Probanden wird eine Einheit präsentiert, wobei die Zeitmessung ab der Präsentation läuft. Anschließend hat der Proband auf einen Knopf zu drücken, um zu signalisieren, dass er bereit für die nächste Einheit ist, wobei hier die Zeitmessung gestoppt wird. Es ergibt sich ein Zeitintervall, das Schlüsse über die Komplexität der Verarbeitung von Wörtern zulässt.

d) Priming-Methoden (SR + SP): Unter Einbezug von chronometrischen Hilfsmitteln wird bei dieser Methode versucht, Probanden zu genau festgelegten Zeitpunkten im Sprachverarbeitungsprozess mit zusätzlichen Aufgaben zu konfrontieren. Die Durchführung dieser zusätzlichen Stimuli erlaubt Rückschlüsse über bereits abgelaufene Prozesse. So steht der zu einem spezifischen Zeitpunkt vorhandene Aktivierungszustand eines bestimmten Wissensbereiches im Fokus. Gemessen wird dabei die Zeit, welche Hinweise auf die Aktivierung bietet. Es sind zwei Stimuli zu unterscheiden: (1) Der, dessen Aktivierung erschlossen werden soll, der PrimeStimulus; (2) der Target-Stimulus, der die zusätzliche Aufgabe hervorruft. Mit Stimulus-Onset-Asynchronie (SOA) wird die variable Zeit zwischen Prime und Target beschrieben. Beispiel: Einer Gruppe von Probanden wird lediglich das frz. Wort „ infirmière “ (Krankenschwester) in einer Lesezeitmessung vorgelegt. Einer anderen Gruppe wird zu einem bestimmten Zeitpunkt vor der Präsentation des Wortes „ infirmière “ ein auditiver Stimulus (in diesem Fall der Target) in Form des frz. Wortes „ médecin“ (Arzt) präsentiert. Nun kann aus dem Vergleich der zeitlichen Messung auf einen erleichterten Zugriff auf „ infirmière “ geschlossen werden, da das semantische Feld bereits aktiviert wurde.

e) Kontrollierte Elizitation (SP): Hierbei wird versucht, den Output der Probanden zu kontrollieren, indem diesen Wörter oder inhaltliche Konzepte vorgegeben werden, welche die Probanden in ihren Äußerungen zu verwenden haben. Unter diese Kategorie gehören auch Reproduktionsaufgaben sprachlicher Strukturen, also einfaches Nachsprechen.

f) Bildbeschreibung / Objektbenennung / Objektkategorisierung (SP): Auf diese Weise werden Rückschlüsse auf konzeptuelle Spezifizierungen und Vorgehensweisen gezogen. Dem Probanden wird im Falle der Bildbeschreibung ein Bild vorgesetzt, das dieser möglichst umfassend zu beschreiben hat. Die Art und Weise, wie er es beschreibt im Vergleich zu anderen Probanden, gibt Auskunft über Versprachlichungsstrategien. Analog werden die Strategien zur Versprachlichung von räumlichen Beziehungen oder Objekteigenschaften untersucht.

6. Simulative Methodik (SR + SP)

Um Sprachmodelle auf deren Validität zu testen, Schwachstellen zu entdecken und diese Modelle schließlich zu präzisieren, werden computergestützte Simulationen durchgeführt (Vgl. Rickheit et al. 2010:20).

Somit wird versucht, Künstliche Intelligenz auf informatische Weise zu erschaffen, um menschentypische Prozesse auf einen Rechner zu projizieren und deren Funktionsweise praktisch orientiert zu verstehen (Vgl. Cacciari 2001:93f). Sprachmodelle werden in Programmiercodes umgeschrieben, um die Hardware mit den nötigen Fähigkeiten auszustatten, komplexe Aufgaben wie die beiden Sprachprozesse bewältigen zu können. Der Forschungszweig der Künstlichen-Intelligenz-Forschung geht bis in die 1950er Jahre zurück mit dem primären Ziel, Übersetzungen von Sprache zu Sprache zu erleichtern (Vgl. Cacciari 2001:94). Mittlerweile steht man an dem Punkt, dass die Früchte dieser Arbeit für jedermann in Form von Übersetzungsdiensten 3 oder Sprachassistenten in Automobilen 4 oder auf Smartphones 5 zugänglich sind.

7. Kritik an Methoden

Die Debatte zur Methodik in der Psycholinguistik dreht sich, wie in vielen anderen Wissenschaften, um die Vor- und Nachteile des Experiments gegenüber der Alltagssituation in natürlichem Umfeld.

Mittlerweile steht das Experiment im Mittelpunkt der psycholinguistischen Forschung (Vgl. Rickheit et al. 2010:21), während lange Zeit die passive Beobachtung von Sprachsituationen als vorherrschende Methode diente (Vgl. Rickheit et al. 2010:24).

Alltagssituationen weisen zwar die größte ökologische Validität auf, können aber im Gegensatz zu kontrollierten Experimenten von zu vielen Faktoren, die sich auf die Probanden auswirken könnten, beeinflusst werden. Zur Ermittlung der Einflussfaktoren ist es nötig, diese als unabhängige Parameter in Experimenten auszutesten. So ist es möglich in einer feingliedrigen Analyse, Abhängigkeiten und deren Größe festzustellen (Vgl. Rickheit et al. 2010:21). Selbstverständlich sind Experimente stets der Gefahr ausgesetzt, unnatürlich zu wirken (Vgl. Aitchison 1997:33) oder durch zu restriktive Bedingungen zu unangemessenen Schlüssen zu führen, weswegen man sich auch hier um ein angemessenes Maß an ökologischer Validität bemüht (Vgl. Neisser 1979:35f).

Beobachtungen durch eine einzelne Person zur Erstellung von Versprecher-Korpora sind zudem mit der Gefahr einer möglichen Subjektivität verbunden (Vgl. Rickheit et al. 2010:24): Ein Forscher hat schließlich eine gewisse Erwartungshaltung an seine Beobachtung und läuft Gefahr, dass er unbedingt etwas sehen will, wo gar nichts zu sehen ist.

Zudem kommt es oft vor, dass die Datenerfassung gewisse Faktoren nicht beachtet oder unzureichend bedient. So wurde zum Beispiel die situative Gegebenheit von Versprechern von vielen Forschern vernachlässigt (Vgl. Rickheit et al. 2010:25).

III. Sprachrezeption

Im folgenden Kapitel soll der Prozess des Sprachverstehens im Mittelpunkt der Betrachtungen stehen. Die Sprachrezeptionsforschung bezieht sich auf den Aufbau und die Dynamik der Repräsentation einer gehörten oder gelesenen sprachlichen Äußerung (Vgl. Rickheit et al. 2010:60). Anhand der Struktur des Prozesses wird eine Übersicht über die Teilschritte und Komponenten der Sprachrezeption gegeben, ausgehend vom akustischen Sprachsignal bis hin zur Integration der Äußerung in das Weltwissen.

Ein Trugschluss, der weit verbreitet zu sein scheint, ist, dass die Sprachrezeption das gespiegelte Bild des Sprachproduktionsprozesses ist. Dies ist nicht der Fall, da es deutliche strukturelle Unterschiede der beiden Richtungen des Sprachflusses gibt (Vgl. Prestin 2003:491). Dieser Sachverhalt wird spätestens nach der Betrachtung des Produktionsprozesses deutlich.

Es sind zwei Extrempunkte der sprachlichen Prozesse von Belang: Einerseits handelt es sich um die konzeptuelle Form der Sprache, wie sie in unseren Gedanken zu finden ist, wobei diese sich schließlich auf unser Weltwissen niederschlägt. Hierbei wird von einer komplexeren und abstrakten Form der Sprache ausgegangen, was sie metaphorisch betrachtet höher stellt. Blank (1998:6) spricht bei Konzepten von einer geistigen Vorstellung eines Sachverhaltes. Am anderen Extrem steht das Medium des Schalls, das die sprachliche Botschaft transportiert. Hierbei handelt es sich um eine weniger abstrakte Form, was sie metaphorisch betrachtet mit einem niedrigeren Rang auszeichnet. Aus dieser Metaphorik leiten sich zwei Richtungen ab: (a) top-down, also von oben nach unten, und (b) bottom-up.

Laut der Annahmen der Psycholinguistik muss bei der Sprachrezeption eine sprachliche Äußerung von unten nach oben die folgenden Prozesse durchlaufen: (1) das perzeptuelle Verstehen, (2) die morphologische Analyse, (3) die syntaktische Dekodierung, (4) die semantische Zuordnung und (5) das pragmatische Verstehen (Prestin 2003:491). Inwiefern diese einzelnen Schritte der einen oder anderen Prozessebene angehören und somit kombiniert betrachtet werden, differiert von Theorie zu Theorie. Global betrachtet durchläuft eine Äußerung unabhängig von einer Zuordnung der Prozesse (1)-(5) die Ebene der Worterkennung, die des Satzverständnisses, auch Parsing genannt, und die der Diskursrezeption.

Bemerkenswert ist die Tatsache, dass der Mensch in der Lage ist, menschliche Sprache von Geräuschen im Umfeld zu isolieren, womit der menschlichen Stimme und Sprache ein besonderer Stellenwert zukommt (Harley 2001:220). Die Tatsache, dass der Mensch im Durchschnitt 20 oder mehr Phoneme pro Sekunde verarbeiten kann (Vgl. Harley 2001:220) und somit in der Lage ist, ein Wort innerhalb von 200 Millisekunden nach dessen Artikulationsbeginn zu verstehen (Vgl. Marslen-Wilson 1987:74), stellt die Forschung vor die Frage, wie die Prozesse (1) - (5) organisiert sind und auf welche Weise sie die sprachliche Äußerung verarbeiten.

Sprachrezeption

1. Klassifizierung der Theorien

Betrachtet man die Typen von Modellen global (auf die gesamte Rezeption bezogen), so findet man drei Ansätze:

a) Wie in vielen Fällen in der Psycholinguistik gibt es hier zunächst die Annahme, dass die postulierten Ebenen autonom agieren. Hierbei wird davon ausgegangen, dass die Verarbeitung auf den einzelnen Prozessebenen getrennt stattfindet und nur die vollständigen Ergebnisse einer Ebene an die nächste weitergegeben werden. Im Rahmen dieser Modelle wird angenommen, dass das Weltwissen eines Menschen erst im finalen Schritt nach der rein sprachlichen Verarbeitung der Äußerung involviert wird. An dieser Stelle erfährt die Äußerung ihre Einordnung und Gewichtung in das Weltwissen des Rezipienten (Vgl. Prestin 2003:492).

b) Geht man jedoch von einem bottom-up und top-down Austausch zwischen den Prozessebenen aus, während die Verarbeitung noch in vollem Gang ist, spricht man von einem interaktiven Modell. Während in autonomen Modellen die höchste Ebene, das Weltwissen, erst am Ende des Prozesses steht, hat es in interaktiven Modellen von Anfang an einen Einfluss auf alle Prozessebenen (Vgl. Prestin 2003:491).

c) Die klassische Dichotomie (autonom vs. interaktiv) wird in neueren Theorien außer Acht gelassen: Hierbei handelt es sich jedoch um Modelle, die nicht einzelne Sprachfragmente, sondern die gesamte Konversation zu analysieren suchen. In diesen Modellen erhält die situative Einbettung der Kommunikation den besonderen Fokus, weswegen hierbei auch von situierten Modellen gesprochen wird (Vgl. Prestin 2003:491).

Bevor mit der Betrachtung einzelner Annahmen und Theorien begonnen wird, muss darauf hingewiesen werden, dass weit mehr Modelle und Theorien existieren als in dieser Arbeit aufgeführt werden können. Um einen Überblick über ein so ausuferndes Thema wie die Sprachprozesse zu garantieren, muss die Betrachtung von Details unglücklicherweise eingeschränkt werden, wobei ebendiese einen großen Reiz der Psycholinguistik ausmachen. Es werden somit einzelne Modelle schlank und beispielhaft in die Gesamtbetrachtung einfließen.

2. Theorien zur Worterkennung

Vor jeglichen theoretischen Annahmen zu Prozessstrukturen wird auf einzelne grundlegende Schwierigkeiten der Worterkennung eingegangen.

Der Sprachfluss: Am Anfang des Rezeptionsprozesses steht der Kontakt der Schallwellen mit dem auditiven System des Menschen. Die physikalische Form muss nun in eine abstrakte Repräsentation übersetzt werden, die innerhalb des Gehirns verschiedene Prozesse durchlaufen muss. Da der Sprachfluss kontinuierlich ist, muss eine Segmentierung desselben vorgenommen werden, damit einzelne Wörter im mentalen

Lexikon auf deren Bedeutung untersucht werden können (Vgl. Cutler et al. 1986:385). Zur Segmentierung schlagen Cutler et al. (1986:387) vor, dass Rezipienten verschiedener Muttersprachen verschiedene Mechanismen verwenden. Durch Untersuchungen der Rezeption von französischen Muttersprachlern wurde beispielsweise festgestellt, dass deren Segmentierung weitgehend auf Silbenbasis beruht, wohingegen der englischsprachige Rezipient eine Aufteilung in einer anderen Art vornimmt (möglicherweise in Form von Phonemen) (Vgl. Cutler et al. 1986:399). Diese Mechanismen der Rezeption gehen auf die verschiedenen Artikulationsstrategien von Sprachen zurück: Während im Französischen ein hoher Grad an klarer Silbenstruktur erreicht wird, ist dieser im Englischen durch Ambisyllabizität 6 niedriger, weswegen ein anderer Mechanismus von Nöten ist. In welcher Form auch immer, bilden diese Portionen von Sprache nun eine erste abstrakte Repräsentation des gesprochenen Wortes.

Das Lexikon: Eine weitere grundlegende Betrachtung muss zur Struktur und Gestalt des mentalen Lexikons gemacht werden. Das mentale Lexikon wird als Schnittstelle zwischen Sprachrezeption und Sprachproduktion betrachtet (Vgl. Levelt (1989) in Abbildung 7; s. Appendix) und weist in Sachen Organisation und Struktur somit ähnliche Eigenschaften für beide Richtungen der Sprachprozesse auf. An späterer Stelle wird genauer auf die Struktur des mentalen Lexikons eingegangen, allerdings seitens der Sprachproduktion (s. Kapitel IV und V). Aus diesem Grund wird an dieser Stelle lediglich kurz auf einige häufig auftretende Fragen zum mentalen Lexikon eingegangen.

Im mentalen Lexikon eines durchschnittlichen Erwachsenen befinden sich 30 000 bis 50 000 Wörter (Vgl. Aitchison 1997:8), wobei deren Art der Speicherung noch zu klären ist. Umstritten ist hierbei jedoch, ob es sich tatsächlich um vollständige Wörter, also Wortformen, handelt, oder ob eine morphologisch aufgespaltene Speicherung vorliegt. Aus diesem Grund spricht man von (1) morphemzentrierten und (2) wortzentrierten Modellen, welche sich gegenüber stehen (Vgl. Prestin 2003:492f):

(1) In morphemzentrierten Modellen (z.B. Taft & Forster 1975) werden Einträge in Form von Morphemen vorgenommen. Hierbei werden alle Wörter mit dem selben Stamm- oder Wurzelmorphem unter dem selben Eintrag gespeichert, was zunächst eine prälexikalische morphologische Analyse der zu rezipierenden Form erfordert.
(2) Wortzentrierte Modelle erfordern keine prälexikalische morphologische Analyse, da alle Wörter einen eigenen Eintrag erhalten. Auf morphologische Beziehungen zwischen den einzelnen Einträgen wird in derartigen Modellen zum Teil durch Netzwerkmechanismen eingegangen, was es erlaubt morphologische Verwandtschaften von Wörtern (z.B. selbe Wortwurzel) darzustellen.
(3) Ein Kompromiss dieser beiden Annahmen wird in Form der Zwei-Routen-Modelle gefunden. Hierbei wird davon ausgegangen, dass beide Arten von Repräsentationen im mentalen Lexikon vorhanden sind, was einerseits einen schnellen Zugriff auf ganze

Wörter und im Fall von Schwierigkeiten eine morphologische Analyse vor der morphembasierten Suche erlaubt. Beispielsweise wird im Morphological Race Model von Frauenfelder und Schreuder (1992) davon ausgegangen, dass beide Zugriffsarten gleichzeitig gestartet werden und die erfolgreichere die Form der Repräsentation bestimmt. Dieser Ansatz ist empirisch stark gestützt und wird deswegen für sehr plausibel gehalten (Vgl. Prestin 2003:492f).

Der Weg des Sprachflusses bei der Worterkennung durchwandert laut Frauenfelder & Tyler (1987) drei Stufen: (1) Es findet der erste Kontakt zwischen den aus Schallwellen erstellten abstrakten Repräsentationen (Silben oder möglicherweise Phoneme) und dem mentalen Lexikon statt, woraufhin dort die Suche nach der passenden lexikalischen Form angeregt wird (Vgl. Frauenfelder & Tyler 1987:3). (2) Es folgt die lexikalische Selektion, bei welcher sich die Aktivierung der Einheiten im mentalen Lexikon erhöht bis schließlich

(3) die Wortform erkannt wird und der Suchprozess beendet ist (Vgl. Frauenfelder & Tyler 1987:6).

Ist die Wortform erkannt, ist der lexikalische Zugriff abgeschlossen und gespeicherte Informationen zu Phonologie, Semantik, Syntax und Pragmatik der Wortform werden freigegeben (Vgl. Harley 2001:227).

Erkennung der Wortform: Doch an welchem Punkt wird eine Form, sei es eine vollständige Wortform oder ein morphologisch basierter Eintrag, erkannt und ausgewählt? Die gesprochene Sprache trifft auf den Rezipienten in einem kontinuierlichen Strom, der segmentiert werden muss. Diese Segmentierung findet, wäre die gesprochene Sprache niedergeschrieben, in westlichen Kulturen von links nach rechts statt, wobei der Wortanfang einen besonderen Augenmerk bekommt.

Frühen Modellen der Worterkennung zufolge handelt es sich bei der Rezeption um einen Vergleich der ankommenden Wortform mit einer Schablone / Matrize (template). Dies erscheint utopisch, da zu viel Variation in der Artikulation möglich ist, dass die Anzahl der Matrizen unüberschaubar groß sein müsste (Vgl. Harley 2001:228).

Aus diesem Grund betrachtet man nicht die gesamte Wortform, sondern arbeitet sich von links nach rechts und geht von einem uniqueness point aus, an dem sich zeigt, dass die vorliegende Wortform einzigartig und unverwechselbar ist. Die Worterkennung versucht, so schnell wie möglich die passende Wortform zuzuordnen, wobei dies auch nach Ende des Wortes sein kann, wenn bereits nachfolgende Wörter zur Worterkennung bereitstehen. Es muss allerdings nicht nach dem uniqueness point oder nach Wortende zu einer Entscheidung kommen, sondern kann schon davor stattfinden. Hierbei spielt der Kontext eine Rolle: Es werden bereits vorgeschlagene Wortformen aus dem Kontext bereitgestellt, wobei deren Zuordnung zum ankommenden Sprachsignal erst nach einem weiteren kritischen Punkt, dem isolation point, stattfinden kann. Dieser Punkt ist möglicherweise identisch mit dem uniqueness point, kann aber auch deutlich früher als dieser positioniert sein (Vgl. Harley 2001:226f). Dieses Vorgehen durch Vermutungen zu einer möglichen Wortform wurde bereits empirisch nachgewiesen (Vgl. Aitchison 1997:273).

Der Kontext: Wie auf jeder Ebene der Sprachrezeption stellt sich die Frage, welchen Einfluss der Kontext 7 auf die zu erstellende Repräsentation hat. Frauenfelder und Tyler (1987:12) nehmen eine grobe Unterteilung der verschiedenen Kontexttypen in strukturellen (structural) und nicht-strukturellen (non-structural) Kontext vor:

(1) Struktureller Kontext wirkt sich lediglich auf die Verarbeitung auf ein und derselben

Ebene aus und bestimmt durch Einschränkungen und Regeln, welche Einheiten zu einer höheren Repräsentation kombinierbar sind und welche nicht (Vgl. Frauenfelder & Tyler 1987:12). Beispielsweise kann durch solche Regeln die Kombination von Morphemen zu polymorphemischen Wörter legal sein oder nicht. Die Tatsache, dass der Kontext auf einer Verarbeitungsebene seine Auswirkungen zeigt, erlaubt einen Gebrauch des Mechanismus auch in autonomen Modellen.

(2) Nicht-struktureller Kontext hingegen entstammt einer höheren Repräsentationsebene. So kann beispielsweise die vorige Aktivierung des engl. Wortes „ doctor “ die Rezeption des auf konzeptueller Ebene stark assoziierten Konzeptes „NURSE“ erleichtern (Vgl. Frauenfelder & Tyler 1987:12). Ein derartiger Informationsfluss findet top-down statt, was eine Implementierung des Mechanismus in autonomen Modellen nicht zulässt.

Praktischer zu beobachten ist das Wirken von Kontext auf das Verstehen von Sprache am Beispiel der phoneme restoration (Phonemwiederherstellung). Während einer Äußerung kann es vorkommen, dass einzelne Phoneme durch laute Geräusche im Umfeld untergehen und somit nicht rezipierbar sind. Dennoch ist der Hörer in der Lage, die Äußerung vollständig zu verstehen und bemerkt die Wiederherstellung möglicherweise gar nicht.

Ist dies ein Effekt, der durch top-down Einfluss vom lexikalischen Code entstehen kann, oder handelt es sich dabei um einen Einfluss von der selben Ebene? Die Zuordnung dieses Phänomens ist stark kontrovers (Vgl. Harley 2001:225), womit nicht eindeutig festgelegt werden kann, welchem der beiden Kontexttypen dieser Mechanismus seine Fähigkeit verdankt.

Prozessmodelle der Worterkennung

Worterkennungsmodelle werden, wie auch Modelle auf globaler Ebene, ebenfalls in autonomen und interaktiven Ansätze unterschieden, wobei eine Einordnung eines Modells auf einem Kontinuum zwischen den beiden Polen „autonom“ und „interaktiv“ aufgrund etwaiger Mischformen geeigneter erscheint (Vgl. Harley 2001:227).

Die entscheidende Frage hierbei ist, ob die angesprochenen Prozessschritte strikt sequentiell, also autonom, verlaufen oder interagieren können (Prestin 2003:493).

1. Autonome Worterkennungsmodelle

In autonomen Modellen sind lediglich zwei Informationsquellen von Relevanz, wobei dies einerseits der sprachliche Input und andererseits das mentale Lexikon (Vgl. Prestin 2003:493) ist. Diese Klasse von Modellen wird gekennzeichnet durch die strenge bottom- up Serialität der Worterkennungsprozesse.

a) Suchmodelle: Ein bekanntes Modell dieser Klasse ist beispielsweise das Suchmodell nach Forster (1976). Hierbei ist ein zweistufiger Schritt postuliert (Vgl. Marslen-Wilson & Welsh 1978:50): Es wird eine Trennung in periphere access files (Zugangsdaten) und das master file (Hauptspeicher) vorgenommen. Im master file sind alle Informationen zur Semantik und Syntax eines Wortes gespeichert, wobei diese nur über die access files gefunden werden können. Letztere sind aufgrund von Ähnlichkeiten ihrer Anfangslaute nach Wortformen geordnet und enthalten Adressdaten zur Suche ihres korrespondierenden Partners im master file. Es wird angenommen, dass es Gruppen von ähnlichen Wortformen gibt, die in bins (Behältern) gespeichert werden. Höher frequente, also gebräuchlichere, Formen werden weiter oben gespeichert, was einen schnelleren Zugang erlaubt, ein Effekt, der empirisch nachgewiesen werden konnte (Vgl. bspw. Allen et al. 1997:1796). Die Liste wird von oben nach unten so lange durchsucht, bis die passende Wortform gefunden ist (Vgl. Aitchison 1997:277). Erst wenn dieser Schritt vollzogen wurde, kann im master file die Form gefunden werden und die Informationen zu den syntaktischen und semantischen Eigenschaften des Wortes können aktiviert werden. Dieses Vorgehen bietet einen übersichtlichen Zugriff auf Wortformen, wobei gerade der Wortfrequenzeffekt von großem Nutzen ist. Jedoch wurde es schnell kritisiert, was den zeitlichen Verlauf angeht. Mit einer Latenzzeit von 200 Millisekunden wurde das Verstehen eines Wortes bereits signalisiert, wobei die durchschnittliche Dauer der Wörter ca. 370 Millisekunden betrug, was eine Wortauswahl bereits deutlich vor Wortende impliziert (Vgl. Marslen-Wilson & Tyler 1980:28). Diese Schnelligkeit scheint unwahrscheinlich durch ein reines bottom-up Auswahlverfahren und legt somit den Einbezug von kontextueller Interaktion nahe.

b) Direkte Aktivation: Die Kritik an Suchmodellen veranlasste Marslen-Wilson und Welsh (1978) zur Annahme eines eigenen Modells. Hierbei wird ein anderer Suchmechanismus verwendet, die direkte Aktivation: Hierbei findet generell gesehen ein paralleler Abgleich von mehr als einem Lexikoneintrag zeitgleich statt. Der Input dient somit als Vorlage für mehrere Möglichkeiten aus dem mentalen Lexikon. Diese Vorschläge ergeben sich aus der phonologischen Ähnlichkeit des Wortanfangs (Vgl. Prestin 2003:493). Die zentrale Idee des Modells von Marslen-Wilson und Tyler (1978) ist es, dass der Rezipient zu Wortbeginn eine Kohorte von möglichen Einheiten, die das Wort ergeben könnten, aufstellt. Die Kohorte wird durch den sukzessiven Input immer weiter eingeschränkt bis schließlich das Zielwort als letztes stehen bleibt (Vgl. Harley 2001:229). Im Gegensatz

zum Suchmodell von Forster findet eine Dezentralisierung statt, da nicht einzelne Formen und Einheiten auf Angemessenheit untersucht werden, sondern alle Formen sich selbst anbieten und überprüfen. Wenn das lautliche Muster der zu rezipierenden Form mit den Mustern der lexikalischen Einheit übereinstimmt, wird diese aktiviert (Vgl. Marslen-Wilson & Tyler 1978:56). Es werden zwei Szenarien für das Erkennen eines Wortes näher betrachtet:

(1) Steht ein Wort in absoluter Isolation ohne Kontext, so funktioniert der Mechanismus wie bereits beschrieben wurde. Eine Kohorte wird aus dem Input erstellt. Sobald jedoch eine Divergenz zwischen möglichem Kandidat und Input besteht, scheidet der Kandidat aktiv aus. Je mehr Input ankommt, desto mehr Kandidaten werden sich ausschalten, bis schließlich ein einziges Wort als ausgewähltes Wort hervorgeht (Vgl. Marslen-Wilson & Tyler 1978:56). Im Gegensatz zum vorgestellten Suchmodell von Forster (1976) ist in diesem Modell der genaue zeitliche Ablauf des lexikalischen Zugriffs berechenbar und es besteht zudem die Möglichkeit, ein Wort vor dessen Wortende zu erkennen. Außerdem kann das System mit einer gewissen Toleranz hinsichtlich lautlicher Variationen arbeiten, was Reparaturen von Fehlartikulationen und Phonemwiederherstellungen zulässt (Vgl. Marslen-Wilson & Tyler 1978:57).

(2) Das zweite Szenario untersucht ein Wort, das im Satzkontext steht (Vgl. Marslen-Wilson & Tyler 1978:58). Hierbei tritt nicht nur der beschriebene Mechanismus in Kraft, sondern zusätzlich signalisieren höhere Ebenen (Semantik und Syntax), welche Anforderungen der Kontext an die lexikalische Suche stellt: Mit Hilfe dieses erweiterten Kriterienspektrums wird die Wortsuche erheblich beschleunigt und ist somit global betrachtet ein Zusammenspiel aus bottom-up Informationen und top-down Restriktionen. Aus diesem Grund ist diese ursprüngliche Version des Kohortenmodells auf dem Kontinuum zwischen autonom und interaktiv anzusiedeln, da es je nach kommunikativer Situation Kontext beachtet oder nicht. In späteren Versionen des Kohortenmodells verliert der Kontext und somit die Interaktivität an Bedeutung (Vgl. Harley 2001:233), was der Grund dafür ist, den Kohortenmechanismus eher als autonomes Worterkennungsmodell zu klassifizieren.

Ein grundsätzliches Problem des Kohortenmodells ist dessen starker Fokus auf den Wortanfang. Wird dieser verdeckt von anderen Geräuschen und somit unkenntlich, kann keine initiale Kohorte erstellt werden (Vgl. Rickheit et al. 2010:69). Auch wird kein spezieller Mechanismus zur Segmentierung des Sprachflusses eingeführt, was annehmen lässt, dass von einer phonembasierten Segmentierung ausgegangen wird, was, wie erwähnt, nicht in jeder Sprache den Tatsachen entspricht.

[...]


1 Kinder im Alter von 2-3 Jahren weisen eine bis zu siebenfach höhere Fehlerrate auf und gehirngeschädigte Patienten können eine hundertfache Fehlerrate aufweisen.

2 im Englischen werden sie slips of the tongue also Zungenausrutscher genannt Methodisches Vorgehen

3 Beispielsweise: der Google-Übersetzer: http://translate.google.de/translate

4 Beispielsweise: Sprachassistent in neuen Ford-Modellen mit dem Namen Sync ( http://www.ford.de/UeberFord/FordTechnologien/Ford_SYNC )

5 Beispielsweise: Apples Sprachassistent Siri ( http://www.apple.com/de/ios/siri/ ) oder ein AndroidSprachassistent ( https://play.google.com/store/apps/details? id=yourapp24.android.tools.aivc&hl=de )

6 z.B. ist der intervokalische Konsonant „l“ im englischen Wort „ palace“ nun Teil der ersten oder der zweiten Silbe des Wortes (Vgl. Cutler et al. 1986:387)?

7 Informationen von höheren Repräsentationsebenen

Fin de l'extrait de 90 pages

Résumé des informations

Titre
Kritische Auseinandersetzung mit Modellen der Sprachproduktion und Sprachrezeption
Université
University of Stuttgart  (Linguistik Romanistik)
Note
1,0
Auteur
Année
2013
Pages
90
N° de catalogue
V315707
ISBN (ebook)
9783668152465
ISBN (Livre)
9783668152472
Taille d'un fichier
5016 KB
Langue
allemand
Mots clés
Linguistik, Psycholinguistik, Dell, Levelt, Sprachproduktion, Sprachrezeption, Modell, Romanistik
Citation du texte
Friedemann B. Götz (Auteur), 2013, Kritische Auseinandersetzung mit Modellen der Sprachproduktion und Sprachrezeption, Munich, GRIN Verlag, https://www.grin.com/document/315707

Commentaires

  • Pas encore de commentaires.
Lire l'ebook
Titre: Kritische Auseinandersetzung mit Modellen der Sprachproduktion und Sprachrezeption



Télécharger textes

Votre devoir / mémoire:

- Publication en tant qu'eBook et livre
- Honoraires élevés sur les ventes
- Pour vous complètement gratuit - avec ISBN
- Cela dure que 5 minutes
- Chaque œuvre trouve des lecteurs

Devenir un auteur