Sprachproduktion – Grundlagen, Theorien, Modelle und Forschung


Seminararbeit, 2010
41 Seiten, Note: 2,0

Leseprobe

Inhalt

Abstract

1. Einleitung

2. Sprachproduktion: Einführung, Forschung, Begriffe
2.1. Einführung
2.2. Forschung
2.3. Begriffe
2.4. Modelle

3. Sprachproduktion: Geschichte und erste wichtige Modelle
3.1. Die Anfänge: Aphasie, Sprechfehler, Pausen
3.2. Fromkin (1971): Sprechfehler und ein erstes Modell
3.3. Garrett (1980): modularer Standard; zwei Ebenen im lexikalen Zugriff
3.4. Dell (1986): interaktiver Standard
3.5. Levelt (1989): inkrementeller Standard
3.6. Das Standardmodell
3.6.1. Bock & Levelt (1994): grammatische Enkodierung im inkrementellen Modell
3.6.2. Meyer (2000): Formbildung im Standardmodell
3.7. Levelt et. al. (1999) & Roelofs (2000): WEAVER++

4. Ein anderer Ansatz: Caramazza (1997): lexikaler Zugriff im IN-Netzwerkmodell: gegen Lemmas

5. Fazit und Vergleich

6. Abbildungsverzeichnis

7. Referenzen

Abstract

Sprachproduktion ist ein Teilgebiet der Psycholinguistik, welche versucht die Produktion von menschlicher Sprache zu beschreiben. Es ist das wohl am schlechtesten erforschte Gebiet, das trotzdem schon eine lange Tradition hat. In dieser Arbeit wird dieses Gebiet vorgestellt. Ein kurzer Überblick über wichtige Begriffe und Geschichte leitet ein, gefolgt von den wichtigsten Modellen der Sprachproduktion von 1971 bis 1999 im Detail und anschließend noch einzelnen Problemen und alternativen Vorschlägen.

1. Einleitung

Sprachproduktion ist ein Teilgebiet der Psycholinguistik. Die Psycholinguistik[1] beschäftigt sich mit Sprache als Verbindung von Linguistik und Psychologie und will die mentalen Vorgänge beim Erwerb, Verstehen und Äußern von Sprache erforschen und erklären. Als größere Teilgebiete kann man hier Spracherwerb, -produktion und -verstehen festhalten, sowie -störungen. Von diesen Gebieten ist ausgerechnet die Produktion am wenigsten erforscht.

Jahrzehntelang beschäftige man sich mit der Sprachproduktion nur im Zusammenhang mit Sprachstörungen wie Sprechfehlern oder Aphasie. Erst in den 60er und vor allem 70er Jahren wurde das Interesse an der Produktion größer, besonders auch aufgrund aufkommender Computer, mit deren Funktionieren man das Gehirn verglich. In den 80ern bildeten sich die grundlegenden Modelle der theoretischen Sprachproduktion heraus, die bis heute nur teilweise herausgefordert, eher verbessert, werden.

Diese Arbeit beschäftigt sich mit der Sprachproduktion. Der Aufbau ist dabei wie folgt: Zunächst soll es einen historischen Überblick von den ersten Sprechfehler-Aufzeichnungen an geben. Danach folgt eine kurze Einführung in das Gebiet der Sprachproduktion allgemein mitsamt historischem Überblick, mit allen Punkten, die weiterhin wichtig sein werden. Kurz wollen wir dann die ersten Modelle betrachten. Daraufhin soll es mehr Details zum „Standard-Modell“ geben, schließlich wird das aktuellste Modell, WEAVER++, vorgestellt.

2. Sprachproduktion: Einführung, Forschung, Begriffe

2.1. Einführung

Diese kurze Einleitung soll bereits im Groben einen Einblick geben, was man unter Sprachproduktion versteht, welche Ursachen und Grundlagen an Daten wichtig sind, zu welchen Modellen dies führen kann und welche Probleme und Annahmen man ständig im Auge haben muss. Dies soll helfen den detaillierteren Blick auf einzelne Modelle und ihre Probleme zu erleichtern.

Levelt et. al. (1999: 1f) erzählen eine ontogenetische Einleitung, um zu beschreiben, wie der Mensch die Sprachproduktion entwickelt um damit auch eine Grundlage für ihr Modell zu geben. Dies kann uns als Beispiel helfen. Schon Babys fangen an, einen Sinn für Kategorien wie Agens, Interaktanz, temporale und kausale Strukturen, Objekte und Lokation zu entwickeln. Die Matrix für erste lexikale Konzepte bildet sich durch den Erwerb von Verben. Auditorische Muster werden aus der Umwelt aufgeschnappt und so ein Protosyllabar entwickelt, welches die ersten Sprachmotormuster enthält. Die ersten geäußerten Wörter sind „Gebabbel“, die lexikale Konzepte ausdrücken sollen. Damit ergibt sich bereits eine Verbindung von Konzept und Artikulation; die Brücke, der wir noch öfter begegnen werden, ist damit geschlagen. Restrukturierung des Materials ergibt sich durch Syntaktisation, wenn lexikale Elemente syntaktische und subkategorische Merkmale zugewiesen bekommen. So entsteht ein System von so genannten Lemmas, Bündeln von syntaktischen Eigenschaften der Konzepte. Ab etwa 4 Jahren hat man so das System: Von Konzept über Lemma zu Phonologie und Phonetik.

Modelle der Sprachproduktion sollen stets darstellen, was in dem Vorgang entsteht und vorgeht, der unsere Äußerungen produziert. Denn dass Sprachproduktion mehr ist, als nur die Lippen und Zunge zu bewegen, dürfte klar sein. Modelle können aber bis heute nicht vollkommen korrekt sein und stützen sich nur auf Annahmen, welche wir hier beschreiben wollen. Alle Modelle haben aber gemein, dass sie mehr als eine Ebene annehmen, in der die Sprachproduktion stattfindet, und beschreiben diesen Vorgang stets von „oben“ (Intention) bis „unten“ (Artikulation), also quasi den Weg vom Gehirn hinab in den Mund.

Zunächst einmal unterteilt man in der Sprachproduktion im Allgemeinen, nun aber in Anlehnung an Levelt (1989), drei grobe Gebiete. Auf der Ebene der Konzeptualisierung entsteht die Intention, die Nachricht, die „Message“ - das, was der Sprecher sagen will und damit verbundene Konzepte. Oder um mit Pechmann (1994: 11) zu sprechen: Propositionaler Inhalt und Pragmatik. Man nennt die Ebene auch die Nachrichten-Ebene. Danach folgt die Formulation: Das Konzept wird in eine linguistische (sprachliche) Form umgewandelt; es werden individuelle Wörter gewählt (lexikale Einträge aktiviert), zusammengesetzt und in einen syntaktischen Rahmen (also einen Satz) gesetzt und letztlich wird auch schon die phonologische Struktur spezifiziert. Fast alle Modelle konzentrieren sich hauptsächlich auf diese Ebene oder gar einen Teil davon. Schließlich folgt noch die Artikulation mit den letzten detaillierten phonetischen und artikulatorischen Planungen.

2.2. Forschung

Die Forschung konzentrierte sich wie gesagt meist auf die Formulation, doch allgemein ist die Forschung die Produktion betreffend härter als die, die Perzeption betreffend, denn den Input zu kontrollieren und Gedanken experimentell zu steuern ist schwer. Trotzdem gibt es Evidenz, anhand derer man vieles erschließen kann. So gibt es, in Anlehnung an Harley (1995: 244) vier große Gebiete als Forschungsgrundlage: Historische Änderungen in Aussprache und Lexikon, Konversationsanalyse, Sprachpausen-Analyse sowie spontane Sprechfehler und das Tip-of-the-Tongue-Phänomen (ToT). In letzter Zeit benutzt man als zusätzliche Quellen aber noch Experimente und seit kürzerer Zeit auch Gehirnanalysen. Sehen wir uns aber mal einige dieser Quellen genauer an.

Bei Pausen im Sprechen ist die Distribution wichtig, in der sie erscheinen. Man unterscheidet dabei (Harley 1995: 244f) gefüllte und ungefüllte Pausen. Ungefüllte sind schlichte Stille, dagegen unterteilen sich gefüllte nochmal in wirklich gefüllte (z.B. 'äh'), Wiederholungen, „falsche Starts“ und parenthetische Anmerkungen ('nun'). Weiter lassen sie sich unterteilen in die Gruppen Mikroplanung vs. Makroplanung. Die erste Art von Pausen betrifft Wörter, zweitere die Syntax. Mikroplanung findet häufig in Konversation statt. Vor allem, wenn unerwartete Wörter kommen (unerwartet aufgrund der Frequenz im Lexikon[2], Vertrauen mit dem Wort oder dem semantischen und syntaktischen Kontext). Mikroplanung ist dem ToT ähnlich: Wir kennen die Bedeutung des Wortes, brauchen es aber noch selber. Solche Pausen ersetzen wir auch oft mit Gesten. Ein Problem ist aber, dass es auch zahlreiche andere Pausen gibt. Z.B. setzen wir in Sprache ebenso wie in Schrift oft „Satzzeichen“, also grammatische Pausen oder geben damit die Rede an den Gesprächspartner (vgl. Harley 1995: 249f).

Das Tip-of-the-Tongue-Phänomen (ToT, Harley 1995: 246f) ist ein für sämtliche Modelle extrem wichtiges, ist es doch ein Argument für einen zweistufigen Zugriff auf das Lexikon während der Formulation. Beschreiben lässt es sich auch als lexikales Zugriffsproblem: Wir wissen die Semantik des Wortes, können aber nicht auf seine lautliche Form zugreifen. ToTs sind universell in allen Sprachen vorhanden und können experimentell verursacht werden, in dem z.B. der Versuchsperson die Definition erzählt wird und sie die Form nennen soll. Beim ToT lassen sich teilweise phonologische Informationen holen, z.B. die Silbenanzahl, der Anfangslaut des Wortes, das Akzentmuster sowie phonologisch ähnliche Wörter. Erklärungsmöglichkeiten für das Phänomen lauten: Entweder partielle Aktivierung oder Blocking/Interferenz. Ersteres träfe zu, wenn lexikale Einheiten nur schwach im System vertreten sind. Letztlich ist die Wahrheit dann auch wohl die, dass es nur eine schwache Verbindung zwischen der semantischen und der phonologischen Ebene im System gibt. Ein Blocken würde stattfinden, wenn ein Wettbewerber im System stärker wäre, doch die partielle Lösung ist wahrscheinlicher.

Sprechfehler waren lange Zeit die Hauptgrundlage, auf deren man Modelle der Sprachproduktion baute. Probleme waren dann aber, dass sie hauptsächlich gedacht waren fehlerhafte Sprache zu erklären und nicht normale. Es gibt nur eine begrenzte Menge an möglichen Sprechfehlern, weshalb man aufgrund ihrer Möglichkeiten darauf schloss, welche Ebenen es in der Produktion gibt. Harley (1995: 251f) beschreibt zwei grobe Gruppen, sortiert nach beteiligter linguistischer Einheit (phonologisches Merkmal, Phonem, Silbe, Morphem, Wort, Phrase oder Satz) oder Fehlermechanismus (Blend, Substitution, Addition, Tilgung). In Fehlern wird nie der Satzakzent verändert, was wiederum darauf hindeutet, dass er unabhängig vom Rest sein muss. Gleiches gilt für die Morphosyntax, die meist erhalten bleibt. Auch phonologische Regeln werden ganz am Ende noch angewandt, was ein weiterer wichtiger Punkt für die Erstellung eines Modells ist.

2.3. Begriffe

Ein wichtiger Begriff in Modellen der Sprachproduktion ist die Lexikalisation. In dieser werden, grob nach Harley (1995: 253), Gedanken in Laute umgewandelt. Die Frage, die sich dabei stellen muss, ist, in wievielen Ebenen dies geschieht und ob sie voneinander unabhängig (modulare Modelle) oder nicht (interaktive Modelle) sind und wie lange der Prozess dauert. Zunächst einmal lässt sich sagen (vgl. Fay & Cutler 1977), dass es zwei Arten von Wortersetzungen gibt: semantische und phonologische. Dies spricht schon für (mindestens) zwei Ebenen. (Völlig) unabhängig voneinander können die Ebenen nicht sein, denn dann gäbe es keine „Mixed Errors“. Butterworth (1982) nimmt deshalb (für modulare Modelle) einen Filter (einen Monitor) an, der nur Wörter durchlässt, die 'korrekt' klingen. Eine andere Möglichkeit wäre sonst nur ein interaktives Modell. Bei einem Ein-Stufen-Modell würde das System direkt von der Semantik zur Phonologie gehen. Bei einem Zwei-Stufen-Modell gäbe es noch eine Zwischenstufe, auf der die prä-phonologische Repräsentation erstellt wird. Die zweite Ebene würde hierbei die konkrete phonologische Form spezifizieren. Und tatsächlich gibt es Evidenz für dieses Modell (vgl. Harley 1995: 256): 1. würden Wortersetzungen damit leicht erklärt sein. Ein semantischer Fehler auf der ersten Stufe, ein phonologischer Fehler in der zweiten Stufe. 2. spricht das ToT dafür. Die erste Stufe wäre vollendet (man kennt die Bedeutung etc.), aber die zweite wird nicht erreicht (die Form). 3. spricht Mikroplanung dafür. 4. fand sich experimentelle Evidenz. 5. spricht auch Anomia bei Aphatikern dafür, das so ähnlich wie ein ToT wirkt. 6. verhalten sich auch Bilinguale oft wie im ToT.

Laut Roelofs (2000: 71f) benutzen Sprecher bei Äußerungen viele Facetten ihres Wissen über Wörter um diese zu formulieren, so syntaktische Eigenschaften, Morphologie, Komposition, Lautstruktur. Der lexikale Zugriff ist ein Prozess, bei dem Informationen über Wörter aus dem Gedächtnis geholt werden um ein lexikales Konzept auf artikulatorische Programme zu binden und hat zwei Hauptstufen: Das Holen von Lemmas und die Wortform-Enkodierung. Das lexikale Konzept aktiviert ein Lemma (eine Gedächtnis-Repräsentation der syntaktischen Eigenschaften eines Wortes und ist wichtig für die Nutzung in einem Satz).

2.4. Modelle

Ein Problem für alle Modelle ist es, die Geschwindigkeit der Sprachproduktion zu erklären (vgl. Pechmann 1994: 11f). Viele Prozesse müssen zwangsweise parallel verlaufen. Entweder werden hierbei dann verschiedene Teile der Äußerung zur gleichen Zeit auf verschiedenen Stufen oder dieselben Teile einer Äußerung auf verschiedenen Stufen gleichzeitig verarbeitet. Hieraus lassen sich dann zwei Arten von Modellen ableiten: Modulare und Interaktive. Erste haben serielle autonome Stufen ohne Feedback, bei denen der Output der einen Stufe der Input der nächsten ist, letztere haben parallele nicht-autonome Stufen mit vielfältigen bidirektionalen Beziehungen.

Modulare Modelle haben eine Reihe von Kriterien (vgl. Pechmann 1994: 12). Das Modul ist bereichsspezifisch, läuft, wenn einmal aktiviert, automatisch ab, ist schnell, hat einen spezifischen Input und kann auf eine definierte neuronale Struktur zurückverfolgt werden. Die Definition modularer Prozesskomponenten sagt aus, dass sie „deutlich unterscheidbare Teilsysteme der Informationsverarbeitung sind, die in einer Input-Ouput Beziehung zueinander stehen in dem Sinn, daß der Output eines Systems der Input eines anderen Systems ist.“ (Pechmann 1994: 12)

Neuere Modelle treffen noch eine weitere Annahme, um die Schnelligkeit der Produktion zu erklären, nämlich inkrementelle Produktion (vgl. Pechmann 1994: 13, siehe dazu die Modelle von Levelt). Dies bedeutet, dass nachfolgende Teile gleichzeitig auch auf vorangehenden Ebenen verarbeitet werden. Dies ist der parallele Charakter in einem seriellen Modell.

Was spricht aber nun für interaktive Modelle? Meist werden die „Mixed-Errors“ herangezogen. Dagegen gibt es aber Evidenz (vgl. Harley 1995: 257f). Man fand heraus, dass das Wort „sheep“ das semantisch verwandte Wort „goat“ primen[3] kann. In einem interaktiven Modell sollte „goat“ auch das phonologisch verwandte „goal“ primen, bei einem modularen dagegen nicht. Tatsächlich fand sich das nicht. „Sheep“ primet anfangs einen semantischen Nachbarn („goat“) und keinen phonologischen („goal“), später ist es umgekehrt. Im interaktiven Modell sollte beides immer möglich sein. Trotzdem wird das interaktive Modell meist bevorzugt.

Die syntaktische Ebene (erster Teil der Formulation) wird meist Garrett (s.u., vgl. auch Harley 1994: 259ff) folgend seriell und modular strukturiert. Er nennt sie die funktionale Ebene, auf der es noch keine Wortordnung gibt. Diese folgt erst auf der positionalen Ebene. Auch unterscheidet er zwischen Inhalts- und Funktionswörtern, wobei erstere einen Frequenzeffekt haben[4]. Evidenz gibt es in Form der Morphemaustauschungen, welche darauf hin deuten, dass Morphosyntax und Stamm unabhängig voneinander sind. Später erst folgen Phonologie und Akzentzuweisung. Dies bedeutet, dass es zunächst einen syntaktischen Plan (Frame/Rahmen) mit Slots, in welche die Wörter gesetzt werden, gibt. Wortaustauschungen entstehen, wenn sie in den falschen Slot gesetzt werden. Auch grammatische Elemente (Affixe) werden eingefügt, Stamm und Affix aber erst später phonologisch angeglichen. Das Problem sind aber auch hier „Blend Errors“ (die Vermischung von 2 Wörtern oder Phrasen).

3. Sprachproduktion: Geschichte und erste wichtige Modelle

3.1. Die Anfänge: Aphasie, Sprechfehler, Pausen

Betrachten wir nun eine grobe Übersicht der geschichtlichen Entwicklung der Sprachproduktionsforschung. Es lassen sich (nach Pechmann (1994)) drei grobe Felder definieren, die jeweils eigene Quellen und Methoden haben: Aphasieforschung, Sprechfehler sowie die Pausenforschung. Weitere Evidenzquellen wurden oben erwähnt.

Aphasie ist eine Sprachstörung, die eintritt, nachdem Sprache schon einmal vollständig erworben wurde. Ursachen können Unfälle, Tumore oder Schlaganfälle sein. Als Begründer nennt Pechmann (1994: 17f) Franz Joseph Gall (1758 - 1828[5] ), den „Erfinder“ der Phrenologie, welche anhand der Schädelform Charaktermerkmale erschließen wollte. Ebenso war eine Annahme der Phrenologie, dass mentale Prozesse modular auf funktional unterscheidbare Subsysteme zurückzuführen sind, die genetisch determiniert und autonom sind und sich im Gehirn lokalisieren lassen. Damit nahm sie modulare Modelle und die Neuroforschung vorweg. Paul Broca (1824 – 1880[6] ) stellte 1861 die ersten klinischen Studien an. Auch er suchte die zerebrale Lokalisation psychischer Funktionen. Bei seinen Patienten fand er Störungen im motorischen Zentrum, dem nach ihm benannten Broca-Zentrum, das bei Beschädigung zu mühsamer Telegrammsprache, Wortfindungsproblemen und syntaktischen Problemen führt. Wenig später (1874) fand Carl Wernicke (1848 – 1905[7] ) das sensorische Zentrum, das Wernicke-Zentrum genannt wurde, und bei Schädigung zu Problemen des Sprachverstehens und bei der Produktion häufig zu Paraphasien führt (vgl. Pechmann 1994: 18f). Noch etwas später (1885) formulierte Ludwig Lichtheim (1845 – 1928[8] ) ein erstes einfaches Modell, laut dem es ein Begriffszentrum gibt, das verbunden ist mit dem motorischen und dem sensorischen Sprachzentrum. Ist die Verbindung zwischen den Zentren gestört, führt das zu Leitungsaphasien, bei denen man ein Problem mit dem Nachsprechen hat. Für Sigmund Freud (1856 – 1939[9] ) war dieses Modell zu simpel und unrealistisch, denn es würde in der Praxis viele Mischformen geben. Er verlangte (1891) statt Lokalisationen im Gehirn lieber die genaue Analyse einzelner Funktionen des Verhaltens um Interpendenzen zu bestimmen und ein psychologisches, funktionales Modell zu erhalten, denn Verhaltensstörungen seien wichtig, um ein Modell des normalen Verhaltens zu erstellen (vgl. Pechmann 1994: 20f). Danach wurde es ruhig in der Forschung in diesem Bereich. Erst mit Ellis & Young (1988, vgl. Pechmann 1994: 21ff) wurde wieder verstärkt eine kognitive Neuropsychologie gefordert. Sie definierten als Modell-Ebenen Semantik, Speech-Output-Lexikon und ein phonetisches System. Die Frage ist, ob das Modell modular ist. Dazu müsse man Fälle beobachten, in denen nur eine der Ebenen gestört ist. Wortfindungsprobleme sprechen für die semantische Ebene, Frequenzprobleme und Jargonaphatiker (die keine Kontrolle über Stämme haben aber Morpheme richtig einsetzen) für das Speech-Output-Lexikon. Die moderne kognitive Neuropsychologie führt nun detaillierte Einzeluntersuchungen durch, um aufgrund selektiver Ausfälle einzelner Systeme Theorien und Modelle aufzustellen.

Sprechfehler sind eine große traditionelle Quelle für die Sprachproduktionsforschung (vgl. Pechmann 1994: 24ff). Die Grundlage legte Rudolf Meringer (1895; nur teilweise unterstützt von Carl Mayer, aber meist wird referiert als ' Meringer & Mayer '). Meringer sammelte den ersten Korpus von Sprechfehlern, bei denen er sehr sorgfältig war, um Wahrnehmungsverzerrung zu eliminieren, denn der Mensch neigt sehr dazu, automatisch in der Perzeption Fehler zu korrigieren. Butterworth (1981) teilt sein Korpus in drei Arten ein: 1. Störung durch andere Gedanken (Freud'sche Versprecher), 2. Störung durch alternative Formulierung (Kontamination & „environmental error“), 3. Störung durch einzelne Elemente. Erst Fromkin (1971, s.u.) nahm die Fehlersammlung wieder auf. An Fehlern stellte sie fest: phonetische Merkmale, Phonemvertauschungen, Silbenvertauschungen, Morphemvertauschungen, Wortvertauschungen. Shattuck-Hufnagel teilte sie ebenfalls (anders) ein. Sie nannte: Ersetzung, Vertauschung, Verschiebung, Hinzufügung und Auslassung sowie zwei Richtungsmöglichkeiten: antizipatorisch (von hinten nach vorn) & perseveratorisch (von vorn nach hinten). Auch gibt es so genannte „Blends“, in denen zwei Wörter zu einem vereint werden.

Letztlich sind noch Pausen und Zeiteinteilung eine wichtige Quelle, aber erst seit der technischen Entwicklung (vgl. Pechmann 1994: 30ff). Als Vorreiterin kann man hier Frieda Goldman-Eisler (1958) nennen. Sie untersuchte zeitliche Interaktionsmuster und analysierte die zeitliche Struktur als einen Indikator für Planungs- und Ausführungsprozesse. Die Länge einer Pause ist abhängig davon, was der Sprecher sagen will, sowie dem Kontext. Sie kann aber verschiedene Gründe haben: kommunikativ, als „turn-taking“ und anderem. Sie teilte Pausen ein: Zentrale sind kontrolliert, kreativ und auf die Semantik bezogen, periphere sind automatisch, syntaktisch und überlernt. Interessanterweise hat die Komplexität einer Äußerung keine Auswirkung auf die Pausen. Sie kommen aber häufig zyklisch vor. Hierbei kann man sagen, dass die konzeptuelle Kohärenz innerhalb eines Zyklus stärker ist als zwischen zwei Zyklen. Hierbei alternieren dann Planung und Ausführung. Letztlich können Pausen aber auch Schwierigkeiten bei der lexikalen Selektion bedeuten.

3.2. Fromkin (1971): Sprechfehler und ein erstes Modell

Victoria A. Fromkin (1923 – 2000[10] ) war seit langem die Erste, die sich ernsthaft wieder mit Sprechfehlern befasste. Es ging ihr dabei aber eigentlich noch nicht um die Sprachproduktion selbst, sie wollte vielmehr die Realität linguistischer Begriffe wie Morphem und phonetisches Merkmal nachweisen. Dass sie auch das erste ernst zu nehmende Sprachproduktionsmodell beschrieb, war ihr dabei eher Nebensache. Ihre Grundlage waren Sprechfehler-Korpora; sowohl die klassischen, als auch eigene. Dass sie Sprechfehler als Perfomanzdaten ansah, die eine Grammatik nicht falsifizieren, sondern nur verifizieren können, war ihre größte Schwäche und ist wissenschaftstheoretisch fragwürdig, denn eine Theorie sollte immer falsifizierbar sein.

Die linguistischen Einheiten, die sie annahm, waren die folgenden (vgl. Pechmann 1994: 36ff & Fromkin 1971): Phonetische Merkmale werden in Fehlern systematisch verwechselt und bilden eine Hierarchie der Merkmale und Leichtigkeit des Fehlers: Von schwer bei Nasalität über Stimmhaftigkeit bis leicht bei Ort und Art[11]. Phoneme werden am häufigsten vertauscht in Fehlern und kennen Antizipationen (von-Hinten-nach-Vorn), Perseverationen (von-Vorn-nach-Hinten)[12], Transpositionen und schlichte Vertauschungen. Auch Cluster können in einzelne Phoneme zerteilt werden; häufiger jedoch bleiben sie im Ganzen. Bewiesen wurde hier auch schon, dass Affrikaten einzelne Phoneme sind und nicht aus zweien bestehen. Als nächstes folgen Silben, denn bei Phonemänderungen wird häufig die Silbenposition (also Onset, Nukleus oder Koda) beibehalten, jedoch werden sie nie im Ganzen vertauscht, so Fromkin, weshalb sie keine unabhängige Einheit, aber Einflussgröße sind (vgl. auch Levelt 1989). Letztlich sind noch semantische Merkmale wichtig; Evidenz ergäbe sich aus falsch benutzten Antonymen und sogenannten Blends, bei denen zwei Wörter zu einem verschmolzen werden.

Wichtiger als diese Hierarchie sind aber ihre Ausführungen zu phonologischen und morphologischen Restriktionen (vgl. Pechmann 1994: 40ff & Fromkin 1971). Denn sie fand heraus, dass praktisch kein Fehler gegen die Phonotaktik einer Sprache verstöße. Das wiederum bedeutet, dass phonologische Regeln erst sehr spät erst in der Produktion angewandt werden. Akzente dagegen werden früh gesetzt, bereits vor den lexikalen Elementen, die Syntax sogar noch früher. Auch muss das Lexikon in Stämme/Wurzeln und Affixe unterteilt und nicht alphabetisch sein, da wir die Einheiten im Geiste auch anders ordnen können, z.B. semantisch und sogar graphemisch.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 01: Das Modell von Fromkin (1971) (nach Pechmann (1994))

Letztlich aber legte sie mit ihrem rudimentären Modell der Sprachproduktion noch die Grundlage für alle folgenden (vgl. Pechmann 1994: 43f & Fromkin 1971). Auf Stufe 1, der konzeptuellen Repräsentation, wird der Inhalt der Äußerung festgelegt. Diese ist noch nicht in sprachlicher Form vorhanden, wofür Wortblends sprechen. Auf Stufe 2 wird eine syntaktische Struktur aufgebaut und den Elementen dieser Struktur semantische Merkmale zugewiesen. Auf Stufe 3 folgt die Intonationskontur einer Sprache. Auf Stufe 4 werden endlich die lexikalen Elemente gewählt, indem zuerst nach semantischen Spezifikationen gesucht und zusätzlich die phonologische Form bereitgestellt wird[13]. Für die Trennung spricht, dass Wortersetzungen entweder semantisch oder phonologisch motiviert sind. Andere Fehler können entstehen, weil beim lexikalen Zugriff erst mehrere Repräsentationen aktiviert werden, von denen eine gewinnt[14]. Auf Stufe 5 werden die Morpheme der Wörter der Phonologie nach angepasst. Und letztlich erfolgt die Artikulation.

[...]


[1] Als Einführung siehe vor allem Harley (1995).

[2] Es ist auch immer wieder Grund zur Debatte, ob es einen Frequenzeffekt gibt, also ob die Häufigkeit etwas beschleunigen o.ä. kann.

[3] Primen = Wenn eine Wahrnehmung (Wort, Bild, etc.) etwas im Menschen aktiviert, diese Aktivation vorhanden bleibt und andere Vorgänge beschleunigen kann. Z.B. liest man „Ball“ und denkt danach bei dem Bild eines Kreises als erstes an einen Ball.

[4] Dies bedeutet, dass die Häufigkeit der Wörter dafür sorgt, dann man leichter auf sie zugreifen kann.

[5] Vgl. http://de.wikipedia.org/w/index.php?title=Franz_Joseph_Gall&oldid=71904886

[6] Vgl. http://de.wikipedia.org/w/index.php?title=Paul_Broca&oldid=77197637

[7] Vgl. http://de.wikipedia.org/w/index.php?title=Carl_Wernicke&oldid=72155407

[8] Vgl. http://de.wikipedia.org/w/index.php?title=Ludwig_Lichtheim&oldid=74148277

[9] Vgl. http://de.wikipedia.org/w/index.php?title=Sigmund_Freud&oldid=78416739

[10] http://en.wikipedia.org/w/index.php?title=Victoria_Fromkin&oldid=348314258

[11] Diese sind aber weiterhin umstritten, da nicht bewiesen ist, dass es sie gibt bzw. dass sie bei der Produktion eine Rolle spielen. Siehe v.a. Pechmann 1994, Levelt et. al. 1999 und Roelofs 2000.

[12] Bei beiden Arten wird ein Phonem sozusagen 'kopiert'.

[13] Hier kann man bereits verweisen auf das spätere Standardmodell des Zweistufenzugriffs mit Lemma und Lexem. Fromkin trennte dies also noch nicht auf die Art, wie es spätere Modelle taten.

[14] Auch dies nimmt man später immer noch an.

Ende der Leseprobe aus 41 Seiten

Details

Titel
Sprachproduktion – Grundlagen, Theorien, Modelle und Forschung
Hochschule
Universität Leipzig
Note
2,0
Autor
Jahr
2010
Seiten
41
Katalognummer
V158678
ISBN (eBook)
9783640712052
ISBN (Buch)
9783640712946
Dateigröße
973 KB
Sprache
Deutsch
Schlagworte
Sprachproduktion, Grundlagen, Theorien, Modelle, Forschung
Arbeit zitieren
Andre Schuchardt (Autor), 2010, Sprachproduktion – Grundlagen, Theorien, Modelle und Forschung, München, GRIN Verlag, https://www.grin.com/document/158678

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Sprachproduktion – Grundlagen, Theorien, Modelle und Forschung


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden