Aphasie bei Mehrsprachigkeit. Independente oder interdependente Sprachverarbeitung


Tesis de Maestría, 2000

92 Páginas, Calificación: 1,0


Extracto


Inhalt

I Einleitung
1.1 Taxonomie der Bilingualen
1.2 Sprachverarbeitungsmodelle
1.3 Sprachverarbeitung bei Bilingualen - independent oder interdependent?

II Methodik
2.1 Klassifikation aphasischer Syndrome
2.2 Aphasie bei Bilingualen
2.3 Beschreibung und Durchführung des Bilingual Aphasia Test (BAT)

III Ergebnisse
3.1 Fallstudie J.G
3.2 Fallstudie H.H
3.3 Fallstudie B.S
3.4 Fallstudie C.B

IV Kritik der angewandten Methodik

V Zusammenfassung und Ausblick

VI Bibliographie
6.1 Nachschlagewerke
6.2 Verwendete Literatur

VII Anhang

I Einleitung

Die Anzahl der gegenwärtig gesprochenen Sprachen läßt sich nicht genau feststellen, die Angaben reichen von rund 2500 bis zu 5500 Einzelsprachen[1]. Diese große Spanne hängt mit der Schwierigkeit zusammen, Sprachen exakt als gesonderte Einheiten im Sinne des Saussure’schen Begriffs langue[2] zu definieren und z.B. von Dialekten abzugrenzen. Gleichzeitig gibt es derzeit ca. 180 Nationalstaaten, von denen einige relativ große Staaten wie die Bundesrepublik Deutschland, sieht man von Immigranten ab, einsprachig sind und andere, flächenmäßig kleine Staaten wie die Schweiz, offiziell mehrsprachig sind. Aus diesen Zahlen läßt sich zunächst schließen, daß es eine beachtliche Anzahl von Staaten geben muß, in denen zwei oder mehr Sprachen gesprochen werden[3]. Nimmt man weiterhin an, daß innerhalb dieser Staaten die Sprachgemeinschaften nicht strikt voneinander getrennt leben, sondern in zumindest wirtschaftlichem Austausch miteinander stehen, so muß für unzählige Menschen Zweisprachigkeit[4] eine alltägliche Notwendigkeit darstellen, selbst wenn die Kenntnisse der Zweitsprache nur rudimentär sind. Hinzu kommen die aus wirtschaftlichen und sozialen Gründen und durch Kriege ausgelösten Wanderbewegungen großer Menschenmassen, die einen zusätzlichen Druck hin zum Zweitspracherwerb darstellen. So gehören ca. 30% der US-Bevölkerung ethnischen Minderheiten an, deren Muttersprache nicht Englisch ist. Nimmt man all diese Faktoren zusammen, so muß man zum Schluß kommen, daß Bi- bzw. Multilingualität keine Ausnahmeerscheinung ist, sondern in vielen Staaten für einen großen Teil der Bevölkerung die Regel[5]. Tatsächlich ist es jedoch schwierig, zuverlässige demoskopische Daten[6] über die weltweite Verbreitung der Mehrsprachigkeit zu erlangen, da zum einen nur in wenigen Ländern solche Daten erhoben werden, nicht zuletzt wegen der unklaren Definition der Mehrsprachigkeit, zum anderen in einigen Ländern Zwei- bzw. Mehrsprachigkeit aufgrund ethnischer Konflikte unerwünscht ist und sogar unterdrückt wird[7].

Weil nun Bilingualität ein weitverbreitetes Phänomen ist, stellt sie für Wissenschaften wie z.B. die Neurologie, Psychologie, Psycho- und Neurolinguistik, die sich (wenn auch nur teilweise) mit der Erforschung der menschlichen Sprache beschäftigen, einen wichtigen Untersuchungsgegenstand dar. Die Fragestellungen reichen dabei von der Rolle, die Zweisprachigkeit beim Erstspracherwerb bei Kindern spielt, über soziolinguistische Auswirkungen, bis hin zur Frage, inwieweit sich die Zweisprachigkeit für therapeutische Maßnahmen bei erworbenen Sprachstörungen nutzen läßt.

Eine sprachwissenschaftliche, genauer eine psycholinguistische Frage bezüglich Bilingualismus lautet, wie sich die Sprachverarbeitung Zwei- bzw. Mehrsprachiger von der Monolingualer unterscheidet. Dieser Frage wird in der vorliegenden neurolinguistisch orientierten Arbeit, anhand der Untersuchung bilingualer Aphasiker[8] nachgegangen. Zunächst soll im ersten Kapitel versucht werden, die Gruppe der Bilingualen genauer zu differenzieren, einen Überblick über Sprachverarbeitungsmodelle im allgemeinen und Sprachverarbeitungsmodelle für Zweisprachige im besonderen zu geben. Im Anschluß werden im zweiten Kapitel die Besonderheiten, die bei bilingualen Aphasikern zu beobachten sind, und das hier verwendete Testverfahren, der Bilingual Aphasia Test (BAT)[9] von Paradis (1987), beschrieben. Schließlich sollen im dritten Kapitel die bei vier bilingualen Aphasikern mit Hilfe des BAT erhobenen Daten ausgewertet, diskutiert und an verschiedenenGruppen(independent/interdependent)[10] vonSprachverarbeitungsmod-ellen für Bilinguale überprüft werden. Besondere Beachtung wird dabei der Anwendbarkeit des interaktiven Modells von David W. Green (1986) geschenkt[11]. Im vierten Kapitel wird das angewendete Verfahren diskutiert und auf Fehlerquellen hingewiesen. Im letzten Kapitel werden die Ergebnisse zusammengefaßt, und es wird versucht, einen Ausblick für weitere Untersuchungen zu geben.

1.1 Taxonomie der Bilingualen

Aufgrund von Faktoren wie Art des Zweitspracherwerbs, Bildungsgrad, Übung in der Zweitsprache, Kontext der Benutzung der Sprachen, emotionale Bindungen, die mit der Zweitsprache verbunden sind, bilden die Bi- bzw. Multilingualen keine homogene Gruppe[12], sondern lassen sich z.B. sprachwissenschaftlich nach dem Grad ihrer Sprachkompetenz in der Zweitsprache (L2)[13] unterteilen. Dabei sollen hier zunächst zwei Grade der Kompetenz unterschieden werden:

1. balanced - (annähernd) gleiche Kompetenz in beiden Sprachen
2. non-balanced - Dominanz einer Sprache hinsichtlich der Kompetenz

Diese Kategorien sind nicht statisch, sondern gehen fließend ineinander über und zwar in beide Richtungen, denn eine ehemals gute Kompetenz in einer Sprache kann durch mangelnden Gebrauch verlorengehen oder deutlich schlechter werden. Andere Kategorisierungen sprechen von receptive und productive[14] oder von fluent und non-fluent. Die früher zusätzlich gemachte Unterscheidung nach dem Alter (early und late) des Erwerbs der Zweisprachigkeit wurde zunächst weitgehend aufgegeben, da sich keine signifikanten Unterschiede feststellen ließen, obwohl neuere Untersuchungen (Kim, 1997) auf eine Repräsentation der Sprachen in unterschiedlichen Gehirnarealen in Abhängigkeit vom Alter des Erwerbs hinzuweisen scheinen. Fraglich ist, ob dieser Befund sich auch in einer unterschiedlichen Kompetenz für L1 und L2 äußert und somit auch sprachwissenschaftlich „messbar“ wäre.

1.2 Sprachverarbeitungsmodelle

Bei der Modellbildung kognitiver Leistungen stellt sich grundsätzlich das Problem, daß sich die Prozesse, die diese Leistungen hervorrufen, der direkten Beobachtung entziehen. Einer dieser Prozesse ist die Sprachverarbeitung. Man versucht nun durch Beobachtung bzw. Manipulation des sprachlichen In- und Outputs Rückschlüsse auf die Art der zugrundeliegenden Vorgänge im Gehirn zu ziehen. In der neurologischen und neurolinguistischen Forschung zur Sprachverarbeitung werden vor allem erworbene Störungen der Sprachproduktion untersucht. Dazu werden Theorien zur normalen Sprachverarbeitung zur Hilfe genommen. Das heißt, es wird eine Beziehung zwischen der bei Hirnläsionen auftretenden Symptomatik und kognitiven Modellen, die das intakte Sprachverarbeitungssystem modellieren hergestellt. Die Neurologie und die Neurolinguistik versuchen also, anders ausgedrückt, die gestörten Leistungen durch die Dysfunktion einer bzw. mehrerer Komponenten des Sprachverarbeitungssystems und/oder deren Verbindungen zu erklären. Sie erhoffen sich davon Schlüsse auf die kognitive Organisation des intakten mentalen Sprachapparates ziehen zu können. Das erste neurologische Modell der Sprachverarbeitung von Wernicke (1886), und dessen spätere Weiterentwicklung durch Geschwind, wurde ausschließlich durch die Auswertung von Störungsmustern bei Patienten mit Hirnläsionen gewonnen. Dies unterscheidet neurologische bzw. neurolinguisitsche Modelle von psycholinguistischen Arbeiten, die versuchen, das Sprachverstehen gesunder Erwachsener zu untersuchen. Daß dabei zuerst damit begonnen wurde die Sprachperzeption „normaler“ (gesunder) Erwachsener zu erforschen, hängt unter anderem mit den verfügbaren experimentellen Techniken zusammen: Die Sprachperzeption läßt in kontrollierter Weise, und daher besser und einfacher, studieren als die Sprachproduktion. Die dazu durchgeführten Tests liefern „objektiv“ interpretierbare Daten, wie z.B. Reaktionszeit, Zahl der Fehler oder Zahl der korrekt reproduzierten semantischen Inhalte.

Die Beobachtung der (spontanen) Sprachproduktion gestaltet sich dagegen schwieriger, da man in aller Regel nicht präzise vorhersagen kann, welchen sprachlichen Output eine Versuchsperson produzieren wird. Deshalb können hier die Methoden der kognitiven Psychologie nicht oder nur eingeschränkt angewendet werden. Während der Input beim Sprachverstehen aus beobachtbaren und nach Bedarf manipulierbaren sprachlichen Äußerungen besteht, ist der Input in die Sprachproduktion etwas, das, vorsichtig formuliert, vielleicht als „gedankliches Konzept“ bezeichnet werden kann[15]. Es wird einleuchten, daß aufgrund dieses schwer fasslichen Inputs die Verwirklichung einer empirischen Methodik schwierig ist. Im Gegensatz dazu besteht aber der Output der Verarbeitung der Sprachproduktion aus beobachtbaren bzw. interpretierbaren sprachlichen Äußerungen.

Als wegweisend für die psycholinguistische Forschung der 60er und frühen 70er Jahre erwies sich in diesem Zusammenhang die generative Transformationsgrammatik Chomskys (1957)[16]. Er begriff die Linguistik als Teilgebiet der Psychologie, das sich mit der Erforschung des Sprechvermögens beschäftigt. Ein funktionierendes Modell des Sprachgebrauchs mußte nach Chomsky auf einer generativen Grammatik basieren[17].

Als eine Umsetzung dieser Forderung kann das Sprachproduktionsmodell von Fodor, Bever und Garrett (1974) gesehen werden: Sie ergänzten ein aus einer generativen Grammatik bestehendes Kernmodul um die Komponenten message source am oberen und articulatory system am unteren Ende. Die message source initialisiert in der Basiskomponente des Kernmoduls syntaktische Prozesse. Das Ergebnis dieses Prozesses wird dann zur semantischen Verarbeitung an die nächste Komponente des generativen Kernmoduls weitergeleitet. Um nun sicherzustellen, daß der Output der semantischen Komponente noch mit dem Output der message source übereinstimmt, wurde eine Kontrollkomponente, der comparator, eingeführt, um den Output der semantischen Komponente des Kernmoduls mit dem Output der message source zu vergleichen.

Dabei stellt sich das Problem, daß hier „Werte“ miteinander verglichen werden, die von grundsätzlich unterschiedlicher Art sind: Der Output der message source ist, im Gegensatz zum Output der semantischen Komponente, sprachlich noch nicht enkodiert. Das heißt, es müßten innerhalb des comparators zusätzliche „Übersetzungsoperationen“ ablaufen, um die von Fodor et al. (1974) geforderte Aufgabe zu erfüllen. Ein weiterer kritischer Punkt des Modells ist der zeitliche Ablauf der einzelnen Prozesse. Die generative Grammatik versucht aber lediglich Regeln zu definieren, mit denen sich grammatikalisch korrekte Sätze generieren lassen. Über die Abfolge macht sie hingegen keine Aussage. Das heißt, es spielt keine Rolle, ob zuerst eine syntaktische Tiefenstruktur erzeugt wird, die danach in eine semantische Repräsentation übersetzt (transformiert) wird, oder umgekehrt. Da der zeitliche Ablauf der Verarbeitung aber ein wesentliches Merkmal von Sprachproduktionsmodellen ist, eignen sich die „statischen“ Daten, die eine generative Grammatik erzeugt, nicht zur Darstellung prozeßhafter Abläufe.

Anders ging Fromkin (1971) vor: Sie entwarf ihr Modell nicht anhand einer Theorie, sondern durch Auswertung eines Korpus‘ „natürlicher“ Versprecher. Im Gegensatz zu den „künstlichen“ Daten der Grammatiktheorie ergab die Auswertung der Versprecher Anhaltspunkte für eine zeitliche Abfolge der Produktion. Nach diesem Modell steht am Anfang der zu übermittelnde (vorsprachliche) Inhalt der sprachlichen Äußerung. Über die Bildung syntaktisch-semantischer Strukturen, dem Hinzufügen der Prosodie, der Auswahl entsprechender Lexeme aus dem Lexikon, der Anwendung morphophonematischer Regeln und schließlich der phonetisch-segmentalen Generierung und deren Umwandlung in motorische Impulse an den Artikulationsapparat, nimmt der intendierte Inhalt schließlich sprachliche Gestalt an.

Beiden Modellen gemeinsam ist, daß sie aus Komponenten bestehen, die spezifische Aufgaben wahrnehmen und zwischen denen Daten ausgetauscht werden. Beide lassen teilweise parallele, d.h. gleichzeitige Verarbeitung zu. In Fromkins Modell interagieren darüber hinaus bestimmte Komponenten miteinander. Eine Methode, interaktive Effekte in einem seriellen Modell darzustellen, ist die Integration von Kontroll-Modulen, die den Output einer oder mehrerer Komponenten mit einem Sollwert vergleicht. Im Wesentlichen arbeiten aber beide Modelle strikt seriell, d.h. Rückkopplung ist nicht vorgesehen. Die Komponenten werden ausschließlich von einem einzigen Input gespeist. Sie arbeiten autonom, ohne weitere Information aus anderen Modulen.

Ein in den vergangenen Jahren intensiv diskutiertes Modell, das sowohl die Sprachperzeption als auch die Sprachproduktion beschreibt, ist das Logogen-Modell von Morton (1980). Mit dem Logogen-Modell können alle vier Sprachmodalitäten (Hören, Sprechen, Lesen, Schreiben) beschrieben werden. Dies macht das Logogen-Modell besonders geeignet für die Lokalisierung von Sprachstörungen, wie z.B. von Lese- und Schreibstörungen alektischer[18] bzw. agraphischer[19] Patienten. Wie die bisher genannten Modelle ist auch Mortons Logogen-Modell ein serielles, modular aufgebautes Modell. Eine Ausnahme bilden das Auditory Input Lexicon und das Orthographic Input Lexicon, die für die Analyse des visuellen bzw. akustischen Inputs zuständig sind. Sie interagieren mit dem cognitive system, in dem die semantische Information gespeichert ist. Bestandteil der Logogen-Theorie ist die Annahme, daß die Einheiten der Output-Lexika nur dann „abgefeuert“ werden können, wenn sie eine genau definierte Höhe der Aktivierung (den sogenannten. „Schwellenwert“) erreicht haben. Morton nahm an, daß die im Phonological Output Lexicon bzw. Orthographic Output Lexicon aktivierten Wortformen (oder Output-Logogene) in einen phonologischen (Response Buffer), bzw. in einen graphemischen Arbeitspeicher (Graphemic Output Buffer) übertragen werden, wo sie für kurze Zeit dem Sprecher zur Verfügung stehen. Inzwischen wird davon ausgegangen, daß im Arbeitsspeicher verschiedene Prozesse ablaufen: Die phonematische Verarbeitung von Wörtern und die Kurzzeit-Speicherung phonologischer Einheiten.

Abb. 1 Das Logogen-Modell (nach Patterson und Shewell, 1987)

Abbildung in dieser Leseprobe nicht enthalten

Ein weiteres einflußreiches Modell ist das Satzproduktionsmodell von Garrett (1982). Im Gegensatz zum Logogen-Modell, das ausschließlich die Einzelwortverarbeitung abbildet, lassen sich an diesem Modell auch Einheiten von Satzgröße prüfen. In Garretts Modell ist Interaktion nicht vorgesehen, sondern es bedient sich völlig autonomer Komponenten (levels) mit serieller Verarbeitung. Bei diesem Modell werden die lexikalischen Bedeutungen zunächst in eine funktionale Struktur eingesetzt, die aber noch nicht identisch ist mit der späteren Oberflächenstruktur des Satzes. In einem weiteren Schritt wird dann die endgültige Satzstruktur zusammen mit der phonologischen Spezifizierung der Inhaltswörter und der Aktivierung der Funktionswörter festgelegt.

Grundlegend anders geartet sind sogenannte Netzwerkmodelle der Sprachverarbeitung. Sie lassen sich, im Unterschied zu den modularen, seriellen Sprachproduktionsmodellen, durch folgende Eigenschaften beschreiben: Sprachliche Einheiten werden nicht mehr von Black-box-Modulen verarbeitet, sondern von Elementen, die als „Knoten“ bezeichneten werden und jeweils ein natürliches Neuron repräsentieren. Die Verarbeitung in den Knoten erfolgt durch Aktivierung bzw. Inhibierung.

Netzwerkmodelle unterscheiden nicht mehr zwischen speichernden und verarbeitenden Modulen. Die Informationen innerhalb des Systems werden durch Energieübertragung (zur Aktivierung bzw. Inhibierung) transportiert. Die Knoten besitzen unterschiedliche Aktivationsniveaus im Ruhezustand (resting level of activation), die wesentlich von ihrer Verwendungsfrequenz abhängen. Jeder Verbindung zwischen zwei Knoten ist eine Zahl – ein sogenanntes Gewicht – zugeordnet, die der synaptischen Effizienz entspricht. In den 80er Jahren sind „konnektionistische“ Netzwerkmodelle auf der Grundlage neuronaler Netzwerke entwickelt worden, mit denen komplexe Prozesse durch die Verbindung einer großen Anzahl einfacher, Neuronen vergleichbaren Verarbeitungseinheiten simuliert werden können (Rummelhart und McClelland, 1986). Alle Einheiten des Systems stehen in direkter oder indirekter interaktiver Beziehung zueinander, d.h., Feedback in Form der Ausbreitung von Aktivierung und Inhibierung in alle Richtungen (top-down und bottom-up) ist prinzipiell möglich, daher auch der Ausdruck spreading activation theory (Dell, 1986). Diese künstlichen Netze können allerdings bislang ein typisches Verknüpfungsmuster von Dendriten und Axonen[20] weder in der Anzahl noch in der Komplexität der Verschaltungen nachbilden. Zudem gibt ein künstliches Neuron, im Gegensatz zum natürlichen, keine Folge von Impulsen ab, sondern es übermittelt eine Zahl, die seiner Aktivität (der Anzahl der Impulse pro Zeiteinheit) entspricht. Jeder Knoten wandelt die Aktivitäten aller vorgeschalteten Knoten in eine einzige Ausgabeaktivität um, die er an die nachgeschalteten Knoten weiterleitet. Diese Umformung geschieht in zwei Schritten. Zuerst multipliziert er die eingehenden Aktivitäten mit den Gewichten der zugehörigen Verbindungen und summiert diese gewichteten Eingaben zur Gesamteingabe. Auf diese wendet er die sogenannte Transferfunktion an, woraus sich die ausgehende Aktivität ergibt.

Das Verhalten eines künstlichen neuronalen Netzes hängt somit sowohl von den Gewichten als auch von der Transferfunktion jedes Knotens ab. Letztere ist in der Regel entweder eine lineare, eine Schwellenwert- oder eine sigmoide Funktion. Bei linearen Knoten ist die Ausgabeaktivität proportional zur gewichteten Gesamteingabe. In Schwellenwert-Knoten nimmt die Ausgabe einen von zwei möglichen Werten an, je nachdem, ob die Gesamteingabe größer oder kleiner als der Schwellenwert ist. Knoten mit sigmoider Transferfunktion gehen nicht wie die Schwellenwert-Knoten plötzlich von einem Ruhezustand zur vollen Aktivität über, wenn die Gesamteingabe den Schwellenwert überschreitet, sondern allmählich. Sigmoid-Knoten sind natürlichen Neuronen ähnlicher als lineare oder Schwellenwert-Knoten; dennoch können alle drei nur als grobe Näherung betrachtet werden.

Um ein neuronales Netz für eine konkrete Aufgabe zu modifizieren, müssen die Verbindungen der Knoten und deren Gewichte festgelegt werden. Die Verbindungen entscheiden, welche Knoten miteinander in Kontakt stehen und sich beeinflussen können; das zugehörige Gewicht bestimmt die Stärke dieses Einflusses und durch sein Vorzeichen (+/-), ob die Verbindung erregend oder hemmend wirkt.

Der gängigste Typ eines neuronalen Netzes besteht aus drei Knotenschichten: Eine Schicht aus Eingabeknoten ist mit einer Schicht interner Knoten verbunden und diese wiederum mit einer Schicht von Ausgabeknoten. Dieser Netztyp ist das einfachste Modell eines Mustererkennungssystems. Die Aktivitäten der Eingabeknoten entsprechen den Sinneseindrücken, die der Ausgabeknoten dem daraus resultierenden Verhalten. Die internen Knoten sind nicht darauf festgelegt, wie sie die Information der Eingabeknoten verarbeiten. Für jeden internen Knoten bestimmen die von der Eingabeschicht kommenden Verbindungen, in welchem Maße er aktiviert wird. Die internen Knoten sind zudem in der Lage ihre Gewichte zu modifizieren, d.h. zu lernen, so daß nach einer gewissen Anzahl (manchmal tausenden) von Durchläufen verschiedene Muster von diesem System identifiziert werden können oder, anders gesagt, der gewünschte Output produziert wird.

Die Erforschung von Lernprozessen in künstlichen neuronalen Netzen könnte in Zukunft Aufschluss darüber geben, wie ähnliche Prozesse im Gehirn ablaufen.

Willem J.M. Levelt veröffentlichte 1989 sein Buch „Speaking“, in dem er ein Modell der Sprachproduktion und des Sprachverstehens vorstellt. Dieses Modell versucht, die Sprachprozesse bei monolingualen Sprechern zu erklären. Levelt verwendet zwar nicht den Begriff der Modularität für sein Sprachverarbeitungsmodell, es steht aber in der Tradition der modularen und seriellen Modellvorstellungen. Die einzelnen „Module“ seines Modells nennt er processing components (Levelt, 1989, S. 8), Verarbeitungskomponenten. Diese sind seriell miteinander verschaltet und arbeiten weitgehend autonom[21], d.h. es findet so wenig wie möglich Interaktion zwischen den einzelnen Modulen statt. Sein Modell besteht aus sechs Komponenten (conceptualizer,formulator,articulator,lexicon,auditon,speech comprehension system), die überwiegend seriell miteinander verschaltet sind. Hinzu kommt der Eingang von „Weltwissen“ als universelle Ressource in den Sprachproduktions und -perzeptionsapparat. In Levelts Ansatz spielt das lexikalische Wissen des Sprechers eine zentrale Rolle. Das Lexikon bildet die Schnittstelle zwischen dem conceptualizer, in dem vorsprachliche Konzepte gebildet werden, und dem formulator, in dem die grammatische und phonologische Enkodierung stattfindet. Die vorsprachliche Information (preverbal message) des conceptualizer aktiviert bestimmte lexical items, die neben ihren semantischen Eigenschaften auch syntaktische, morphologische und phonologische Merkmale besitzen. Levelt nimmt an, daß die Prozesse im formulator über die lexikalischen Einträge, die lemmas[22], vermittelt werden. Levelt nennt diesen Punkt seines Modells auch die lexical hypothesis.

Levelt ging davon aus, daß der conceptualizer sprachspezifisch ist. Er begründete diese Annahme damit, daß es unterschiedliche Konzepte in einzelnen Sprachen gibt, um z.B. Raumvorstellungen zu verdeutlichen. Im Englischen (here/there) und im Niederländischen (hier/daar) unterscheidet man nur zwei räumliche Termini, im Spanischen dagegen drei (aquí, ahí, allí). Diese Informationen müssen in der preverbal message enthalten sein. Da es aber unökonomisch wäre, alle sprachspezifischen Informationen aller Sprachen in jeder preverbal message zu kodieren, ist anzunehmen, daß die Entscheidung, welche Sprache benutzt werden soll, schon früher – auf einer höheren Ebene – stattfindet.

De Bot (1992) ist der Ansicht, daß die Wahl der Sprache im macroplanning stattfindet. Diese Entscheidung wird aufgrund der Informationen getroffen, die das discourse model liefert, d.h., das macroplanning ist noch nicht sprachspezifisch. Im anschließenden microplanning werden die für die gewählte Sprache charakteristischen Merkmale hinzugefügt und als preverbal message ausgegeben. Die durch die preverbal message aktivierten lemmas beeinflussen wiederum die Prozesse im formulator, die schließlich zur sprachlichen Äußerung führen[23].

Der gravierendste Unterschied, der beim Vergleich des Levelt-Modells mit anderen modularen, seriellen Modellen auffällt, ist die grundsätzliche Möglichkeit von Interaktionen zwischen Modellkomponenten (den beiden Prozeßkomponenten grammatical encoding und phonological encoding des formulators)[24]. Levelt glaubt, daß an dieser Stelle des Modells eine strenge Autonomie und serielle Verarbeitung zugunsten einer Interaktionshypothese aufgegeben werden muß. Damit nähert er sich konnektionistischen Modellvorstellungen. Levelts Modell kann somit als erster Schritt in Richtung einer Synthese serieller und paralleler Sprachverarbeitungsmodelle gelten.

Zusammenfassend läßt sich sagen, daß die meisten kognitiven Sprachproduktionsmodelle einen überwiegend modularen Aufbau besitzen und auf serieller Verarbeitung basieren. Das mag unter anderem daran liegen, daß neurolinguistische Daten zur Einzelwortproduktion bisher kaum Anhaltspunkte für eine Rückkopplung und eine interaktive Verarbeitung ergaben. Die neurolinguistischen Modelle besitzen allerdings eine relativ grobe Struktur, so daß eine Verfeinerung der Hypothesen in einer Annäherung interaktionistische oder konnektionistische Modelle resultieren könnte. Damit ließe sich dann auch eine Verbindung zu Theorien über die neuronale Verarbeitung von Sprache herstellen.

1.3 Sprachverarbeitung bei Bilingualen - independent oder interdependent?

Bei der Modellierung der Sprachperzeption und -produktion Bilingualer ergeben sich folgende Fragestellungen: Wie kann der Bilinguale seine beiden Sprachen separieren? Verfügt er über ein internes Lexikon oder besitzt er zwei? Wird eine Äußerung mit code-switching[25] anders verarbeitet als eine ohne code-switching ? Kurz, wie unterscheidet sich die Sprachprozessierung Bilingualer von der bei Monolingualen?

Eine vieldiskutierte Hypothese zur Sprachverarbeitung Bilingualer geht auf die coordinate-compound-subordinate Unterscheidung von Weinreich (1968, erstmals 1953) zurück. Danach werden beim Bilingualen vom Typ coordinate Wörter und ihre Bedeutungen separat für L1 und L2 gespeichert. Beim compound Typ werden zwar die Wörter für L1 und L2 separat gespeichert, greifen jedoch auf eine gemeinsame Bedeutung zu. Der subordinate Typ erfaßt die Bedeutung von Wörtern der schwächeren Sprache über den Umweg des entsprechenden Wortes der besser beherrschten Sprache (s. Abb. 2).

Abb. 2 graphische Darstellung der coordinate-compound-subordinate Distinktion nach Weinreich, 1977

Abbildung in dieser Leseprobe nicht enthalten

Weinreichs Distinktion führt zur grundsätzlichen Frage, ob bei Bilingualen die beiden Sprachen in vollkommen getrennten, unabhängig (independent) voneinander arbeitenden Systemen organisiert sind, oder ob sie gemeinsam ein System nutzen (interdependent). Innerhalb der Kategorie interdependent gibt es weitere hypothetische Unterteilungen, die zu verschiedenen Modellvorstellungen geführt haben. Paradis (1993) diskutiert vier Hypothesen über die Repräsentation zweier/mehrerer Sprachen im Gehirn (von denen drei der Kategorie interdependent zuzuordnen sind):

Independent

Die dual system hypothesis: Beide Sprachsysteme arbeiten vollkommen unabhängig voneinander.

Interdependent

1. Die extended system hypothesis: Das Sprachsystem Mono- und Bilingualer unterscheidet sich nur durch die Anzahl der gespeicherten Phoneme, Morpheme, Lexeme und syntaktischen Regeln. Die Abwahl z.B. einer syntaktischen Konstruktion in L1 statt in L2 funktioniert nicht anders als die alternative Abwahl einer Konstruktion X statt Y (z.B. passiv-aktiv) innerhalb einer Sprache.
2. Die tripartite system hypothesis: Identische sprachliche Elemente werden in einem gemeinsamen System verarbeitet und gespeichert, alle anderen Elemente hingegen in ihrem jeweiligen unabhängigen Sprachsystem.
3. Die subsystems hypothesis: Verschiedene Sprachen sind Subsysteme eines größeren Systems der sprachlichen Kompetenz. Die ineinander geschachtelten Systeme werden durch selektive Aktivierung und Inhibition gesteuert.

Paradis favorisiert die dritte Hypothese. Allein die subsystems hypothesis kann seiner Meinung nach alle Daten von Aphasien bei Mehrsprachigkeit erklären. Zentraler Bestandteil der Hypothese ist die activation threshold hypothesis (vgl. Paradis, 1993): Sie besagt, daß die Engramme[26], die die Sprachproduktion und -perzeption im neuralen Substrat repräsentieren, Schwellenwerte besitzen. Die Höhe dieser Schwellenwerte hängt u.a. von der Gebrauchsfrequenz und der verstrichenen Zeit des letzten Gebrauchs ab. Je länger ein Engramm nicht aktiviert worden ist, desto höher ist der Schwellenwert. Das kann soweit führen, daß ein Engramm nur noch für die Perzeption, jedoch nicht mehr für die Produktion aktivierbar ist, da diese mehr Energie zur Überwindung des Schwellenwerts erfordert. Das Auslösen eines Engramms hängt aber nicht nur von seiner eigenen Aktivierung ab, sondern auch von der Inhibition alternativer Engramme. Entscheidet sich ein bilingualer Sprecher für die Benutzung einer Sprache, so muß die nichtaktive Sprache gehemmt werden, d.h. deren Schwellenwert muß erhöht werden.

Welche Anforderungen ein Modell für die Sprachproduktion Bilingualer erfüllen muß, formulierte Kees de Bot (1992), der Levelts Sprachproduktionsmodell für Bilinguale modifizierte:

- Das Modell sollte veranschaulichen können, daß die Sprachproduktion vollkommen getrennt in zwei Systemen abläuft, aber auch parallel ablaufen kann. Das heißt, es sollte das Phänomen des code-switching erklären können.
- cross-linguistic influences, zum Beispiel die Anwendung der Grammatik von L1 auf L2 beim non-balanced bilingual, müssen innerhalb des Modells möglich sein.
- Die Tatsache, daß ein Sprecher mehr als eine Sprache benutzt, darf nicht zu einer Verlangsamung der Sprachproduktion führen.
- Das Modell muß erklären können, daß ein Sprecher beide Sprachen unterschiedlich gut beherrscht. Das Spektrum muß sowohl denjenigen einschließen, der nur wenige Worte in L2 beherrscht, als auch denjenigen, den man als balanced bilingual bezeichnet.
- Es muß möglich sein, eine unbegrenzte Anzahl von Sprachen zu beherrschen, ohne daß sich daraus Probleme ergeben.

Abb. 3 DeBots erweitertes Sprachproduktionsmodell (nach Levelt) für bilinguale bzw. multilinguale Sprechern, 1992

Abbildung in dieser Leseprobe nicht enthalten

Mit Hilfe des Bilingual Aphasia Test soll im weiteren Verlauf dieser Arbeit ermittelt werden, wie sich die Aphasie auf die beiden Sprachen der Testpersonen auswirkt. Durch genauen Vergleich der Unterschiede und Gemeinsamkeiten des Störungsmusters soll versucht werden, die einzelnen Patienten einer der Modellvorstellungen (independent vs. interdependent) zuzuordnen. Im nächsten Kapitel werden dazu einführend die methodischen Grundlagen erläutert und die spezielle Symptomatik bei bilingualen Aphasikern aufgezeigt. Außerdem werden in diesem Kapitel das für diese Arbeit benutzte Testverfahren vorgestellt und die Testpersonen eingeführt.

II Methodik

Wie schon in Kapitel 1.2 angedeutet, ist die Neurolinguistik ein interdisziplinäres Wissenschaftsgebiet, das sich aus der neurologischen Aphasielehre in Verbindung mit der Psychologie und der Linguistik entwickelt hat. Heute ist die Neurolinguistik auf dem Weg, sich dank intensiver Forschungstätigkeit von einem interdisziplinären zu einem relativ selbständigen Wissenschaftsbereich zu entwickeln.

Die Neurolinguistik hat die Erforschung der Beziehungen zwischen Sprache und ihren neuronalen Grundlagen zum Ziel. Deshalb stehen vor allem Untersuchungen zum Sprachverhalten von Menschen mit Hirnläsionen im Zentrum neurolinguistischer Forschung. Sie unterscheidet sich dadurch von der Patholinguistik, die sich mit allen Störungen des Sprechens, einschließlich nicht-organisch bedingter Fehlleistungen (z.B. Versprechern) beschäftigt. Die Klinische Linguistik wiederum sieht ihre Hauptaufgabe in der Diagnose und Therapie krankhaften Sprachverhaltens.

Innerhalb der Neurolinguistik lassen sich drei Bereiche ausmachen (Blanken, 1990), die sich zwar aufeinander beziehen, aber doch ihre jeweils eigenen Schwerpunkte haben:

1. Die Lokalisation und die Physiologie sprachlicher Prozesse . Am Anfang der klinischen Aphasiologie des letzten Jahrhunderts (P. Broca und C. Wernicke)[27] stand die Suche nach dem Entstehungsort und den funktionalen Einheiten sprachlicher Fähigkeiten[28]. Die Lokalisation ist bis heute ein wichtiger Bestandteil der Neurolinguistik. Mit modernen bildgebenden Verfahren wie fMRI[29] und PET[30] oder mit Hirnstrommessungen (EEG)[31] können, im Gegensatz zu früher, heute Hämodynamik und Stoffwechselveränderungen des Gehirns in vivo sichtbar gemacht und zur Lokalisierung von Hirnverletzungen eingesetzt werden.
2. Die Diagnose und die Kategorisierung neurogener Sprachstörungen. Aphasische Störungen treten zum einen in sehr unterschiedlicher Form und zum anderen häufig in bestimmten wiederkehrenden Symptomkombinationen auf. Dies hat dazu geführt, aphasische Symptome zu Syndromen zusammenzufassen und Taxonomien dieser Syndrome zu entwickeln, die auf der Lokalisation der Hirnläsion und/oder der Sprachsymptomatik beruhen.
3. Die linguistische Beschreibung neurogener Sprachstörungen und die Prüfung von Modellen normaler Sprachverarbeitung anhand der gewonnenen Daten. Dieser dritte Unterbereich der Neurolinguistik versucht eine Beziehung herzustellen zwischen linguistischen und psycholinguistischen Theorien auf der einen Seite und pathologischen, neurogenen Sprachverhaltensmustern auf der anderen Seite.

Dieser letzte Bereich steht im Vordergrund der vorliegenden Arbeit. Darüber hinaus werden auch Fragen der Lokalisation der Gehirnverletzung und der Diagnosestellung bzw. der benutzten Testverfahren an gegebener Stelle berücksichtigt werden.

2.1 Klassifikation aphasischer Syndrome

Wie Sprache wirklich verarbeitet und gespeichert wird, kann, wie schon gesagt, nicht unmittelbar beobachtet werden. Es gibt jedoch verschiedene Möglichkeiten, einen indirekten Blick auf die kognitiven Prozesse der Sprachverarbeitung zu werfen. Neben Experimenten, Untersuchungen sprachlicher Fehlleistungen (z.B. Versprecher) und dem Erstspracherwerb bei Gesunden gehört das Studium pathologisch gestörter Sprache zu einer wichtigen Datenquelle. Dabei kann sowohl das spontanen Sprachverhaltens von Menschen mit pathologisch veränderter Sprache (z.B. Patienten mit Aphasien, Sprachentwicklungsstörungen, Demenz, Schizophrenie u.a.) untersucht werden, als auch Experimente mit solchen Patienten durchgeführt werden. Ein Teil dieser Untersuchungen bezieht sich auch auf Mehrsprachige, die unter einer Aphasie leiden. Wie schon eingangs erwähnt, kann schätzungsweise die Hälfte der Weltbevölkerung als zwei- oder mehrsprachig bezeichnet werden (vgl. Manuel-Dupont, 1992), so daß also zwei- bzw. mehrsprachige Aphasiker keinen exotischen „Untersuchungsgegenstand“ darstellen.

Wie bei Monolingualen muß auch beim bilingualen Aphasiker zunächst das Ausmaß der Läsionen und der daraus resultierenden Ausfälle mit Hilfe von radiologischen, neurologischen und psychometrischen (z.B. mit dem Aachener Aphasie Test AAT) Untersuchungen ermittelt werden, um die Art des vorliegenden aphasischen Syndroms festzulegen. Eines der Probleme bei der Klassifikation von Aphasien besteht darin, daß Patienten gewöhnlich nach Verhaltenskriterien eingeteilt werden; erst anschließend wird der Läsionsort bestimmt. Kimura und Watson (1989) gingen umgekehrt vor: Sie gruppierten Patienten unabhängig von den Merkmalen ihrer Aphasie nach dem Läsionsort[32]. Im Rahmen ihrer Analyse zeigte sich bei Tests zur rezeptiven oder expressiven Aphasie zwischen aphasischen Patienten mit anterioren oder posterioren Läsionen kein Unterschied[33]. Beide Patientengruppen ließen sich jedoch auf andere Weise unterscheiden. Zum einen wiesen die Patienten mit anterioren Läsionen eine geringere Sprechflüssigkeit auf, zum anderen waren sie bei der Wiederholung einzelner Sprachlaute (Phoneme, Silben) stark beeinträchtigt. Die Gruppe mit posterioren Läsionen hatte Schwierigkeiten bei der Wiedergabe vertrauter Sätze, was der ersten Gruppe keine größeren Probleme bereitete. Kimura nimmt an, daß die anteriore Region an der Erzeugung von Sprache auf der Ebene der Phoneme und Silben beteiligt ist, während die posterioren Areale eine Rolle bei der Vermittlung der Sprachproduktion auf der Wortebene spielt. Diese Unterscheidung weicht stark vom gewöhnlichen Klassifikationsschema für Aphasien ab, deutet aber darauf hin, daß sich Menschen mit Läsionen der anterioren oder posterioren Sprachareale anhand ihrer Symptome unterscheiden lassen.

Das verbreitetste Klassifikationsschema unterscheidet vier Hauptsymptomkomplexe: Broca Aphasie , Wernicke Aphasie , Amnestische Aphasie , Globale Aphasie. Daneben kommen auch die Sonderformen Leitungs - Aphasie , transkortikal sensorische Aphasie und die transkortikal motorische Aphasie vor.

Die Broca Aphasie zeichnet sich leitsymptomatisch durch einen meist erheblich verlangsamten Sprechfluß mit großer Sprachanstrengung bei unsicherer oder undeutlicher Artikulation (Sprechapraxie[34], Dysarthrie[35], phonematische Paraphasien[36]) und stark gestörter Prosodie und Grammatik (Agrammatismus) aus. Trotz dieser Sprechschwierigkeiten ist das Sprachverständnis einer davon betroffenen Person nur mäßig beeinträchtigt. Die Broca A. ist auch als motorische, expressive oder nichtflüssige Aphasie bekannt.

Alle Formen eines Verbs werden auf den Infinitiv oder das Partizip reduziert, Substantive erscheinen häufig nur in der Einzahl, und Konjunktionen, Adjektive, Adverbien und Artikel fehlen meist völlig. Es werden nur die für die Kommunikation unerläßlichen Schlüsselwörter verwendet. Es gibt immer noch keine umfassende Erklärung für die Broca Aphasie. Broca selbst glaubte, das Problem läge in einer Beeinträchtigung des motorischen Abbildes des Wortes. Das Defizit besteht aber nicht darin, Laute zu bilden, sondern eher, von einem Laut auf den anderen überzugehen, d.h. die Kommunikationsfähigkeit ist hauptsächlich aufgrund der expressiven Sprachstörung eingeschränkt.

Die Wernicke Aphasie, auch sensorische Aphasie genannt, bezeichnet die Unfähigkeit, Wörter zu verstehen, oder genauer gesagt Laute zu einer kohärenten Sprache zusammenzufügen. Luria (1977) ging davon aus, dieser Aphasietyp sei durch drei Charakteristika beschreibbar:

1. Um zu hören und die Sprachklänge identifizieren zu können, muß man in der Lage sein, verschiedene Laute einzuordnen, d.h., sie in ein System von Phonemen einzugliedern, welche die Grundeinheiten der gesprochenen Sprache sind. In der japanischen Sprache werden zum Beispiel die Laute /l/ und /r/ nicht unterschieden. Ein Japaner, der z.B. die deutsche Sprache hört, kann somit die Wörter „Lippe“ und „Rippe“ nicht unterscheiden. Das notwendige Erkennungsraster in seinem Gehirn fehlt. Das bedeutet, eine solche Unterscheidung ist zwar für eine deutschsprachige Person sehr klar und deutlich, nicht aber für Menschen, deren Muttersprache Japanisch ist. Dasselbe Problem hat ein Wernicke Aphasiker, wenn es um seine Muttersprache geht: Er kann charakteristische Phoneme nicht mehr diskriminieren und dadurch in seinem phonematischen System klassifizieren.
2. Ein weiteres Merkmal der Wernicke A. ist eine oft überschießende Sprachproduktion (Logorrhoe) mit vielen phonematischen und/oder semantischen Paraphasien[37], Neologismen[38] und Paragrammatismen. Das Sprachverständnis ist anfangs erheblich gestört und die Kommunikationsfähigkeit dadurch stark eingeschränkt.
3. Als drittes Charakteristikum läßt sich eine Schreibstörung feststellen. Eine Person, welche die phonematischen Einheiten einer Sprache nicht mehr voneinander unterscheiden kann, vermag auch nicht zu schreiben, und zwar deshalb, weil sie die Grapheme, die geschriebenen Repräsentationen der Phoneme, nicht kennt. Ohne eine solche Kenntnis lassen sich Wörter nicht mehr schriftlich zusammensetzen.

Die amnestische Aphasie – manchmal auch anomische Aphasie oder Anomie genannt – zeichnet sich dadurch aus, daß der betroffene Mensch Sprache verstehen und sinnvoll produzieren kann, aber große Schwierigkeiten bei der Wortfindung für Objekte hat. Schwierigkeiten beim Finden von Substantiven resultieren aus Schädigungen verschiedenster Orte im temporalen Cortex. Verbfindungsstörungen treten hingegen eher bei linksfrontalen Läsionen auf.

Die globale, auch totale oder expressive-rezeptive Aphasie schließlich, stellt die schwerste Form der Aphasie dar. Sie ist eine Kombination der Symptome der Broca- und der Wernicke A. Sprachproduktion und -perzeption sind stark reduziert. Der Sprechfluß ist stockend und nur unter erheblicher Anstrengung ist es dem Patient überhaupt möglich sich zu verständigen. Die wenigen spontanen Äußerungen sind zudem mit Automatismen und neologistischem Jargon durchsetzt, so daß eine Kommunikation fast unmöglich ist. Erklärbar wird dieses Syndrom, wenn man sich die Ursache ansieht: Die globale A. beruht überwiegend auf thrombotischen oder embolischen Verschlüssen des Hauptstamms der Arteria cerebri media. Dementsprechend betrifft die Läsion die gesamte Sprachregion von ihren frontalen bis zu ihren temporo-parietalen Anteilen. Somit haben Patienten mit globaler A. die größte Substanzschädigung von allen Aphasietypen.

[...]


[1] Brockhaus Enzyklopädie, 1996, Bd. 20, S. 630.

[2] Saussure (1994) versteht unter langue Sprache ein abstraktes System von Zeichen und Regel im Gegensatz zur parole, der konkreten Realisierung von Sprache.

[3] „[...] bilingualism is present in practically every country of the world, in all classes of society, in all age groups: In fact it is difficult to find a society that is genuinely monolingual.“ (Grosjean 1982, S.1).

[4] „Die Praxis, abwechselnd zwei Sprachen zu gebrauchen, soll Zweisprachigkeit heißen, die an solcher Praxis beteiligten Personen werden zweisprachig genannt.“ (Weinreich, 1977, S. 15). Dabei spielt die Kompetenz des Sprechers zunächst keine Rolle. Diese ist lediglich für die Kategorisierung der Bilingualen von Bedeutung. Alles was im folgenden über Zweisprachigkeit gesagt wird, gilt auch für Mehrsprachigkeit bzw. Multilingualismus. Siehe auch F. Grosjean (1982, S. 1), der Bilingualismus als „the regular use of two or more languages“ definierte.

[5] „[...] most people speak two or more languages, and a large proportion of the world’s population is bilingual.“ (Grosjean 1982, S. 1).

[6] „It is an interesting fact that no really precise statistics exist concerning the number and distribution of speakers of two or more languages in the nations of the world.“ (Grosjean 1982, S. 2).

[7] „It is a well-accepted notion among sociolinguists that language is not just an instrument of communication. It is also a symbol of social or group identity, an emblem of group membership and solidarity.“ (Grosjean, 1982, S. 117).

[8] „Aphasien sind zentrale [erworbene] Sprachstörungen, die linguistisch als Beeinträchtigung in den verschiedenen Komponenten des Sprachsystems (Phonologie, Lexikon, Syntax und Semantik) zu beschreiben sind. Die aphasischen Störungen erstrecken sich auf alle expressiven und rezeptiven sprachlichen Modalitäten, auf Sprechen und Verstehen, Lesen und Schreiben, wobei im Prinzip dieselben sprachsystematischen Merkmale der Störung nachweisbar sind. Aphasische Störungen können also stets multi- und/oder supramodal auftreten.“ (Hartje/Poek, 1997).

[9] Siehe Anhang der vorliegenden Arbeit.

[10] Es gibt zwei „Gruppen“ von Theorien zur Sprachverarbeitung bei Bilingualen: 1. Independent, d.h., die beiden Sprachen eines Bilingualen sind in vollkommen getrennten, unabhängig voneinander arbeitenden Systemen organisiert, oder 2. Interdependent, d.h., sie nutzen gemeinsam ein System.

[11] Eine Beschreibung findet sich an entsprechender Stelle dieser Arbeit (S. 23ff.).

[12] „It turns out, of course, that no two bilinguals look alike on any test you give them, although groups of them can appear to have language and neurolinguistic behavior commons.“ (Obler, 1984, S. 194).

[13] Mit L1 wird die Muttersprache, d.h. die zuerst erworbene Sprache bezeichnet. Alle weiteren erworbenen Sprachen werden entsprechend durchnummeriert (L2...Ln).

[14] Einschränkung auf die Modalitäten Verstehen, Lesen, Schreiben.

[15] Dittmann in Blanken 1988.

[16] Chomsky erklärt die Entwicklung der Sprachkompetenz durch einen angeborenen Spracherwerbsmechanismus auf der Basis von grammatischen Universalien. Die ursprünglich nur auf die Syntax bezogene Theorie wurde von Chomsky 1965 zu einer allgemeinen Grammatiktheorie erweitert, in die auch Phonologie und Semantik mit einbezogen sind.

[17] „No doubt, a reasonable model of language use will incorporate, as a basic component, the generative grammar that expresses the speaker-hearer’s knowledge of the language; but this grammar does not, in itself, prescribe the character or functioning of a perceptual model or a model of speech production.“ (Chomsky, 1967, S. 9).

[18] Erworbene, zerebral bedingte Störung der Lesefähigkeit bei intakter Sehfähigkeit.

[19] Erworbene, zerebral bedingte Störung oder Verlust des Schreibvermögens bei intakten motorischen Fähigkeiten.

[20] Zu- und ableitende Fortsätze von Neuronen.

[21] „Generally speaking, one should try to partition the system in such a way that (a) a component’s characteristic input is of a maximally restricted sort and (b) a component’s mode of operation is minimally affected by the ouptut of other components.“ (Levelt, 1989, S. 15).

[22] „There ist evidence [...] that speakers construct the „framework“ of an utterance without much regard for the phonology of words. Apart from the semantic information, they use the syntactic information (and sometimes aspects of the morphological information) contained in the retrieved items to build this framework. This nonphonological part of an item's lexical information will be called the item's lemma information (or, for short, the lemma).“ (Levelt, 1989, S. 6).

[23] Siehe S. 15 Abb. 3 dieser Arbeit.

[24] „The findings [...] show the possibility of feedback from the phonological to the grammatical level of encoding.“ (Levelt, 1989, S. 16).

[25] „[...] I will define code-switching as the alternate use of two or more languages in the same utterance or conversation [...]“ (Grosjean, 1982, S. 145).

[26] Physiologische Spur, die ein Reiz im Gehirn hinterläßt.

[27] Paul Broca (28.6.1824 - 9.7.1880) lokalisierte das motorische Sprachvermögen im Gyrus frontalis inferior (Area 44 u. 45) der dominanten (meist linken) Hemisphäre des Neocortex (Broca Areal) und beschrieb die heute nach ihm benannte (motorische) Broca Aphasie. Carl Wernicke (15.5.1848 - 15.6.1905) entdeckte das sensorische Sprachareal im Gyrus temporalis superior der dominanten Hemisphäre. Das früher als sensorische Aphasie bezeichnete Syndrom wird heute meist Wernicke Aphasie genannt.

[28] Freud wies die Annahme zurück, daß „der Sprachapparat aus gesonderten Zentren bestehe, welche durch funktionsfreie Rindengebiete getrennt sind, ferner, daß an bestimmten Rindenstellen, welche Zentren zu nennen sind, die Vorstellungen (Erinnerungsbilder), welche der Sprache dienen, aufgespeichert liegen, während deren Assoziation ausschließlich durch weiße Fasermassen unterhalb der Rinde besorgt wird.“ Er plädierte vielmehr dafür, „daß das Sprachgebiet der Rinde ein zusammenhängender Rindenbezirk ist, innerhalb dessen die Assoziationen und Übertragungen, auf denen die Sprachfunktionen beruhen, in einer dem Verständnis nicht näherzubringenden Kompliziertheit vor sich gehen.“ (Freud, 1891, S. 64).

[29] Das Magnetic Resonace Imaging ist ein computergestütztes, bildgebendes Verfahren, das auf dem Prinzip der Kernspinresonanz (NMR) beruht. Im Gegensatz zur konventionellen Röntgendiagnostik bzw. Computertomographie wird dabei keine ionisierende Strahlung verwendet. Beim functional MRI (fMRI) werden Aufnahmen z.B. des Gehirns in kurzen Abständen wiederholt, während der Patient bestimmte Aufgaben lösen muß. Anhand des verstärkten Blutflusses in bestimmten Arealen lassen sich Rückschlüsse auf die Funktion dieser Gebiete ziehen.

[30] Die Positronenemissionstomographie ist ein bildgebendes Verfahren, bei dem die Aktivitätsverteilung radioaktiver Kontrastmittel computertomographisch zu einem Bild verarbeitet wird. Damit läßt sich z.B. eine verstärkte oder verminderte Durchblutung in bestimmten Körpergeweben (z.B. Gehirn) darstellen. Aufgrund der Strahlenbelastung kann die PET nicht beliebig oft wiederholt werden.

[31] Methode zur Registrierung von Potentialschwankungen des Gehirns, die von auf der Kopfhaut angebrachten Elektroden erfaßt, verstärkt und kontinuierlich aufgezeichnet werden. Bei Funktionsstörungen entstehen charakteristische Wellenmuster, die auf Art und Ort der Störung schließen lassen.

[32] „It is suggested that classifying aphasic patients via lesion rather than aphasic typology might yield a view of functional subsystems different from those commonly accepted.“ (Kimura, 1989, S. 565).

[33] „In fact, no support was found for the presumption that lesions to the posterior speech system result in receptive difficulties more severe than those found after anterior lesions, at least within the limits of the test used.“ (Kimura, 1989, S. 587).

[34] Störung der Fähigkeit, Bewegungen willentlich (etwa nach Aufforderung) auszuführen, trotz erhaltener Beweglichkeit der entsprechenden Körperteile. Unwillkürliche Bewegungen sind nicht betroffen. Symptome finden sich bei der Artikulation (Verbale Apraxie, Sprechapraxie), beim Schreiben von Buchstaben (Apraktische Agraphie), in der Gestik und Mimik. Apraxie unterscheidet sich von der Dysarthrie durch inkonsistente Fehler und variable Substitutionen.

[35] Sprechmotorische Störungen im zentralen und peripheren Nervensystem, bei denen Artikulation, Phonation, oder Prosodie betroffen sein können. Auftretende Fehler (z.B. in der Artikulation) zeigen sich als konsistente Fehler oder Substitutionen (im Unterschied zur Apraxie).

[36] Lautliche Veränderung eines Wortes durch Substituierung, Auslassung, Umstellung oder Hinzufügung einzelner Laute.

[37] Fehlerhaftes Auftreten eines Wortes der Standardsprache, das zum Zielwort entweder eine bedeutungsmäßige Ähnlichkeit hat oder grob davon abweicht.

[38] Auch neologistische Paraphasien. Neubildungen von Inhaltswörtern in Übereinstimmung mit sprachspezifischen phonotaktischen Strukturen, die aber weder zum Lexikon gehören noch eine Beziehung zum intendierten Wort erkennen lassen, etwa Lorch für Mikrophon. Teilweise ist die Bildung dieser N. durchsichtig, vgl. Kerzenstrauch für Adventskranz. N. werden sowohl bei Aphasikern (insbesondere mit Wernicke-Aphasie) als auch bei sprachauffälligen Kindern beobachtet.

Final del extracto de 92 páginas

Detalles

Título
Aphasie bei Mehrsprachigkeit. Independente oder interdependente Sprachverarbeitung
Universidad
University of Freiburg  (Philosophische Fakultät - Deutsches Seminar)
Calificación
1,0
Autor
Año
2000
Páginas
92
No. de catálogo
V2973
ISBN (Ebook)
9783638117890
ISBN (Libro)
9783638690942
Tamaño de fichero
1112 KB
Idioma
Alemán
Palabras clave
Aphasie, Mehrsprachigkeit, Independente, Sprachverarbeitung
Citar trabajo
Heinrich Maier (Autor), 2000, Aphasie bei Mehrsprachigkeit. Independente oder interdependente Sprachverarbeitung, Múnich, GRIN Verlag, https://www.grin.com/document/2973

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Aphasie bei Mehrsprachigkeit. Independente oder interdependente Sprachverarbeitung



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona