Ansätze zum Textverstehen in der Fachdidaktik


Examensarbeit, 2003
97 Seiten, Note: 1,3

Leseprobe

Inhalt

1. Einleitung

2. Ansätze zum Textverstehen
2.1. Wissenschaftsgeschichtlicher Kontext
2.2. Ebenen des Verstehens
2.2.1. Die sensorische Rezeption
2.2.2. Die Bedeutung der Wörter
2.2.3. Die Satzverarbeitung
2.2.4. Die semantische Rezeption
2.2.5. Die pragmatische Rezeption
2.3. Verstehenstheorien.
2.3.1. Das Konstruktions-Integrations-Modell von Walter Kintsch
2.3.1.1. Vorüberlegungen
2.3.1.2. Konstruktion und Integration
2.3.1.3. Der Kontext der Theorie
2.3.2. Die Theorie mentaler Modelle
von Philipp N. Johnson-Laird
2.4. Die Interaktion
2.5. Die Situation

3. Konzepte der Lesekompetenz
3.1. Lesekompetenz nach Hurrelmann und Groeben
3.1.1. Die Kompetenz
3.1.2. Die Dimensionen
3.1.3. Einflussfaktoren und Bedingungen
3.2. Das Konzept und die Theorien im Vergleich
3.2.1. Kognitive Elemente.
3.2.2. Die Situation
3.3. Schlussfolgerungen
3.4. Lesekompetenz nach PISA
3.4.1. Rahmenbedingungen
3.4.2. Das Konzept
3.5. Das Konzept und die Theorien im Vergleich.
3.6. Überlegungen zur Umsetzung

4. Entwicklung einer Methode
4.1. Notwendige Bestandteile der Methode
4.2. Bestehende Mikro- und Mesostrategien
4.2.1. Mikrostrategien
4.2.1.1. Der Text
4.2.1.2. Das Wissen
4.2.1.3. Die Darstellung.
4.2.1.4. Die Motivation
4.2.2. Mesostrategien
4.2.2.1. Die SQ3R-Methode
4.2.2.2. Das MURDER-Schema
4.2.2.3. REDUTEX
4.2.3. Vorteile einer Mesostrategie
4.3. Die Effektivität von Lernstrategien
4.4. Die Methode
4.4.1. Der Aufbau der Methode
4.4.2. Die Rahmenbedingungen

5. Anbindung an die Fachdidaktik
5.1. Eine Aufgabe der Fachdidaktik
5.2. Einordnung in den Diskussionskontext

6. Resümee

7. Literaturverzeichnis

1. Einleitung

Mit dieser Arbeit sollen Ansätze zum Textverstehen in Form einer praktischen Anwendung in die Didaktik des Faches Deutsch eingebracht werden.

Ausgangspunkt der Überlegungen ist die geringe Lesefähigkeit deutscher Schülerinnen und Schüler, wie zuletzt durch die PISA-Studie (2001) herausgestellt wurde. Schon vor PISA war bekannt, dass deutsche Schülerinnen und Schüler auf dem Gebiet der Lesekompetenz Defizite aufweisen. (z.B. Kleinschmidt, 1968) Doch nicht nur Schülerinnen und Schüler, auch Erwachsene haben Schwierigkeiten, wenn es um informatorisches Lesen geht. (Hahn, 1999, 4)

Die Didaktik des Faches Deutsch, so sollte man meinen, müsste der Ort sein, in dem dieses Defizit angegangen wird. Sie kreist jedoch hauptsächlich um die Bereiche Sprachdidaktik, Literaturdidaktik und Mediendidaktik. (siehe z.B. Taschenbuch des Deutschunterrichts, 1998a; 1998b) Untersuchungen zum Aufbau und zur Verwendung von Schulbüchern im Deutschunterricht bestätigen diese Beobachtung. (z.B. Khadjehzadeh, 2002; Killus, 1998) Die Förderung von Textverstehen als Basiskompetenz oder Schlüsselqualifikation hat in diesem Rahmen nur einen geringen Spielraum.

In sehr anwendungsorientierten Zeitschriften wie „Praxis Deutsch“ wird die Förderung der Lesekompetenz diskutiert und Vorschläge für die Anwendung im Unterricht werden dargestellt. Begründungen für die Vorgehensweisen machen jedoch aufmerksam. Die Erklärung, eine Vorgehensweise habe sich im Unterricht „bewährt“ (Rudolph & Menzel, 2000, 42) ist scheinbar kein Einzelfall, sondern wird wohl häufiger als Grund angegeben, eingespielte Handlungen im Unterricht beizubehalten. (Fritzsche, 2000, 57) Sie kann jedoch eindeutig keine ausreichende Begründung für didaktisches Handeln darstellen.

Die Vermittlung zwischen Theorie und Praxis scheint in der Didaktik ein Problem zu sein. Beklagt werden neben „methodischen Handreichungen ohne didaktische Fundierung, (...) auch viele didaktische Publikationen ohne den geringsten Bezug zur Praxis“. (Blattmann & Frederking, 2002, 7) Es zeigt sich eine Diskrepanz zwischen den von der Gesellschaft geforderten Notwendigkeiten und ihrer Umsetzung. Die Notwendigkeit besteht unter anderem in der Förderung einer Lesekompetenz, die sich nicht ausschließlich auf literarische Textes bezieht, sondern „auch Gebrauchstexte mit all ihrer Facettenhaftigkeit von der reinen Information (...) bis hin zu schieren Appelation (...) durchdringbar“ macht. (Hahn, 1999, 10) Der Umsetzung dieser Forderung wird zwar in gewisser Weise nachgekommen, sie fußt jedoch häufig nicht auf der breiten theoretischen und empirischen Grundlage, die eigentlich möglich wäre.

Mit dieser Arbeit soll darum ein Versuch gewagt werden, diesem Defizit zu begegnen. Dazu sollen zunächst Ansätze zum Textverstehen dargestellt werden. Nach einer Einordnung in den wissenschaftsgeschichtlichen Kontext erfolgt die Darstellung von Ebenen des Textverstehens, um Grundlagen für anschließende richtungweisende Verstehenstheorien zu legen. Hierauf folgen Überlegungen zur Interaktion im Verstehensprozess und zur Situation, dem Rahmen des Verstehens. Um die Übertragung der Befunde auf die Anwendung schrittweise zu vollziehen, werden im Anschluss an die Verstehenstheorien zwei Konzepte der Lesekompetenz vorgestellt und mit den Ansätzen zum Textverstehen verglichen. Die Schlussfolgerungen aus diesem Vergleich dienen Überlegungen, was eine Methode enthalten müsste, die Textverstehen bei Schülerinnen und Schülern fördern will. Anhand von bereits bestehenden Ratschlägen und Strategien wird diese Methode dann konstruiert. Überlegungen zur möglichen Integration in die Didaktik runden die Arbeit ab.

In der Didaktik wird sowohl die theoretische Fundierung als auch die Relevanz für die Praxis beklagt. Mit dieser Arbeit wird ein Weg aus der Theorie in die Praxis gesucht, um das aktuelle Problem der mangelnden Lesekompetenz anzugehen.

2. Ansätze zum Textverstehen

2.1. Wissenschaftsgeschichtlicher Kontext

Die hier dargestellten Ansätze zum Textverstehen gründen in einer kognitiv orientierten Sprachverarbeitungsforschung, „in der alle an der menschlichen Informationsverarbeitung interessierten Wissenschaften zusammenarbeiten“. (Rickheit & Strohner, 1993, 5) Die Theoriebildung geschieht nicht mehr allein in den einzelnen Fachbereichen. Interdisziplinarität ist notwendig, weil die Komplexität des Gegenstandes anders nicht bewältigt werden kann. Untersuchungen aus der Psychologie, Linguistik, Neurologie, Sprachphilosophie und dem Gebiet der künstlichen Intelligenzforschung tragen gemeinsam zur Erforschung des Gegenstandes bei. Besonders das Verhältnis von Linguistik und Psychologie war für die Erforschung der Sprachverarbeitung ausschlaggebend.

In der Psychologie ist zunächst Wilhelm Wundt (1900) zu nennen, der als erster psychologische Forschungsprinzipien auf den Gegenstand der Sprache anwendete. Karl Bühler (1934) konnte auf seinen Überlegungen aufbauen. Er betonte stärker die funktionalen Abhängigkeiten des Sprachverhaltens von der kommunikativen Umwelt und legte damit Fundamente für die heutige Sprachpsychologie. (Knobloch, 2003, 16f.; Rickheit & Strohner, 1993)

In der Linguistik waren strukturalistische Konzeptionen in Europa und Amerika bedeutend. Besonders behavioristische Forderungen zur Objektivität empirischer Forschung waren eine wichtige Vorbereitung der Sprachverarbeitungsforschung. Chomskys Kritik (1959) an Skinners behavioristischen Sprachauffassung (1957) und der Aufforderung, Sprachverhalten zu untersuchen, um es gegebenenfalls verändern zu können, führte dann zu einer Dominanz der Grammatiktheorie. Die Unterscheidung zwischen Kompetenz und Performanz trug zu einem Übergewicht der Grammatiktheorie bei. Die Kompetenz eines Sprechers wurde als Bereich der Linguistik verstanden, die experimentelle Untersuchung konnte nur die indirekt verbundene Performanz erreichen. Der psychologische Anteil reduzierte sich auf eine Hilfsdisziplin, welcher die experimentelle Untersuchung der linguistischen Grammatiktheorie zukam. (Rickheit & Strohner, 1993)

Zu Beginn der siebziger Jahre erfolgte mit der kognitiven Wende eine Ausweitung des Blickfeldes. Das gesamte Weltwissen des Sprechers gewann an Bedeutung. Das kognitive System aktivierte bei der Textverarbeitung in diesem Sinne das gesamte zur Verfügung stehende Wissen. Die kognitive Linguistik hat damit die Gesamtheit der sprachlichen Kognition zum Gegenstand. (vgl. Strube, Hemforth & Wrobel, 1990)

In der weiteren Entwicklung erfolgt nun die Integration der Sprachverarbeitungsforschung in die kognitive Wissenschaft. Laut Strohner und Rickheit (1993) muss die Entwicklung weitergehen, weil Sprachverarbeitung nicht nur Kognition, sondern auch Kommunikation umfasst. Dabei wird Sprachverhalten in einem System gesehen, durch das es bestimmt wird. (Strohner, 1990; Strohner & Rickheit, 1988)

Mit der Darstellung von Ebenen des Verstehens und den Theorien, die Verstehensprozesse modellieren, wird diese Entwicklung teilweise nachvollzogen. Der Forderung nach einer Erweiterung um den kommunikativen Aspekt wird in diesen Ausführungen bereits entsprochen.

2.2. Ebenen des Verstehens

Der Prozess des Verstehens wird in mehrere Ebenen der Verarbeitung gegliedert. In Anlehnung an die klassische Aufgliederung der Linguistik in Phonologie, Morphologie, Syntax, Semantik und Pragmatik werden dabei im Allgemeinen die Ebenen des perzeptuellen Verstehens, des morpho-syntaktischen Verstehens, des semantischen und des pragmatischen (Sinn-)Verstehens unterschieden. (Prestin, 2003, 491; Rickheit, Sichelschmidt & Strohner, 2002) Eine Abweichung von dieser Konzeption erfolgt im Folgenden im Bereich des morpho-syntaktischen Verstehens, das der Darstellung halber in Worterkennung und Satzverarbeitung unterschieden wird.

2.2.1 Die sensorische Rezeption

Die sensorische Rezeption umfasst das Erkennen sprachlicher Zeichen. Beim Lesen geht es um die Erkennung und Decodierung der Buchstaben.

Der Blick gleitet nicht kontinuierlich über den Text, sondern springt von einem Ruhepunkt zum nächsten. Nur in den Ruhepausen zwischen den Sprüngen, den Fixationen, wird Information aufgenommen. Eine Fixation dauert durchschnittlich 250 ms. Ein Sprung, auch Sakkade genannt, dauert ca. 15 ms und umfasst etwa 8 Zeichen. In 90% der Fälle ist sie der Leserichtung entsprechend nach rechts gerichtet. Einige Sprünge geschehen entgegengesetzt zur Leserichtung. Diese Regressionen erfolgen, wenn der Leser glaubt, etwas nicht verstanden zu haben. (Rickheit, Sichelschmidt & Strohner, 2002; Richter & Christmann, 2002; Rayner & Sereno, 1994; Gross, 1994; Günther, 1988)

Die Fixation liegt meistens in der Mitte eines Wortes. Die Wahrnehmungsspanne um die Fixation herum ist asymmetrisch und zwar in Abhängigkeit von der Leserichtung. Im Englischen erstreckt sie sich beispielsweise weiter nach rechts als im Hebräischen. Das Auge greift beim Erfassen des Wortes also vor. (Gross, 1994; Günther, 1988)

Dauer und Ort der Fixationen werden von einer Reihe von Faktoren beeinflusst. Längere Wörter werden mit größerer Wahrscheinlichkeit fixiert als kurze. Funktionswörter werden häufig übersprungen, obwohl sie wahrgenommen und verarbeitet werden. Auch Häufigkeit, Vertrautheit und Erwartbarkeit eines Wortes beeinflussen den Ort und die Dauer der Fixation, ebenso wie der Kontext des Wortes. (Rickheit, Sichelschmidt & Strohner 2002; Gross, 1994; Rayner & Sereno, 1994)

Sabine Gross stellt dar, dass die visuelle Aktivität bis in die 70er Jahre als unabhängig von der Konstruktion von Bedeutung gesehen wurde. Sie führt zwei Theorien an. Das „okulomotorische Kontroll-Modell“ besagt, dass Augenbewegungen vom Gehirn rein motorisch und völlig ohne Bezug zum jeweils gelesenen Text ablaufen. Mit dem „visuellen Modell“ wird zwar eine gewisse Abhängigkeit der Augenbewegung vom Text angenommen, der Einfluss des Textes beschränke sich jedoch nur auf das Optisch-Visuelle, nicht auf das Semantische. (Gross, 1994, 8)

Laut Just und Carpenter (1980) sind Augenbewegung und Erschließung der Bedeutung eines Textes jedoch in Relation zueinander zu sehen. Mit der Eye-mind-Annahme gehen sie davon aus, dass Fixationszeit und Verarbeitungszeit miteinander korrelieren. Zudem beschreiben sie, wie alle höheren Prozessebenen der Verarbeitung, z.B. Vermutungen, Folgerungen und Interpretationen, fortlaufen und jeweils so bald wie möglich in Gang gesetzt werden.

„A reader tries to interpret each content word of a text as it is encountered. (...) The interpretations at all levels of processing occur as soon as possible.“ (Just & Carpenter, 1980, 330)

„There is no appreciable lag between what is being fixated and what is being processed. (...) Readers interpret a word while they are fixating it.“ (Just & Carpenter, 1980, 331)

Experimentell gemessene Fixationszeiten sprechen für eine Relation zwischen visueller Erfassung und Sinnkonstitution. (Gross, 1994, 8) Das Wissen über diese Relation ist bedeutend für die Erforschung der Sinnkonstitution aus geschriebener Sprache, da durch die Messung der Fixationszeit Aussagen zur Verarbeitung gemacht werden können. (Rickheit, Sichelschmidt & Strohner, 2002, 95)

2.2.2. Die Bedeutung der Wörter

Die Ebene der Worterkennung geht bereits über die sensorische Rezeption hinaus. Sie beinhaltet die Konstruktion von Bedeutung in kleineren Einheiten des Textes. Die Frage nach den verarbeitungsrelevanten Einheiten ist ein wesentlicher Bereich der Forschung. Folgt man dem Aufbau linguistischer Einheiten, so müssten vor der Erkennung der Wörter zunächst Morpheme genannt werden. Als kleinste Einheiten, denen Bedeutung zugeordnet werden kann, sollten sie innerhalb einer Darstellung zum Textverstehen relevant sein. Auch die Annahme, Buchstaben seien für das Verstehen bedeutsam, ist denkbar.

Schon Ende des 19. Jahrhunderts berichtete J. McKeen Cattell (1885, 1886) vom sogenannten Wortüberlegenheitseffekt. Die Identifikation eines Buchstaben erwies sich als leichter, wenn das gesamte Wort dargeboten wurde, als wenn der Buchstabe isoliert oder eingebettet in die Buchstabenfolge eines Nicht-Wortes präsentiert wurde. Seine Befunde sprachen gegen die Annahme, das Identifizieren und serielle Verarbeiten einzelner Buchstaben von links nach rechts sei eine notwendige Voraussetzung für die Worterkennung. Evelyn Ferstl und Giovanni B. Flores d´Arcais (1999) beschreiben als Beleg für die Überlegenheit des Wortes ein Experiment von Healy (1976). Die Probanden mussten bei dieser Untersuchung einen Buchstaben immer dann markieren, wenn er im zusammenhängenden Text auftrat. Wenn die Buchstaben zu einem sehr häufig vorkommenden Wort gehörten, wurden sie mit großer Reliabilität übersehen. (Ferstl, Flores d´Arcais, 1999, 206) Auch Reicher (1969) machte ein Experiment mit dem Ergebnis, dass Buchstaben besser als Bestandteil eines Wortes erkennbar sind, als wenn sie einer Buchstabenkette ohne Wortcharakter, so genannten Unsinnswörtern angehören. Rickheit, Sichelschmidt und Strohner folgern daraus: „Offenbar ist das Wort eine verarbeitungsrelevante Einheit“ (Rickheit, Sichelschmidt & Strohner, 2002, 55). Sie modifizieren die Aussage im Verlauf ihrer Erörterung jedoch: „Streng genommen sind es die Morpheme“. (ebd.)

Drews, Zwitserlood, Bolwieder und Heuer (1994) untersuchen das Verhältnis von Wort und Morphem als verarbeitungsrelevante Einheit. Sie gehen dabei von einer Lexikonkonzeption, also einer Speicherung von Wortkonzepten im Gedächtnis aus, die der eines Nachschlagewerks bzw. eines Speichermediums für wortrelevante Informationen entspricht. Ihr Ausgangspunkt ist die Frage,

„ob in diesem Lexikon alle Wortformen einer Sprache enthalten sind oder ob morphologisch komplexe Wörter als solche nicht enthalten sind, sondern durch Regeln generiert werden“. (Drews, Zwitserlood, Bolwieder & Heuer, 1994, 273)

Durch den Vergleich ihrer Ergebnisse mit anderen Untersuchungen folgern sie, dass beide Ebenen, die der Morpheme und die des Wortes, kognitiv relevante Einheiten sind. Die Ergebnisse ihrer eigenen Untersuchung zur Verarbeitung morphologisch komplexer Wörter deuten darauf hin,

„daß das mentale Lexikon Einträge für die morphologisch komplexe Wortform und die konstituierenden lexikalischen Morpheme enthält, wobei diese Repräsentationen Verbindungen zueinander aufweisen, die sowohl über gemeinsame semantische Merkmale als auch über mögliche morphologische Kombinationen definiert sind“. (ebd., 292)

Wie die Überlegungen zum Wortüberlegenheitseffekt zeigen, werden beim Lesen also nicht lediglich einzelne Buchstaben aneinandergefügt, um Bedeutung zu konstruieren, sondern größere Einheiten verarbeitet. Diese Einheiten umfassen einzelne Morpheme sowie zusammengesetzte komplexe Wörter gleichermaßen.

Das Erkennen dieser Einheiten im Text wird von einigen Einflussgrößen gesteuert. Zum einen spielt der Häufigkeitseffekt eine wichtige Rolle. Wörter, die in der Schriftsprache generell häufiger vorkommen oder sich in dem gelesenen Text wiederholen, werden für gewöhnlich schneller erkannt als Wörter, die nur selten vorkommen. Als Ursache für den Häufigkeitseffekt wird die Vertrautheit des Lesers mit den Wörtern angenommen. „Auf häufige Wörter ist man öfter gestoßen, weshalb sie leichter verarbeitet werden“. (Ferstl & Flores d´Arcais, 1999, 205) Das Erkennen von Wörtern und deren leichtere Verarbeitung liegt nicht nur am häufigen Vorkommen eines Wortes, sondern auch an den orthographisch und semantisch ähnlichen Wörtern im Umfeld (Drews, Zwitserlood, Bolwieder & Heuer, 1994), wobei nach Zwitserlood (1996) der semantischen Verwandtschaft eine höhere Relevanz zukommt. Ebenso ist die subjektive Vertrautheit mit einem Wort entscheidend, wie auch die Erwartbarkeit eines Wortes, die durch den Kontext des Satzes und seiner Kohärenz mitbestimmt wird. (Ferstl & Flores d´Arcais, 1999)

Verschiedene Modelle versuchen die Worterkennung als Teilprozess des Lesens zu erklären. Sie unterscheiden sich hauptsächlich darin, wann und wie auf die Bedeutung eines Wortes im Leseprozess zugegriffen wird.

Als richtungweisend erwies sich das Logogen-Modell von John Morton (1970). Es besagt, dass die Bedeutung des betreffenden Wortes aktiviert wird, wenn die Evidenz für das fragliche Wort beim Lesen einen gewissen Schwellenwert übersteigt. Morton geht davon aus, dass an der Sprachrezeption beteiligte Teilprozesse weitgehend parallel ablaufen und die Ergebnisse höherer Teilprozesse auf niedrigere Teilprozesse zurückwirken können. Das Modell beinhaltet „eine Erleichterung der Wortidentifikation durch den Satz-Kontext“ (Christmann & Groeben, 1999, 151), stimmt also mit dem beschriebenen Kontexteinfluss bei der Worterkennung überein. Noch dynamischer ist laut Rickheit, Strohner und Sichelschmidt jedoch das „Dual-Route-Cascaded“-Modell von Max Coltheart et al. (Coltheart, Rastle, Perry, Langdon & Ziegler, 2001). Die Verarbeitung verläuft darin in Kaskaden: „Sobald eine kognitive Einheit eine gewisse Aktivierung aufnimmt, gibt sie diese auch an die benachbarten Einheiten weiter“. (Rickheit, Sichelschmidt & Strohner, 2002, 96)

In der Entwicklung der Modelle zur Wortverarbeitung zeichnet sich bereits eine Tendenz zur vermehrten Interaktivität und Dynamik der Prozesse ab. Die Konstruktion von Bedeutung aus kleineren Einheiten im Text folgt mit dieser Entwicklung der noch zu zeigenden Tendenz der Textverarbeitungstheorien zu einer vermehrten Interaktivität.

2.2.3. Die Satzverarbeitung

Dem Satz kam in der Forschung ebenfalls eine große Aufmerksamkeit zu. Durch die Theorielastigkeit der generativ-grammatisch inspirierten Forschung, welche sich auf die formale Korrektheit des Satzes richtete, wurde die Rolle des Satzes für die Sprachverarbeitung jedoch lange vernachlässigt. (Rickheit, Sichelschmidt & Strohner 2002, 57)

Auf Grund des heutigen Forschungsstandes können dennoch Aussagen zur Verarbeitung von Sätzen getroffen werden. Wesentliche Bereiche umfassen die Repräsentation von Sätzen oder Phrasen sowie die Integration von syntaktischen und semantischen Informationen bei der Verarbeitung.

Sachverhalte, die mit kurzen Sätzen oder Phrasen korrespondieren, werden mental als Propositionen repräsentiert. Die Struktur von Propositionen besteht aus einem Prädikat und einem bis mehreren Argumenten.

Bsp. (L.R.): Karl fährt mit dem Auto

Fahren (Karl, Auto)

Das Prädikat bestimmt die Relation zwischen den Argumenten. Es handelt sich dabei jedoch nicht um die Relation zwischen Wörtern, sondern zwischen Wortkonzepten, also der mentalen Repräsentation der Wortbedeutung. Propositionen können nach der Art ihrer Prädikate unterschieden werden, besonders häufig werden allerdings Verben als Prädikate verwandt. (Grabowski, 1991; Christmann, 1989; eine systematische Auflistung von Propositionen bei Ballstaedt, Mandl, Schnotz & Tergan, 1981)

Propositionen werden häufig im Zusammenhang mit Kintsch erwähnt. Er entwickelte 1974 den propositionalen Ansatz, mit dem die semantische Verarbeitung eines Satzes in der Extraktion von Propositionen aus der zugrunde liegenden Satzstruktur besteht. Die Idee der Proposition geht jedoch auf Fillmore (1968) und Chafe (1970) zurück. Die semantische Struktur eines Satzes wird von ihnen bereits als tiefenstrukturelle Relation zwischen einem Prädikat (Zustände, Ereignisse, Eigenschaften) und den von ihm implizierten Argumenten (Objekte, Personen, Sachverhalte) beschrieben. Sowohl Fillmore als auch Chafe verstehen Prädikat-Argument-Strukturen dabei nicht als sprachliche Einheiten, sondern als Bedeutungseinheiten, die die Struktur unseres Wissens von der Welt repräsentieren. (Christmann & Groeben, 1999)

Mit den Propositionen wurden Einheiten geschaffen, durch welche die Struktur von Sprache und die Struktur von Gedanken auf einer Ebene analysierbar werden. Hinter diesen Überlegungen steht die Annahme einer Tiefenstruktur im Satz, die sich in der Übersetzung der Gedanken zeigt. Die Tiefenstruktur eines Satzes wird behalten und die Idee wird übersetzt. Nachdem die psychologische Relevanz von Propositionen bestätigt wurde, konnte die Beschreibung von Texten damit in demselben Format erfolgen wie die Beschreibung kognitiver Einträge. (ebd.)

Neben der Repräsentation der Sachverhalte aus einzelnen Sätzen und Phrasen ist die Satzverarbeitung im Kontext bedeutsam. Der Satz und seine Bedeutung stehen im Text nicht per se, sondern der gesamte Kontext spielt eine Rolle beim Verstehen. In diesem Zusammenhang stellt sich die Frage nach dem Verhältnis von syntaktischer und semantischer Information und ob die unterschiedlichen Informationen sofort oder mit Verzögerung genutzt werden.

Rickheit, Strohner und Sichelschmidt skizzieren autonome und interaktive Positionen. Die autonomen Theorien gehen von der Verarbeitung der syntaktischen Struktur aus. Erst nach einer syntaktischen Analyse wird eine semantische Interpretation der Struktur angenommen. Die interaktiven Theorien betonen dagegen die Bedeutung der semantischen Analyse, die vor oder gleichzeitig mit der syntaktischen Analyse abläuft. (Rickheit, Sichelschmidt & Strohner, 2002, 79)

Mit Hilfe des „garden-path“-Effektes konnte zur Klärung der Positionen beigetragen werden. Der „garden-path“-Effekt bezeichnet eine im ersten Anlauf falsche syntaktische Strukturierung, die an einem bestimmten Punkt der Verarbeitung nicht mehr aufrechterhalten werden kann und daher revidiert werden muss. Wird die syntaktische Struktur interaktiv verarbeitet, sollte der Effekt bei eindeutigen semantischen Interpretationshinweisen nicht auftreten. Er tritt jedoch sowohl in ambigen als auch in nicht-ambigen Satzformen auf. (Ferreira & Clifton, 1986) Dieser Befund spricht dafür, dass der semantische Kontext nicht mitverarbeitet wird und stützt somit die Autonomie-Position der syntaktischen Verarbeitung.

Die weitere Forschung zeigte aber, dass das Auftreten bzw. Ausbleiben des Effektes von weiteren Faktoren mitbestimmt wird. Dazu gehören unter anderem die Kapazität des Arbeitsgedächtnisses und die Plausibilität der Satzkonstruktion. Nur bei einem schwachen semantischen Kontext wird die syntaktische Struktur autonom verarbeitet, bei eindeutigen Kontextbezügen wird die syntaktische Analyse jedoch durch die semantische Struktur gesteuert. (Christmann & Groeben, 1999; Rickheit & Strohner, 1993) Für die interaktive Position spricht auch, dass semantische Veränderungen eines Ausgangssatzes länger im Kurzzeitgedächtnis behalten werden als syntaktische Modifikationen. Syntaktische Informationen verlieren sich, nachdem Bedeutung konstruiert wurde. (Sachs, 1967) Die Befunde sprechen dafür, dass die Syntax nur zur Dekodierung der Satzbedeutung herangezogen und dann vergessen wird. (Christmann & Groeben, 1999)

Die Entwicklung der Satzverarbeitungsforschung zu interaktiven Prozessen beschreiben Rickheit, Strohner und Sichelschmidt mit einem Verweis auf das „good enough“-Prinzip von Fernanda Ferreira und Mitarbeitern. (Ferreira, Bailey & Ferraro, 2002) Dem zu Folge müssen Rezipienten in vielen Fällen weder die Syntax noch die Semantik eines Satzes „bis in die letzten Feinheiten analysieren“ (Rickheit, Sichelschmidt & Strohner, 2002, 98), um den kommunikativen Anforderungen zu entsprechen. Sowohl die syntaktische als auch die semantische Rezeption dienen der zwischenmenschlichen Kommunikation.

2.2.4. Die semantische Rezeption

Nach der Worterkennung und Satzverarbeitung soll die Konstruktion von Bedeutung thematisiert werden.

„Nicht nur Produzenten, sondern auch Rezipienten konstruieren Bedeutung, und zwar in dem Sinne, dass sie bestimmten Sprachstrukturen bestimmte Wissensstrukturen zuordnen“. (Rickheit, Sichelschmidt & Strohner, 2002, 65)

Um diese Zuordnung von Sprach- und Wissensstrukturen besser beschreiben zu können, werden drei Kategorien verwendet.

Die erste Kategorie wird als Referenz bezeichnet. Referenz umfasst einen „direkte(n) oder indirekte(n) sprachliche(n) Verweis auf Nichtsprachliches“. (Rickheit, Sichelschmidt & Strohner, 2002, 69, siehe dort auch einen kurzen Überblick über die wichtigsten Arten von Referenz) Rezipienten stellen während der Sprachverarbeitung einen Bezug zwischen sprachlichen Ausdrücken und Objekten der umgebenden Welt her. Diese so genannten Referenzprozesse können anhand der Blickbewegung nachgewiesen werden. (Tanenhaus, Magnuson, Dahan & Chambers, 2000) Die Leichtigkeit der Verarbeitung linguistisch komplexer Referenzkonstruktionen hängt vom Kontext und der Kommunikationssituation ab. (siehe z.B. Untersuchungen zu Metaphern und Metonymien in Meyer-Fujara & Rieser 2001; vgl. Rickheit, Sichelschmidt & Strohner, 2002)

Eine weitere Kategorie ist die Kohärenz, die Verknüpfung von Sachverhalten. Während mit Kohäsion die strukturelle Verknüpfung von Äußerungsteilen gemeint ist, bezeichnet Kohärenz den

„Grad der semantischen Verknüpfung der entsprechenden mentalen Repräsentationen – und auch die kognitiven Prozesse, die bei dieser Verknüpfung ablaufen“. (Rickheit, Sichelschmidt & Strohner, 2002, 70)

In der Forschung werden zwei Arten von Kohärenz unterschieden: lokale und globale Kohärenz. Die lokale Kohärenz bezieht sich auf die Verknüpfung zweier aufeinander folgender Bedeutungseinheiten. Globale Kohärenz bezeichnet eine den ganzen Text umfassende mentale Repräsentation. Die globale Kohärenz entspricht dem Versuch des Rezipienten, das Thema eines Textes zu erfassen. Rickheit, Sichelschmidt & Strohner, 2002)

Ein Beispiel für die prozessual gedachte Kohärenzherstellung stellt das Modell der zyklischen Verarbeitung von Walter Kintsch und Teun A. van Dijk (1978) dar. Grundlage der Theorie ist die Annahme, dass eine Proposition nicht in die gesamte bereits verarbeitete Textstruktur integriert wird, sondern dass jeweils nur ein Teil der verarbeiteten Propositionen im Arbeitsgedächtnis für die Kohärenzbildung zur Verfügung steht. Ein Zyklus ist dabei die Zeitspanne, in der die Proposition im Arbeitsgedächtnis zur Kohärenzbildung vorhanden ist.

Die dritte Kategorie, die Inferenz, umfasst das Phänomen, dass beim Lesen häufig mehr verstanden wird, als gesagt wird. Damit wird der Prozess der Aktivierung von Wissensbeständen, „die in der zu verarbeitenden Information nicht explizit angesprochen werden“ umfasst. (Rickheit, Sichelschmidt & Strohner, 2002, 72)

Inferenzen können hergestellt werden, wenn ein mentales Modell vorhanden ist, mit dessen Hilfe die mentale Repräsentation der realen Welt so genutzt werden kann, dass Lücken in der semantischen Textbasis geschlossen werden. Rickheit et al. verstehen Inferenzen als ein kognitives Grundprinzip, ohne das menschliche Wahrnehmung und Erkenntnis nicht denkbar wären. Sie bezeichnen Inferenzen als „ein ganz normales kognitives Phänomen bei der Verarbeitung sprachlicher und außersprachlicher Information“. (Rickheit, Sichelschmidt & Strohner, 2002, 104) Walther Kindt hält Inferenzen grundsätzlich für Folgerungen, die sich darin unterscheiden, auf welche Typen von Aussagen sie bezogen sind und welche Regeln ihnen zugrunde liegen. (Kindt, 2001, 114f.) Die mentale Repräsentation eines Sachverhalts wird durch viele unterschiedliche Typen solcher Folgerungen erweitert und angereichert. (Rickheit, Sichelschmidt & Strohner, 2002, 73)

Grob unterschieden werden rückwärts- und vorwärtsgewandte Inferenzen. Rückwärtsgewandte Inferenzen überbrücken Kohärenzlücken. Sie kommen häufiger vor und werden nahezu automatisch gezogen. Rickheit, Sichelschmidt und Strohner nennen sie „obligatorische Inferenzen“ (ebd., 104). Als „optionale Inferenzen“ bezeichnen sie dagegen vorwärtsgewandte Inferenzen, die strukturierend wirken. Sie sind schematisch und beinhalten die vermutete Situation. Sie sind seltener vorzufinden und offensichtlich verarbeitungsaufwändiger. (ebd.)

Des Weiteren kann eine Unterscheidung zwischen Inferenzen, die während der Textverarbeitung on-line auftreten, und Inferenzen, die erst nachträglich unter bestimmten Bedingungen off-line hinzukommen, vorgenommen werden. (Rickheit & Strohner, 1999, 286)

Ungeklärt ist jedoch, wodurch Inferenzen ausgelöst werden und in welchem Ausmaß sie gezogen werden. Über die Bedingungen, den Zeitpunkt, die Art des kognitiven Prozesses und den Umfang gab es eine heftige Diskussion, die als Minimalismus-Debatte bezeichnet wurde. Zwei Positionen kristallisierten sich dabei heraus.

McKoon und Ratcliff (1992) vertreten die minimalistische Position. Inferenzen sind demnach lediglich ein Mittel zur Überbrückung von Kohärenzlücken. Mit den Begriffen „optional“ und „obligatorisch“ ausgedrückt, werden nur obligatorische und nahe liegende optionale Inferenzen automatisch gezogen. Alle anderen optionalen Inferenzen erfordern spezielle Strategien. Wenn auch im bereits verarbeiteten Textteil keine Proposition zur Kohärenzherstellung gefunden wird, dienen Inferenzen als Ausweg. Im minimalistischen Sinne haben Inferenzen also eine Reparaturfunktion. (Rickheit & Strohner, 1999, 288)

Im maximalistischen Sinne sind Inferenzen Vorraussetzung für das Textverstehen. Bransford, Barclay und Franks (1972) schlossen aus typischen Fehlern bei Wiedererkennungstests, dass Textverstehen konstruktiv ist und Rezipienten mit Hilfe des Weltwissens eine weit über die vorliegende Textinformation hinausgehende semantische Repräsentation inferieren. (Rickheit & Strohner, 1999)

Eine Möglichkeit zur Integration der Befundlage bieten Rickheit und Strohner (1999) mit der situierten Inferenztheorie. Mit Bezug auf Clark (1977) bezeichnen sie Verstehen als Problemlösen. Produzent und Rezipient nehmen an einer gemeinsamen Handlungssituation mit dem Ziel der Verständigung teil. Jede Inferenzbildung ist damit ebenfalls situationsabhängig. Aufgrund der Abhängigkeit von der kognitiven und kommunikativen Situation kann die Differenziertheit der minimalistischen und maximalistischen Position zugunsten verschiedener Verarbeitungsfunktionen aufgegeben werden. Damit gibt es viele Inferenzstrategien, die sich hinsichtlich ihrer situativen Bedingtheit voneinander unterscheiden. (vgl. Rickheit & Strohner, 2003)

Integration durch die Einbeziehung weitere Bedingungsfaktoren schlägt auch Kindt (2001) vor. Laut Christmann und Groeben lässt sich die Kontroverse auflösen,

„wenn man der Leserin die Fähigkeit zu einer flexiblen Textrezeption zuschreibt (...) Der Leser kann wählen, ob er einen Text eher oberflächlich oder eher tief verarbeiten will, und wird in Abhängigkeit von dieser Ausgangssituation und seinem Vorwissen mehr oder weniger Inferenzen ziehen“. (Christmann & Groeben, 1999, 162)

Die Argumentationen weisen hier in die gleiche Richtung. Bis neue Ergebnisse die Theoriebildung modifizieren, wird angenommen, dass unterschiedliche Verfahren miteinander kombiniert werden und Rezipienten teilweise unterschiedliche Präferenzen bei der Verfahrenswahl haben. (vgl. Kindt, 2001)

2.2.5. Die pragmatische Rezeption

Mit der Berücksichtigung der pragmatischen Rezeption werden funktionale Aspekte der Sprache analysiert. Selbst wenn ein Text sensorisch, syntaktisch und semantisch erfasst wird, gibt die pragmatische Rezeption die eigentliche Richtung des Verstehens an.

„Textverstehen ist immer ein Teil eines umfassenderen Handlungszusammenhangs“. (Rickheit, Sichelschmidt & Strohner, 2002, 106) Dieser Handlungszusammenhang beeinflusst die Verstehensprozesse mit, unter anderem durch die Vorgabe von Zielen und Perspektiven. Untersuchungen ergaben, dass dieselben Texte je nach Zielvorgabe unterschiedlich verstanden wurden. (Pichert & Anderson, 1977) Ziele werden nicht nur durch Personen im Rahmen von Aufgabenstellungen vorgegeben, sondern können sich je nach Lesesituation und Interesse unterschiedlich ergeben. Anhand der Messung von Lesezeiten konnte nachgewiesen werden, dass Perspektiven schon während der Rezeptionsphase wirksam werden. (Rickheit & Strohner 1999, 295)

Rickheit geht davon aus, dass ein Sprachereignis, auch das Textverstehen, in eine Situation „und diese wiederum in bestimmte Konventionen eingebettet ist“. (Rickheit, 1995, 18) Diese Situation spielt sich immer „vor einem gemeinsamen Wissenshintergrund der Kommunikationspartner“ ab. (Rickheit, 1995, 18) Weil Kommunikation geschieht, braucht der Produzent nur einen Teil der Botschaft explizit zu machen.

„Sprecher können denjenigen Teil ihrer Botschaft weglassen, von dem sie annehmen können, dass ihn die Hörer aufgrund der Situation, der Konvention und des Weltwissens selbst erschließen können“. (Rickheit, Sichelschmidt & Strohner, 2002, 75)

Das vermutete Wissen des Rezipienten beeinflusst den Produzenten bei der Erstellung des Textes. Das vorhandene individuelle Wissen des Rezipienten über die angesprochenen Sachverhalte wird dann bei der Enkodierung zur Einflussgröße für das Textverstehen. Dabei ist das gesamte Weltwissen ist für das Verstehen bedeutend. Umfassendes Wissen regt die Inferenzbildung an, daher können Experten viel stärker auf Einzelheiten achten. Das Weltwissen umfasst dabei nicht nur kognitives Wissen, sondern den ganzen Bereich der gemachten Erfahrungen. (Rickheit & Strohner, 1999, 294)

Neben dem Wissen gibt es weitere individuelle Einflussgrößen. In Untersuchungen wurde bestätigt, dass die Reproduktionsleistung eng mit der eigenen Einstellung zusammenhängt. Das Geschlecht und die persönlichen Interessen wirken auf das Verstehen. Auch emotionale Faktoren spielen eine wichtige Rolle, denn Sprachmitteilungen schließen konnotative Aspekte mit ein. Texte dienen nicht nur der Übermittlung von Informationen, sondern auch der Mitteilung von Meinungen, Bewertungen und Gefühlen. (Rickheit, Sichelschmidt & Strohner, 2002, 107f) Über die spezifische Lesesituation hinaus sind zudem Kultur und Sprache und damit verbundene Konventionen der Kommunikation wesentliche Einflussfaktoren auf das Verstehen. (Rickheit & Strohner, 1999, 296)

Mit der Berücksichtigung individueller Einflussgrößen und der gesamten Kommunikationssituation bis hin zur Kultur wird Textverstehen in einen Kontext eingebettet. Erst durch die Berücksichtigung dieses Kontextes können einzelne Aspekte des Verstehens differenziert nachvollzogen werden.

Der pragmatische Aspekt der Sprachverarbeitung wurde vor allem von handlungsorientierten Forschern und im Zusammenhang mit Überlegungen zur Kooperativität des Sprachverstehens berücksichtigt. Die Anbindung an das Sprachverstehen wurde jedoch weder konzeptuell noch empirisch zufriedenstellend bearbeitet. Als möglichen Grund verweisen Rickheit, Strohner und Sichelschmidt (2002) auf Schwierigkeiten bei der Untersuchung der kommunikativen Einbettung der Sprachverarbeitung, die sich aus der Komplexität des Gegenstandes ergeben.

2.3. Verstehenstheorien

Psychologische Modelle des Textverstehens beschäftigen sich hauptsächlich mit der Frage, wie Leserinnen und Leser eine satzübergreifende Bedeutungsstruktur auf der Grundlage des sprachlichen Inputs aufbauen. Die Forschung zur Verarbeitung von Texten kann danach klassifiziert werden, ob sie eher die Text- oder eher die Leserseite betonen.

Als textorientierte Ansätze werden diejenigen beschrieben, die datengetriebene, also aufsteigende Prozesse darstellen. Sie umfassen die so genannten „bottom-up“-Ansätze. Entscheidend für das Verarbeitungsresultat ist der Wortlaut der zu verarbeitenden Äußerung. Exemplarisch für diese Richtung wird das Konstruktions-Integrations-Modell von Walter Kintsch (1988) vorgestellt und in den Kontext weiterer Modelle von Kintsch eingebettet, in denen teilweise andere Aspekte betont werden.

Die Leserseite wird in wissensorientierten Ansätzen schwerer gewichtet, die auch als „top-down“-Ansätze bezeichnet werden. Textverarbeitung ist hier Konstruktion von Bedeutung durch den Rezipienten. Das Zusammenspiel von Vorwissens- und Textstrukturen ist dabei grundlegend. Für diese Richtung ist die Theorie der mentalen Modelle von Philipp N. Johnson-Laird (1989) richtungweisend.

2.3.1. Das Konstruktions-Integrations-Modell von Walter Kintsch

2.3.1.1. Vorüberlegungen

Das Konstruktions-Integrations-Modell wurde als Computersimulation entwickelt. Teilweise wird es mit empirischen Befunden gestützt.

Bei der Entwicklung dieses Modells suchte Kintsch nach generellen Konstruktionsregeln, die offen für die unterschiedlichsten Situationen sind, gleichzeitig aber sensibel genug auf Regeln reagieren, die auch einzelne Stichworte berücksichtigen. Er versuchte damit der Flexibilität des Prozesses zu entsprechen. Kintsch nahm Prozesse an, die parallel und interaktiv verlaufen und häufig den unterschiedlichsten Kontexten angepasst sind. Regeln für die Prozesse müssen daher sehr offen sein und auf die unterschiedlichsten Kontexte zutreffen. Dennoch müssen sie so eng bleiben, dass sie auf die kleinsten Stichworte reagieren.

Der Zugriff auf das Wissen ist ein entscheidender Aspekt seines Modells. Die Wissensbasis denkt Kintsch sich als assoziatives Netzwerk. Er beschreibt das Wissen als ein minimal organisiertes Wissenssystem, in dem die Strukturen nicht vorgespeichert sind. Sie werden jeweils für genau den Kontext generiert, für den sie gebraucht werden. Das Wissensnetz besteht aus miteinander verbundenen Knoten. Ihre Verbindungen haben einen Wert, der entweder positiv, Null, oder negativ ist. Er befindet sich zwischen +1 und -1. Die Knoten bestehen aus einem Kopf und einer Zahl von Spalten für die Argumente. Von der Form her sind die Knoten des Wissensnetzes äquivalent zu Propositionen. Die Spalten können Attribute, Partikel oder Fälle von Verben sein, brauchen jedoch nicht zwingend genannt zu werden. Die Argumente der Propositionen sind Konzepte oder andere Propositionen. Die Elemente, aus denen Wissensnetze und Textbasen erstellt werden, sind damit die Gleichen. Eine Textbasis darf dennoch nicht mit dem Wissensnetz vertauscht werden, weil sie durch Selektion, Modifikation und Rearrangierung der propositionalen Elemente aus dem Wissensnetz geformt wird.

Konzepte sind im Wissensnetz nicht genau definiert. Ihre Bedeutung kann aber aus der Position in diesem Netz bestimmt werden. Der unmittelbar verknüpfte Knoten und seine semantischen Nachbarn bilden seine zentrale Bedeutung. Die vollständige Bedeutung eines Konzeptes kann dann nachvollzogen werden, wenn die gesamten Knoten des Netzes aktiviert werden, was in der Realität aber nicht einträfe, weil die gesamte Informationsmenge nicht verarbeitet werden kann. Es ist jeweils nur ein winziger Teil des Wissensnetzes aktiviert. Nur die Propositionen, die aktuell aktiviert sind, können die Bedeutung eines gegebenen Konzeptes beeinflussen. Zusätzliche Knoten können im aktivierten Netz immer hinzugefügt werden, jedoch mit dem Preis, dass sich einige der bereits aktivierten Knoten verlieren. Die Bedeutung eines Konzeptes ist also immer situationsspezifisch und kontextabhängig. Sie ist damit notwendigerweise lückenhaft und instabil.

Auch die Output-Struktur des Konstruktionsprozesses ist in Form eines assoziativen Netzes gebaut. Sie wird in eine kohärente Textbasis umgewandelt. Für diese Vorgänge hat Kintsch Regeln konstruiert, die er mit einer Konstruktions- und einer Integrationsphase beschreibt.

2.3.1.2. Konstruktion und Integration

Die Konstruktionsphase umfasst mehrere Schritte. Der erste Schritt des Konstruktionsprozesses ist das Bilden von Konzepten und Propositionen, die direkt mit dem linguistischen Input, also dem Text korrespondieren. Mit der Propositionsbildung wird zunächst die Repräsentation des Textes erstellt. Ausschlaggebend für dieses Model ist, dass die Propositionen nicht passend sein müssen.

Die Propositionsbildung geschieht on-line. Häufig sind nicht alle notwendigen Informationen für die Bildung der gerade passenden Proposition on-line abrufbar. Das leitet zu falschen oder lückenhaften Versuchen. Wird eine unpassende Proposition bemerkt, geht der Leser laut Kintsch im Text nicht zurück, um diesen Fehler zu beheben, sondern die falsche Proposition verliert sich einfach.

Im zweiten Schritt dienen die erstellten Propositionen als Stichwort für das Abfragen von zugehörigen Knoten im Wissensnetz. Jede der Propositionen wird durch das Auswählen von einer kleinen Anzahl enger zugehöriger Nachbarn im generellen Wissensnetz ausgebaut. Diese Wissenspropositionen funktionieren als mögliche Inferenzen. Aus dem Kontext heraus gibt es oft keinen Weg, zu bestimmen, welche von diesen zusätzlich zum Textinhalt generierten Bedeutungseinheiten relevant sind. An diesem Punkt fehlt dem Konstruktionsprozess eine richtungweisende Komponente. Es werden einfach mögliche Inferenzen in der Hoffnung produziert, dass einige von ihnen vielleicht nützlich sind. Weil im zweiten Schritt Inferenzen ungeleitet konstruiert wurden, könnte es sein, dass einige Inferenzen, die für das Verstehen notwendig wären, fehlen.

Im dritten Schritt werden darum zusätzliche Inferenzen generiert. Dies soll als Ergänzung zum zweiten Schritt kontrolliert vor sich gehen und spezifische Inferenzen hervorbringen. Weil beide Schritte sehr ähnlich sind, werden sie in Darstellungen zur Theorie häufig zusammengefasst. Rickheit, Strohner und Sichelschmidt bezeichnen beide Stufen als Assoziieren und Inferieren von Konzepten und Propositionen. (Rickheit, Sichelschmidt & Strohner, 2002, 109)

Im vierten Schritt wird die Beziehung zwischen den einzelnen Verknüpfungen spezifiziert. Den Verbindungen werden Werte zugewiesen. Diese Werte beschreiben die Beziehung bei allen Paaren von Elementen. Das Ergebnis ist ein Netzwerk, das als Konnektionsmatrix ausgedrückt wird.

Aus diesen Schritten resultiert eine sehr umfangreiche, aber inkohärente und möglicherweise widersprüchliche Textbasis. Auf Grund der sehr freien Konstruktion ohne Berücksichtigung des Kontextes, wurden auch unpassende Elemente mit der Textbasis verbunden.

In der Integrationsphase sollen nun die unpassenden Elemente ausgeschlossen werden, um eine kohärente Struktur zu erhalten. Das geschieht durch einen Aktivierungsvektor, der die anfänglichen Aktivierungswerte aller Knoten im Netz repräsentiert, indem er mit der Konnektionsmatrix multipliziert wird. Nach jeder Multiplikation werden die Aktivierungswerte normalisiert. Dies wird solange wiederholt, bis die Werte einigermaßen stabil sind. Das Resultat ist ein neuer Aktivierungsvektor, der für einige der Knoten im Netz auf hohe Aktivierungswerte und für andere Knoten auf niedrige oder Nullwerte hinweist. Die hoch aktivierten Knoten konstituieren dann die Textrepräsentation. Wenn der Integrationsprozess fehlschlägt, werden dem Netz neue Konstruktionen hinzugefügt, worauf ein weiterer Integrationsprozess folgt. Diese Prozedur wird fortgesetzt, bis sich eine kohärente Textrepräsentation gebildet hat.

Das Besondere dieser Konstruktions-Integrations-Theorie ist die zunächst sehr frei gedachte Konstruktion von Elementen aus der Textbasis und dem Wissensnetz, wobei der Kontext nicht berücksichtigt wird. In der Integrationsphase werden die passenden Elemente ausgesucht, um zu einer angemessenen Textrepräsentation zu gelangen.

2.3.1.3 Der Kontext der Theorie

Das Konstruktions-Integrations-Modell ist eine Erweiterung der Theorie der kognitiven zyklischen Textverarbeitung. (Kintsch & van Dijk, 1978) Mit der ersten prozeduralen Theorie der Textverarbeitung beschreiben Kintsch und van Dijk Textrezeption als einen zyklischen, inkrementellen Prozess des Aufbaus einer kohärenten Textbasis. Der Ablauf ist durch die Struktur des Textes und die Verarbeitungskapazität des menschlichen Arbeitsgedächtnisses bestimmt. Mit dem Konstruktions-Integrations-Modell wird nun das Rezipientenwissen verstärkt in den Prozess einbezogen.

Das Konstruktions-Integrations-Modell ist jedoch nicht der direkte Nachfolger der Theorie der zyklischen Verarbeitung. Zunächst entwickelten van Dijk und Kintsch die Strategietheorie (1983). Mit der Strategietheorie kam funktionalistischen, strategischen und interaktiven Überlegungen ein hoher Stellenwert zu. Textverstehen ist hier ein konstruktiver Vorgang, bei dem die Textbedeutung anhand von allgemeinem Weltwissen, Erwartungen und Überzeugungen aufgebaut wird. Das Modell umfasst mehrere Ebenen:

- atomare Propositionen
- komplexe Propositionen
- lokale Kohärenz
- Makrostruktur
- Superstruktur

Mit der Strategietheorie wird angenommen, dass die Textinformationen vom Rezipienten dekodiert werden, indem eine Liste atomarer Propositionen hergestellt wird, aus der anhand der Wissensstruktur eine kohärente Textbasis geformt wird. Aus dieser Textbasis wird eine Makrostruktur geformt, welche die wichtigsten Informationen der Textbasis repräsentiert. Die Verarbeitungsprozesse dieser Ebenen sind voneinander unabhängig, geben ihre Analyseresultate jedoch sehr schnell an die anderen Ebenen weiter, so dass ein hoher Grad paralleler Verarbeitung gegeben ist.

[...]

Ende der Leseprobe aus 97 Seiten

Details

Titel
Ansätze zum Textverstehen in der Fachdidaktik
Hochschule
Universität Bielefeld  (Didaktik Deutsch)
Note
1,3
Autor
Jahr
2003
Seiten
97
Katalognummer
V21879
ISBN (eBook)
9783638253857
Dateigröße
736 KB
Sprache
Deutsch
Anmerkungen
Auf Grund psycholinguistischer Forschungsergebnisse wird ein Modell entwickelt, das SchülerInnen im Textverstehensprozess unterstützen soll. Angestrebt wurde eine Leseföderung, wie sie im Rahmen der PISA-Untersuchung gefordert wird.
Schlagworte
Ansätze, Textverstehen, Fachdidaktik
Arbeit zitieren
Lilli Richert (Autor), 2003, Ansätze zum Textverstehen in der Fachdidaktik, München, GRIN Verlag, https://www.grin.com/document/21879

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Ansätze zum Textverstehen in der Fachdidaktik


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden