Gedächtnis und syntaktische Struktur - Eine vergleichende Untersuchung auf Basis der Dependenzgrammatik


Hausarbeit (Hauptseminar), 2005
24 Seiten, Note: 1

Leseprobe

Inhaltsverzeichnis

I. Einleitung

II. Hauptteil
1. Information
1.1. Information und Bewusstsein
1.2. Information und Konnexion
1.3. Informationseinheiten – Chunks
2. Kognition
2.1. Sprache und Kognition
2.2. Bewusstsein
2.3. Gedächtnis
3. Sprachstruktur und Dependenzgrammatik
3.1. Dependenz
3.2. Valenz und thematische Rolle (semantische Merkmale)
3.3. Verbale Satzglieder und Gedächtnisstruktur
3.4. Dependenzgrammatik und Theater

III. Schluss

IV. Literaturverzeichnis

I. Einleitung

„Jedes Wort ist, wenn es als Teil eines Satzes fungiert, nicht mehr isoliert wie im Wörterbuch. Zwischen ihm und benachbarten Wörtern stellt das Bewußtsein Konnexionen fest: Beziehungen, deren Gesamtheit das Gerüst des Satzes bildet.“[1] Gleich zu Anfang des Werks „Grundzüge der strukturalen Syntax“[2] beschreibt Lucien Tesnière, dass Sprache in ihrer grammatischen Struktur und Bewusstsein voneinander abhängen. Allein der Begriff der Dependenz verweist auf dieses Netzwerk von Abhängigkeiten, sei es auf der Beziehungsebene des Wortes zum Satz, der Worte untereinander oder, was hier im Vordergrund steht, die Verbindung zwischen Struktur der Sprache und der kognitiven Verarbeitung sprachlicher Zeichen. Wenn es, wie in der kognitiven Linguistik, um die Relation von Bewusstsein und Sprache geht, wird oft das Theorem der generativen Grammatik Chomskys zitiert. Dass Denk- und Sprachstrukturen interdependent sind, wie auch die Sapyr-Whorf-Hypothese umschreibt, gilt dieser Arbeit als Grundvoraussetzung. Zitieren ließe sich diese Auffassung von Wittgenstein und Foucault[3] bis zurück zur Aufklärung mit Lessing und Humboldt. An dem Punkt der Sprachauffassung, an dem sich das sprachliche Zeichen von der Natürlichkeit der Dinge ablöst und in ein arbiträres Verweisverhältnis tritt, muss sich die Sprachwissenschaft notwendigerweise mit dem menschlichen Bewusstsein auseinandersetzen, da der Weg von Bezeichnendem und Bezeichnetem über die Fertigkeit des menschlichen Gehirns gewährleistet wird. Dabei behandelt die neuere Kognitionswissenschaft nicht nur die Bewusstseinsleistung des Menschen beim Verarbeiten von (sprachlicher) Information, sondern in abstrahierter Weise die grundlegende Bedingung von Informationsverarbeitung an sich, maßgeblich in der Kybernetik oder Automatentheorie. Andersherum ist die Auswirkung der Struktur der Syntax auf das menschliche Bewusstsein nicht weniger wichtig. Doch so, wie es Tesnière in seiner Grundlegung mehr um den praktischen Aspekt seiner Grammatik geht – er behält den didaktischen Gesichtspunkt immer im Auge und gibt am Ende seines Werks sogar deutliche Anweisungen, wie seine Darlegungen im Schulgebrauch zu benutzen sei - behandelt diese Arbeit mehr den kognitiven Akt des Menschen beim Verarbeiten von sprachlicher Information. Die Begrifflichkeiten der Kybernetik sind dabei mehr hilfreich als hinderlich.

Wie viel Information kann das menschliche Gehirn in einem Satz verarbeiten? Beim Analysieren von Sätzen, ausgehend von der Wortebene über die Satzkonstituenten nach oben, muss die Möglichkeit unendlicher Sätze eingeräumt werden. Ein Beispiel: Besetzt man jeden Buchstaben des Alphabets linear mit einer Zahl von eins bis 26, kann die Zahl p im Unendlichen beispielsweise Thomas Manns Roman Zauberberg beschreiben, oder eben einen unendlich langen Satz. Endlos viele Konstituenten können aneinandergereiht werden. Ein unendlich langer Satz setzte aber ein unendliches Auffassungsvermögen des Wahrnehmenden voraus. Dies ist dem Menschen ebenso denkunmöglich wie unmöglich zu denken oder erfassen. So gesehen passt Grammatik und Denken in ihrer Interdependenz nicht aufeinander, so die These. Eine sprachliche Beschreibung, die davon ausgeht, dass sich Sprache und Denken gegenseitig determinieren, kann nicht eine Grammatik favorisieren, die der Sprache eine Möglichkeit einräumt, die der Mensch in seiner parole nicht bewerkstelligen kann, da ihm dafür der kognitive Horizont fehlt. Wie im Folgenden zu zeigen sein wird, ist das Beschreibungsmodell der Dependenzgrammatik von Tesnière sehr gut geeignet, Sprach- und Denkmöglichkeit mit der Analyse der Sprache in Einklang zu bringen. Gerade weil es Sprache in ihren Abhängigkeiten versucht zu erfassen: strukturelle Referenz von Worten innerhalb eines Satzes und Beziehung von Sprache und Bewusstsein. In diesem Zuge ist hier zu behandeln, dass über die Valenz des Verbs in der Dependenzgrammatik die Anzahl der möglichen Satzglieder pro Satz beschränkt ist, ebenso, wie die Leistung des Arbeitsspeichers des Gehirns eine begrenzte Anzahl von Informationen erfassen kann.

Dazu bedürfen mehrere Begriffe gesonderter Behandlung und Definition. Wenn hier Termini wie Informationsverarbeitung thematisch zu Geltung kommen, muss erst geklärt werden, was Information eigentlich ist. Hierzu gibt es mehrere Ansatzpunkte, vom Ursprung des Wortes von „ in die Form bringen “ bis hin zu dreiwertigen Zeichenmodellen wie bei Peirce[4]. Dabei gilt es ein geeignetes Modell zu finden, dass der Klärung zwischen Grammatik und Kognition dient. Zudem muss die theoretische Grundlage der Valenztheorie umrissen werden, um sie in Relation zur Kognitionswissenschaft setzen zu können was schließlich im letzten Teil der Arbeit zur Geltung kommen soll. Inwieweit die Dependenzgrammatik und Kognition dabei abzugleichen sind, ob und wie dies möglich ist, wird dabei parallel in die Bearbeitung eingeflochten.

In jedem Fall ist eines immer zu beachten: Jede Analyse der Sprache des Menschen ist gekoppelt an dieselben sprachlichen Bedingungen, die sie untersucht. Auch wenn konzis zwischen Objekt- und Metasprache unterschieden wird, so ist jede Seite der Beschreibung an das grammatikalische Netzwerk ihrer selbst gebunden. Gerade deswegen scheint es besonders interessant, sich nicht nur die Bedingungen der Sprache, sondern in gleichem Maße die Grundlegungen des Bewusstseins in Bezug auf Sprache anzusehen. Zwar ist es dann immer noch das Bewusstsein des Untersuchenden, das die Betrachtung in seiner Sprache vorantreibt – Mittel und Objekt gehen von der gleichen Plattform aus. Doch die Untersuchung beschreibt nicht mehr Grenzen, die sie wegen ihrer Gebundenheit an dieselben im Grunde nicht erfassen kann. Sie ist sich zumindest, frei nach Tesnière, ihrer Abhängigkeit bewusst und beschreibt ihre eigene Dependenz.

II. Hauptteil

1. Information

1.1. Information und Bewusstsein

Bei dem Versuch, Bewusstsein und Sprache miteinander in Relation zu setzten, muss man sich erst im Klaren sein, was Bewusstsein ist. Mathematisch genau genommen handelt es sich in reduzierter Sichtweise um das Setzen einer Grenze: Erst wenn über die rudimentäre Differenz System/Umwelt wird ein System zum System[5]. Damit hat es nicht gleichzeitig ein Bewusstsein, aber die wichtigste Grundlage, um selbiges entwickeln zu können. Dass jemand, oder etwas, „Ich“ sagen kann, bedarf es der grundlegenden Unterscheidung zu allem anderen, also allem, was „nicht-Ich“ ist.[6] Dies ist auch als autopoietisches Paradox bekannt. Damit sich ein System entwickelt, bedarf es einer Differenz. Diese aber ist erst über ein schon entwickeltes System zu bewerkstelligen. Das System schafft sich also aus sich selbst heraus und bezieht sich dabei ebenso auf sich selbst. Es soll hier nicht im Einzelnen auf die Systemtheorie eingegangen werden, doch einer Frage muss hier Raum gewährt werden: Wie kommt Information in ein System, wenn dieses sich rekursiv definiert? Wie überwindet die Information diese Hürde? Das Theorem von Niklas Luhmann beschreibt dieses Phänomen als strukturelle Kopplung zwischen bewusstem und sozialem System – gerade weil eine Menge an Informationen, wie beispielsweise Sprache, kein Bewusstsein hat, ist es dem Menschen möglich, daran funktional anzukoppeln[7]. Was ist aber Information? Einer Untersuchung, wie viel Information(en) im Arbeitsspeicher des Gehirns pro Satz verarbeitet werden kann, muss erst geklärt werden, was sprachliche Information ist.

1.2. Information und Konnexion

„When structure is stated in terms of constraints, this relation can be seen explicitly, in several respects. First, when one sees what the syntactic relations consists of, one can see how they come to bear the meanings they do.“[8] Information soll idealiter Bedeutung vermitteln. Über die Zeichenkette eines Wortes, die systematische Aneinanderreihung von Buchstaben, wird Bedeutung transportiert. Information ist also ein Baustein des Kommunikationsprozesses zwischen zwei Partnern, neben Mitteilung und Verstehen. Der Prozess verläuft dabei zeitlich in der Abfolge Information àa Mitteilung àb Verstehen. Die beiden Pfeile im vorigen Satz bezeichnen dabei eine wichtige Schnittstelle der Kommunikation: Codieren und Encodieren. Partner eins der Kommunikation muss, um Partner zwei etwas mitteilen zu können, Information codieren, hier qua sprachlicher Zeichen. Bedeutung ist dabei, wie oben von Harris Zellig dargestellt, nicht reduziert auf ein einzelnes Wort. Man stelle sich einen Naturliebhaber, der einen Wald sucht, am Hauptbahnhof einer Großstadt vor. Er hält einen Passanten an und bringt ihm das lexikalisierte und unflektierte Wort Baum entgegen. Hier muss die Kommunikation scheitern; der Passant wird schwerlich verstehen können, dass der Mann einen Wald sucht und so wird der Ausflügler allenfalls an einer einsamen Pappel am Bahnhofsvorplatz enden. Die Information Ich suche einen Wald wurde vom Sender nicht zureichend codiert. Das Objekt seiner Begierde müsste grammatikalisiert werden, um seine Intention entschlüsselbar zu machen; er müsste wenigstens Bäume sagen. Aber auch das reicht nicht, denn wehe am Vorplatz stehen mehr Pappeln als nur eine.

Information ist also abhängig von einem syntaktischen Kontext, oder, wie Tesnière es ausdrückt, lösen wir die Wörter „aus dem Satz, der für sie, wie das Wasser für die Fische, die natürliche Umgebung bildet.“[9] Und weiter: „Die Konnexion hat keinen Markanten, aber sie existiert gleichwohl, weil ein Satz nicht verstanden werden kann, ohne daß das Bewußstein die in ihm enthaltenen Konnexionen erfasst.“[10] Information ist also eine dem Satz vorgehende Einheit, sie wird aber syntaktisch übermittelt. Zudem umfasst das, was Menschen mitteilen möchten oder müssen, meist mehr, als nur eine Informationseinheit, wie zum Beispiel Baum. In dem Satz (1.) Ich suche einen Wald stecken mindestens drei basale Informationen: Ich [der Sprecher], Wald [Objekt, abhängig von einer Intention], suchen [Vorgang, Tätigkeit oder Intention]. Mit der bloßen Aneinanderreihung der vorigen Worte, wird die Mitteilung dem Empfänger schon verständlicher. Gänzlich entschlüsseln kann er sie aber nur auf syntaktischer Basis.

„Second, the relation of language and information is more explicit than to thought. The fact that the constraint which creates sentences creates the meaning ‚to say about’ supports other evidence that language developed as a carrier of information.“[11] Sicher gibt es mehrere Arten, Information zu transportieren, wie über Musik, Bilder oder Bewegungen. Doch besteht hier ein wesentlich größerer Selektionshorizont – die Anzahl an Möglichkeiten des Interpretierens wächst mit der Abnahme syntaktischer Träger.

„Die Konnexion ist unerlässlich für den Ausdruck des Gedankens. Ohne Konnexion könnten wir keinen zusammenhängenden Gedanken ausdrücken; wir wären höchstens in der Lage, eine Folge voneinander isolierter und unverbundener Bilder und Vorstellungen zu äußern.“[12] Um eine kohärente Information zu vermitteln, ist also die Beziehung der einzelnen Satzelemente zueinander sehr wichtig. Man kann also festhalten: Eine zusammenhängende Information wird über Worte und deren syntaktische Relationen innerhalb eines Satzes getragen.

1.3. Informationseinheiten – Chunks

Das Arbeitsgedächtnis kann 7 ± 2 Chunks, Informationseinheiten, in einer kurzen zeitlichen Einheit behalten. Es stellt sich die Frage, was in der syntaktischen Analyse einem Chunk, also einer Informationseinheit, gleichkommt. Und in welchem Zeitraum entspricht eine zeitliche Einheit? „Ohne aktives Wiederholen wird die Dauer der Verfügbarkeit von Wissenselementen mit ca. 7 sek (es werden Werte zwischen 5 sek und 226 sek berichtet) angenommen, danach ist die Wahrscheinlichkeit der Reproduktion kleiner als p = 0,5.“[13] Dies ist abhängig von der Art und der Anzahl der Chunks. „Bei einem Chunk ergeben sich ca. 73 sek (es werden Werte zwischen 73 sek und 226 sek berichtet), bei drei Chunks ca. 7 sek (es werden Werte zwischen 5 sek und 34 sek berichtet).“[14] Sicher handelt es sich hierbei um eine Richtgröße, es kommt darauf an, wie schnell gesprochen wird, welches Umfeld mit welchen Ablenkungen vorhanden sind und wie hoch der Abstraktionsgrad der Chunks ist.

[...]


[1] Tesnière, Lucien: Grundzüge der strukturalen Syntax. Hrsg. v. Engel, Ulrich. Stuttgart: Klett-Cotta 1980. S. 25

[2] Tesnière, Lucien: Tesnière, Lucien: Grundzüge der strukturalen Syntax. A.a.O.

[3] Foucault, Michele: Die Ordnung der Dinge. Eine Archäologie der Humanwissenschaften. Frankfurt am Main: Suhrkamp Verlag 1974.

[4] Houser, Nathan: Das Semiotische Bewusstsein nach Peirce. In Wirt, Uwe (Hrsg.): Die Welt als Zeichen und Hypothese. Frankfurt am Main: Suhrkamp Verlag 2000. S. 44-67.

[5] Vgl. Luhmann, Niklas: Erkenntnis als Konstruktion. In Luhmann, Niklas: Aufsätze und Reden. Hrsg. v. Oliver Jahraus. Stuttgart: Reclam 2004. S. 218 ff.

[6] In der Analyse des Menschen tun sich mehrere Systeme auf, sowohl bewusste als auch unbewusste; er kann gleichermaßen als biologisches, auf dem Körper basierendes, wie auch bewusstes System gesehen werden. Hier ist sicherlich mehr die Ebene des Menschen als bewusstes System von Interesse.

[7] Luhmann, Niklas: Symbolisch generalisierte Kommunikationsmedien. In Luhmann, Niklas: Aufsätze und Reden. A.a.O. S. 33 f.

[8] Zellig, Harris: A Theory of Language and Information. A Mathematical Approach. Oxford: Claredon Press 1991. S. 21

[9] Tesnière, Lucien: Tesnière, Lucien: Grundzüge der strukturalen Syntax. A.a.O. S. 25

[10] Ebd. S. 45

[11] Zellig, Harris: A Theory of Language and Information. A.a.O. S. 23 f.

[12] Tesnière, Lucien: Tesnière, Lucien: Grundzüge der strukturalen Syntax. A.a.O. S. 26

[13] Strube, Gerhard (Hrsg.): Wörterbuch der Kognitionswissenschaft. Stuttgart: Klett-Cotta 1996. S. 200

[14] Ebd. S. 200

Ende der Leseprobe aus 24 Seiten

Details

Titel
Gedächtnis und syntaktische Struktur - Eine vergleichende Untersuchung auf Basis der Dependenzgrammatik
Hochschule
Ludwig-Maximilians-Universität München  (Deutsche Philologie)
Veranstaltung
Valenz- und Dependenzgrammatik
Note
1
Autor
Jahr
2005
Seiten
24
Katalognummer
V39195
ISBN (eBook)
9783638380416
Dateigröße
580 KB
Sprache
Deutsch
Anmerkungen
Behandelt Informationseinheiten, Gedächtnisstruktur, Kurzzeitgedächtnis in Verbindung mit der syntaktischen Struktur von Sprache. Wie merkt sich der Mensch sprachliche Information.
Schlagworte
Gedächtnis, Struktur, Eine, Untersuchung, Basis, Dependenzgrammatik, Valenz-
Arbeit zitieren
Christopher Klein (Autor), 2005, Gedächtnis und syntaktische Struktur - Eine vergleichende Untersuchung auf Basis der Dependenzgrammatik, München, GRIN Verlag, https://www.grin.com/document/39195

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Gedächtnis und syntaktische Struktur - Eine vergleichende Untersuchung auf Basis der Dependenzgrammatik


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden