Zur Form von Sprachbeschreibung als Erzeugung - Dependenz, Konstituenz, Applikation


Hausarbeit (Hauptseminar), 2002
67 Seiten, Note: sehr gut

Leseprobe

Inhaltsverzeichnis

0. Vorbemerkung

1. Begriffsklärung

2. Kriterien zur Beurteilung der Modelle
2.1 Einfachheit und Produktivität
2.2 Adäquatheit
2.2.1 Adäquatheitsebenen nach Chomsky
2.2.2 Vorausgesetzte Sprachtheorie nach Lieb (1976)
2.2.3 Das Problem der linguistischen Realität
2.3 Die Chomsky-Hierarchie

3. Dependenz
3.1 Theoretische Grundlagen
3.2 Tesnières Dependenzgrammatik
3.2.1 Konnexion
3.2.2 Junktion
3.2.3 Translation
3.3 Beispiel
3.4 Kritische Betrachtung

4. Konstituenz
4.1 Theoretische Grundlagen
4.2 Das Konstituentenstrukturmodell der Generativen Grammatik
4.2.1 Die Phrasenstrukturgrammatik früherer Fassung
4.2.2 Die Weiterentwicklung der PSG zur Transformationsgrammatik
4.2.3 Die Minimalgrammatik
4.3 Beispiel
4.4 Kritische Betrachtung

5. Applikation
5.1 Theoretische Grundlagen
5.2 Šaumjans generatives applikatives Modell
5.2.1 Der abstrakte Generator
5.2.2 Der Wortgenerator
5.2.3 Der Phrasengenerator
5.2.4 Der Generator von Phrasen-Transformationsfeldern
5.3. Beispiel
5.4 Kritische Betrachtung

6. Ergebnisse

7. Bibliographie

0. Vorbemerkung

Die vorliegende Arbeit befasst sich mit den drei großen Gebieten der Grammatiktheorie, Dependenz, Konstituenz und Applikation. Aufgrund der zahlreichen verschiedenartigen Weiterentwicklungen der Modelle Dependenz und Konstituenz muss eine starke Einschränkung erfolgen. Hier sollen im Wesentlichen die Modelle in den Versionen ihrer Begründer Tesnière und Chomsky dargestellt werden. Da sich bei Chomsky selbst allerdings kaum konkrete und v.a. vollständige Grammatikschreibung finden lässt, sollen die Weiterentwicklungen seines Modells in der Generativen Grammatik, an denen Chomsky immer noch beteiligt ist, bis zur sog. Minimalgrammatik skizziert werden. Auch die Übersetzung der Modelle in sprachgenerierende Automaten kann in diesem Rahmen nicht geleistet werden. Vielmehr soll untersucht werden, in wiefern die Modelle dem Anspruch genügen können, Erzeugungssysteme darzustellen. Dazu werden eingangs verschiedene Kriterien zur Beurteilung der Modelle vorgestellt.

1. Begriffsklärung

Da sich diese Arbeit mit dem Gebiet der Grammatiktheorie beschäftigt, ist es zunächst geboten, den Bereich durch Definitionen von den damit verbundenen Gebieten der Sprachtheorie und der Grammatik abzugrenzen.

Godglück (1985, 37) unterscheidet:

1) „Linguistische Aussagen, die auf alle Sprachen (auf ‘Sprache’) zutreffen, also universal sind, heißen sprachtheoretische Aussagen.
2) Linguistische Aussagen, die Variablen enthalten, welche durch individuelle Konstanten ersetzt werden können, heißen grammatiktheoretische Aussagen oder [besser] „Aussageformen einer Grammatik“.
3) Linguistische Aussagen, die individuelle, sprachliche Erscheinungen (Konstanten) betreffen, heißen Aussagen einer Grammatik.“

Logisch betrachtet ist es sinnvoller, in 2) von Aussageformen zu sprechen, da diese im Unterschied zu Aussagen Variable enthalten und in dieser Form noch nicht falsifizierbar sind. Die falsifizierbare Aussage wird durch Einsetzen konkreter Termini erhalten und wird hier nicht als Teil der Grammatiktheorie betrachtet.

Grewendorf et al. (1993, 16) unterstreichen, sprachtheoretische Untersuchungen müssen mit der Untersuchung spezieller natürlicher Sprachen in Zusammenhang stehen: Die Eigen-schaften, die einer Sprachtheorie zufolge wesentliche Eigenschaften einer Sprache sind, müssen sich an den einzelnen natürlichen Sprachen nachweisen lassen.

Eine Theorie der Grammatik kann daher aufgefasst werden als eine Hypothese über uni-verselle grammatische Eigenschaften und damit als eine Hypothese über die universelle menschliche Sprachfähigkeit. Eine Theorie der Grammatik ist damit letztendlich eine Hypothese über Strukturen und Fähigkeiten des menschlichen Geistes.[1]

Lieb (1976, 201) betont, dass es sich hier nicht um forschungspraktische, sondern um systematische Unterscheidungen handelt. Das Objekt einer Grammatiktheorie ist nach Lieb (1976, 205) eine Menge von Grammatiken zu beliebigen natürlichen Sprachen, also zu Elementen des Objekts der Sprachtheorie. Eine Sprachtheorie enthält nach dem hier vertretenen Ansatz überhaupt keine Ausdrücke, mit deren Hilfe man sich auf (Einzel-)Grammatiken beziehen kann, und sie ist von jeder Grammatiktheorie unabhängig.

Die Unterscheidung Grammatiktheorie und Grammatik meint bei Lieb (1976) eigentlich die Trennung eines theoretischen Teils der Grammatik von dem Anwendungsteil der Grammatik, wobei diese Grammatiken gleichzeitig die Anwendungsseite einer Sprachtheorie darstellen, indem ihre Axiome in diesen ausgedrückt sind. Daher setzt eine Grammatiktheorie eine Sprachtheorie voraus, aber nicht umgekehrt.[2] D.h. die konkrete Einsetzung auf der sprachlichen Oberfläche (etwa eines Konstituentenstrukturbaumes, s. 4.3), die Wörter unterhalb der terminalen Knoten sind in dieser Definition die Grammatiken von Einzelsprachen, alles oberhalb ist Teil der Grammatiktheorie, so dass die letzte Zeile also den konkreten Satz, die Phonemkette usw. der Einzelsprache darstellt und nicht mehr zum Bereich der Grammatiktheorie zu rechnen ist. Um den Zusammenhang zur konkreten Sprache jedoch nicht völlig aus den Augen zu verlieren, soll zur Erläuterung der drei verschiedenen vorzustellenden Modelle der Generierung jeweils derselbe einfache Satz erzeugt werden (s. 3.3, 4.3., 5.3). Ob es außerhalb der Syntax analoge Anwendungsmöglichkeiten der Modelle auf anderen Ebenen der Sprachbeschreibung gibt, soll abschließend überprüft werden.

Beeh (1977, 68) stellt folgendes Äquivalenztheorem der Chomsky-Erzeugbarkeit auf:

„Der Begriff der Chomsky-Erzeugbarkeit bzw. der Chomsky-Generierbarkeit ist äquivalent mit dem der Erzeugbarkeit bzw. der Generierbarkeit überhaupt.“[3] D.h. jedes erzeugende System muss übersetzbar sein in eins vom Typ 0-3 (vgl. 2.3), was nach der Darstellung der Modelle überprüft wird.

Beeh (1977, 69) gibt eine Definition der ‚(Ersetzungs-) Algorithmen’:

„Ein (Ersetzungs-) Algorithmus ist eine endliche Menge von Ersetzungen, die für jedes Argu-ment nach endlich vielen Anwendungen von Ersetzungen genau einen Funktionswert erzeugt.“ Die Äquivalenz sei ein vorläufiger Hinweis darauf, dass die Erzeugbarkeit und die algorithmische Aufzählbarkeit verschiedene Realisierungen ein- und desselben Begriffs seien.

Zu den logischen Grundlagen der Erzeugung: Umformungen und logische Folgerungen be-stehen darin, dass nach gewissen Regeln Zeichenreihen in neue Zeichenreihen überführt werden. U.a. beeinflusst von Post („Postsche Sprachen“ oder allgemein formale Sprachen) entwickelte Noam Chomsky die Auffassung, formale Sprachen seien als Modelle für natürliche Sprachen zu benutzen. Die Chomskyschen formalen Sprachen lassen sich als spezielle Postsche Sprachen auffassen. Solche Sprachen sind Produktionssysteme, die aus einer Menge von Regeln bestehen, durch die eine bestimmte Menge von Sätzen oder Konstruktionen generiert, d.h. durch rekursive Definition aufgezählt wird. Der Wert solcher Produktionssysteme besteht nicht nur darin, syntaktische Relationen genau darzustellen, sondern auch mehrere verschiedene Strukturdarstellungen in bezug auf ihre Beschreibungs- und Erklärungsadäquatheit zu vergleichen.

Die Theorie der erzeugenden Systeme und Sprachen ist aber auch das Resultat des Einflusses von Ideen aus der Entwicklungsbiologie auf formale Sprachtheorien. Der nächste Status einer Zelle lässt sich aus der Jetztform allein ableiten oder durch eine Funktion, in der der Status der Nachbarzellen ebenfalls eine Rolle spielt. Der nächste Funktionszustand kann uns aber auch die Wahl von mehr als einem neuen Zustand für die sich entwickelnde Zelle lassen, in welchem Fall wir es mit einer nicht-deterministischen Funktion zu tu haben. Sie kann auch begrenzt sein, so dass keine Zelle weg genommen werden kann, also keine leere Kette erzeugt werden darf. Die Verbindung zur Sprache wird spätestens bei Betrachtung der Chomsky-Hierarchie offensichtlich. Auch die Bezeichnung „Baumgraph“ für die Strukturdarstellung in der Generativen Grammatik weist auf diese Verbindung hin.

Beeh (1981) zitiert Posts (1944) Begriff der ‚Produktivität’: „Eine Menge M ist produktiv, wenn jede bekannte Teilmenge von M algorithmisch stets erweitert werden kann, ohne dass man auf diesem Weg jemals die gesamte Menge M wird erschöpfend erfassen können.“ Dieser Begriff trägt der wesentlichen Offenheit der menschlichen Sprache und ihrer Fähigkeit, sich fortwährend weiterzuentwickeln, Rechnung.

Beeh (1981, 40) definiert: „Eine Menge ist erzeugbar, wenn es ein sie erzeugendes, und akzeptierbar, wenn es ein sie akzeptierendes System gibt.“

Šaumjan (1971, 140) bemerkt, „Sätze generieren" sei synonym für „Sätze rekursiv aufzählen".

Zusätzlich muss die Unterscheidung Axiom und Setzung gegenwärtig bleiben: Ein Axiom ist eine jedem einsichtige Aussage, die sich nicht beweisen lässt, eine Setzung dagegen lässt sich beweisen oder widerlegen.

2. Kriterien zur Beurteilung der Modelle

2.1 Einfachheit und Produktivität

In der modernen Wissenschaftstheorie werden folgende Hauptkriterien für die Wahl unter Alternativhypothesen vorgeschlagen:

1. Das Kriterium der Produktivität. Von zwei Hypothesen, die gleichermaßen gut mit vorliegenden Beobachtungen übereinstimmen, ist die vorzuziehen, die auf einen größeren Kreis von Fakten und Erscheinungen anwendbar ist.
2. Das Kriterium der Einfachheit. Von zwei Hypothesen, die auf einen identischen Kreis von Fakten und Erscheinungen anwendbar sind, ist die einfachere vorzuziehen.[4]

Die Schlüsselbegriffe bei Chomsky sind 1. Einfachheit und 2. erklärende Kraft der Theorie: Je einfacher eine Grammatik ist, desto größer ist ihre erklärende Kraft und umgekehrt. Dies ist Noam Chomskys allgemein-methodologische Position.[5]

Chomsky sieht die Einfachheit als formales Kriterium im Unterschied zur erklärenden Kraft der Theorie an, die ein äußeres, nichtformales Kriterium sei.

Šaumjan (1971, 186) unterscheidet zwei Arten von Einfachheit innerhalb der Wissenschafts-logik nach G. Reichenbach (1938). Die deskriptive Einfachheit ist die Einfachheit innerhalb äquivalenter Beschreibungen. Diese ist rein formal und vertieft in keiner Weise unsere Er-kenntnis der Wirklichkeit, sondern liefert nur eine bequeme Darstellungsweise der Wirk-lichkeit. Unter der induktiven Einfachheit versteht man das dynamische Vermögen einer wis-senschaftlichen Theorie, mit Hilfe eines begrenzten Begriffskodes einen weiten Bereich von Fakten zu erfassen, wobei man weit in das Gebiet des Unbekannten eindringe. Dieser Begriff sei keineswegs formal, sei aber einzig für die Charakteristik der Effektivität wissenschaft-licher Theorien fruchtbar. Hieraus folgt, dass die Einfachheit (im Sinne der induktiven Ein-fachheit) und die erklärende Kraft der Theorie identische Begriffe seien, der „Grad der Einfachheit“ ist synonym der „Tiefe der Erklärung“. Es gibt also nicht zwei Arten von Adäquatheitskriterien Chomskys einer linguistischen Theorie – nämlich formale und nichtformale -, sondern ein identisches Kriterium, das man unter dem Begriff der erklärenden Kraft der linguistischen Theorie subsumieren kann.

2.2 Adäquatheit

2.2.1 Adäquatheitsebenen nach Chomsky

Die Generative Grammatik soll nicht nur Sprachkompetenz beleuchten und damit beschrei-bungsadäquat sein, sondern darüber hinaus auch die Wurzeln dieser Kompetenz ‚ausgraben’, also Erklärungsadäquatheit erreichen. Mit den drei Aufgaben einer Theorie der Grammatik

1. Angabe von Regeln zur Bildung aller und nur grammatischer Sätze
2. Zuordnung korrekter Strukturbeschreibungen
3. Hypothese über die universelle Sprachausstattung

sind drei Kriterien verbunden, mit Hilfe derer die Adäquatheit von Grammatiken beurteilt werden kann:

1. Beobachtungsadäquatheit; ihre Regeln erlauben alle grammatischen Sätze einer Sprache und nur diese zu bilden
2. Beschreibungsadäquatheit; sie ist beobachtungsadäquat und ihre Regeln ordnen den Sätzen dieser Sprache intuitiv korrekte Strukturbeschreibungen zu
3. Erklärungsadäquatheit; sie ist beschreibungsadäquat und steht im Einklang mit einer Theorie der Grammatik, die eine korrekte Hypothese über die menschliche Sprachausstattung darstellt.[6]

2.2.2 Vorausgesetzte Sprachtheorie nach Lieb (1976)

Lieb (1976) legt fest, dass universale und generelle Eigenschaften von Sprachen, die in einer Sprachtheorie ausgesagt werden, die Grundlage dafür sind, dass eine Grammatiktheorie for-muliert werden kann, die diesen universalen und generellen Eigenschaften Rechnung trägt und insofern adäquat ist.

Eine für die Erklärungsadäquatheit vorausgesetzte Hypothese muss dann in einer Sprachtheorie, die nach Lieb Voraussetzung für die Grammatiktheorie ist, enthalten sein.

2.2.3 Das Problem der linguistischen Realität

Šaumjan (1971, 95) referiert: Nach I. A. Mel’cuk wird für die Überprüfung einer hypothe-tischen Beschreibung eines der Beobachtung entzogenen generativen Mechanismus lediglich verlangt, dass das Modell, das dieser Beschreibung entspricht, genau die gleichen Objekte ge-neriert wie der zu untersuchende Mechanismus. Ein innerer generativer Mechanismus ist so nicht daraufhin überprüfbar, ob er genauso arbeitet wie die Sprache selbst. Šaumjan (1971, 96-182) erweitert dies daher:

Die Hypothese über den inneren generativen Mechanismus der Sprache kann dann als über-prüfbar gelten, wenn sich aus der Beschreibung der Art der Generierung richtiger Objekte einer gegebenen Sprache nicht nur über die richtigen Objekte dieser Sprache beobachtbare Folgerungen ziehen lassen, sondern auch beobachtbare Folgerungen über die Hierarchie dieser Objekte, über die grammatische Synonymie und Homonymie, über die Wechselbe-ziehungen der Struktur verschiedener Sprachebenen und eine Reihe anderer beobachtbarer Folgerungen. Der generative Mechanismus, aus dessen Beschreibung sich keine anderen Folgerungen ziehen lassen als die über die in der Sprache vorhandenen richtigen Objekte, kann nicht zum Erkennen des inneren generativen Mechanismus der Sprache verwendet werden, trotzdem kann er für die automatische Übersetzung oder andere praktische Zwecke von großem Nutzen sein. Solche Mechanismen haben rein pragmatischen, keinen theoretischen Nutzen, empirische Wissenschaften verfolgen aber ein Erkenntnisziel. Demzufolge besteht die Aufgabe der Theorie der generativen Grammatik darin, Kriterien für eine vergleichende Bewertung der alternativen generativen Grammatiken zu entwickeln.

Es handelt sich also um eine Prozedur zur Bestimmung des Grades der Adäquatheit von Grammatiken, welche dieser Grammatiken die linguistische Realität besser widerspiegelt. Mit anderen Worten ist die Rede von der schwächsten Anforderung: die linguistische Theorie sollte die Prozedur der Wahl zwischen den Grammatiken aufzeigen.

Das abstrakte linguistische Modellieren führt zu einer starken Veränderung der traditionellen linguistischen Begriffe. In den abstrakten linguistischen Modellen spielen Begriffe eines neuen Typs, die linguistische Konstrukte genannt werden können, eine wesentliche Rolle. In ganz allgemeiner Form kann das Problem der linguistischen Realität[7] folgendermaßen formuliert werden: Haben linguistische Behauptungen, die linguistische Konstrukte enthalten, die in Form von Formeln ausdrückbar sind, eine objektive Bedeutung oder stellen sie irgendein subjektives Gebilde dar? Wie erhält man objektives Wissen über die linguistischen Fakten und Erscheinungen?

Konstrukte sind Begriffe, die in der unmittelbaren Erfahrung nicht gegeben sind, so z.B. das Phonem in der Phonologie. Die elementaren, unmittelbar erfahrbaren Begriffe werden durch Generalisierung von Fakten direkter Beobachtung gebildet, die Konstrukte aber sind nicht aus der direkten Beobachtung ableitbar und können deshalb nicht durch Generalisierung gebildet werden, sondern sie werden durch Postulierung in die Wissenschaft eingeführt. Die Postu-lierung von Konstrukten erlaubt es uns, die innere Bedeutung der beobachtbaren Fakten zu entdecken und in ihr Wesen einzudringen. Die Generalisierung ist ein induktives Verfahren, das gedankliche Experiment aber, das mit der Postulierung von Konstrukten verknüpft ist, ist ein deduktives Verfahren. Angemessen ist damit eine zyklische, hypothetisch-deduktive Methode.

Abbildung in dieser Leseprobe nicht enthalten

P ist die Problemsituation à T, der Theorie in Hypothesenform à D als Menge der deduk-tiven Folgerungen aus der Theorie à E, der Evaluation, der Überprüfung der Theorie und der Beseitigung der Fehler à der Problemsituation auf neuer Ebene usw.. Ein neuer Typ von Abstraktion wird mit der Postulierung eines formalen Systems m.H. der hypothetisch-deduktiven Methode erreicht, der Systemabstraktion genannt werden kann.

Die Systemabstraktion ist das Konstruieren eines ganzen Netzes von Begriffen, die gleich-zeitig als Elemente des formalen Systems und ohne direkte Beziehungen mit der empirischen Basis der Wissenschaften gegeben sind. Sie ist nicht (nur) mit der analytischen Tätigkeit des Denkens verknüpft, sondern mit der schöpferischen Phantasie und Intuition des Gelehrten.

Nach Šaumjan (!973, 167) werden nun abstrakte Objekte wechselseitig mit der empirischen Basis ausgeschlossen, indem konkrete Einsetzungen gesucht werden oder m. H. konkreter Ersetzungsregeln der genotypischen Sprache in die phänotypischen Sprachen.

In welchem Sinn existieren die abstrakten Objekte des hypothetisch-deduktiven Systems?

Das hypothetisch-deduktive System existiert in dem Sinn, in dem geographische Karten existieren. Dies ist ein symbolisches System, das für die Darstellung eines bestimmten Aspekts der ganzen Realität dient. Was das linguistische hypothetisch-deduktive System angeht, so ist es ein hypothetisch-deduktives System, das eine objektive Realität besonderer Art abbildet - die natürlichen Sprachen, d.h. natürliche symbolische Systeme. In diesem Fall werden die natürlichen Sprachen als der objektiven Realität angehörend betrachtet.

Die abstrakten Objekte des linguistischen hypothetisch-deduktiven Systems spiegeln also wie jedes beliebige andere hypothetisch-deduktive System einen Bereich der objektiven Realität wider, im vorliegenden Fall die linguistische Realität. Verschiedene Ebenen der objektiven Realität entsprechen verschiedenen Typen von abstrakten Objekten. Bei einer Identifikations-Abstraktion ‚Haus’ ist einfach auf ein bestimmtes Haus zeigbar. Für eine relationale Abstrak-tion gilt: Hier dienen als Elemente der objektiven Realität bestimmte Beziehungen zwischen den Elementen der objektiven Realität. Hinsichtlich des hypothetisch-deduktiven Systems sind wir nicht berechtigt, die abstrakten Objekte dieses Systems als isoliert voneinander anzu-sehen. Das hypothetisch-deduktive System stellt eine einzige komplexe Abstraktion dar, die die objektive Realität durch Folgerungen, die sich aus dieser komplexen Abstraktion ergeben, widerspiegelt. Trotzdem entsprechen auch die abstrakten Objekte im hypothetisch-deduktiven System, die keine direkte empirische Interpretation haben, bestimmten Aspekten der Realität, die zu einer einzigen komplexen Abstraktion gehören. Die Unterscheidung verschiedener Ebenen der linguistischen Realität ist im Prozess der Erkenntnis der Sprache als Übergang von den Tatsachen einer Ordnung zu tieferen Tatsachen einer anderen Ordnung zu bewerten. Die linguistischen Begriffe wurden somit ebenso relativ wie die Begriffe anderer Wissenschaften. Relativität der Begriffe kann im Licht der dialektisch materialistischen Lehre von der Vielstufigkeit der Tatsache richtig verstanden werden als sich vertiefendes Denken von der Erscheinung zum Faktum, sozusagen vom Faktum erster Ordnung zum Faktum zweiter Ordnung und so weiter ohne Ende.

Können die linguistischen Einheiten als Bündel von Beziehungen angesehen werden? Ist ein solches Herangehen an die Forschungsobjekte mit dem materialistischen Weltbild vereinbar? Gibt nicht ein solches Herangehen an die Forschungsobjekte Anlass zu behaupten, dass „die Materie verschwunden ist, und nur die Beziehungen geblieben sind"?

Der Begriff der Materie bedeutet vom Standpunkt des dialektischen Materialismus aus nichts anderes als die objektive Realität, die außerhalb unseres Bewusstseins existiert. Im Idealismus dagegen gilt: Wenn Materie verschwindet, trennt die Linguistik die Beziehungen von der Materie bei der Erforschung der Sprachelemente als Bündel von Beziehungen, aber dies ist für Šaumjan (1973) notwendig die Beschäftigung mit der Erforschung bestimmter Seiten der objektiven Realität, d.h. bestimmter Seiten der Materie.

Es gibt das Prinzip der linguistischen Relativität, dementsprechend uns jede beliebige Sprache ein relatives Bild der Welt vermittelt. Nach dem Verständnis des Relativitätsprinzips im dialektischen Materialismus ist für die objektive Dialektik das Absolute im Relativen.

Für jede adäquate Erkenntnis der objektiven Realität, besonders der linguistischen Realität, ist es notwendig, im Relativen das Absolute zu suchen. Das Absolute im Relativen, dies sind, so Šaumjan, die Invarianten. Das Relative im Absoluten, dies sind Projektionen der Invarianten.

2.3 Die Chomsky-Hierarchie

Die Chomsky-Hierarchie stellt eine allgemeine Typologie der konkatenativen Systeme generativer Grammatiken dar. Diese Hierarchie von im wesentlichen vier Typen von Syntax-Systemen stellt eine Skala zur Bemessung der Komplexität rekursiv abzählbarer Mengen dar.[8]

Formale Sprachen besitzen strukturelle Eigenschaften. Grammatiken sind Erzeugungssysteme für formale Sprachen. Automaten sind Erkennungssysteme für formale Sprachen. Konkatena-tion ist die einfachste Operation mit Wörtern, auch Verkettung genannt. Ist z.B. w1 =abc und w2 =cd, dann ist die Verkettung von w1 mit w2 =abccd ein Wort aus {a,b,c,d}*.

Eine formale Definition der Verkettung sei: Sei å ein Alphabet. Die Operation • auf å* mit[Abbildung in dieser Leseprobe nicht enthalten]

Jede rechts-lineare Sprache über einem Alphabet ist å regulär. Eine Typ-3-Grammatik reicht aus, um alle endlichen Mengen zu erzeugen. Der Name "linear" rührt daher, dass es nur einen Pfad mit nichtterminalen Symbolen gibt. Eine Typ-3-Grammatik ist z.B. für das Englische inadäquat, weil spiegelbildliche Strukturen nicht erzeugbar sind, obwohl sie vorkommen.

Die nächsthöhere Stufe stellen kontextfreie Sprachen dar. Sie spielen eine wesentlich wich-tigere Rolle in der Linguistik als die einseitig-linearen Grammatiken. Im Grunde basieren nämlich sämtliche generativen Syntax-Theorien (sowie viele unifikationsbasierte Theorien) auf kontextfreien Grammatiken. Einseitig-lineare Grammatiken erlauben auf der linken Seite einer Regel nur ein nichtterminales Symbol und auf der rechten Seite entweder nur ein Wort aus å* oder ein nichtterminales Symbol links bzw. rechts eines Wortes aus å*. Für kontextfreie Sprachen wird die Restriktion auf der rechten Seite der Regeln aufgehoben: Ein nichtterminales Symbol geht in ein Wort aus dem Gesamtalphabet über.[Abbildung in dieser Leseprobe nicht enthalten]

Die Form der Regeln kontextfreier Grammatiken zeigt, dass auch einseitig-lineare Grammatiken kontextfrei sind, was bedeutet, dass reguläre Sprachen eine echte Teilmenge der kontextfreien Sprachen sind.

Eine (kontextfreie) Grammatik ist in Chomsky-Normalform (CNF), wenn alle Regeln die Gestalt

[Abbildung in dieser Leseprobe nicht enthalten] Die Ersetzungen haben nicht notwendig am rechten Ende des bis dahin erzeugten Teilausdrucks zu geschehen (wie bei Systemen dritten Typs).

Der Wortsinn von 'kontextfrei' beschreibt keine Eigenschaft der zu erzeugenden Ausdrücke, sondern eine Eigenschaft der Ersetzungen: Eine Ersetzung X à Y heißt 'kontextfrei', weil sie auf X angewendet werden darf, gleichgültig in welchem Kontext dieses X vorkommt.

Der entscheidende Nachteil liegt für kontextfreie Grammatiken in der mangelnden Generali-sierbarkeit in den Fällen, in denen aufgrund struktureller Merkmale verschiedene Kategorien formuliert werden müssen, die aus syntaktischer Sicht jedoch zusammengehören. Typ-2-Grammatiken sind z.B. für Mohawk inadäquat, weil die Sprache beliebig viele ineinander-geschobene Symbolentsprechungen aufweist, die diese nicht aufweisen können.

Die nun nächsthöhere Sprachklasse bilden kontextsensitive Sprachen und Grammatiken. Bei der zusätzlichen Vereinbarung, dass kontextsensitive Regeln in der eindeutigen "Umgebungs-schreibweise" zu schreiben sind, wird es möglich, jeder Ableitung genau einen Baum zuzu-ordnen. Eine Grammatik G =áФ, å, R, Sñ heiß kontextsensitiv, falls alle Regeln die Gestalt[Abbildung in dieser Leseprobe nicht enthalten]

Falls die Regel S àє Element von R ist, darf S nicht auf der rechten Seite einer Regel vorkommen.

Alle Ableitungen nach einer Typ-1-Grammatik (außer der Ableitung der leeren Kette) sind also „nichtabnehmend", in dem Sinne, dass keine Zeile kürzer ist als die unmittelbar vorangehende. Längenmonotone Ersetzungen lassen aus Ausdrücken einer bestimmten Länge stets einen wenigstens ebenso langen Ausdruck entstehen: L(U) £ L(V).

Für jede Typ-1-Grammatik G = (VN, VT, {S}, P) und jede Kette x Î VT braucht man nur endlich viele Folgen von Ketten zu untersuchen, um festzustellen, ob x in L(G) (der von G erzeugten Sprache) ist oder nicht. Wenn diese Sachlage besteht, dann sagen wir, es gebe ein Entscheidungsverfahren für die Zugehörigkeit zur Menge L(G), oder äquivalent, dass die Zugehörigkeit für L(G) entscheidbar ist. Eine Menge, für die es ein Entscheidungsverfahren für die Zugehörigkeit gibt, heißt rekursive Menge. (Es lässt sich zeigen, dass diese Verwendung des Ausdrucks „rekursiv" mit der bei rekursiven Definitionen und axiomatischen Systemen verwandt ist, wenn auch dieser Zusammenhang hier nicht augenfällig ist.)

Die meisten Linguisten würden wahrscheinlich in der Ansicht übereinstimmen, dass jede natürliche Sprache eine rekursive Menge ist. Es ist beispielsweise vernünftig anzunehmen, dass ein Mensch, der die Grammatik G einer natürlichen Sprache beherrscht, bestimmen kann, ob eine beliebige gegebene Kette von z.B. Wörtern eine grammatische Kette ist. Dies läuft auf die Behauptung hinaus, dass dem Sprecher-Hörer ein Entscheidungsverfahren für die Zugehörigkeit zu L(G) zu Gebote steht und die Sprache somit eine rekursive Menge ist (vgl. Chomsky 1965,31-32 und Anm. 18, 202).

Allgemeine Regelsprachen, Typ-0-Grammatiken, sind die mächtigste Sprachklasse, auch rekursiv aufzählbare Mengen genannt.

Def.: Eine allgemeine Regelgrammatik (auch Typ-0-Grammatik genannt) G =áФ, å, R, Sñ besteht aus: [Abbildung in dieser Leseprobe nicht enthalten]

Typ-0-Grammatiken müssen lediglich die Bedingung erfüllen, dass auf der linken Seite der Regeln mindestens ein nichtterminales Symbol steht. Ansonsten können sowohl auf der linken als auch auf der rechten Seite der Regeln beliebige Wörter aus dem Gesamtkatalog Γ stehen. Kontextsensitive Grammatiken sind eingeschränktere Formen der Typ-0-Grammatiken, denn sie müssen die zusätzliche Bedingung der Längenmonotonie[9] erfüllen. Systeme 0-ten Typs gehen also aus Systemen ersten Typs durch Verallgemeinerung hervor: Systeme 0-ten Typs erzeugen alle Mengen niedrigerer Typen und außerdem speziellere. Beispiel: Die Menge der prädikatenlogischen Theoreme erster Stufe ist vom 0-ten, aber von keinem niedrigeren Typ. Formale Grammatiken mit keiner solchen Beschränkung auf ihre Regeln, d.h. also im wesentlichen Semi-Thue-Systeme, heißen Typ-0-Grammatiken oder auch unbeschränkte Neuschreibsysteme (unrestricted rewriting systems, im Dt. auch allgemeine Regelgrammatiken genannt), kurz URS. Bei Typ-0-Grammatiken können mehr als ein Symbol neugeschrieben werden

Abbildung in dieser Leseprobe nicht enthalten

Chomsky-Systeme sind MONO-AXIOMATISCHE NICHT-DETERMINISTISCHE[10] ERSETZUNGSSYSTEME.

Typ-0-Grammatiken sind viel zu komplex, als dass sie ein geeignetes Erzeugungssystem für natürliche und auch künstliche Sprachen darstellen könnten. Dies gilt im übrigen auch für kontextsensitive Sprachen.

Eine Hierarchie formaler Sprachen[11]

[...]


[1] Grewendorf et al. (1993, 40).

[2] Eine ähnliche Aufteilung findet sich bei Lehmann, Christian (1993). Theoretical implications of grammaticalization phenomena. In: Foley, William A. (ed.). Trends in Linguistics. Studies and Monographs 69. The role of theory in language description. Berlin/New York, 315-40.

[3] Beeh (1977) zeigt dies S. 66-7.

[4] Šaumjan (1971, 84).

[5] Chomsky (1975, 67-8, 113, 119, 126).

[6] Grewendorf et al. (1993, 40), Chomsky (1975, 81-22).

[7] Die Argumentation folgt Šaumjan (1973, 141-174).

[8] Die Darstellung folgt wesentlich Klabunde (1998), ergänzend Beeh (1977, 57-63), Beeh (1981, 13, 129) und Wall (1973, 43-102).

[9] Da das leere Wort in kontextsensitiven Grammatiken nur aus dem Startsymbol abgeleitet werden darf, steigt in den Ableitungen die Anzahl der Symbole an à längenmonoton.

[10] D.h. der nächste Funktionszustand lässt uns die Wahl zwischen mehreren neuen Zuständen.

[11] Klabunde (1998, 125, Abb. 31).

Ende der Leseprobe aus 67 Seiten

Details

Titel
Zur Form von Sprachbeschreibung als Erzeugung - Dependenz, Konstituenz, Applikation
Hochschule
Universität des Saarlandes  (FR 4.1 Germanistik)
Note
sehr gut
Autor
Jahr
2002
Seiten
67
Katalognummer
V10071
ISBN (eBook)
9783638166164
ISBN (Buch)
9783638697897
Dateigröße
793 KB
Sprache
Deutsch
Schlagworte
Form, Sprachbeschreibung, Erzeugung, Dependenz, Konstituenz, Applikation
Arbeit zitieren
Alexandra Weber (Autor), 2002, Zur Form von Sprachbeschreibung als Erzeugung - Dependenz, Konstituenz, Applikation, München, GRIN Verlag, https://www.grin.com/document/10071

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Zur Form von Sprachbeschreibung als Erzeugung - Dependenz, Konstituenz, Applikation


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden