Dependenz Parsing - Ein sinnvolles Verfahren?

Kritische Betrachtung des Dependenz Parsings an Hand des Textes: Dependency Grammar and Dependency Parsing von Joakim Nivre (2005)


Hausarbeit, 2011
21 Seiten, Note: 1,7

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Dependenzgrammatik - Ein Überblick

3. Dependenz Parsing - Einsatz- und Funktionsweise

4. Dependenz Parsing - Ein erfolgreiches Verfahren für die Satzanalyse? - 12 Kritische Betrachtung des Dependenz Parsings

5. Schlussfolgerungen

Literaturverzeichnis

1. Einleitung

Dependenz Parsing - ein noch junges, ja sogar bis dato wenig beachtetes Parsing Verfahren- obgleich es zunehmend immer mehr an Bedeutung, insbesondere aufgrund seiner Schnelligkeit, zunimmt. Doch ist dieses Verfahren tatsächlich so erfolgsversprechend? Dieser Frage soll im Laufe dieser Arbeit vornehmlich an Hand des Textes von Joakim Nivre: Dependency Grammar and Dependency Parsing nachgegangen werden. Nivres Aussage bezüglich der Vorteile des Dependenz Parsings gilt es in diesem Kontext zu überprüfen.

Doch bevor dies geschieht, erfolgt zunächst einmal ein Überblick über die Dependenzgrammatik, die Grundlage des Dependenz Parsing. Die Entstehung, Entwicklung und wesentlichen theoretischen Grundlagen jenes grammatikalen Ansatzes werden dem zur Folge dargelegt und kurz erklärt, um den Zugang zu dieser Thematik und weiteren Überlegungen zu vereinfachen. Komplettiert wird dies durch die im folgenden Kapitel vorgenommene Erklärung der Funktionsweise und des Einsatzes des Parsingverfahren selbst, bevor sich im Hauptteil dieser Hausarbeit eingehend mit dem Dependenz Parsing auseinandergesetzt wird.

In diesem Teil der Arbeit geht es im Wesentlichen darum, die Argumente, die Nivre für das Verwenden von Dependenz gestützten Parsingverfahren an Stelle anderer Methoden aufführt, darzulegen und anschließend kritisch mittels wissenschaftlicher Forschungsergebnisse und Meinungen zu beleuchten. Vor- und Nachteile von Dependenz Parsing sollen so erläutert werden, um dann abschließend eine Bewertung jenes Verfahrens vornehmen zu können.

2. Dependenzgrammatik - Ein Überblick

In den letzten Jahren ist das Interesse an Parsing Modellen, die Dependenzgraphen der Dependenzrepresentationen eines Satzes produzieren, gestiegen. Dies liegt insbesondere an der effizienten und flexiblen Beschaffenheit bezüglich der computergesteuerten Berechnung der Dependenzgraphen. Darüber hinaus ermöglichen Dependenzgraphen eine vereinfachte Modellierung von non-projectivity in Sprachen mit freier Wortanordnung. Ebenso erlauben Parsingverfahren basierend auf Dependenzgrammatik eine Enkodierung tieferer syntaktischer Informationen, die für weitere computer-linguistische Prozesse verwendet werden können (McDonald et. al. 2006: 216; Attardi 2006).

Die Bedeutung Dependenz gestützter Parsingverfahren nimmt also ob der zuvor dargestellten Gründe zunehmend an Bedeutung zu. Die Grundlage dieser verfahren stellt dabei die Dependenzgrammatik dar.

Die Wurzeln der Dependenzgrammatik gehen bereits auf die mittelalterlichen Grammatiktheorien zurück (Covington 1984) und hat sich zunehmend als Form syntaktischer Repräsentationen, verwendet von vielen traditionellen Grammatikern, besonders in Europa, entwickelt (Mel’čuk 1988). Der von Tesnière (1959) entwickelte theoretische Ansatz hat wesentlich zur Entwicklung der modernen theoretischen Tradition der Dependenzgrammatik beigetragen. Die elementare Idee dieses theoretischen Ansatzes ist die Annahme, dass ein Satz aus einer syntaktischen Struktur bestehend aus binären asymmetrischen Beziehungen, Dependenzen genannt, besteht.

Dependenzen selbst werden Gaifman (1965) und Robinson (1970) zur Folge als einen wohlgeformten String charakterisiert, wenn:

1. es eine einzige Wurzel in einem Satz gibt;
2. alle anderen Elemente von anderen Elementen abhängen;
3. kein Element nicht direkt von mehr als einem Element abhängig ist;
4. jeder Dependent adjazent zu seinem Kopf ist.

Nach Fraser (1988) ist ein Dependent adjazent zu seinem Kopf, wenn er nicht von dem Kopf durch nichts außer von anderen Dependenten desselben Kopfes oder durch den Dependenten selbst getrennt ist.

„A dependent is said to be adjacent to its head if it is not separated from that head by anything apart from other dependents of the same head or of the dependent itself.” (Fraser 1988: 296)

Mel’čuk (1988) unterteilt die Wortformen in einem Satz in drei unterschiedliche Typen von Beziehungen: morphologische, syntaktische und semantische. Somit nimmt er eine Präzisierung des von Tesnière entworfenen Dependenzbegriffes vor. Nikula (1986) differenziert bei syntaktischen Dependenzen noch zwischen endozentrischen und exozentrischen Konstruktionen. Bei einer endozentrischen Konstruktion kann der Kopf das „Ganze“ eines Satzes ersetzen, ohne dabei die syntaktischen Strukturen zu zerstören. Im Kontrast dazu vermag der Kopf bei einer exozentrischen Konstruktion nicht die gesamte syntaktische Struktur des Satzes zu ersetzen (vgl. Nivre 2005: 5).

Die Unterscheidung zwischen endozentrischen und exozentrischen Konstruktionen ist vergleichbar mit der Differenzierung zwischen head-complement und head-modifier- Beziehungen, die in vielen zeitgenössischen syntaktischen Theorien zu finden sind. Demnach lassen sich head-complement-Beziehungen als exozentrisch und head-modifier-Beziehungen als endozentrisch einordnen (vgl. ebd.: 5).

Dependenz Syntax repräsentiert in diesem Sinne syntaktische Informationen als ein Netzwerk von head-modifier Dependenzbögen, die typischerweise auf einen gerichteten Baum beschränkt sind (Koo et. al. 2008: 595).

„In dependency grammar, syntactic relationships are represented as head-modifer dependencies: directed arcs between a head. Which is the more „essential“ word in the relationship, and a modifier, which supplements the meaning of the head.“ (Koo/Collins 2010: 1)

Die Differenzierung zwischen complements und modifiers orientiert sich außerdem zumeist grundlegend an den Bedingungen der Valenz, einem zentralen Gedanken der Dependenzgrammatik. Unter Valenz werden in diesem Kontext im Allgemeinen die Anforderungen, die ein Verb an seine syntaktischen Dependenzen, die zudem die Interpretation des Verbs als ein semantisches Prädikat reflektieren, stellt, verstanden (ebd.: 5). Das Verb in den Mittelpunkt für die Bestimmung syntaktischer Dependenzen zu setzen ist ebenfalls ein theoretischer Ansatz, der auf Tesnière zurück geht. Neben der Entwicklung des Valenz Begriffs basiert Tesnières (1959) Theorie auf drei theoretischen Konzepten:

der Konnexion,

Junktion

und der Translation.

Während die Konnexion der Dependenz einer syntaktischen Struktur, bestehend aus binären asymmetrischen Beziehungen, entspricht, stellen die Junktion und Translation andere Beziehungen, die zwischen Wörtern eines Satzes bestehen, dar (Nivre 2005:7).

Junktion definiert sich als die Beziehung zwischen koordinierten Items, die Dependenten desselben Kopfs oder Kopfs derselben Dependenten sind. Translation hingegen meint die Beziehungen zwischen Funktionswörtern oder anderen Elementen, die die syntaktische Kategorie von lexikalischen Elementen so verändern können, dass sie eine andere Dependenz Beziehung eingehen können (ebd.:7).

Zusammenfassend kann festgehalten werden, dass eine Dependenzbeziehung immer zwischen einem Kopf und dem Dependent besteht. In der Dependenzgrammatik selbst wird jenes Abhängigkeitsverhältnis, also das zwischen dem Kopf und dem Dependenten, untersucht.

“In der Dependenzgrammatik besteht die Hierarchie aus Abhängigkeiten (Dependenzen) von Wörtern untereinander. Die Dependenzen werden durch Verknüpfungen von jeweils zwei Wörtern modelliert. Graphisch sind es Kanten eines Baums (bei Tesnière connexions). Die Verknüpfungen sind immer gerichtet. Genauer gesagt gibt es immer ein Regens und ein davon abhängiges Dependens [...]“ (Lemnitzer/Zinsmeister 2006: 76).

Nun stellt sich jedoch die Frage, wann von einem Kopf/Regens oder Dependenten/Dependens in einem Satz gesprochen bzw. nach welchen Kriterien jene Klassifizierung vorgenommen werden kann. Es gibt einige Kriterien, die bei der Betrachtung von Dependenzbeziehung sowie der Unterscheidung des Kopfes und des Dependenten in einer solchen Beziehung zu beachten sind. Viele dieser Kriterien sind in der Vergangenheit diskutiert worden. Hier werden jedoch nur die wesentlichen dargestellt. Für die Identifizierung einer syntaktischen Beziehung zwischen Kopf (H) und Dependenten (D) in einer Konstruktion (C) schlagen Zwicky (1985) und Hudson (1990) folgende Kriterien vor:

1. H determiniert die syntaktische Kategorie C und kann C oft ersetzen.
2. H determiniert die semantische Kategorie C; D gibt die semantische Spezifikation.
3. H ist obligatorisch; D darf optional sein.
4. H wählt aus D und determiniert, ob D obligatorisch oder optional ist.
5. Die Form von D hängt von H ab.
6. Die lineare Position von D wird mit Bezug auf H festgelegt.

Für die Generierung einer Dependenzstruktur, aus der sich ein Dependenzgraph ableiten lässt, der eine Modellierung syntaktischer Dependenzen ermöglicht, ist es entscheidend, den Knoten für eine Dependenzstruktur zu ermittelt. Hierfür gibt es unterschiedliche theoretische Ansätze. Die meisten hiervon gehen davon aus, dass eine Dependenzbeziehung eher zwischen lexikalischen Elementen als zwischen Phrasen besteht. Aber zwischen der Beschaffenheit jener Elemente gibt es unterschiedliche Auffassungen. Die in der Wissenschaft am häufigsten verbreitete Meinung ist, dass Knoten einer Dependenzstruktur auf die Wortformen, die in einem Satz vorkommen, zurückzuführen sind. Diese Betrachtungsweise wird in einem Großteil der Parsingsysteme basierend auf Dependenzgrammatik verwendet. Es ist aber ebenso möglich, Dependenzstrukturen aus wesentlich abstrakteren Einheiten wie Lemmata oder Lexeme zu gewinnen, oder aber dass Elemente mehrere Wordformen annehmen, die einen dissociate nucleus konstituieren (Nivre 2005: 8).

Der Dependenzgraph selbst illustriert die Dependenz Repräsentationen, bestehend aus lexikalischen Elementen, verlinkt durch binäre asymmetrische Relationen. Dieses Beziehungsnetz der lexikalischen Elemente kann als ein beschrifteter, gerichteter Graph definiert werden, in dem ein Set von Knoten dem Set an lexikalischen Elementen entspricht und die beschrifteten Kanten die Dependenzbeziehungen der Köpfe zu den Dependenten repräsentieren. Um eine komplette syntaktische Analyse eines Satzes zu ermöglichen, muss der Graph so verbunden sein, dass jeder Knoten nur zu einem anderen Knoten verbunden ist (Mel’čuk 1988).

Darüber hinaus gibt es zwei Bedingungen bezüglich der Generierung von Graphen. Es wird festgelegt, dass jeder Knoten nur einen Kopf besitzen und zudem der Graph nicht in Form eines Kreislaufs dargestellt werden darf. Aus diesen beiden Bedingungen zusammen mit der Prämisse der Verbundenheit der Knoten untereinander ergibt sich der Rückschluss, dass ein Graph ein verwurzelter Baum mit nur einem Wurzelknoten, der nicht von anderen Dependenten abhängig ist, darstellt (Nivre 2005: 9). Jener Umstand ist bereits von Gaifman (1965) und Robinson (1970) im Kontext der Definition von Dependenz, wie eingangs erwähnt, dargelegt worden.

[...]

Ende der Leseprobe aus 21 Seiten

Details

Titel
Dependenz Parsing - Ein sinnvolles Verfahren?
Untertitel
Kritische Betrachtung des Dependenz Parsings an Hand des Textes: Dependency Grammar and Dependency Parsing von Joakim Nivre (2005)
Hochschule
Universität Trier
Note
1,7
Autor
Jahr
2011
Seiten
21
Katalognummer
V185030
ISBN (eBook)
9783656098560
ISBN (Buch)
9783656098386
Dateigröße
873 KB
Sprache
Deutsch
Schlagworte
dependenz, parsing, verfahren, kritische, betrachtung, parsings, hand, textes, dependency, grammar, joakim, nivre
Arbeit zitieren
Sebastian Kentsch (Autor), 2011, Dependenz Parsing - Ein sinnvolles Verfahren?, München, GRIN Verlag, https://www.grin.com/document/185030

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Dependenz Parsing - Ein sinnvolles Verfahren?


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden