Automatische Tagger spielen eine wichtige Rolle bei der Bearbeitung großer Textkorpora. Ohne sie wäre es nicht möglich große Textmengen in kurzen Zeiträumen mit bestimmten linguistischen Merkmalen zu annotieren und somit für die weitere Bearbeitung zugänglich zu machen. Viele dieser Tagger sind als Open-Source Software verfügbar.
Das Ziel dieser Arbeit ist es, einen Vergleich zwei solcher Tagger durchzuführen, indem sie auf unterschiedliche deutsche Texte angewandt werden, die von der deutschen Standardvarietät in kleinem bis großem Umfang abweichen. Anschließend können die Textstellen betrachtet werden, bei denen die Tagger unterschiedliche Annotationen erzeugen. Der Fokus liegt dabei auf der Frage, welche Probleme durch die Besonderheiten der deutschen Sprache und seiner Varietäten bei den hier verwendeten Taggern beispielhaft auftreten und den daraus resultierenden falschen oder ambigen Annotationen.
Der Aufbau der Arbeit gliedert sich wie folgt: Zunächst werden im Abschnitt 'Methodik' – nach einem kurzen Überblick über den aktuellen Forschungsstand - die verwendeten Part-of-Speech-Tagger (PoS-Tagger) vorgestellt. Anschließend werden deutsche Texte für den Test der Tagger ausgewählt und vorgestellt. Diese Texte sollen sich in ihrer Abweichung von der deutschen
Standardvarietät möglichst stark unterscheiden, um eine breite Fläche an möglichen "Stolpersteinen" für die Tagger zu bieten. Anschließend erfolgt die Annotation der ausgewählten Texte mit den ausgewählten Taggern und schließlich eine Auswertung der resultierenden annotierten Token. Zum Schluss werden die Ergebnisse noch einmal kurz zusammengefasst.
Inhaltsverzeichnis
- Einleitung
- Methodik
- Zum aktuellen Forschungsstand
- Die verwendeten PoS-Tagger
- Auswahl der Texte
- Forumsbeitrag eines Fans des Fußballvereins Eintracht Frankfurt
- Heinrich Heine – Lore-Ley
- Arthur Schnitzler - Lieutenant Gustl (Ausschnitt)
- "Erlebnis im Zug"
- POS-Tagging und Vergleich der Ergebnisse
- Forumsbeitrag eines Fans des Fußballvereins Eintracht Frankfurt
- Heinrich Heine - Lore-Ley
- Arthur Schnitzler - Lieutenant Gustl (Ausschnitt)
- "Erlebnis im Zug"
- Zusammenfassung der Ergebnisse und Problemursachen
- Schluss
Zielsetzung und Themenschwerpunkte
Die vorliegende Arbeit befasst sich mit der Evaluation von zwei automatischen Part-of-Speech-Taggern (PoS-Tagger) im Deutschen. Ziel ist es, die Leistungsfähigkeit der Tagger im Umgang mit verschiedenen Textarten zu testen, die von der Standardvarietät des Deutschen abweichen. Dabei liegt der Fokus auf der Identifizierung und Analyse von Fehlerquellen, die durch die Besonderheiten der deutschen Sprache und ihrer Varietäten entstehen.
- Vergleich von zwei PoS-Taggern für verschiedene deutsche Texte
- Analyse von Fehlerquellen im PoS-Tagging
- Untersuchung der Auswirkungen von Sprachvariation auf die Tagger-Performance
- Beispiele für problematische Textstellen
- Zusammenfassende Darstellung der Ergebnisse
Zusammenfassung der Kapitel
Die Einleitung gibt einen kurzen Überblick über die Bedeutung automatischer PoS-Tagger und die Ziele der Arbeit. Kapitel 2, "Methodik", stellt die verwendeten PoS-Tagger und die ausgewählten deutschen Texte vor, die sich in ihrer Abweichung vom Standarddeutschen unterscheiden. Es werden auch die Ergebnisse des Vergleichs der Tagger in Bezug auf die getesteten Texte zusammengefasst. Das dritte Kapitel, "POS-Tagging und Vergleich der Ergebnisse", präsentiert die Ergebnisse des Taggings der ausgewählten Texte und analysiert die Fehlerquellen, die durch die Besonderheiten der deutschen Sprache und ihrer Varietäten entstehen.
Schlüsselwörter
Part-of-Speech-Tagging, PoS-Tagger, Deutsches Standarddeutsch, Sprachvariation, Fehlerquellen, TreeTagger, Stanford Log-linear Part-Of-Speech Tagger, Stuttgart-Tübingen-Tagset.
- Quote paper
- Jascha Daniló Jung (Author), 2017, Fehlerquellen beim Part-of-speech-Tagging am Beispiel verschiedener Textarten, Munich, GRIN Verlag, https://www.grin.com/document/433475