Rolle der maschinellen Übersetzung im Übersetzungsprozess. Kritische Untersuchung anhand von "DeepL" und Evaluation der Übersetzungsqualität


Bachelorarbeit, 2021

60 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

Darstellungssverzeichnis

Abkürzungsverzeichnis

1. Einleitung

2. Maschinelle Übersetzung
2.1. Geschichte der maschinellen Übersetzung
2.2. Zweck und Anwendung der maschinellen Übersetzung
2.3. Probleme der maschinellen Übersetzung
2.4. Methoden der maschinellen Übersetzung
2.4.1. Regelbasierte Methode
2.4.1.1. Direkte Methode
2.4.1.2. Interlingua-Methode
2.4.1.3. Transfer-Methode
2.4.2. Statistische Methode
2.4.2.1. Wortbasierte Methode
2.4.2.2. Phrasenbasierte Methode
2.4.2.3. Syntaxbasierte Methode
2.4.3. Beispielbasierte Methode
2.4.4. Neuronale Methode

3. DeepL
3.1. Über DeepL
3.2. Grundlegende Funktionen und Varianten von DeepL
3.3. Convolutional Neural Networks und die Grenzen der NMÜ

4. Evaluation der Übersetzungsqualität im Allgemeinen
4.1. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen mit BLEU
4.2. Evaluation der Übersetzungsqualität von maschinellen Übersetzungen nach Ramlow

5. Untersuchung und Fehleranalyse
5.1. Auswahl der Sprachen und der Texte
5.2. Bestimmung und Erläuterung der Fehlertypologie
5.3. Fehleranalyse der einzelnen Fehlerkategorien anhand von Beispielsätzen
5.4. Fehlerauswertung und Zusammenfassung

6. Fazit

7. Literaturverzeichnis

8. Onlinequellen

9. Anhang

Darstellungsverzeichnis

Abbildung 1: Schematischer Ablauf der Direkten Methode

Abbildung 2: Schematischer Ablauf der Interlingua-Methode

Abbildung 3: Schematischer Ablauf der Transfer-Methode

Abbildung 4: Benutzeroberfläche der freiverfügbaren DeepL Desktop-Version

Abbildung 5: Die Gesamtarchitektur eines neuronalen Faltungsnetzes

Tabelle 1: Übersetzungszwecke und ihre Anforderungen an die Übersetzungsqualität

Tabelle 2: Fehlertypologie

Tabelle 3: Auswertung der einzelnen Fehlerkategorien

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

Die gesamte zivilisatorische Entwicklung der Menschheit steht in direkter Verbindung mit dem technologischen Fortschritt. In unregelmäßigen Zeitabständen revolutioniert immer wieder eine große Idee den Zeitgeist der jeweiligen Epoche. Die Erfindung des Rades vor über fünftausend Jahren eröffnet völlig neue Möglichkeiten im Hinblick auf den Transport und begünstigt große Völkerwanderungen, welche bereits in der Bronzezeit stattfinden. Die Erfindung des Buchdrucks, sowie der Dampfmaschine, sind ebenfalls bahnbrechend und läuten jeweils ein neues Zeitalter ein. Die Entwicklung des Internets gilt als die letzte große Erfindung, welche den gesamten Planeten stark beeinflusst hat. Solch radikale Umbrüche haben häufig eine sehr kreative Dynamik zu Folge und bereiten den Weg für weitere Entwicklungsprozesse. Der wahre Treibstoff hinter technologischem Fortschritt ist jedoch das Bedürfnis des Menschen, neue Dinge auszuprobieren und optimale Lösungen zu etablieren. Die menschliche Neugier und die dazugehörige Ausdauer haben bereits abertausende Innovationen hervorgebracht. Inzwischen ist der gesamte Planet Erde dem Menschen und seiner Technologie, welche übermenschliche Leistungen ermöglicht, unterworfen. Infolgedessen kommt es auch zu einem globalen Informationsaustausch.

Die Art der zwischenmenschlichen Kommunikation wird ebenfalls sehr stark vom Stand der Technologie geprägt. Im 21. Jahrhundert ist es möglich, in Sekundenschnelle einen anderen Menschen am anderen Ende der Welt zu erreichen. Vor nur 100 Jahren war dies noch absolut undenkbar. Auf Grundlage dieses Fortschritts ergibt sich der Anspruch auf Produkte und Dienstleistungen aus aller Welt. In Folge der Globalisierung wird immer mehr übersetzt und das auch für eher seltene Sprachenpaare. Der Bedarf an Translationen und der daraus resultierende Arbeitsaufwand ist undenkbar groß und kann nicht ausschließlich mit Hilfe manueller Übersetzungen gestemmt werden - diese Aufgabe kann nur unter Verwendung von maschinellen Ressourcen bewältigt werden.

Maschinelle Übersetzung feiert derzeit große Erfolge und wird kontinuierlich verbessert, wie nützlich ist sie aber wirklich? Diese Frage beschäftigt insbesondere professionelle Übersetzer, die von guten MÜ-Systemen stark profitieren können. Daher wird im Rahmen dieser schriftlichen Arbeit die Qualität von maschinell übersetzten Texten überprüft und die Rolle der maschinellen Übersetzung im Translationsprozess kritisch untersucht. Zu diesem Zwecke wird zunächst die Entstehungsgeschichte der MÜ erläutert, welche von zahlreichen politischen Entscheidungen geprägt ist. Wie viele andere Technologien des 21. Jahrhunderts hat auch die Maschinelle Übersetzung ihren Ursprung im diplomatisch­militärischen Bereich. Im Kapitel 2.1. Geschichte der Maschinellen Übersetzung werden dementsprechend die wichtigsten Meilensteine in der Entwicklung dieser Technologie erläutert. Anschließend werden verschiedene Anwendungsbereiche der MÜ dargelegt. Diese resultieren aus unterschiedlichen Verwendungszwecken für MÜ, welche wiederum eng mit uneinheitlichen Anforderungen der Nutzer korrelieren. Diverse Schwächen und bekannte Problematiken der maschinellen Translation werden im Kapitel 2.3. Probleme der Maschinellen Übersetzung genauer erläutert. Es werden auch unterschiedliche methodische Ansätze der MÜ chronologisch und entsprechend ihrer Bedeutung in diesem Fachgebiet gezeigt. Hierbei wird die fundamentale Theorie hinter der jeweiligen Methode, ihre Funktionsweise sowie vorhandene Besonderheiten des betreffenden MÜ-Systems dargestellt. Diese theoretische Grundlage bildet den Ausgangspunkt für die Untersuchung von DeepL. Der erwähnte Online-Übersetzungsdienst wird als das zu untersuchende Translationssystem anschließend ausführlich betrachtet. Darüber hinaus werden zwei relevante Evaluationsmethoden vorgestellt, wobei eine der beiden das Fundament der späteren Untersuchung bildet. Darauf folgt die Analyse der Übersetzungsqualität von DeepL und die Auswertung der Fehler anhand einer festgelegten Evaluationsmetrik. Der Fokus liegt hierbei auf Identifikation und Diskussion von verschiedenen Fehlertypen im Zieltext. Im Fazit dieser Abhandlung werden die gesammelten Daten im Hinblick auf die Zukunft der maschinellen Übersetzung abschließend diskutiert.

2. Maschinelle Übersetzung

Der Begriff Maschinelle Übersetzung beschreibt die Anfertigung von Translationen unter Verwendung von automatisierten Übersetzungssystemen. Es wird grundsätzlich zwischen computergestützter und maschineller Übersetzung unterschieden. Computer aided translation (CAT, computergestützte Übersetzung) gehört inzwischen zum Alltag vieler Translatoren. Dabei wird eine Übersetzung mit Hilfe eines Computerprogramms angefertigt, welches in der Regel über ein Translation-Memory-System und eine Alignment-Funktion verfügt. Diese dienen dazu, die angefertigten Übersetzungen zu speichern und zu verwalten. Ein vorübersetzter Text wird in der Regel von einem Übersetzer nachträglich korrigiert (Post-Editing). Diese Computerprogramme werden als CAT-Tools bezeichnet und sind besonders gut für Softwarelokalisierung, aber auch andere Bereiche geeignet. Wird der Übersetzungsprozess jedoch gänzlich ohne menschliche Intervention durchgeführt, so handelt es sich um reine maschinelle Übersetzung (MÜ, engl. Machine Translation, MT). Online-Übersetzungsdienste wie DeepL oder GoogleTranslate basieren auf diesem Konzept: Nutzer haben die Möglichkeit, Inhalte zwischen zwei ausgewählten Sprachen zu transferieren.

Die bisherigen Reaktionen zu DeepL sind einerseits sehr positiv, so beschreibt zum Beispiel Stephan Finsterbusch in der FAZ die Überlegenheit des Online-Übersetzungsdienstes aus Köln gegenüber dem US-Riesen Google wie folgt: „Die Übersetzungen [von Google] sind gut, doch die von DeepL sind nach einigen Testversuchen, die diese Zeitung vor der Markteinführung von DeepL machen konnte, besser“ (Finsterbusch, 2017). Andererseits gibt es auch kritische Stimmen, wie die des Vizepräsidenten des Bundesverbandes der Dolmetscher und Übersetzer (BDÜ) Ralf Lemster. In einem Interview mit der Süddeutschen Zeitung sagt er: „Als wir DeepL zum ersten Mal gesehen haben, dachte wir: ,Uff, das ist gut.‘ Aber es bleibt doch eine Menge Nachbearbeitung. Wir haben das bei einem Auftrag mal getestet. Mit unserer aktuellen Ausstattung waren wir sogar ein bisschen schneller“ (Schwenkenbecher, 2019). Die Technologie der Maschinellen Übersetzung, welche zweifelsfrei die Welt der Translationen revolutionierte, hat sich bereits in vielen Bereichen etabliert und ist daher von großer Bedeutung für die künftige Entwicklung der Übersetzungswissenschaften.

2.1. Geschichte der maschinellen Übersetzung

Die gesamte Geschichte der maschinellen Übersetzung erstreckt sich lediglich von der ersten Hälfte des 20. Jahrhunderts bis in die Gegenwart. In kürzester Zeit wuchs der Fachbereich zu einem komplexen Wissenschaftszweig heran. In dieser Periode veränderte der technologische Fortschritt die Landschaft der maschinellen Übersetzung maßgeblich und offenbarte viele Hürden sowie neue Lösungskonzepte. Diese dynamische Entwicklung nahm ihren Anfang in den 30er Jahren des 20. Jahrhunderts.

In seinem Buch „Problem solving activities in post-editing and translation from scratch“ führt Jean Nitzke den Ursprung der maschinellen Übersetzung auf die Patentvergabe für zwei ähnliche MÜ-Konzepte in Russland und Frankreich zurück. Diese Ideen wurde jedoch erst einige Jahre später von Warren Weaver aufgegriffen und als konkretes Forschungsziel formuliert (vgl. Nitzke 2019:4). Im Jahr 1949 veröffentlicht Weaver sein bahnbrechendes Memorandum unter dem schlichten Titel „Translation“ und skizziert darin die ersten Ideen zur Theorie der Direkten Übersetzung. Er zeichnet die Grenzen der Methodik auf und definiert die Problematik der Mehrfachbedeutung als die größte Herausforderung der direkten Übersetzungsmethode. Zugleich verweist Weaver auch auf die Relevanz des Kontexts, dessen Analyse den oben genannten Sachverhalt positiv beeinflusst und zur Steigerung der Übersetzungsqualität führen kann. Des Weiteren vermutet er, dass es in allen Sprachen gewisse logische Merkmale gibt, die gleichwertig sind, bzw. dass Sprachen im Allgemeinen universale Komponenten enthalten. Auch die Verwendung einer Universalsprache wird als eine Möglichkeit zur Lösung der Problematik der Ambiguität dargestellt. Die Entwicklung der Kryptographie im zweiten Weltkrieg wird von Warren ebenfalls als bedeutend für den Fortschritt von MÜ beschrieben (vgl. Qun/Xiaojun 2015:105).

In den 50er Jahren etablieren sich drei theoretische Ansätze im Bereich der maschinellen Übersetzung. Zum einem ist es die direkte Übersetzung zwischen Ausgangs- und Zielsprache mit minimaler syntaktischer und semantischer Analyse. Zum anderen ist es die Interlingua­Methode, welche in zwei Schritten abläuft. Im ersten wird der Ausgangstext zu einer abstrakten Instanz (Interlingua) transferiert, woraus im zweiten Schritt der zielsprachlichen Text erstellt wird. Die dritte und letzte Methode ist die Transfer-Methode. Sie stellt eine verwandte Variante der Interlingua-Methode dar (vgl. Hutchins 2015:120). Diese Ansätze werden im weiteren Verlauf dieser Arbeit ausführlich besprochen (siehe Kapitel 2.4.1.1. Direkte Methode, 2.4.1.2. Interlingua Methode, 2.4.1.3. Transfer-Methode ).

Die Problematik der semantischen Ambiguität prägt dieses Jahrzehnt und festigt die Ansicht, dass „[...] der menschliche Eingriff in dem Prozess des Übersetzens nötig ist [...]“ (Lopuszanska 2019:147). Einige Wissenschaftler zweifeln, ob das Problem der Mehrdeutigkeit allein mittels eines Algorithmus bzw. einer Methode gelöst werden kann, und präsentieren ihre alternativen Lösungsansätze. Erwin Reifler von der University of Washington formuliert die Idee der Prä- und Post-Edition. Darin legt er die Aufgaben eines Prä- bzw. eines Post-Editors fest. Die syntaktische Vereinfachung des Ausgangstextes, sowie die Bestimmung der Wortklassen von polysemen Wörtern gehören zu den Aufgaben des Prä-Editors. Der Post­Editor überprüft und korrigiert ggf. die Übersetzung der einzelnen Wörter und passt die Syntax an die Zielsprache an. Dieses Konzept bildet das Fundament für zwei Verfahren (Prä- und Post­Editing), welche bis heute in ähnlicher Form praktiziert werden. Auf der ersten Konferenz für maschinelle Übersetzung im Jahr 1952 schlägt Oswald „[...] die Erstellung von Macro­Glossarien, in denen die Wörter nur bereichsspezifische Bedeutungen tragen würden als eine Lösung des Mehrdeutigkeitsproblems [...]“ (Lopuszanska 2019:147) vor.

Im Jahr 1954 gibt es einen ersten Durchbruch - Mitglieder des Institute of Linguistics der Georgetown University und diverse IBM-Mitarbeiter veröffentlichen die Ergebnisse ihres Projektes in Form eines funktionsfähigen Systems für maschinelle Übersetzung. Hierbei fungieren die von Weaver formulierten Grenzen und Möglichkeiten eines MÜ-Systems als Forschungsgrundlage. Der erste zu übersetzende Text besteht aus 49 Sätzen und wird unter Berücksichtigung von lediglich sechs grammatischen Regeln vom Russischen ins Englische übersetzt. Dieses Ereignis wird als großer Erfolg gefeiert und führt global zum wachsenden Interesse an maschineller Übersetzung. Plötzlich fließen auch mehr Gelder in die Forschung und verstärken die Dynamik der Entwicklung. Die anfängliche Euphorie nimmt mit neuen Erkenntnissen jedoch schnell ab, da die Problematik der semantischen Ambiguität parallel zur linguistischen Komplexität wächst und Forschende keine zufriedenstellenden Lösungsansätze entwickeln (vgl. Qun/Xiaojun 2015:106).

Der im Jahr 1966 veröffentliche ALPAC-Report stellt eine Zäsur in der Geschichte der maschinellen Übersetzung dar. Zwei Jahre zuvor wird das Automatic Language Processing Advisory Committee (ALPAC) von der National Academy of Sciences of the United States ins Leben gerufen. Das Ziel des Komitees ist es, die bestehenden MÜ-Systeme kritisch zu bewerten und eine Kosten-Nutzen-Rechnung durchzuführen. Die Ergebnisse sind katastrophal für die Forschung an MÜ-Systemen: es wird festgestellt, dass maschinelle Übersetzung im Vergleich zur traditionellen manuellen Übersetzung keine Kosten einspart und nur bedingt qualitativ wertvolle Ergebnisse liefert. Im Fazit der ALPAC-Untersuchung heißt es: „there is no immediate or predictable prospect of useful maschine translation” (ALPAC 1966; zit. n. Qun/Xiaojun 2015:106). Die Forschungsgelder werden daraufhin fast vollständig gestrichen, was die Entwicklung von MÜ in den Vereinigten Staaten praktisch zum Stillstand bringt. Die US-Linguisten und -Sprachwissenschaftler widmen sich nun eine Dekade lang der Entwicklung und Verbesserung von anderen translatorischen Hilfsmitteln, wie z.B. maschinellen Wörterbüchern. Glücklicherweise geschieht dies nur in den USA. In Europa, Japan und Russland wird weiterhin fleißig an MÜ-Systemen geforscht (vgl. Qun/Xiaojun 2015:106f).

Die politischen und wirtschaftlichen Entwicklungen der 70er Jahre erzeugen eine große Nachfrage nach MÜ-Systemen. Der Fokus der US-Wissenschaftler liegt damals auf Übersetzungen von technischen Texten aus dem Russischen ins Englische. Die Verschärfung des Konfliktes zwischen den USA und der Sowjetunion mobilisiert die Wissenschaft zu weiteren Entwicklungen. In Kanada steigt die Nachfrage nach MÜ-Systemen aufgrund der bilateralen Politik des Staates. Auch innerhalb der europäischen Gemeinschaft gibt es einen Mehrbedarf an Übersetzungen zwischen vielen unterschiedlichen Sprachen. Hutchins beschreibt den Trend in der Forschung der Maschinellen Übersetzung der 70er Jahre wie folgt: „The demand is now for cost-effective machine-aided translation systems which can deal with commercial and technical documentation in the principal languages of international commerce” (Hutchins 2015:123). Zu den prominentesten Entwicklungen dieses Jahrzehntes gehören zweifellos Meteo und Systran. Das erste MÜ-System wird an der Universität in Montreal entwickelt und dient in ganz Kanada zur Übersetzung von Wettervorhersagen aus dem Englischen ins Französische. Die Anwendung eines begrenzten Wortschatzes und einer vereinfachten Syntax sorgen für einen großen Erfolg. Meteo wird erst im Jahr 2001 von einem besseren System abgelöst. Systran entsteht um das Jahr 1970 im Rahmen eines Projektes an der Georgetown University unter der Leitung von Petr Toma. Zu den wichtigsten Kunden von Systran gehören damals die US Air Force, NASA und die Europäische Kommission (vgl. Hutchins 2015:122).

In den 80er Jahren fokussiert sich der Blick der Sprachwissenschaftler auf Transfer­Systeme, Interlingua-Systeme und korpusbasierte Systeme. Die erste Hälfte des Jahrzehnts wird von Interlingua-Systemen dominiert. Aufgrund von Misserfolgen der direkten Methode „hoffte [man], dass die Verwendung der indirekten Interlingua-Methode, die auf dem Übersetzen via eine universale und abstrakte Repräsentation der Bedeutung basiert, zu einer weniger wörtlichen Übersetzungen [!] führt“ (Lopuszanska 2019:152). Die Groupe d'Etudes pour la Traduction Automatique (GETA) aus Grenoble entwickelt ein in den 80er Jahren beliebtes und einflussreiches Transfer-System namens Ariane. Insbesondere sind es die Flexibilität und Modularität des Systems, welche für große Popularität sorgen. Obwohl Ariane vielen anderen Projekten als Vorbild dient, kommt es nicht zu einem kommerziellen Erfolg. Nichtsdestotrotz bilden die Erkenntnisse aus diesem Projekt die Grundlage für ein neues, besseres System. Im Rahmen des Eurotra- Projekts der Europäischen Gemeinschaft wird ein MÜ-System entwickelt, das unter Berücksichtigung von lexikalischen, semantischen und syntaktischen Informationen zwischen mehreren Sprachen übersetzen kann. Die dominante Position der Transfer- und Interlingua-Systeme in der Landschaft der maschinellen Übersetzung in den späten 80er Jahren wird durch die dynamische Entwicklung von korpusbasierten Systemen geschwächt. Bedeutend in dieser Phase sind die Forschungen von IBM zur statistischen maschinellen Übersetzung in den USA, sowie die Recherchen zu den beispielbasierten Systemen in Japan. Der technologische Fortschritt sorgt für neue Ansätze: die Verwendung von Rechnern kombiniert mit dem Einsatz von großen Korpora eröffnet Türen zu völlig neuen Arbeitsmethoden (vgl. Qun/Xiaojun 2015:108f).

Trotz den zahlreichen Entwicklungen und neuen Ansätzen ist die Mehrheit der Übersetzer weiterhin unzufrieden mit der Output-Qualität vieler MÜ-Systeme. In den 90er Jahren wird die Forderung nach nutzerorientierten Systemen immer lauter. Der Wunsch nach einem System, welches gefertigte Übersetzungen speichert und wiederverwendet, Qualität der Übersetzung analysiert, die Erstellung von Glossaren und Terminologiedatenbanken ermöglicht und mehrere Sprachen bedient, führt zur Entwicklung von Translation Memory Systemen (vgl. Hutchins 2015:127). Die Einführung von Online-Übersetzungsservices stellt eine weitere zukunftsweisende Entwicklung des Jahrzehnts dar. Mit der Inbetriebnahme des von Systran und AltaVista entwickelten Systems namens Bable Fish am 9 Dezember 1997 wird die erste kostenlose Plattform für maschinelle Übersetzung der Öffentlichkeit zur Verfügung gestellt. Dies läutet eine neue Epoche der automatischen Translation ein (vgl. Nitzke 2019:5f). Manche der Forschungsgebiete der 90er Jahre sind jedoch weniger erfolgreich. So beschäftigt man sich im Rahmen des Rosetta Project im Jahr 1994 mit der Problematik der Idiomatizität. Es gelingt den Wissenschaftlern, Idiome mit Hilfe eines MÜ-Systems korrekt zu übersetzen, indem „[...] die Sätze während der Analyse zum Indikativ umgewandelt und die Verben zu ihrer Standardform zurückgebracht wurden“ (Lopuszanska 2019:149). Des Weiteren spielt hierbei die Anwendung komplexer grammatischer Regeln eine wichtige Rolle für die richtige Zuordnung von korrekten Übersetzungen. Gleichzeitig führt es dazu, dass vollständige Übersetzungen nicht möglich sind (vgl. Lopuszanska 2019:149). Die Nachfrage nach kommerziellen maschinellen und maschinengestützten Übersetzungssystemen wächst stetig, da immer mehr Unternehmen aus wirtschaftlichem Interesse an innovativen Lösungsansätzen interessiert sind. Zugleich etabliert sich die Ansicht, dass MÜ-Systeme und maschinelle Übersetzungshilfen am Arbeitsplatz eines Übersetzers integriert werden sollen. Mit dem Beginn des neuen Jahrtausends und im Zuge der Globalisierung gewinnen auch andere Sprachen, wie z.B. Chinesisch, Koranisch oder Arabisch stark an Bedeutung (vgl. Krenz/Ramlow 2008:35f).

Der globale Informationsaustausch, der im neuen Jahrtausend durch die stets bessere Internetverfügbarkeit ermöglicht wird, begünstigt das Wachstum von Online-Korpora, die die Grundlage der korpusbasierten maschinellen Übersetzung bilden. Der Erscheinung von Apps und Social-Media im neuen Jahrtausend führt zu einem „Technology Push“, welcher aus der rasanten Entwicklung von neuronalen Netzwerken resultiert. Im Jahr 2007 entwickelt Google ein selbstlernendes Übersetzungssystem, das auf der statistischen Methode fußt. Dieses Modell wird mit der Zeit um die beispielbasierte Methode Phrase-based Machine Translation (PBMT) erweitert, die auf dem Vergleich mehrerer aufeinanderfolgender Wörter basiert. Dies impliziert zugleich, dass „[...] der Kontext zu einem geringen Grad berücksichtigt wird [...]“ (Schmalz, 2019:198).

Die aktuell populärste Methode ist die neuronale MÜ. Dieser Ansatz hatte seine Anfänge bereits in den 1980er Jahren, die richtigen Erfolge ließen jedoch bis in die zweite Hälfte der 2000er Jahre auf sich warten. Die Verbindung von neuronalen Sprachmodellen mit klassischen statistischen MÜ-Systemen führt zu einer beträchtlichen Verbesserung der Übersetzungsqualität (vgl. Koehn, 2020:39).

Insgesamt kann man feststellen, dass die MÜ viele Jahre lang ein vornehmlich forschungsorientiertes Projekt war, das im Laufe der Zeit auch in der Übersetzungspraxis an Bedeutung gewonnen hat und heute zu einem kommerziellen Produkt geworden ist (Krenz/Ramlow 2008:36).

2.2. Zweck und Anwendung der maschinellen Übersetzung

Das menschliche Bedürfnis, zwischen unterschiedlichen Sprachen oder Kommunikationssystemen hin- und her zu übersetzen, ist so alt wie die Sprache selbst. Das Interesse an Übersetzungen wird aktuell ständig größer. Diese Entwicklung steht eng im Zusammenhang mit der Globalisierung sowie ihren sozio-ökonomischen und politischen Folgen. Kombiniert man also das uralte Grundbedürfnis des Menschen, Informationen zwischen Sprachen zu transferieren, mit der Vielzahl der potenziellen Kunden weltweit, so ergibt sich eine Unzahl an Übersetzungsaufträgen. Diese können aber unmöglich in absehbarer Zeit von menschlichen Translatoren übersetzt werden. Daraus ergibt sich eine Reihe unterschiedlicher Zwecke und Anwendungen für maschinelle Übersetzung, die nun näher beleuchtet wird.

Der Einsatz von MÜ-Systemen kann viele Gründe haben. Zuerst ist der wirtschaftliche Nutzen zu nennen, da eine manuell angefertigte Übersetzung in der Regel teurer und zeitaufwändiger ist und die Qualität einer menschlichen Übersetzung nicht immer notwendig ist. So wird häufig Produktdokumentation wie z.B. die Bedienungsanleitung mittels MÜ in die Zielsprache übersetzt. Dabei meidet der Auftraggeber hohe Kosten und das Risiko einer Verzögerung (vgl. Krenz/Ramlow, 2008:25). Hersteller, die ihre Produktunterlagen in mehreren Sprachen erstellen und entsprechend der technologischen Entwicklung eines einzelnen Produktes hin und wieder aktualisieren müssen, verwenden häufig maschinelle Translationssysteme zum Übersetzen von Dokumentationen. Dies trifft insbesondere zu bei Herstellern mit kleinem Budget für Übersetzungen, bzw. mit allgemein niedrigen Produktionskosten (vgl. Poibeau, 2017:224). Schmalz weist jedoch darauf hin, dass die Qualität maschineller Übersetzung für viele Zwecke nicht ausreichend sei und der menschliche Eingriff in Form des Post-Editings vorgenommen werden muss.

Wird eine automatische Übersetzung im kommerziellen, politischen oder juristischen Umfeld genutzt, ist es für die Außendarstellung eines Unternehmens wünschenswert oder rechtlich sogar nötig, dass die Übersetzung vollständig korrekt ist. [...] Hier müssen menschliche Übersetzerinnen und Übersetzer den Text in jedem Fall nachbearbeiten (Schmalz, 2019:196).

Online-Übersetzungsdienste wie GoogleTranslate oder DeepL haben trotzdem im letzten Jahrzehnt viel an Popularität gewonnen, da sie eine einfache Lösung anbieten. Mittels weniger Klicks wird eine verständliche Übersetzung erstellt. Diese Onlinedienste vereinfachen die tägliche Kommunikation zwischen Millionen von Nutzern weltweit. Des Weiteren erleichtern die oben genannten Online-Übersetzungsdienste das Surfen im Internet: ganze Internetseiten lassen sich schnell in eine gewählte Zielsprache übersetzen, damit Nutzer auch bei ausländischen Anbietern einkaufen und bestellen können. Der erleichterte Zugang zu Wissen und Information aus Fachkreisen stellt einen Sonderfall dar. Da Englisch als Sprache der Wissenschaft gilt, können zahlreiche Veröffentlichungen mit Hilfe Maschineller Übersetzung in die vom Nutzer gewählte Zielsprache übertragen werden (vgl. Schmalz, 2019:197).

Eine besondere Form der MÜ-Anwendung stellt das Gisting -Konzept dar. Dieses wird durch nicht vollständig korrekte zielsprachliche Übersetzungen charakterisiert, die jedoch genügend Auskunft über den Inhalt des Ausgangstextes zum allgemeinen Textverständnis liefern. Gisting findet vorrangig im Internet statt. Zu den prominentesten Plattformen gehören u.a. Facebook, wo unter Anwendung der MÜ von Microsoft Bing der zu übersetzende Inhalt entsprechend den Spracheinstellungen des Nutzers übertragen wird. Ein weiteres Beispiel für die Anwendung von Gisting ist die Plattform TripAdvisor, welche zum Übersetzen GoogleTranslate verwendet. Die Lokalisierung mit Hilfe dieses Konzepts ist kostengünstig und schnell und wird daher ebenfalls von Kleinunternehmen oder kommunalen Institutionen bevorzugt (vgl. Nitzke, 2019:11).

Die MÜ spielt auch eine bedeutende Rolle für den Fortschritt in Forschungsbereichen wie z.B. Informatik, Computerlinguistik oder Künstliche Intelligenz. Die Untersuchung von kognitiven menschlichen Fähigkeiten wie Denken und Lernen zum Zwecke ihrer Reproduktion und Anwendung im maschinellen Übersetzungsprozess liefert viele neue Erkenntnisse für die Erforschung von KI. Die Ergebnisse der wissenschaftlichen Untersuchungen zum Thema automatisiertes Denken haben auch einen Einfluss auf die Beantwortung der philosophischen Frage, inwiefern kognitives Denken maschinell nachgeahmt werden kann (vgl. Krenz/Ramlow 2008:25f).

In seinem Werk „Statistical Machine Translation“ (2010) teilt Philipp Koehn die Zweckmäßigkeit der maschinellen Übersetzung in drei grundlegende Bereiche auf. Eine Übersetzung, die das Ziel hat, eine ausgangssprachliche Information verständlich in die Zielsprache zu transferieren, bezeichnet Koehn als assimilation. Die Steigerung hiervon heißt dissemination und bezeichnet die Übersetzung von Texten, die veröffentlicht werden sollen bzw. eine öffentliche Funktion haben. Die dritte Kategorie wird von Koehn als communication bezeichnet und bezieht sich auf die Übersetzung von E-Mails, privaten Nachrichten, usw. Der Autor weist zugleich daraufhin, dass die Dauer der Erstellung eines zielsprachlichen Textes, sowie seine Qualität in allen drei Kategorien unterschiedlich sind (vgl. Koehn, 2010:20).

MÜ wird auch nicht zuletzt von professionellen Übersetzern eingesetzt. Gesa Büttner beschreibt die Anwendung von MÜ-Systemen durch Übersetzer in ihrem Buch „Dolmetschvorbereitung digital“ in Anlehnung an die Untersuchungsergebnisse von Rudy Tirry (European Language Industry Survey) aus dem Jahr 2019. Das daraus resultierende Bild zeigt klar, dass MÜ-Systeme im Allgemeinen sehr populär in der translatorischen Branche sind, jedoch weniger als 20% der professionellen Übersetzer sie zum Vorübersetzen verwenden. Die allgemeine Stimmung in der Branche bzgl. des technologischen Fortschritts der MÜ lässt sich als positiv beschreiben (vgl. Büttner, 2021:29ff).

2.3. Probleme der maschinellen Übersetzung

Das breite Spektrum an Einsatzmöglichkeiten eines MÜ-Systems beherbergt zugleich eine ganze Menge an verschiedenen Problemen, die innerhalb des translatorischen Vorgangs auftreten können. Es gilt einige Punkte zu beachten, um die Qualität der Übersetzung zu steigern. Im Allgemeinen kann man davon ausgehen, dass eine Vorbereitung (Pre-Editing) und Nacharbeitung (Post-Editing) des Textes die Anzahl der durch das Systems gemachten oder übersehenen Fehlern reduzieren. Ein weiterer wichtiger Punkt ist die Einschränkung des Fachgebietes, „weil die domänenspezifischen Texte durch bestimmte Normen regiert werden, die auch eine bestimmte Grammatik und einen bestimmten Stil aufzwingen“ (Lopuszanska, 2019:153). Im Folgenden werden die wichtigsten und häufigsten linguistischen Phänomene, die es zu vermeiden gilt, erläutert und vereinzelte Lösungsansätze zur Fehlerreduktion dargestellt.

Das wohl am häufigsten vorkommende sprachliche Phänomen, das die Qualität einer maschinellen Übersetzung beeinträchtigen kann, ist die Ambiguität. Hierbei unterscheidet man zwischen der lexikalischen und der syntaktischen Ambiguität. Die Mehrfachbedeutung auf lexikalischer Ebene kommt immer dann vor, wenn ein Wort mehrere Bedeutungen hat, oder verschiedenen Wortarten gleichzeitig zugeordnet werden kann, sodass das System dies zunächst ermitteln muss. Man spricht hierbei von Homographie und Polysemie. Homographie beschreibt im Allgemeinen Wörter, die trotz der gleichen Schreibweise, gänzlich andere Konzepte umfassen, meist eine andere Herkunft haben und manchmal auch verschiedenen Wortarten angehören. Die Lösung des Problems kann zum Teil durch Analyse der Syntax gefunden werden, da manche Wortarten in bestimmten Satzgebilden konkrete Positionen einnehmen müssen (vgl. Austermühl, 2001:170f). Siehe die folgenden Beispiele für diverse Homographen:

Das Spielende wurde nach zwei Stunden erreicht. (Nomen)

Erwachsene mögen spielende Kinder. (Adjektiv)

Ich schleife ein Stück Holz. (Verb)

Die blaue Schleife passt gut zum Kleid. (Nomen)

Die erste Runde ging an den Gegner. (Nomen)

Magst du runde Tische? (Adjektiv)

Das zweite Phänomen, das auf der lexikalischen Ebene vorkommt, ist die Polysemie. Hierbei handelt es sich um Wörter, die derselben grammatischen Kategorie angehören, häufig gemeinsame Wurzeln, jedoch eine andere semantische Bedeutung haben (vgl. Austermühl, 2001:171). Siehe Beispiele:

Beispielsatz 1: Ich sitze in der Bank. (Geldinstitut)

Beispielsatz 2: Ich sitze auf der Bank. (Sitzgelegenheit)

Beispielsatz 3: Die Bank am Fluss ist der Treffpunkt. (ungenau) Beispielsatz 4: In der Hauptstraße gibt es eine neue Bank. (ungenau)

Dieses Problem kann in der Regel durch die Einarbeitung von zusätzlichen Kontextinformationen ins System gelöst werden. Wenn der vorliegende Text z.B. von Finanzen handelt, ist es wahrscheinlicher, dass die Person im Beispielsatz 3. ein Geldinstitut meint. Im Falle eines Liebesromans würde man tendenziell von einer Sitzgelegenheit am Fluss ausgehen. Die syntaktische Ambiguität beschreibt Satzstrukturen (häufig Präpositionalsätze), die ohne die notwendige Kontextinformation unterschiedlich interpretiert werden können (vgl. Austermühl, 2001:171f). Siehe Beispielsatz:

Ich sehe eine Katze auf dem Hügel mit einem Teleskop.

Ich habe den Sohn des Nachbars mit dem Gewehr getroffen.

Die Idiomatizität stellt ein weiteres wichtiges linguistisches Phänomen dar. Sie wird auch als Redewendung, Phraseologismus oder Idiom bezeichnet und bildet die Sonderform einer Kollokation. Idiome sind Verbindungen von mehreren Wörtern, deren Bedeutung sich in der Regel nicht von der Bedeutung der einzelnen Komponenten ableiten lässt. Es ist sehr schwierig, bis hin zu unmöglich, Redewendungen mittels MÜ zu übersetzen, daher müssen diese als einzelne Übersetzungseinheiten angesehen werden und im Prozess des Pre-Editings ersetzt, vorübersetzt oder anderweitig kenntlich gemacht werden. Glücklicherweise ist die Anwendung von Idiomen in Fachtexten eher unüblich, da eine falsche Übersetzung zu absurden Ergebnissen führen kann (vgl. Austermühl, 2001:171f). Um die genannten Schwierigkeiten zu vermeiden, wurden unterschiedliche methodische Ansätze zur Erstellung von Maschinellen Übersetzungen entwickelt, welche im nächsten Kapitel beleuchtet werden.

2.4. Methoden der maschinellen Übersetzung

2.4.1. Regelbasierte Methoden

Das Fundament der regelbasierten maschinellen Übersetzung, auch als wissensbasierte maschinelle Übersetzung bekannt, stellen die morphologischen, semantischen, syntaktischen und kontextbezogenen Informationen bezüglich des Ausgangs- als auch des Zieltextes dar. Diese werden während der grammatischen Analyse und bei der Suche nach zielsprachlichen Äquivalenten in den verknüpften Wörterbüchern berücksichtigt. Dies ist das grundlegende Prinzip, auf dem die drei regelbasierte Methoden aufgebaut werden: die Direkte Methode, die Interlingua-Methode und die Transfer-Methode. Alle drei Modelle funktionieren unter der linguistischen Prämisse, dass eine ausgangssprachliche Analyse und eine zielsprachliche Synthese durchgeführt werden müssen. Abhängig von der Methode und der Sprachkombination unterscheidet sich die ausgangsprachliche Untersuchung in ihrem Umfang und ihrer Genauigkeit. Die resultierenden Ergebnisse stellen in jedem Fall die Grundlage für die zielsprachliche Synthese dar. Im Folgenden werden die drei Methoden der regelbasierten maschinellen Übersetzung näher erläutert (vgl. Shiwen/Xiaojing, 2015:186f).

[...]

Ende der Leseprobe aus 60 Seiten

Details

Titel
Rolle der maschinellen Übersetzung im Übersetzungsprozess. Kritische Untersuchung anhand von "DeepL" und Evaluation der Übersetzungsqualität
Hochschule
Ruprecht-Karls-Universität Heidelberg  (Institut für Übersetzen und Dolmetschen)
Note
1,7
Autor
Jahr
2021
Seiten
60
Katalognummer
V1159881
ISBN (Buch)
9783346559869
Sprache
Deutsch
Schlagworte
Maschinelle Übersetzung, DeepL, Übersetzungsqualität, Translation, Evaluation übersetzter Texte, Neuronale Maschinelle Übersetzung
Arbeit zitieren
Pawel Trybulski (Autor:in), 2021, Rolle der maschinellen Übersetzung im Übersetzungsprozess. Kritische Untersuchung anhand von "DeepL" und Evaluation der Übersetzungsqualität, München, GRIN Verlag, https://www.grin.com/document/1159881

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Rolle der maschinellen Übersetzung im Übersetzungsprozess. Kritische Untersuchung anhand von "DeepL" und Evaluation der Übersetzungsqualität



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden