Internationale Differenzen in der Filmsynchronisation im Vergleich mit Deutschland


Bachelorarbeit, 2014

66 Seiten, Note: 2.0


Leseprobe


Inhaltsverzeichnis

Abstract

Abbildungsverzeichnis

1 Einleitung

2 Verarbeitung von Audiosignalen
2.1 Wie entsteht „Ton“?
2.2 Das menschliche Hörorgan

3 Filmsynchronisation allgemein
3.1 Begriff: Filmsynchronisation
3.2 Translationsmöglichkeiten
3.2.1 Synchronisation
3.2.2 Voice Over
3.2.3 Off-Stimme
3.2.4 Untertitel
3.2.5 Hybrid
3.2.6 Vor- und Nachteile von Synchronisation und Untertiteln
3.3 Wie wirdsynchronisiert?
3.4 Vom Stummfilm zum Tonfilm
3.5 Entwicklung des Filmtons (mit Schwerpunkt Deutschland)
3.6 Entwicklung der Synchronisation (mit Schwerpunkt Deutschland)

4 Aufwand und Übersetzung in Deutschland
4.1 Aufwand und Budget
4.2 Die Übersetzung

5 Internationaler Vergleich
5.1 Europa
5.1.1 Norwegen
5.1.2 Polen
5.1.3 Frankreich
5.1.4 Italien
5.2 Asien
5.2.1 Japan
5.2.2 Indien
5.3 Amerika
5.3.1 USA
5.3.2 Venezuela

6 Schlussbetrachtung

Literaturverzeichnis

Abstract

This Bachelor thesis is about “dubbing” in different countries in comparison to dubbing in Germany. It is said that Germany has one of the most developed dubbing, and this thesis shall give an indication on wether this statement is correct or not, including an explanation. Therefore this thesis will include a definition of „dubbing“ itself and a des­cription of the procedures - dubbing, voice over, subtitles and more. Moreover it will be explained how human hearing works so that they are able to receive dubbing. The es­sential part of the thesis will be the presentation of the way of “dubbing” in chosen ex­ample countries (Norway, Poland, France, Italy, Japan, India, the USA and Venezuela) to draw a comparison to Germany. In this context its development from its beginning to the present will be described, focusing Germany.

Abbildungsverzeichnis

Abbildung 1: Das Gehör

1 Einleitung

Heutzutage ist es für Deutsche vollkommen normal, dass sie alle Filme und Serien in ihrer Muttersprache sowohl im Fernsehen als auch im Kino zu sehen bekommen. Es wird kaum hinterfragt, aus welchen Gründen dies in Deutschland so ist oder wie Filme in anderen Ländern gezeigt werden, denn man ist damit aufgewachsen. Also ist es in den Augen des deutschen Publikum nichts Besonderes.

In dieser Bachelorarbeit soll darauf eingegangen werden, wie sich die Synchronisation seit ihrer Entwicklung bis heute verändert hat. Spezifisch sollen dabei ausgewählte Länder erläutert werden. Dadurch soll untersucht werden, welche Übersetzungsverfah­ren es für den Film gibt und aus welchen Gründen sie in den jeweiligen Ländern ange­wendet werden.

Immer wieder hört man, dass Deutschland der führende Markt in der Synchronisation sei. Diese wissenschaftliche Arbeit soll Aufschluss darüber geben, ob dem wirklich so ist und wie sich die Marktführung begründet. Zudem soll ein Vergleich zu anderen Län­dern erstellt werden, um herauszufinden welche Qualität der Filmsynchronisation ande­re Länder aufweisen und wie diese in Relation zu Deutschland steht.

Dazu soll zu Beginn erläutert werden, wie der Mensch überhaupt fähig ist, den Ton, die Synchronisation wahrzunehmen und wie er entsteht. Ebenfalls soll aufgezeigt werden, welche Synchronisationsverfahren weltweit verbreitet und bekannt sind, wie der Ton­film entstanden ist und wie die Synchronisation ihren Weg in den Film fand. Wie ein Synchronisationsprozess verläuft und was dabei zu beachten ist, wird natürlich nicht außer Acht gelassen. Zudem soll auf die Ansprüche der Übersetzung in Deutschland und das nötige Budget angesprochen werden.

2 Verarbeitung von Audiosignalen

Damit wir Synchronisation, O-Töne und generell Sprache überhaupt wahrnehmen kön­nen, gibt es eine Grundvoraussetzung: das Hören - das Wahrnehmen und Verarbeiten von audiovisuellen Eindrücken. In den folgenden Kapiteln sollen diese Voraussetzun­gen - wie Töne entstehen und vom Menschen aufgenommen werden - näher erläutert werden.

2.1 Wie entsteht „Ton“?

Die Grundlage für die Arbeit und die Erzeugung mit Ton sind Schwingungen und Wel­len. Eine Schallquelle erzeugt Schwingungen, dabei sendet sie Schallwellen aus. Die­se Schallwellen werden durch das Mikrofon in elektrische Schwingungen umgewan­delt, bearbeitet und schließlich durch die Lautsprecher wieder in Schallwellen gewan­delt.

Als Schwingungen werden im allgemeinen Vorgänge bezeichnet, welche sich nach ei­niger Zeit wiederholen. Man unterscheidet periodische und nicht periodische Schwin­gungen. Die periodischen Schwingungen wiederholen sich regelmäßig in einem be­stimmten Zeitintervall, nicht periodische Schwingungen besitzen diese Eigenschaft nicht. Schwingungen können in unterschiedlichen Formen auftreten. Das Hin und Her eines Uhrpendels stellt ebenso eine Schwingung dar wie das Auf und Ab eines Motor­kolbens oder im Falle des Schalls das Schwingen von Luftteilchen. Die periodischen Schwingungen werden dabei in gedämpft und ungedämpft geteilt. Gedämpft sind die Schwingungen, die sich nach Antritt langsam wieder in den Ruhezustand versetzen, beispielsweise ein Faden, der angestoßen wurde. Eine ungedämpfte Schwingung schwingt ungebremst weiter wie beispielsweise ein Uhrpendel.1

Die oben genannten Luftteilchen werden durch Schall zu Schwingungen angeregt, wo­durch sie die benachbarten Luftteilchen ebenfalls in Bewegung setzen. Aufgrund des­sen entstehen Druckschwankungen, welche vom menschlichen Ohr wahrgenommen werden können. Je größer diese Druckschwankungen (Schalldruck) sind, umso lauter wird das Schallereignis empfunden. Je schneller diese Druckschwankungen aufeinan­ derfolgen, beziehungsweise je höher die Anzahl der Schwingungen pro Sekunde ist, desto höher wird derTon wahrgenommen.2

Als Schwingung werden auch Wellen bezeichnet, die sich im Raum ausbreiten. Diese transportieren die Energie einer Schwingung über eine bestimmte Entfernung. Die be­kanntesten Vertretervon Wellen sind Licht-, Radio- und die Schallwellen.

Wellen und Schwingungen besitzen Kenngrößen. Zu diesen zählen Frequenzen, Am­plituden und Wellenlängen. Die Frequenz gibt an, wie oft sich derVorgang des Schwin­gens innerhalb eines bestimmten Zeitintervalls wiederholt und wird allgemein in Schwingungen pro Sekunde angegeben.3 Die Amplitude gibt an, wie weit sich das schwingende Objekt von seiner Ruhelage entfernt. Die Ruhelage ist dabei der Punkt, an dem sich beispielsweise ein Uhrpendel befindet, wenn die Uhr steht.4 Der Abstand zwischen zwei Punkten mit gleicher Amplitude wird als Wellenlänge bezeichnet. Dies bezeichnet den Abstand zwischen zwei Wellenbergen oder -talern. Die Wellenlänge verringert sich mit steigender Frequenz.5

Der Mensch ist in der Lage Schallwellen von circa 16 Hz bis 20 kHz wahrzunehmen.6 Verursacht werden Töne durch Quellen wie zum Beispiel die menschliche Stimme, Musikinstrumente, die Natur oder bewegte Gegenstände.

2.2 Das menschliche Hörorgan

Die oben erläuterten Schallwellen nehmen die Menschen über das Ohr wahr. Als die­ses wird im allgemeinen Sprachgebrauch lediglich die äußere, sichtbare Ohrmuschel bezeichnet. Der Mediziner hingegen fasst das Ohr in seiner Gesamtheit auf - das Au­ßen-, Mittel- und Innenohr. Die Ohrmuschel selbst hat nur eine geringe Bedeutung für die Hörfunktion. Sie hilft lediglich bei der Differenzierung von Richtungen, aus denen derTon kommt - rechts, links, vorne oder hinten.7

Wenn der Schall an der Ohrmuschel eindringt, wird er über den Gehörgang bis zum Trommelfell weitergeleitet. Dadurch beginnt das Trommelfell zu vibrieren und leitet den Schall ins Mittelohr weiter, zu den Gehörknöchelchen (Hammer, Amboss, Steigbügel). Der Hammer wird durch die Vibration zum Schwingen angeregt und überträgt und ver­stärkt den Schall auf Amboss und Steigbügel, wovon letzterer die Verbindung durch das ovale Fenster zum Innenohr darstellt. Die drei Gehörknöchelchen verstärken den Schall insgesamt um das Zwanzigfache, damit eine Weiterleitung an das Innenohr ge­währleistet wird. Das ovale Fenster besteht aus einer hauchdünnen Membran, welche durch die vorangegangene Bewegung ebenfalls in Schwingungen versetzt wird. Diese wiederum leitet die Schwingungen erneut weiter, dieses Mal an die Flüssigkeit, die sich in der Hörschnecke befindet, welche an das ovale Fenster angrenzt. Durch die erzeug­ten Wellenbewegung dieser Flüssigkeit werden sich in der Schnecke befindliche, feine Härchen, ebenfalls in Bewegung versetzt. Ist der Schall dort angekommen, entstehen Nervenimpulse, welche vom Hörnerv an das Gehirn gesendet werden. Dort erst findet das eigentliche Hören statt, nachdem das Signal vom Gehirn ausgewertet wurde.8 9

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Das Gehör

3 Filmsynchronisation allgemein

„Synchronisation ist einer der wunderbarsten Jobs, die man ausüben kann. Als Schauspieler kann man in Rollen schlüpfen, die man so nicht angeboten bekommt, also in Deutschland zumindest nicht, und man ist ein Teil (wenn man denn einen spricht) eines Stars und das ist schon eine tolle Sache, wenn man dann ab und zu mal im Kino oder Fernsehen den Schau­spieler mit seiner eigenen Stimme hört.“

Der Begriff „Filmsynchronisation“ ist in Deutschland heutzutage sehr geläufig. Auslän­dische Filme werden mit deutschen Übersetzungen von deutschen Stimmen neu ein­gesprochen. Was sich jedoch noch alles hinter dem Begriff verbirgt, ist nicht jedem be­wusst. Der Begriff „Synchronisation“ soll daher in diesem Kapitel aufgeschlüsselt wer­den.

Hierbei soll auf folgende Fragen eingegangen werden: Was bedeutet Filmsynchronisa­tion, was findet in diesem Prozess statt und wie? Wer ist dabei alles mit eingebunden und wie hat sich die Synchronisation seit ihrer Geburt bis 2014 verändert? Welche Ver­fahren der Synchronisation verbergen sich hinter diesem Begriff?

3.1 Begriff: Filmsynchronisation

Wenn in Deutschland der Fernseher eingeschaltet wird, werden Filme und Serien auf Deutsch gezeigt, unabhängig davon ob es nationale oder internationale Produktionen sind. Für die Deutschen ist dies selbstverständlich geworden, denn sie wachsen damit auf. Was zumeist erst ab einem gewissen Alter aktiv wahrgenommen wird, ist, dass all diese ausländischen Produktionen eigentlich in den jeweiligen Landessprachen ge­dreht wurden. Damit die Ausstrahlungen in ihrer Muttersprache gezeigt werden kön­nen, müssen sie zunächst übersetzt werden. An dieser Stelle tritt die Filmsynchronisa­tion in Kraft. Sie ist das „Mittel zur Übertragung ausländischer Filme in die eigene Spra­che.“10 Außerdem stellt die Synchronisation ein Verfahren dar, in dem der Originalton aus kommerziellen, künstlerischen oder technischen Gründen durch eine neue Spur ersetzt wird. Diese neue Spur wird anschließend mit den vorhandenen Bildsequenzen gekoppelt, um einen realen Spracheindruck zu erzeugen.11

In der Filmsynchronisation sprechen Muttersprachler, in die zu übersetzende Sprache, über den originalen Ton drüber. Es wird angestrebt, dass diese Aktion möglichst Lip­pensynchron verläuft, damit dem Zuschauer im Nachhinein nicht auffällt, dass die spre­chende Stimme nicht die aus dem Original ist. Die Muttersprachler sind der wichtigste Faktor in der Synchronisation. Sie sind in der Regel ausgebildete Schauspieler oder Sprecher und verleihen dem Kunstwerk sinnlich und fassbar Lebendigkeit.12 In einigen Fällen synchronisieren unausgebildete Personen wie zum Beispiel Sänger oder Komö­dianten. Dabei handelt es sich um Ausnahmen, die häufig in Kinderfilmen oder Komö­dien Vorkommen. Es ist zu vermuten, dass der Bekanntheitsgrad der Sprecher genutzt wird, um die Zuschauerzahlen zu steigern, denn im Gegensatz zu ihnen werden die Namen der professionellen Sprecher nur selten in Verbindung zur Stimme gebracht. Oft kommt es vor, dass dem Zuschauer auffällt, dass Stimme A verschiedene Schau­spieler spricht, der Name der Stimme jedoch ist häufig fremd. Diese sind jedoch unver­zichtbar und die professionellere Variante im Gegensatz zu Prominenten, da erstere ausgebildete Schauspieler und Sprecher sind. Die Synchronisation ist ein Prozess, der von allen Beteiligten ein hohes Maß an Sorgfalt, Präzision und Wissen fordert, da der Maßstab immer das Original eines Films oder einer Serie ist und bleiben wird. Dement­sprechend wird die gesamte Verantwortung und Intention eines fremden Werkes getra­gen.13

Es lässt sich sagen, dass es im Grunde für die Erstellung einer synchronisierten Fas­sung eines Films drei wesentliche Phasen gibt, die unterschieden werden:

1. ) Die Übersetzung: Sie stellt den ersten kreativen Schritt auf dem Weg zur Versi­
on derzielsprachigen Dialoge dar.
2. ) Die Dialogbuchbearbeitung: Der Synchronautor versucht die Übersetzung an

die synchronspezifischen Anforderungen anzupassen. Das heißt, er fertigt ein Dialogbuch an, welches in Synchronität zu den Originalbildern des Films steht. Die wichtigste Zielsetzung dabei ist, dass der Zuschauer die Illusion vorgespielt bekommt, das Original zu sehen. Man unterscheidet verschiedene Haupttypen von Synchronität:

- Phonetische Synchronität: Sie wird auch als qualitative Lippensynchronität be­zeichnet. Darunter wird die der Lippenbewegung entsprechende Artikulation verstanden. Das bedeutet, dass die Wörter von den Lippen abgelesen werden könnten als wäre die Szene original in der übersetzten Sprache gedreht wor­den.
- Isochronische Synchronität: Sie wird auch quantitative Lippensynchronität ge­nannt. Hierbei wird die zeitliche Übereinstimmung zwischen Bild und Ton wahr­genommenem, die den Anfang und das Ende einer Äußerung bezeichnet. Wie die phonetische Synchronität, ist auch diese Form hauptsächlich in Szenen von Relevanz, die gerade aktuell auf dem Bildschirm zu sehen sind, also nicht aus dem sogenannte Off.
- Kinetische Synchronität: Diese wird auch als Gestensynchronität bezeichnet. Dabei wird die Übereinstimmung der verbalen Äußerung mit der Gestik des Darstellers aufgefasst. Wichtig ist hierbei die Kohärenz zwischen dem Bild und der Aussage, die getätigt wird. Gestik und Mimik fallen in der Regel zeitlich im­mer mit der betonten Silbe eines Wortes zusammen, deshalb sollte diese Beto­nung auch bei der Synchronisation auf dieser Geste liegen, damit die Sprache entsprechend emotional zur Gestik liegt.

3. ) Die Sprachaufnahme: Bei der Synchronisation ist es des weiteren wichtig, eine Stimme zu finden, die zu der Filmfigur passt. Nur so kann auf der Leinwand eine Einheit aus Stimme und Person entsteht. An den Sprachaufnahmen neh­men Synchronsprecher, Synchronregisseur, Cutter und Tonmeister teil (siehe Punkt 3.3). Während der Synchronisation kann es dazu kommen, dass die Tex­te noch einmal verändert werden, da beispielsweise festgestellt wird, dass an­dere Worte an gewissen Stellen besser passen als die, die im Synchron-Dialog- buch vorgegeben sind.14

3.2 Translationsmöglichkeiten

3.2.1 Synchronisation

Am vertrautesten ist dem Kinogänger und TV Zuschauer die Synchronisation als Mittel der Übersetzung. In der Regel geschieht dies außerhalb des Drehlandes und erst nach Abschluss des Originals. Bei diesem Verfahren kümmern sich die Übersetzer darum, dass die neuen Texte zeitlich perfekt auf die Lippenbewegungen der Vorlage zu spre­chen sind. Dabei kann es vorkommen, dass Witze und Bedeutungen oftmals verscho­benen werden oder teilweise sogar ganz verloren gehen.15 Auf den Sprechern lastet ein zeitlicher Druck, unter dem alles perfekt synchronisiert werden muss. Da die Syn­chronsprecher überwiegend routinierte Spezialisten sind, sorgen sie für einen rei­bungslosen Ablauf mit einer bestimmten Qualitätsgarantie. Aus Angst vor Raubkopien, liegen die Filmstarts in den USA und Europa immer dichter beieinander, so dass oft nur wenige Wochen zur kompletten Übersetzung eines Films oder einer Serie zur Verfü­gung stehen.16 Bei einigen Serien sind es oft sogar nur wenige Tage, da die beliebten schon einen oder zwei Tage nach der Originalveröffentlichung im ausländischen (bei­spielsweise deutschen) Fernsehen laufen. Bei dieser „Standard“-Art der Synchronisati­on sind die Lippenbewegungen des Originalbildes und der drüber gesprochenen Stim­me im Bestfall absolut lippensynchron.

Eine andere Art der Synchronisation stellt die Nachvertonung dar. Hierbei werden die Originaltöne im Studio neu eingesprochen, es muss sich dabei nicht zwangsläufig um ein fremdsprachiges Medium handeln. Gründe dafür sind schlechte oder zu leise ge­sprochene Texte oder laute Störungen im Hintergrund wie beispielsweise Straßen­oder Kamerageräusche. Jedoch gibt es auch Regisseure, die ihre Filme komplett im Studio einsprechen lassen wie etwa der Italiener Federico Fellini. Er ließ seine Schau­spieler am Set lediglich Zahlen sprechen, damit sich ihre Lippen bewegen. Erst im Nachhinein hat er den Film sprachlich vertonen lassen. Bei der Nachsynchronisation können Texte später variiert oder der Sprache mehr Ausdruck verliehen werden. Nach­teilig ist jedoch die möglicherweise unpassende Mimik, beziehungsweise Lippenbewe­gung, welche hinterher nicht mehr angepasst werden können.17

3.2.2 Voice Over

Einige Länder arbeiten fest mit dem Voice Over. Das heißt, dass dort nicht lippensyn­chron gearbeitet wird, sondern mit einem oder maximal zwei Sprechern, die alle Rollen im Film übernehmen und den Inhalt ihrer Konversationen wiedergeben. Auf diese Wei­se kann das Geschehen in der eigenen Sprache verfolgt werden, während im Hinter­grund der Originalton leise mit läuft.18 Dabei ist es für das Publikum normal, dass Frau­en von Männern gesprochen werden und umgekehrt. Das Voice over ist der Synchroni­sation damit recht nahe, von dessen Qualität jedoch weit entfernt. Oft geschieht das Voice over emotionslos. Um diese Emotionen an den Konsumenten vermitteln zu kön­nen, wird der Sprecher nicht lippensynchron eingesetzt. Zunächst ertönen die ersten

Worte des Originals, um ein Gefühl für Intensionen zu bekommen, dann setzt der Voi­ce over Sprecher in der Muttersprache ein.19

Dieses Verfahren ist nicht nur eine landesspezifische Art der Translation, sondern wird auch häufig weltweit und auch in Deutschland bei beispielsweise Dokumentationen, Dokumentarfilmen, Interviews oder Nachrichtensendungen eingesetzt, wenn sie nicht „live simultan gedolmetschtwerden“20.21

3.2.3 Off-Stimme

Die Off-Stimme ist eine Erzählerstimme. Sie bezeichnet einen Kommentar, Monolog oder Dialog einer oder mehrerer Figuren in einem Film oder einer Serie, die außerhalb des Geschehens statt finden. Diese Stimme wird wie ein Voice Over über die Szene gelegt und nicht in der Szene selbst gesprochen, wodurch das Szenario auf der Lein­wand oder dem Bildschirm verdeutlicht werden kann. Die hörbare Person ist nicht di­rekt in das Geschehen eingebunden. Bei der Off-Stimme kann es sich also sowohl um einen Erzähler handeln als auch um eine Person aus dem Film, die beispielsweise eine Erinnerung wiedergibt, während die Bilder zu dieser im Hintergrund gezeigt werden.22

3.2.4 Untertitel

Eine weitere Art der Synchronisation sind die Untertitel. Sie zählen zur schriftsprachli­chen Übersetzung.23 Das heißt, das Medium läuft in der Originalfassung, während die Übersetzung lediglich schriftlich am unteren Bildschirmrand zu lesen ist. An dieser Stel­le ist er deshalb zu finden, da der Text sonst mit den visuellen Informationen kollidieren würde. Dabei wird nicht wortwörtlich übersetzt, sondern so, dass der Verbraucher es in angemessener Geschwindigkeit inhaltlich verfolgen und in dieser Zeit den komprimier­ten Sinn des Originals heraus filtern kann. Es wird versucht, nicht mehr als zwei Zeilen dafür zu verwenden, um den Verbraucher nicht mit zu vielen Eindrücken zu überwälti­gen. Oft steht der eingeblendete Text etwas länger im Bild als die eigentlichen Dialoge dauern, denn „der Mensch kann in einem bestimmten Zeitraum wesentlich mehr Text auditiv als visuell verarbeiten.“24

Die Form der Untertitelung tritt häufig bei Dokumentationen auf. In einigen Ländern ist es jedoch regulär, dass Filme und Serien nicht übersetzt werden, sondern mit mutter­sprachlichen (auch OmU25 genannt) oder gar englischen Untertiteln zu sehen sind. So­gar in Ländern, in denen regulär synchronisiert wird, wie beispielsweise in Deutsch­land, gibt es einen im Videotext einprogrammierte Untertitelfunktion für Gehörlose oder Gehörgeschädigte.

3.2.5 Hybrid

Als Hybriden bezeichnet man die Kombination von Synchronisation mit Untertiteln. So­wohl im Kino als auch im Fernsehen ist dieses Verfahren allgemein betrachtet recht beliebt. In Deutschland findet man diese Form jedoch eher selten und wenn, dann be­vorzugt in Kinofilmen wieder.26

Ein einfaches Beispiel stellt Quentin Tarantinos Film Inglourious Basterds dar. Wäh­rend er im Original nicht als Hybrid zu betrachten ist, tritt diese Bezeichnung in der deutschen Version zu. Die Originalsprache englisch wird hier ins Deutsche synchroni­siert. Die anderen im Film vorkommenden Sprachen Italienisch und Französisch je­doch bleiben erhalten und werden durch deutsche Untertitel übersetzt. Verloren geht in Deutschland jedoch der Fakt, dass im Original unter anderem auch die Sprache Deutsch auftaucht.

3.2.6 Vor- und Nachteile von Synchronisation und Untertiteln

Des öfteren werden die beiden Verfahren Synchronisation und Untertitelung in ihren Vor- und Nachteilen gegenüber gestellt. Das Voice over findet in diesen Gegenüber­stellungen kaum Platz, da es auf Grund seines eher praktischen als qualitativen Nut­zens außen vor steht. Von grundsätzlichen Vor- und Nachteilen beider Verfahren kann aufgrund der folgenden Ausführungen nicht gesprochen werden, denn dies würde be­deuten, dass sich die Bedürfnisse des gesamten Publikums verallgemeinern ließen.27

Synchronisation

Ein Einwand gegen die Synchronisation ist die Authentizität des Originals, die verloren geht, zumal die Originalstimmen komplett ersetzt werden.28 Ist man also beispielsweise die englische Version seiner Lieblingsserie gewohnt und schaut sie sich anschließend auf Deutsch an, hinterlässt dies einen merkwürdigen Eindruck beim Verbraucher, da die Gewohnheiten der Serie sowohl durch Stimme als auch durch den Ausdruck verän­dert werden.

In Deutschland jedoch ist die Synchronisation professioneller fortgeschritten als in manch anderen Ländern. Ein deutscher Synchronsprechersagt über die deutsche Syn­chronisation folgendes aus:

„Ich sage immer wir machen hier wirklich einen guten Job, wir erreichen meisten 80-90%, 100 geht nicht, denn das Original ist das Original. Wobei es sicher auch mal zwischendurch vorkommt, dass die Synchro besser als das Original ist.“

Ein weiterer Kritikpunkt stellt die Bearbeitung der Texte dar. Diese werden aufgrund der Lippensynchronität des öfteren so stark bearbeitet, „dass von der Originalsubstanz nur wenig übrig bleibt“29.

Ein Argument für die Synchronisation stellt allerdings die Tatsache dar, „dass sie die Aufmerksamkeit der Zuschauer im Vergleich zur Untertitelung nicht ablenkt und die Fil­mästhetik am wenigsten beeinträchtigt“30. Außerdem erzeugt die Synchronisation die Il­lusion, dass es sich bei dem Gehörten nicht um eine Übersetzung, sondern das Origi­nal handeln könnte. Dadurch ist es eher möglich, das Wissen einer Übersetzung in den Hintergrund rücken zu lassen als bei Untertiteln.31

Untertitel

Untertitel haben den ganz offensichtlichen Nachteil, dass die gesprochene Sprache sehr kompakt in schriftliche Sprache umgewandelt wird. Das heißt, Inhalte werden nicht immer korrekt oder vollständig transportiert. Diese Kürzungen sind jedoch not­wendig, um die Auffassungsgabe und Aufmerksamkeitsspanne des Verbrauchers durch die schnelle Abfolge der Texte nicht zu überfordern. Untertitel lesen bedeutet gleichzeitig Ablenkung vom Bild und des schauspielerischen Ausdrucks. Dadurch ent­steht, wie bei der Synchronisation, ebenfalls ein Verlust der Wirkung des Originals.32

Zusammenfassend lässt sich sagen, dass das Verfahren der Synchronisation die bes­sere Variante für die Personen ist, die über wenig oder keinerlei Fremdsprachenkennt­nisse verfügen und daher keinen wesentlichen Nutzen aus dem reinen Original ziehen können. „Ohne Synchronisation hätte dieses Publikum keinen Zugang zu fremdspra­chigen Filmen.“33 Die Untertitelung wiederum stellt einen großen Nutzen für die Perso­nen dar, die über Fremdsprachenkenntnisse verfügen, die gut, gleichzeitig jedoch nicht ausreichend sind, um das Original komplett und ohne Einbußen des Inhalts verstehen zu können. Das heißt im Konkreten, dass Untertitel, seien sie im Original oder in der Muttersprache, ein gebildetes Publikum voraussetzen, welches über Fremdsprachen­kenntnisse der Ausgangssprache verfügt. Diese Bedingung wird nie vollständig von hundert Prozent der Zuschauer erreicht.

3.3 Wie wird synchronisiert?

In einer synchronisierten Fassung muss die Sprache lippensynchron hinzugefügt sein. Um dieses Ergebnis erzielen zu können, spricht der jeweilige Schauspieler seinen Text ein, während der Originalfilm vor seinen Augen abgespielt wird. Der Sprecher versucht in diesem Zuge, seinen Text zeitlich der Lippenbewegung des Leinwandschauspielers anzupassen. Die Genauigkeit ist hierbei abhängig von den Aufnahmen, beziehungs­weise den Kameraeinstellungen. Bei Nahaufnahmen ist aufgrund der sichtbaren Lip­penbewegungen die absolute Lippensynchronität wichtiger als bei Fernaufnahmen. Bei letzterer ist die synchrone Zeit derwichtigere Faktor.34

Ebenfalls sehr wichtig ist die Kommunikation zwischen dem Schauspieler und dem Synchronregisseur. Entscheidend ist „nicht nur wie man aufeinander eingeht, sondern dass man überhaupt aufeinander eingeht“35. Ausgebildete Schauspieler haben zwar gelernt, sich in andere Charaktere hineinzuversetzen und sie angemessen zu spielen, doch wie im Film gibt auch bei der Synchronisation der Regisseur „den Ton an“ und unterstützt den Schauspieler in seiner ausgespielten Emotion. Gemeinsam müssen Lö­sungen gefunden werden, um die richtigen Gefühle in der richtigen Situation wiederge-ben zu können. Der Regisseur entscheidet ebenfalls, ob Asynchronität in ausgewähl­ten Fällen akzeptiert werden kann. Die kann zum Beispiel auftreten, wenn ein Satz vom Ausdruck her sehr schön gestaltet wurde oder in dieser Form natürlicher wirkt, im Anschluss deshalb aber nicht mehr zu hundert Prozent auf die Lippenbewegungen passt. Um als Synchronsprecher zu wissen, welche Rolle in welcher Intensität auf sie zu kommt, müssen sie entsprechen vom Regisseur im Vornherein eingewiesen wer­den. Wie viel also der Schauspieler zu Beginn aus seiner Rolle heraus holen kann, be­ziehungsweise über diese weiß, hängt vom Regisseur selbst ab.36

In der Regel dauert die Synchronisation eines Films der Länge 90 bis 120 Minuten sie­ben bis acht Tage. Der genaue Zeitraum ist abhängig von der Dialoglänge sowie der Anzahl der Figuren und Massenszenen. Da Serien heute sehr hochwertig produziert werden, sind diese zwar genauso aufwendig wie Kinofilme, dauern hingegen jedoch nurzwei bis drei Tage pro Folge. Anwesend sind bei diesen Sprachaufnahmen der Re­gisseur, der Tonmeister, der Cutter und die jeweiligen Synchronsprecher. Der Ton­meister spielt die jeweiligen Takes für alle Anwesenden über Monitore ab, um sowohl Ausdruck als auch Tempo dem Original entnehmen zu können. Auf die Lippensynchro­nität des Schauspielers wird vom Cutter geachtet, der die Spuren jedoch im Nachhin­ein zum Großteil noch nach richten muss, da die sofortige Synchronität bei der Aufnah­me nicht zu gewährleisten ist. Die Aufgabe des Tonmeisters ist es, darauf zu achten, dass die Tonqualität stimmt. Das heißt, dass Lautstärke und Mikroabstand korrekt, die Aussprache sauber und verständlich ist und außerdem Störgeräusche wie zischende S-Laute, Bewegungen, Schmatzen oder platzende Spuckebläschen nicht auf der Ton­spur sind. Entweder sollten diese Störgeräusche später noch eliminierbar sein oder bestenfalls von vornherein nicht auf die Tonspur gelangen. Ebenfalls zu den Aufgaben des Tonmeisters gehört das spätere Abmischen der Sprache mit entsprechenden Ge­räuschen und Musik, welches er gemeinsam mit dem Regisseur erarbeitet. Im Idealfall ist auch ein sogenannter „Supervisor“ anwesend, der im Auftrag der Produzenten zu­sätzlich auf die Qualität der Synchronisation achtet.37

3.4 Vom Stummfilm zum Tonfilm

Wenn man es genau betrachtet, war der Stummfilm niemals stumm. Schon von Beginn des Bewegtbildes an wurde er von Musik untermalt: zunächst durch Klavierspieler oder ganze Orchester, die den Film live begleiteten, später ab circa 1877 durch das Gram­mophon, das erstmals zu diesen Zwecken durch Wordsworth Donisthorpe genutzt wur­de. An die Verwendung von Sprache war zu diesem Zeitpunkt noch nicht zu denken. Um 1895 kombinierte Thomas Alva Edisons den Kinetographen (Abspielgerät von Be­wegtbildern) mit dem Phonographen (Abspielgerät von Ton). Das synchrone Abspielen von Schallplatten zum Film bewährte sich allerdings nicht, da unter anderem die Syn­chronität in den meisten Fällen nicht gewährleistet werden konnte.38

Die ersten Tongeräte zum Synchronisieren von Stummfilmen und Grammophonen, wa­ren das Chronophon von Léon Gaumont im Jahre 1902 in Paris und das Biophon von Oskar Messter 1903 in Berlin. Messters Firma produzierte im Laufe der Jahre mehr Tonbilder als die Firma Gaumont.39 Beim Verfahren mit dem Biophon wurden im Vorn­herein aufgenommene Tonsequenzen abgespielt, während „mit einer über einen ge­meinsamen Antriebsriemen an das Grammophon gekoppelte Kamera die dazugehöri­gen Bilder“40 aufgenommen wurden.

Der Film The Jazz Singer der Gebrüder Warner, der am 6. Oktober, 1927 seinen Weg auf den Markt fand, galt als erster offizieller Tonfilm, obwohl in ihm nur wenige Worte gesprochen wurden.41 Ermöglicht wurde dies durch das neu entwickelte Vitaphone- System42, welches kurz vorher von Warner Bros. und Western Electric erschaffen wur­de.43

The Lights of New York war 1928 der erste vollständige Dialog-Film.44 Im gleichen Jahr beschloss die UFA (deutsches Filmunternehmen, zu jener Zeit: Universum Film AG; heute: UFA GmbH), angetrieben von den amerikanischen Entwicklungen, „als erster deutscher Filmproduzent [...] die Stummfilmproduktion völlig abzubrechen und zur Tonfilmproduktion überzugehen.“45

3.5 Entwicklung des Filmtons (mit Schwerpunkt Deutschland)

Um ein Bewegtbild mit synchronisiertem Ton zu erzeugen, gab es verschiedene Ver­fahren, die seit Beginn des Tonfilms entwickelt wurden. Das erste offizielle war das Na-

[...]


1 Vgl. Umwelt Sachsen: Definition: Vom Schall zum Lärm, 2010

2 Vgl. Umwelt Sachsen: Definition: Vom Schall zum Lärm, 2010

3 Vgl. Umwelt Sachsen: Definition: Vom Schall zum Lärm, 2010

4 Vgl. Deutsche Enzyklopädie: Amplitude, 2014

5 Vgl. Deutsche Enzyklopädie: Wellenlänge, 2014

6 Vgl. Mietke, Detlef: Grundlage zur Akustik, 2002

7 Vgl. Plath, Peter: Das Hörorgan und seine Funktion. Einführung in die Audiometrie, 1981, S. 2

8 Vgl. Amplifon: Das menschliche Gehör-so funktioniert's, 2013

9 Hörgeräte Dierksmeier: Das Gehör, 2014

10 Pisek, Gerhard: Die grosse Illusion. Probleme und Möglichkeiten der Filmsynchronisation. Dargestellt an Woody Al­lens Annie Hall, Manhatten und Hannah and her sisters, Trier 1994, S. 46 zitiert nach Bawden, Liz-Anne: Buchers Enzyklopädie des Films, Luzern 1977

11 Vgl. Pisek, Gerhard: Die grosse Illusion. Probleme und Möglichkeiten der Filmsynchronisation. Dargestellt an Woo­dy Allens Annie Hall, Manhatten und Hannah and her sisters, Trier 1994, S. 46

12 Vgl. Pahlke, Sabine: Handbuch Synchronisation. Von der Übersetzung zum fertigen Film, Leipzig 2009, S. 11

13 Vgl. ebd.

14 Cuéllar Lázaro, Carmen, Prof. Dr.: Kulturspezifische Elemente und ihre Problematik bei der Filmsynchronisierung, 2013, S. 134

15 Vgl. Pisek, Gerhard: Die grosse Illusion. Probleme und Möglichkeiten der Filmsynchronisation. Dargestellt an Woo­dy Allens Annie Hall, Manhatten und Hannah and her sisters, Trier 1994, S. 47

16 Vgl. Pahlke, Sabine: Handbuch Synchronisation. Von der Übersetzung zum fertigen Film, Leipzig 2009, S. 12

17 Vgl. Klant, Michael/ Spielmann, Raphael: Grundkurs Film 1. Kino, Fernsehen, Videokunst, Braunschweig 2008, S. 156

18 Vgl. ebd.

19 Vgl. Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisa­tion und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 100

20 Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisation und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 100

21 Vgl. ebd.

22 Vgl. Klant, Michael/ Spielmann, Raphael: Grundkurs Film 1. Kino, Fernsehen, Videokunst, Braunschweig 2008, S. 158

23 Vgl. Pisek, Gerhard: Die grosse Illusion. Probleme und Möglichkeiten der Filmsynchronisation. Dargestellt an Woo­dy Allens Annie Hall, Manhatten und Hannah and her sisters, Trier 1994, S. 39

24 Wahl, Chris: Das Sprechen des Spielfilms. Über die Auswirkungen von hörbaren Dialogen auf Produktionen und Rezeption, Ästhetik und Internationalität der siebten Kunst, Trier 2005, S. 139

25 OmU = Original mit Untertiteln

26 Vgl. Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisa­tion und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 83

27 Vgl. ebd.

28 Vgl. Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisa­tion und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 83

29 Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisation und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 83

30 Ebd.

31 Vgl. ebd.

32 Cedeño-Rojas, Maribel: Arbeitsmittel und Arbeitsabläufe beim Übersetzen audiovisueller Medien. Synchronisation und Untertitlung in Venezuela und in Deutschland, Trier 2007, S. 83

33 Ebd.

34 Vgl. Pisek, Gerhard: Die grosse Illusion. Probleme und Möglichkeiten der Filmsynchronisation. Dargestellt an Woo­dy Allens Annie Hall, Manhatten und Hannah and her sisters, Trier 1994, S. 90, 91

35 Pahlke, Sabine: Handbuch Synchronisation. Von der Übersetzung zum fertigen Film, Leipzig 2009, S. 120

36 Vgl. Pahlke, Sabine: Handbuch Synchronisation. Von der Übersetzung zum fertigen Film, Leipzig 2009, S. 120

37 Vgl. Pahlke, Sabine: Handbuch Synchronisation. Von der Übersetzung zum fertigen Film, Leipzig 2009, S. 43 - 46

38 Vgl. Spin: Tonfilm, 2012

39 Vgl. Wahl, Chris: Das Sprechen des Spielfilms. Über die Auswirkungen von hörbaren Dialogen auf Produktionen und Rezeption, Ästhetik und Internationalität der siebten Kunst, Trier 2005, S. 15

40 Ebd.

41 Vgl. ebd.

42 Vitaphone-System: Ein Nadeltonverfahren, bei dem der Projektor mit mit Schallplatten verbunden und durch eine Nadel abgetastet wurden

43 Vgl. Filmportal: Film in der Weimarer Republik / Die Entstehung des deutschen Tonfilms, 2005 ff.

44 Vgl. Brownlow, Kevin: Pioniere des Films. The parade's gone by... Basel/ Frankfurt a.M. 1997, S 656

45 Mühl-Benninghaus, Wolfgang: Vom Aufstieg des Tonfilms zur digitalen Bildproduktion, Polzer 2002, S. 70

Ende der Leseprobe aus 66 Seiten

Details

Titel
Internationale Differenzen in der Filmsynchronisation im Vergleich mit Deutschland
Hochschule
Hochschule Mittweida (FH)  (Medien)
Note
2.0
Autor
Jahr
2014
Seiten
66
Katalognummer
V278054
ISBN (eBook)
9783656735274
ISBN (Buch)
9783656735267
Dateigröße
924 KB
Sprache
Deutsch
Schlagworte
internationale, differenzen, filmsynchronisation, vergleich, deutschland
Arbeit zitieren
Lisa Gehricke (Autor:in), 2014, Internationale Differenzen in der Filmsynchronisation im Vergleich mit Deutschland, München, GRIN Verlag, https://www.grin.com/document/278054

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Internationale Differenzen in der Filmsynchronisation im Vergleich mit Deutschland



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden