Die Geschichte und Technik des SMPTE- und MIDI-Timecodes


Studienarbeit, 2009

34 Seiten, Note: 1,3


Leseprobe


Inhaltsverzeichnis

1 Vorwort

2 Einführung
2.1 Entwicklungsgeschichte des Timecodes
2.2 SMPTE und EBU

3 Aufbau des Timecodes
3.1 SMPTE- und EBU-Frame-Rates
3.2 Verwendung und Aufteilung der Bits
3.2.1 Data Bits
3.2.2 Die Userbits und Kontrollbits
3.2.3 Farbverkoppelung

4 SMPTE Timecode
4.1 Longitudinal Timecode (LTC)
4.1.1 Einführung
4.1.2 LTC-Format
4.1.3 Modulation und Aufzeichnung
4.1.4 Refresh, JAM-Sync und Decording Delay
4.2 Vertical Interval Timecode (VITC)
4.2.1 Einführung
4.2.2 VITC-Format
4.0.1 4.2.3 Aufzeichnung
4.3 Vor- und Nachteile von LTC und VITC

5 MIDI-Timecode (MTC)
5.1 Einführung
5.2 Format
5.3 Übertragung mit MIDI
5.3.1 MTC Short Message - Quarter Frame
5.3.2 MTC Full Message

6 Nachwort

7 Abkürzungsverzeichnis

8 Anhang
8.1 LTC-Timecode-Format
8.2 VITC-Timecode-Format

9 Literaturverzeichnis

1 Vorwort

„Die Synchronisation verschiedener Medien gewinnt mit der Expansion des audiovisuellen Marktes eine immer größere Bedeutung.“[1] In der Filmproduktion ist die Synchronisation von Bild und Ton unerlässlich. Die jeweiligen Geräte müssen auf Sekundenbruchteile genau parallel laufen, um ein optimales Ergebnis zu ermöglichen. Im Audiobereich werden sowohl Video- und Audiogeräte als auch mehrere Audiogeräte miteinander synchronisiert. Um die Synchronisation zu ermöglichen, muss auf dem Band bzw. Film ein Timecode aufgezeichnet werden. „Das Standard-Timecodeformat ist der SMPTE Timecode.“[2]

In der vorliegenden Arbeit habe ich mich hauptsächlich mit eben genanntem Timecode-Format befasst. Dabei verfolge ich zunächst die Fragestellung des grundsätzlichen Aufbaus, um darauf folgend auf die Formate, Aufzeichnungsverfahren und Besonderheiten der jeweiligen SMPTE-Timecode-Formate zu sprechen zu kommen. Abschließend werde ich den MIDI-Timecode als ein den SMPTE-Code ergänzendes Format in seinem Aufbau und seinen spezifischen Synchronisationsverfahren erläutern.

2 Einführung

2.1 Entwicklungsgeschichte des Timecodes

Mit der Entwicklung des ersten Videorecorders (VR 1000) durch die Firma Ampex im Jahre 1956, begann die Ära der Videoaufzeichnung auf Magnetband. Damit fingen sogleich die Probleme, die bei der Nacharbeitung von Videofilmen zum Vorschein kamen, an. Bis zu diesem Zeitpunkt hatte man sich ausschließlich mit dem Film beschäftigt, bei dem die Transportlöcher des Films exakt zu zählen waren, so dass die Schnittpunkte eindeutig bestimmt werden konnten. Beim Videoband ist dies jedoch nicht möglich. Für die automatische Schnittbearbeitung beim Videoband musste demnach ein Verfahren entwickelt werden, mit dem eine exakte Bestimmung des Schnitteinstiegs- und Ausstiegspunktes auf der Bandstelle ermöglicht wird.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Film mit Transportlöchern und Videoband[3]

„Zunächst wurde auch beim Videoband ein mechanisches Bandzählwerk eingesetzt, das die Umdrehung der Antriebswelle zählte.“[4] Der Nachteil war jedoch, dass durch mechanische Unzulänglichkeiten (z.B. Bandschlupf) das exakte Auffinden eines Schnittpunktes Glückssache war.[5]

„Die Technik, verschiedene Medien miteinander zu synchronisieren, kennt man aber nicht erst seit der Einführung moderner Kommunikationsmedien.“[6] Der Tonfilm erforderte erstmals „zwei eigentlich zusammengehörige Ereignisse (Bild und Ton) auf zwei getrennte Medien zu speichern, dem eigentlichen Film und einem Magnetband.“[7] Lange Zeit wurde der Ton direkt auf den Film als Lichtspur aufgezeichnet – wie heute die fertige Tonmischung – damit wurde jedoch eine Nacharbeitung der Aufnahmen (Schnitt, Kopplung oder nachträgliches Aufnehmen) erheblich erschwert, wenn nicht unmöglich gemacht.[8]

Diese so genannten Magnetfilme, die ebenfalls mit einer Perforation versehen waren, ermöglichten bereits eine Synchronisation zwischen Bild und Ton, indem sowohl ein akustisches als auch optisches Startsignal auf Film- und Magnetband aufgezeichnet wurde: die Klappe. Damit konnten „Bild und Ton bei der gleichen Startmarkierung in die Wiedergabegeräte eingelegt“ werden.[9] „Bei der Entwicklung der magnetischen Bildaufzeichnung (MAZ) suchte man nach einem Verfahren, die einzelnen Videobilder in ihrer zeitlichen Position genau bestimmen zu können […]. Erst diese exakte Positionsbestimmung ermöglichte den sogenannten elektronischen Schnitt von Videoaufzeichnungen.“[10]

1967 wurde ein Verfahren eingeführt, das die genannten Probleme mit einem Mal beseitigte und 1972 im SMPTE- und EBU-Standard genormt wurde. Hierbei wird parallel zu jedem Videobild eine Bildnummer aufgezeichnet.[11]

2.2 SMPTE und EBU

SMPTE ist die Abkürzung für die amerikanische Organisation Society of Motion Picture and Television Engineers und ist die führende Gesellschaft für professionelle Film- und Videotechnik mit Sitz in White Plains, New York. SMPTE wurde 1916 gegründet, um die Forschung und die Entwicklung von Normen und Standards im Bereich der Bildbewegung zu fördern. Neben der Standardisierung für Video- und Filmkassetten sowie HDTV, ist der SMPTE-Timecode einer der wichtigsten Standards, an denen die Organisation in großem Umfang mitgearbeitet hat.[12]

Neben SMPTE existiert eine weitere Organisation, die im Jahre 1950 gegründete EBU European Broadcast Union mit Sitz in Genf. Es handelt sich hierbei um einen Zusammenschluss von derzeit 75 Fernseh- und Rundfunkanstalten in 56 Ländern Europas, Nordafrikas und des Nahen Ostens. Die EBU ist somit die größte Vereinigung nationaler Sender in der Welt. Neben der wahrscheinlich am bekanntesten Produktion der EBU, dem Eurovision Song Contest, arbeitete die Organisation am Radio Data System (RDS), Digital Audio Broadcasting (DAB), Digital Video Broadcasting (DVB) und HDTV mit.[13]

3 Aufbau des Timecodes

Parallel zu jedem Bild eines Videobandes wird eine Zeitinformation und eine Bildnummer aufgezeichnet. Dieser Zeit-Adress-Code wird Timecode genannt. Jedes Videobild wird auf diese Weise eindeutig adressiert und ist exakt aufzufinden. Zusätzlich zum Timecode werden pro Bild weitere Informationen aufgezeichnet, die aus fünf Blöcken bestehen: Die Data-Bits, die Userbits, die Kontrollbits, das Synchronwort und die Farbverkoppelung.[14]

3.1 SMPTE- und EBU-Frame-Rates

„Bei der Entwicklung des Timecode-Standards dachte man zunächst an die Markierung von Videobildern.“[15] Neben der Information über Userbits, Kontrollbits und dem Synchronwort, die im Folgekapitel ausführlich behandelt werden, ist die Zeit eine der wichtigsten Komponenten des Timecodes. Als Zeitmaßstab wählte man die Einteilung in Stunden, Minuten und Sekunden. Zusätzlich werden die einzelnen Bilder, die so genannten Frames, gezählt, die angeben, um das wievielte Bild es sich in einer Sekunde handelt.

Wegen der in Amerika und Europa unterschiedlichen Fernsehnormen – NTSC und PAL – unterscheidet sich der Timecode in der Darstellung der Frames. Der SMPTE-Timecode, der der amerikanischen Schwarz-Weiß-Aufzeichnung nach dem NTSC-Verfahren folgt, hat eine Bildrate von 30 Frames pro Sekunde (F/s). „Wenn man vom SMPTE-Timecode spricht, so ist damit zunächst ein Timecode mit dieser Bildrate gemeint.“[16]

Da die Bildfrequenz nicht bei allen Videoformaten identisch ist, ist für jedes Bildformat ein individueller Timecode notwendig. Neben dem SMPTE-Timecode gibt es in den USA eine amerikanische Farbfernsehnorm (NTSC color), die mit einer Bildfrequenz von 29,97 F/s arbeitet und als Drop-Frame bezeichnet wird. Um eine Zählung mit ganzzahligen Bildraten (30 F/s) zu ermöglichen wird in regelmäßigen Abständen eine Korrektur vorgenommen, bei der zwei Frames pro Minute übersprungen (engl.: drop) werden, mit Ausnahme der zehnten Minute. Im Mittel ergibt sich auf diese Weise die exakte Bildfrequenz von 29,97 F/s.[17]

Der EBU-Timecode, der mit der in Europa geläufigen PAL-Norm (Schwarz-Weiß- und Farbaufzeichnungen) arbeitet, wird mit einer Bildrate von 25 F/s betrieben. Auch in der Filmtechnik wird mit einem Timecode gearbeitet. „Da aber die Bildrate beim Film nur 24 F/s beträgt, ist ein viertes Timecode-Format notwendig. Damit ergibt sich folgende Übersicht:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2: Timecode-Formate[18]

3.2 Verwendung und Aufteilung der Bits

Die Informationen (Zeit, User Bits etc.), die uns der Timecode liefert, sind je nach Timecode-Art auf 80 (LTC) bzw. 90 Bits (VITC) verteilt. Dabei ist genau festgelegt, welches Bit welche Funktion übernimmt.[19] „Ein Mediengestalter wird sich kaum für jedes einzelne Bit interessieren, das im Datenstrom enthalten ist.“[20] Die Erkennung des Timecode-Aufbaus ist jedoch hilfreich für das Verständnis der vorhandenen Möglichkeiten, die das System bietet.

3.2.1 Data Bits

Die Zeitinformation in Stunden, Minuten und Sekunden wird unter dem Videoband in der Timecode-Spur, zuzüglich der Angabe der Frames, in Form einer achtstelligen Zeitangabe dargestellt:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 3: Timecode-Information auf einem Videoband[21]

Vor allem bei chronologischen Aufzeichnungen (z.B. Fußballspiel), ist das Auffinden und die Angabe eines exakten Zeitwertes von Nutzen. Zudem besteht die Möglichkeit, die Dauer der Szene durch Berechnung mit den Timecodewerten zu ermitteln.

„In den Data Bits sind die eigentlichen Zeitinformationen gespeichert.“[22] Diese sind über die 80 bzw. 90 Bits des Timecode-Formates verteilt und nach der Zahlenstelle, die sie angeben sollen geordnet:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4: Data Bits im Datenstrom [23]

Der Timecode kann nur bis zu 24 Stunden zählen, was in den meisten Anwendungsgebieten ausreichend ist. Überschreitet die Aufzeichnung das Limit von 24 Stunden, so springt der Timecode zurück an den Anfang und beginnt von Neuem. Durch diesen Sprung wird der Timecode immer mit einem sogenannten Offset versehen, d.h. die Aufzeichnung beginnt nicht bei dem Wert Null, sondern beispielsweise bei einer Stunde. Auf diese Weise besteht die Möglichkeit, später neue Teile davor zu setzen.[24]

Da der Timecode eine absolute Zeitinformation enthält und der Offset für jedes Band oder sonstige Aufzeichnungsmedien beliebig ist, wird nicht nur die Zeitinformation „kontinuierlich übertragen, so dass eine flexible Verkoppelung der Geräte untereinander möglich ist“[25], sondern die Maschinen können auch über den Offset miteinander verknüpft werden. Es bestehen demnach zwei Möglichkeiten, Geräte über die Zeitinformation zu synchronisieren.

3.2.2 Die Userbits und Kontrollbits

Neben der Zeit werden im Timecode zu jedem Bild die Userbits aufgezeichnet. Dabei handelt es sich um Datenfelder, die für die Speicherung produktionsspezifischer Angaben vorgesehen sind. Die Userbits umfassen 32 Bits pro Frame, die dem Anwender frei zur Verfügung stehen. Mit diesen 32 Bits lässt sich entweder eine achtstellige Zahl oder vier ASCII-Zeichen (American Standard Code for Information Interchange) darstellen, die zusammen mit dem Timecode einzelne Takes markieren oder Daten für die Archivierung umfassen können. Um welche Zahlen oder Zeichen es sich dabei handelt und welche Bedeutung sie inne haben, ist vom Benutzer frei definierbar.[26]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5: Darstellung der Userbits als achtstellige Zahl[27]

Mit Hilfe des ASCII-Codes, der das lateinische Alphabet in Groß- und Kleinschreibung, die zehn arabischen Ziffern, sowie Satz- und Steuerungszeichen umfasst und somit weitgehend mit der englischen Tastatur übereinstimmt, können pro Bild vier Zeichen aufgezeichnet werden.[28] Mit diesem Prinzip können in den Timecode ganze Sätze oder sogar Texte eingelagert werden. Im unteren Beispiel belegt das Wort „Timecode-Inf“ drei Bilder:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 6: Darstellung der Userbits als vier ASCII-Zeichen[29]

Damit nun die korrekte Interpretation der ASCII-Zeichen sichergestellt wird und nicht Zahlen als Buchstaben gelesen werden und umgekehrt, sind im Timecode zwei Kontrollbits (Bit 27 und Bit 43) vorhanden, die angeben, wie die Userbits zu interpretieren sind.

Neben den beiden Kontrollbits (Bit 27 und Bit 43), die die Userinformationen beinhalten, gibt es ein weiteres Kontrollbit (Bit 10), das die Drop-frame-Kennung trägt. Dort wird die Erkennung des NTSC-color-Bildformates (Drop-frame) gespeichert, damit die Synchronisation zwischen Bild und Ton bei einer Bildrate von 29,97 f/s und dem damit verbunden Überspringen von zwei Frames[30] sichergestellt wird.

3.2.3 Farbverkoppelung

Da bereits in den Kontrollbits die SMPTE-Farberkennung (NTSC) Drop-frame und Non-drop-frame angegeben ist, wird bei der Verwendung des EBU-Formates PAL, das sowohl in schwarz-weiß als auch in Farbe sein kann, ein Bit gesetzt, um die Farberkennung zu gewährleisten. Es entspricht dem 11. Bit im Timecode-Format und wird meist als 'Farbsynchronisation' oder 'Color-Frame-Kennung' betitelt.

Bei PAL wird grundsätzlich zwischen der 4-Field- und der 8-Field-Verkoppelung unterschieden.[31] Bei der 4-Field-Sequenz kann aufgrund der Burstphasenlage, die sich von Zeile zu Zeile um 180° dreht, immer nach zwei Bildern (= vier Halbbilder) und demnach einer gleichen Burstphasenlage und einer geraden Anzahl von 1250 Zeilen ohne Farbverlust geschnitten werden.[32] Die 8-Field-Sequenz bezieht sich auf die Phase des Farbträgers. Alle vier Zeilen ist die Phase identisch, weshalb stets nach acht Halbbildern das Bild mit der gleichen Phase beginnt. Somit ist ein störungsfreier Schnittpunkt nach acht Halbbildern möglich.[33]

4 SMPTE Timecode

Die Zeitinformation und alle weiteren Daten, die im SMPTE Timecode untergebracht sind, können auf zwei Arten übertragen und aufgezeichnet werden: Longitudinal Timecode (LTC) und Vertical Interval Timecode (VITC). Eine dritte Variante, der MIDI-Timecode (MTC), dient zur Synchronisation von Sequenzern mit anderen Geräten und wird über die MIDI-Schnittstelle übertragen. Der MTC zählt damit nicht zum SMPTE Timecode, sondern bildet eine eigene Gruppe.

4.1 Longitudinal Timecode (LTC)

4.1.1 Einführung

Der Longitudinal Timecode wird als Tonsignal längs auf eine Audiospur aufgezeichnet, wodurch er sich von den anderen Verfahren – MTC und VITC – abhebt. Das hat zur Folge, dass „der LTC prinzipiell auf jeden Datenträger aufgenommen werden kann, der auch ein Audiosignal aufnehmen kann.“[34] In der Audiotechnik wird der Longitudinal Timecode vor allem zur Synchronisation von Bild und Ton verwendet.

4.1.2 LTC-Format

Der Longitudinal-Timecode ist in 80 Bits verschlüsselt. Daraus ergibt sich ein Timecodeformat, das sich in die zuvor erläuterten Bestandteile Databits (26 Bits), Userbits (32 Bits), Kontrollbits (3 Bits) und Color-Frame-Kennung (1 Bit) unterteilen lässt. Hinzu kommt Bit 58, das für zukünftige Anwendungen reserviert ist und normalerweise auf Null steht und Bit 59, das in der Norm als Phasenbit verwendet wird.[35] Damit soll stets eine aufsteigende Flanke zu Beginn eines Frames erreicht werden. Ohne Phasenbit würde die Flanke von Frame zu Frame variieren. Zudem wird gewährleistet, „dass das Synchronwort auch nach der Bi-Phase-Modulation[36] immer gleich aussieht“[37], wodurch eine Erkennung erleichtert wird.

Das Synchronwort umfasst die letzten 16 Bits des LTC und verfolgt dabei stets denselben Aufbau: 0011111111111101. Dadurch ist diese Bit-Konstellation im Datenstrom eindeutig.[38] Auf diese Weise „kann das Ende des Datenworts und damit der Anfang des darauf folgenden identifiziert werden. Zusätzlich enthält das Synchronwort die Information über die Laufbandrichtung des Datenstroms. Endet es mit 01, dann läuft das Band vorwärts, endet es dagegen mit 00, dann läuft es rückwärts.“[39]

Die Codierung des LTC erfolgt nach dem BCD-Standard (Binary Coded Decimal), bei dem jede Ziffer des Dezimalsystems durch einen 4-Bit-Code dargestellt werden kann. Somit werden pro Einzelbild 80 Bits (20 Zeichen) auf das Band geschrieben.[40]

4.1.3 Modulation und Aufzeichnung

Abbildung in dieser Leseprobe nicht enthalten

Abb. 7: LTC-Aufzeichnung[41]

Der LTC wird längs des Bandes - also longitudinal – aufgenommen. Dabei bevorzugt man die Randspuren, „weil dort die Audioqualität geringer ist, was für die Übertragung des Timecodes nicht so sehr ins Gewicht fällt.“[42] „Damit die digitale Timecodeinformation aufgenommen werden kann, muss sie zunächst so aufbereitet werden, dass sie einem Audiosignal nahe kommt. Hierzu wird jedes LTC-Frame mit Hilfe der Bi-Phase-Mark Kanalkodierung codiert.“[43] Zur näheren Erläuterung muss zunächst der Begriff des Bi-Phase-Signals näher erläutert werden.

Bei der Bi-Phase handelt es sich um ein weltweit verwendetes Steuersignal, das aus zwei Rechtecksignalen besteht, „von denen das eine je nach Laufrichtung des Systems in der Phase verschoben ist. Die Frequenz des Bi-Phase-Signals ist proportional zur Bildfrequenz.“[44]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 8: Bi-Phase-Signal und Frequenzen[45]

Das Bi-Phase-Signal liefert keine absolute Zeitinformation, sondern lediglich eine relative, die sich auf den Zeitpunkt des Eintreffens des ersten Signals bezieht. Um eine bildgenaue Verkoppelung von Magnetfilmen zum Film zu ermöglichen, muss „auf allen Trägern eine optische Startmarke („Startkreuz“) vorhanden sein, auf die alle Träger justiert werden, bevor ein Bi-Phase-Signal angelegt werden darf.“[46] Wenn eine Maschine verschoben werden muss, offset genannt, wird sie vom Bi-Phase abgekoppelt, um den erforderlichen Betrag verschoben und wieder angekoppelt. Durch dieses Verfahren laufen verkoppelte Maschinen „in jeder Betriebsart synchron, also nicht nur im Play-Modus, sondern auch im Rücklauf in Normalgeschwindigkeit und beim Umspulen.“[47]

Wie bereits erwähnt, muss die digitale Timecodeinformation so aufbereitet werden, dass sie einem Audiosignal ähnelt.[48] Hierzu müssen die Bits mit der so genannten Bi-Phase-Mark-Modulation codiert werden. „Dazu wird die Polarität der Aufzeichnung zu Beginn jedes Bits gewechselt.“[49] Hat ein Bit den Wert 1 (H-Level), so erfolgt zu Beginn eines Bits und zusätzlich in der Mitte des Bits ein Polaritätswechsel. Besitzt ein Bit den Wert 0 (L-Level), wird ein Flankenwechsel zu Beginn eines Bits gemacht.[50]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 9: LTC Modulationsverfahren[51]

Neben dem Polaritätswechsel, geben die Bits eine Abfolge von hohen und tiefen Tönen dar. Ein Bit mit dem Wert 0 entspricht einem tiefen Ton (L-Level), einer binären Eins wird eine genau doppelt so hohe Frequenz zugewiesen (H-Level).[52] Die Tonfolge wird auf eine spezielle Adressspur (z.B. Beta Sps) oder eine Audiospur des Tonbandes aufgezeichnet. Die exakten Tonhöhen sind von der Bildfrequenz (NTSC, PAL) und der maximal speicherbaren Datenmenge pro Sekunde abhängig. Da das Bi-Phase-Signal zwischen 40 und 80 Hz pro Frame schwankt, ergibt sich bei 30 F/s eine minimale Frequenz von 1,2 kHz (30 Bilder x 40 Hz) und eine maximale Frequenz von 2,4 kHz (30 Bilder x 80 Hz).[53]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 10: Aufzeichnungsfrequenzen des LTC[54]

Durch die Polaritätswechsel wird auf dem Tonband eine sich verändernde Magnetisierung hervorgerufen, die mit analoger Technik ausgelesen und in eine Timecode-Information zurückkonvertiert werden kann. Dadurch wird die Auslesung des Timecodes bei veränderter Bandgeschwindigkeit ermöglicht. Hier sind jedoch vor allem zu schnelleren Geschwindigkeiten Grenzen gesetzt.

4.1.4 Refresh, JAM-Sync und Decording Delay

Die LTC-Spur lässt sich nicht einfach kopieren, „denn jeder analoge Kopiervorgang rundet die Flanken von Impulsen, die bei der Timecode-Spur für die Polaritätswechsel stehen, ein wenig ab.“[55] Da aber das Kopieren einer Timecode-Spur manchmal unumgänglich ist, wird ein Refresh durchgeführt, bei dem die Flanken wieder hergestellt werden.

Zuverlässiger als mit der Refresh-Methode lässt sich der Timecode mit Hilfe des JAM-Sync-Verfahrens kopieren. „Dabei liest der Generator/Reader den zu kopierenden Timecode ein und generiert auf dessen Grundlage eine gänzlich neue, synchrone Timecode-Spur. Mit dieser Technik lassen sich Drop-outs von mehreren Frames kompensieren.“[56]

Eine kleine Tücke des LTC birgt das sogenannte Decording Delay. Dabei handelt es sich um einen Versatz von einem Frame zwischen der Generator- und Leserzeit. Beim Auslesen des Timecodes muss zunächst die unter dem Frame stehende Information vollständig ausgelesen werden. Somit ist „erst am Ende eines Datenblocks […] dem Timecode-Reader der vollständige Wert bekannt.“[57] In der Praxis wird daher dieser 'Fehler' vom Reader korrigiert, indem er automatisch zum eingelesenen Wert ein Frame addiert.

4.2 Vertical Interval Timecode (VITC)

4.2.1 Einführung

Im Gegensatz zum LTC, der als Tonsignal auf eine Audiospur aufgezeichnet wird, hat der Vertical Interval Timecode seinen Ursprung in der Fernsehwelt und versteckt sich „in der vertikalen Austastlücke des Videobildes und ist somit nicht störend im Bild zu sehen.“[58] Der VITC „wird bei der Schrägspur-Videoaufzeichnung verwendet.“[59]

4.2.2 VITC-Format

Das VITC-Format besitzt eine 90-Bit-Verschlüsselung. Dem VITC stehen somit zehn Bits mehr in seinem Codeformat zur Verfügung als dem LTC, wodurch sich das Format in seinem Aufbau wesentlich unterscheidet.[60] Im VITC werden wie im LTC die Zeit- und Userinformationen übertragen, die Verwendung der Kontrollbits (Bit 14, 35, 55), sowie das Farbsynchronisationsbit (Bit 15) gelten auch hier, allerdings belegen sie nicht die selben Bit-Nummern wie im LTC.[61] Neben den üblichen 26 Bits, die der Speicherung der reinen Zeitinformation incl. der Frames dienen und der Userbits (32 Bits), beinhaltet der VITC 18 Synchronisationsbits, die das Synchronwort des LTC ersetzen. Beim VITC ist ein Synchronwort nicht notwendig, „da sich der VITC immer an der gleichen Stelle im Bild befindet und dessen Anfang schnell über die Synchronbits gefunden werden kann.“[62] Ebenso entfällt die Laufrichtungsinformation, da ein Videobild immer von links nach rechts und von oben nach unten gelesen werden kann.[63] Die Synchronisationsbits sind immer als 1-0-Folge angeordnet, so dass der Timecode-Reader erkennen kann, in welcher Zeile der Timecode liegt und ihn so auszulesen. Außerdem werden die 1-0-Übergänge verwendet, „um beim Auslesen der Timecodeinformation die Bit-Synchronität zu gewährleisten.“[64]

[...]


[1] Hubert Henle: Das Tonstudio Handbuch, München 1998, S. 331.

[2] Hans Jörg Friedrich: Tontechnik für Mediengestalter. Töne hören – Technik verstehen – Medien gestalten, Berlin / Heidelberg 2008, S. 217.

[3] http://www.alpermann-velte.com/projekte/tc_intro/pic1.jpg

[4] http://www.alpermann-velte.com/projekte/tc_intro/tcintro.html

[5] Vgl. ebd.

[6] Henle, S. 331.

[7] Ebd.

[8] Vgl. ebd.

[9] Ebd., S. 332.

[10] Ebd., S. 333.

[11] Siehe Kapitel Data Bits 3.2.1.

[12] Vgl. http://www.smpte.org/about/.

[13] Vgl. http://www.ebu.ch/en/about/index.php.

[14] Siehe Kapitel 3.2f.

[15] Henle, S. 334.

[16] Ebd.

[17] Vgl. ebd.

[18] Ebd.

[19] Eine Übersicht dazu findet sich im Anhang, Kapitel 8.2.

[20] Friedrich, S. 220.

[21] http://www.alpermann-velte.com/projekte/tc_intro/pic2.jpg.

[22] Friedrich, S. 220.

[23] Vgl. ebd.

[24] Vgl. ebd.

[25] Ebd., S. 217.

[26] Vgl. Henle, S. 339.

[27] http://www.alpermann-velte.com/projekte/tc_intro/pic3.jpg

[28] Vgl. Uwe Schneider und Dieter Werner (Hg.): Taschenbuch der Informatik, München/Wien 2004, S. 74.

[29] http://www.alpermann-velte.com/projekte/tc_intro/pic4.jpg

[30] Siehe dazu Kapitel 3.1.

[31] Ein Field bezeichnet dabei stets ein Halbbild.

[32] Vgl. http://www.alpermann-velte.com/projekte/tc_intro/tcintro.html.

[33] Vgl. http://www.alpermann-velte.com/projekte/tc_intro/tcintro.html.

[34] Andreas Friese>

[35] Vgl. Ebd., S. 730.

[36] Siehe Kapitel Modulation und Aufzeichung 4.1.3.

[37] Friesecke, S. 730.

[38] Vgl. Friedrich, S. 221.

[39] Friedrich, S. 221.

[40] Vgl. Der Brockhaus. Computer und Informationstechnologie. Hardware, Software, Multimedia, Internet, Telekommunikation, Leipzig/Mannheim 2003, S. 99.

[41] http://home.arcor.de/s.neudeck/LTC.htm. Die Grafik zeigt die Bild- und Timecodespur eines Videobandes, sowie die Einteilung des Bildes in 80 Segmente, die wiederum in dem 4-Bit-Code dargestellt werden und somit pro Bit-Code eine Ziffer aufzeichnen.

[42] Friedrich, S. 219.

[43] Friesecke, S. 729.

[44] Henle, S. 332.

[45] Ebd.

[46] Ebd.

[47] Ebd., S. 333.

[48] Vgl. Friesecke, S. 729.

[49] Henle, S. 336.

[50] Vgl. Friesecke, S. 517.

[51] http://www.alpermann-velte.com/projekte/tc_intro/pic8.jpg.

[52] Vgl. Friesecke, S. 729.

[53] Vgl. Friedrich, S. 219.

[54] Friesecke, S. 730.

[55] Henle, S. 336f.

[56] Ebd., S. 337.

[57] Ebd., S. 338.

[58] Friesecke, S. 731.

[59] Friedrich, S. 219.

[60] Eine Übersicht über das LTC-Format findet sich im Anhang, Kapitel 8.1.

[61] Eine Übersicht über den Aufbau des VITC findet sich im Anhang, Kapitel 8.2.

[62] Friesecke, S. 732.

[63] Vgl. ebd.

[64] Ebd.

Ende der Leseprobe aus 34 Seiten

Details

Titel
Die Geschichte und Technik des SMPTE- und MIDI-Timecodes
Hochschule
Hochschule für Musik Karlsruhe  (Musikwissenschaft und Musikinformatik)
Veranstaltung
Musikinformatik
Note
1,3
Autor
Jahr
2009
Seiten
34
Katalognummer
V207497
ISBN (eBook)
9783668711891
ISBN (Buch)
9783668711907
Dateigröße
712 KB
Sprache
Deutsch
Schlagworte
Timecode, MIDI, SMPTE, Musikinformatik, Technik, EBU, LTC, VITC, MTC
Arbeit zitieren
Isabelle Räuchle (Autor:in), 2009, Die Geschichte und Technik des SMPTE- und MIDI-Timecodes, München, GRIN Verlag, https://www.grin.com/document/207497

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Die Geschichte und Technik des SMPTE- und MIDI-Timecodes



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden