Die vorliegende Arbeit befasst sich mit den Medienformate in der Postproduktion. Die digitale Nachbearbeitung erfordert besondere Merkmale an ein digitales Dateiformat. Diese besonderen Merkmale werden am Beispiel von Material eXchange Format ausführlich dargestellt. Das direkte Konkurenzformat Global eXchange Format wird ebenso analysiert. Abschliessend werden die beiden großen Dateiformate der Postproduktion MXF und GXF mit ASF verglichen.
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Einleitung
2 Grundlagen
2.1 Evolution
2.1.1 Klassische Bearbeitung von AV-Daten
2.1.2 Die moderne Bearbeitung von AV-Daten
2.2 Grundbegriffe
2.2.1 Kompressionsverfahren
2.2.2 Key-Length-Value-Protocoll
2.2.3 Containerformate
2.2.4 Essenz
2.2.5 Metadaten
3 Material eXchange Format
3.1 Essenz
3.2 Metadaten
3.2.1 Deskriptive Metadaten
3.2.2 Strukturelle Metadaten
3.3 Operational Pattern
3.4 Datenstruktur
3.4.1 File Header
3.4.2 File Body
3.4.3 File Footer
4 General eXchange Format
4.1 GXF Eigenschaften
4.2 Datenstruktur
4.2.1 MAP
4.2.2 FLT
4.2.3 UMF
4.2.4 Media Packet
4.2.5 EOS
4.3 Erweiterungen
4.4 Verwendung
5 Containerformate im Vergleich
5.1 Kriterien
5.2 Advanced Authoring Format
5.3 General eXchange Format
5.4 Material eXchange Format
5.5 Advanced Streaming Format
5.6 Gegenüberstellung
6 Fazit
Literatur- und Quellenverzeichnis
Abbildungsverzeichnis
2.1 Schematischer Aufbau eines linearen Editingsystems
2.2 Schematische Darstellung eines nichtlinearen Editingsystems
2.3 Frequenzbereich des menschlichen Gehörs
2.4 Beispiel Lauflängenkodierung
2.5 Key-Length-Value Aufbau
2.6 Beispiel Container-Aufbau
3.1 Beziehung zwischen Material Package und File Package
3.2 Source Reference Chain
3.3 Matrix der Operational Pattern
3.4 vereinfachte Grundstruktur einer MXF-Datei
3.5 Aufbau eines Content Package
3.6 Prinzip des Frame Wrapping und des Clip Wrapping
4.1 Logo Grass Valley Group
4.2 Datenstruktur GXF
5.1 Wichtige Objekte in einem AAF-File
5.2 Schematischer Aufbau einer ASF-Datei
5.3 Beispiel ASX-Datei
5.4 Streamingablauf mittels MMS-Protokoll
Tabellenverzeichnis
2.1 Evolution der AV-Bearbeitung
2.2 Typische Werte des Key-Feldes
5.1 Vergleich
1 Einleitung
Im Wandel von der Industrie- zur Informationsgesellschaft gewinnen die Ak-tualität, die Qualität sowie die Quantität von Informationen zunehmend an Be-deutung. Die Produktion von Wissen erzielt höhere wirtschaftliche Wertschöp-fung als die Produktion von Gütern. Alte Märkte werden von neuen Medien ver-drängt.
Aus der Entmaterialisierung der wirtschaftlichen Wertschöpfung ergibt sich eine Verknappung der Ressource Aufmerksamkeit wogegen Geld an Bedeutung ver-liert. Aufmerksamkeit ist die knappste Ressource der Informationsverarbeitung. Sie misst einerseits die menschliche Beachtung, andererseits aber auch den öko-nomischen Wert einer Neuigkeit1. Gerade im Bereich von Rundfunk- und Fern-sehproduktionen lassen sich in den letzten Jahren die steigende Bedeutung von Transport und Interoperabilität von Informationen in der Postproduktion (dem sog. Workflow2) und der Vermarktung von Medieninhalten beobachten.
Proprietäre Lösungen von Sendeanstalten und Produktionsfirmen verzögern, bzw. behindern den Informationsfluss zur Postproduktion sowie zum Konsumenten erheblich. Der Grad der Aufmerksamkeit hängt allerdings proportional mit der Aktualität der Informationen zusammen. Daher begründet sich ein wirtschaftli-ches Interesse nach einem einheitlichen Datenformat zur Speicherung, Bearbei-tung und für den Austausch von Medieninhalten. Um diesem Anspruch gerecht zu werden wird seit 2003 das Containerformat (auch Hüll- oder Wrapper- Format genannt) MXF (Material Exchange Format) standardisiert3.
Diese Arbeit befasst sich mit den Möglichkeiten des Austauschs von (konservier-ten) Informationen. Also den Datenformaten, die die Speicherung und den Ver-sand von Bild-, und Tonmaterial sowie der zugehörigen Metadaten4 gewährlei-sten. Diese Datenformate werden im Laufe dieser Arbeit beleuchtet und kritisch untereinander und gegen das MX-Format im Besonderen verglichen.
2 Grundlagen
2.1 Evolution
Die folgende Tabelle soll einen zeitlichen Überblick über die Entwicklung im Me-dienbereich von audiovisuellen Daten sowie deren Bearbeitungsmöglichkeiten und Distribution in Europa vermitteln.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 2.1: Evolution der AV-Bearbeitung1
Da diese Fallstudie sich speziell mit den Datenformaten im Medienbereich be-fasst ist die so genannte Postproduktion von besonderem Interesse. Unter dem Begriff Postproduktion versteht man alle Arbeitsschritte, die dazu dienen aufge-nommenes Rohmaterial (Video und Audio) zum Endprodukt zu veredeln, also nachzubearbeiten.
Dazu gehören beispielsweise
- Der Schnitt des Materials
- Die Veränderung einer Tönung von Filmmaterial
- Das Einfügen von visuellen Effekten
- Die Bearbeitung des Ton, bzw. das nachträgliche Vertonen
- Das Ergänzen von Vor- und Abspann
Nachdem in den Anfängen der Postproduktion der Film, teilweise unter erheb-lichem Qualitätsverlust, analog bearbeitet, geschnitten und kopiert wurde, kam Mitte der Achtzigerjahre das erste digitale Gerät von der Firma Quantel auf den Markt. Mit diesem Gerät wurden erstmals alle Arbeitsschritte der Postprodukti-on mit dem Material ohne Qualitätsverlust abgewickelt2.
Betrachtet man die Entwicklung der Postproduktion lässt sich ein Wandel vom linearen Workflow (klassische Bearbeitung) zum nichtlinearen Workflow (moder-ne Bearbeitung) beobachten.
2.1.1 Klassische Bearbeitung von AV-Daten
Der lineare Workflow in der Postproduktion ist vereinfacht formuliert das kopie-ren gewünschter Sequenzen von Quellbändern auf ein neues Band in bestimmter Reihenfolge und unter Einbringung von Effekten durch ein Editingsystem3.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.1: Schematischer Aufbau eines linearen Editingsystems4
Diese Verfahrensweise ist in der Postproduktion nach wie vor weit verbreitet. Zwar kommt es durch lange Bandspulzeiten zu den jeweils gewünschten Sequen-zen zu einem hohen Zeitaufwand, dafür kann direkt das Originalband als Quelle verwendet werden. Darüber hinaus ist dieses Verfahren aufgrund jahrzehntelan-ger Praxis ausgereift.
2.1.2 Die moderne Bearbeitung von AV-Daten
Beim nichtlinearen Workflow wird im Gegensatz zum linearen Workflow keine Kopie der Quelldaten vorgenommen. Es wird mittels IT eine Datei erstellt. In dieser Datei liegen dann Verweise auf die Quellsequenzen und andere Metada-ten5. Die Quelldaten müssen dazu allerdings auf elektronischen Speichermedien (meist Festplatten) vorliegen. Liegen Sie als MAZ vor müssen Sie vor der Post-produktion ins Editingsystem eingespielt werden6.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.2: Schematische Darstellung eines nichtlinearen Editingsystems7
Die Vorteile sind, dass für einen einfaches Editingsystem nur ein einziges kost-spieliges MAZ-Gerät erforderlich ist. Die anderen Komponenten des Schnittplat-zes sind im Prinzip Standard PC Hardware8. Des Weiteren können erkannte Feh-ler ohne nennenswerten Aufwand korrigiert werden, da es sich ja um „virtuel-len“ Schnitt handelt, der Verweise auf die Originaldaten beinhaltet. Durch Ände-rung der Verweise lässt sich das Ergebnis also einfach korrigieren. Nicht zuletzt sei hier noch erwähnt, dass unter Anwendung dieses Verfahren zentral liegenden Quelldaten von mehreren Editingsystemen und auch für mehrere verschiedene Projekte verwendet werden können. Die Daten lassen sich einfach und preiswert über zunehmend leistungfähigere Netzwerke transportieren9.
Ein Qualitätsvorsprung im Ergebnis bei Anwendung des nichtlinearen Workflow ist nicht zu erkennen, da in beiden Verfahren längst die Digitalisierung Einzug gehalten hat10.
2.2 Grundbegriffe
Da in der Informations- und Telekommunikations-Technologie häufig Begriffe mehrfach belegt sind, werden einige dieser Ausdrücke hier näher erläutert. Diese Erläuterung ist vorbereitend, zu den später verwendeten Kapiteln.
2.2.1 Kompressionsverfahren
Unter Kompression versteht man in der Informatik die Verdichtung von Spei-cherplatz durch Reduktion der Datenmenge.
Es gibt zwei Grundarten der Komprimierung11:
- Verlustfreie Komprimierung
- Verlustbehaftete Komprimierung
Je nach Anwendungsfall kann es sinnvoll sein, sich für einen Bereich zu entschei-den.
2.2.1.1 Verlustfreie Komprimierung
Unter der verlustfreien Komprimierung versteht man, dass das Ergebnis der Kom-pression sich zu 100% in die Ausgangsbasis zurückversetzen lässt. D.h. wenn man das komprimierte Ergebnis wieder dekomprimiert, sich dieses zu 100% mit der Ursprungsbasis deckt.
Durch den Austausch von sich wiederholenden Byte-Folgen durch eine Alternative Symbolik kann Speicherplatz eingespart werden. Dieses Verfahren wird Redundanzreduktion genannt.
2.2.1.2 Verlustbehaftete Komprimierung
Bei der verlustbehafteten Komprimierung entfallen Teile der Ursprungsbasis. Das bedeutet, dass das komprimierte Ergebnis nach der Dekomprimierung nicht mehr zu 100% mit der Ursprungsbasis übereinstimmt. Durch Entfernen von Informa-tionen lassen sich höhere Kompressionsraten als bei der verlustfreien Kompri-mierung erreichen.
Man spricht bei der verlustbehafteten Komprimierungen auch von der Irrela-vanzreduktion.
Um das Ergebnis der Komprimierung im Hinblick auf Qualität und Ratio zu op-timieren, macht man sich menschliche Eigenschaften zu nutze.
Das menschliche Gehör hat ein begrenztes Hörvermögen. Das Audio-Format MP3, entwickelt vom Frauenhofer Institut, komprimiert die Daten nach psycho akusti-schen Gesichtspunkten. Frequenzen, die das menschliche Gehör nicht wahrneh-men kann, werden ausgefiltert. Des Weiteren macht man sich das Verfahren der zeitlichen Verdeckung12 zu nutze. Das Ohr kann seine volle Leistung nach einem Schalleindruck erst einen Moment später wieder aufbauen, so das man die lei-sen Töne, welche auf das ersten Schallereignis folgen, ebenfalls ausfiltern kann13. Dies sind zwei Charakterisitika, welche Speicherplatz in einem Audio-Format, wie MP3, freigeben.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.3: Frequenzbereich des menschlichen Gehörs14 Typische Komprimierungsformate sind MPEG15, Ogg Vorbis oder AAC.
Bei der Speicherung von Bild- und Audio-Informationen entstehen hohe Daten-aufkommen.
Beispiel: Audio, 80 Minuten, Stereo, CD-Qualität16 (44,1 kHz)
Abbildung in dieser Leseprobe nicht enthalten
Bilddateien enthalten Informationen über jeden Punkt (Pixel) eines Bildes. Jeder Pixel enthält die Information über Helligkeit und Farbwert. Um die Bildinforma-tionen zu reduzieren werden Komprimierungs-Algorithmen benutzt. Beispiels-weise das Run Length Encoding (RLE).
Die Run Length Encoding, zu deutsch die Lauflängenkodierung, macht sich den Umstand zu Nutze, dass viele Daten Passagen mit sich wiederholenden, iden-tischen Zeichen aufweisen. Diese Wiederholungen werden durch Angaben über die Länge der Sequenz ersetzt(siehe Abb. 2.4). Im Beispiel wird eine Kompressi-onsrate von 50% erreicht (16 Bytes vorher, 8 Bytes nachher).
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.4: Beispiel Lauflängenkodierung17
Ein wichtiges Einsatzgebiet ist die Kompression von einfachen Graphiken, die einen hohen Anteil von gleichfarbigen Flächen beinhalten, wie z.B. Skizzen, Dia-gramme oder technische Zeichnungen. RLE-Verfahren sind beispielsweise Be-standteil von BMP-, TIFF- und PCX-Unterformaten.
RLE ist eines der einfachsten Datenkompressionsverfahren und stellt geringe An-forderungen an Soft- und Hardware.
Die Beschreibung, wie Daten komprimiert und wieder dekomprimiert werden, wird als Codec bezeichnet. Die einzelnen Codec unterscheiden sich je nach An-wendungsfall.
2.2.2 Key-Length-Value-Protocoll
Zu deutsch, Schlüssel-Längen-Inhalt-Protokoll ist ein Verfahren zur Transformation der Daten in einen seriellen Bytestrom. Definiert wurde dieses Verfahren von der SMPTE im Dokument 336M.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.5: Key-Length-Value Aufbau18
Jedes Teil besteht aus einem Schlüssel (Key) am Anfang. Anschließend folgen Längenangabe (Lenght) und Inhalt (Value). Dabei besteht dieser Inhalt wieder aus Dateien, die in der gleichen Reihenfolge angeordnet sind.
Alle diese KLV Einheiten sind in einer bestimmten systematischen Ordnung ge-lagert19.
Das Feld Key(Schlüssel) beschreibt den Typ des Inhaltfeldes. Typische Werte und Beschreibungen für das Feld Key sind:
01 = „Verzeichnis Inhalte“
02 = Gruppen (Sätze oder Zusammensetzung von Metadaten)
03 = Container, Wrapper
04 = Bezeichner (Labels)
Tabelle 2.2: Typische Werte des Key-Feldes
Das Feld Length definiert die Länge der nachfolgenden Daten. Besonders dabei hervorzuheben ist die Notation in big-Endian. Big-Endian20 und das Gegenstück Little-Endian21, unterscheiden sich in der binären Darstellung, wo die erste signi-fikante Stelle angibt, ob die Zahl positiv oder negativ ist.
Das Feld Value beinhaltet nun eine Sequenz von Bytes, mit einer Länge die im Feld Length angegeben wurde.
2.2.3 Containerformate
Definition Container: Ein Container ist ein Behältnis, welches verschiedene In-halte beherbergt.
Unter Containerformate in der Medieninformatik versteht man, das mehrere ein-zelne Dateiformate in einem zusammengefasst sind. Diese zusammengefassten Daten können unterschiedlichen Typs und Länge sein.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2.6: Beispiel Container-Aufbau
Das wohl bekannteste Containerformat ist AVI mit der Bezeichnung RIFF. AVI steht für Audio Video Interleave und enthält sowohl Bild- als auch Tondaten. RIFF steht für Resource Interchange File Format. Das Audioformat WAVE bein-haltet einen RIFF-Container, der aus mehreren Chunks (engl. Bröckchen) besteht.
Beispielsweise enthalten die Chunks Metadaten über die Audiodatei, wie Anzahl der Kanäle, Abtastrate, Modulation.
Der Aufbau eines Containerformats entscheidet, ob eine Datei streaming-fähig ist, oder nicht. So kann eine Datei, wo die Audio- und Videodaten hintereinander in der Datei selbst abgelegt sind, erst abgespielt werden, wenn sich diese bereits geladen wurde.
Hingegen wenn Audio- und Videodaten über ein Multiplex-Verfahren verteilt sind (Bsp.10 Bilder, 1 Sekunde Ton, 10 Bilder, 1 Sekunde Ton) können diese be-reits angezeigt bzw abgespielt werden, bevor die komplette Datei geladen wurde. Siehe auch Abb. 3.6.
2.2.4 Essenz
Alle audiovisuellen Daten, die zu einer Produktion gehören, werden als Essenz bezeichnet. Sie stellen die reinen Information dar, welche zur Verarbeitung her-angezogen werden.
Das dazu genutzte Bild- wie auch Tonformat ist nicht näher definiert. Die Unter-stützung für verschiedene Formatkompressionen ist abhängig von der Verwen-dung. Dies wird in den nachfolgenden Kapiteln wieder aufgegriffen.
2.2.5 Metadaten
Daten, die selbst wieder andere Daten beschreiben, nennt man Metadaten. Meta-daten werden auch Beschreibungsdaten genannt22. Metadaten werden werden in vielen Anwendungsgebieten genutzt. Beispielsweise in der Bibliothek, wo in der Datenbank Informationen über Standort des Buches, Autor, Verlag und Erschei-nungsdatum gespeichert werden. Oder daheim mit der Audio-CD, welche am PC ausgelesene Lieder mit der Datenbank im Internet CDDB23 abgleicht und die Angabe von Interpret, Titel und Album herausfindet. Intelligente Suchmaschinen im Internet verhelfen der Recherche mit Schlagwörtern nach vielen Treffern.
Bei den meisten Dateiformaten in der Medieninformatik sind diese zusätzlichen Informationen kein Muss-Bestandteil.
Für die Dateiformate MXF, GXF, und AAF werden die Metadaten weiter unter-teilt in „Strukurelle“ und „Deskriptive“.
2.2.5.1 Strukturelle Metadaten
Die strukturellen Metadaten im File-Header beschreiben die Struktur innerhalb der Datei und der eingeschlossenen Essenz. Es ist die komplette Beschreibung des Dateiinhalts, ohne jedoch selbst die Essence zu beherbergen. Es beschreibt die Synchronisation und den zeitlichen Verlauf der Essence.
2.2.5.2 Deskriptive Metadaten
Während strukturelle Metadaten für die Maschinen gemacht sind und Anwei-sungen beinhalten, ab wann welches Bild mit welchem Ton zur welchen Zeit ab-gespielt werden muss, dienen deskriptive Metadaten Menschen mit begleitenden Informationen zur Essenz.
Der Urheber, der Drehort oder Zeitpunkt stellen nur einen kleinen Teil der Menge an Informationen dar, welche zu einer Essenz gespeichert werden können.
3 Material eXchange Format
Historisch betrachtet geht die Entwicklung der M)(F-Formates auf die Arbeit der „EBU/SMPTE Task Force for Harmonized Standards for the Exchange of Pro-gramm Material as Bitstreams“ zurück, die ihre Arbeit im November 1996 be-gann1. Die Aufgabe der Task Force war es die technische Entwicklung im Bereich der Vernetzung, Verarbeitung und Speicherung multimedialer Daten im Broadcasting zu untersuchen und daraus wegweisende Entscheidungen zu treffen, die zu Standardisierungen führen. Auf Basis einiger Entwicklungen der SMPTE en-geneering committees, wie Key-Length-Value-Coding2, Unique Material Identifier und Serial Data Transport Interface, begann das Professional-MPEG Forum 1999 mit der Definition des M)(F-Formates. Grundlagen waren dabei folgende Anforderungen3 :
- die Möglichkeit sowohl programmrelevate Daten, als auch Video- und Au-diodaten zu speichern.
- die Möglichkeit mit Inhalten der Datei zu arbeiten, bevor die Datei vollstän-dig übertragen ist.
- die Möglichkeit Informationen aus der Datei zu lesen / zu decodieren, selbst wenn die Datei nicht vollständig ist.
- Das Format sollte offen, standardisiert und unabhängig vom Kompressi-onsverfahren sein.
- Das Format ist auf den Austausch von vollständigen Programmen oder von Programmsegmenten ausgelegt.
- Als wichtigste Anforderung sollte das Format einfach genug sein, um Echt-zeitimplementierung zu erlauben.
Aus diesen grundlegenden Anforderungen wurden folgende elementare Kon-zepte entwickelt4:
- Die Datei besteht aus den Hauptelementen Header Metadata , Essence Container und Index Table
- Die Datei kann in Einzelteile zerlegt werden und diese Einzelteile können gesondert gespeichert werden.
- Das Element Header Metadata setzt sich aus strukturellen Metadaten und optionalen, beschreibenden Metadaten zusammen.
- Metadaten können auch im Essence Container oder gar als Teil der Essence hinterlegt werden
- Die strukturellen Metadaten definieren den Inhalt einer Datei.
- Die Header Metadata wird im Rahmen eines, zum AAF Daten Modell, kom-patiblen Datenmodells erstellt.
- Das Topmost Package repräsentiert das auszugebende Material, nicht den Essence Containers . Eine M)(F-Datei kann mehrere Container bzw. Packages enthalten.
3.1 Essenz
Der Begriff Essenz muß für das M)(F-Format erweitert werden5. Im M)(F-Format besteht nicht nur die Möglichkeit audiovisuelle Daten zu hinterlegen, sondern auch begleitende Daten, wie zum Beispiel Untertitel, Videotext u.ä. Im Grundsatz ist dieses Format für alle möglichen und zukünftigen Inhalte offen, sogar dafür geschaffen6. Essenzen können intern in der M)(F-Datei, extern in einer oder meh-reren M)(F-Dateien, aber auch extern als Nicht-M)(F-Datei vorhanden sein.
Zum heutigen Tag sind 11 Spezifikationen für den Gebrauch in Verbindung mit dem M)(F-Format dokumentiert7:
MPEG Streams, AES3 Streams and Broadcast Wave Audio, DV-DIF Data, Uncompressed Pictures, SDTI-CP Essence, Type D-10 Essence Data, D-11 Essence Data, A-law Coded Audio, JPEG 2000 Codestreams, VBI Lines and Ancillary Data Packets, MPEG Long GOP, AVC Streams.
[...]
1 Vgl. Frank [10]
2 Vgl. Forschungsbericht MovieCollege[29]
3 Vgl. Höntsch [14]
4 Näheres in Kapitel 2.2.5
1 Vgl.Heyna [13], S.16ff; AV steht für Audio und Video
2 Vgl. Bodemann [6]
3 Vgl. Heyna[13],S.17
4 Entnommen aus: Schmidt [24], S.698
5 Näheres in 2.2.5
6 Vgl. Heyna[13],S.17
7 Entnommen aus: Schmidt [24], S.703
8 Vgl. Schmidt [24], S.703
9 Vgl. Heyna[13],S.18
10Vgl. Heyna[13],S.1
11Vgl. Kückes [16]
12Vgl. Bruns/Meyer-Wegner[7],S.67
13Vgl. Holzinger [15], S.75ff
14Entnommen aus: [26], S.11, Stand: 29.12.2007;angelehnt an Bruns/Meyer-Wegner[7],S.124
15Vgl. Schmidt[23],S.130
16CDDA basiert auf den Redbook Standard von 1983
17Angelehnt an Holzinger[15], S.157
18Angelehnt an Wells[30], S.208
19Definiert in SMPTE 377M-2004
20Vgl. Schmidt [23], S.23
21Vgl. Barnet[5]
22Vgl. Barnet[5]
23Abk. Compact Disc Data Base
1 Vgl. Wells [30], S. 6
2 Näheres in Kapitel 2.2.5
3 Vgl. Wells [30], S. 2
4 Vgl. Wells [30], S. 13
5 Näheres in Kapitel 2.2.4
6 Vgl. Wells [30], S. 7
7 Vgl. The Library of Congress[28]
- Arbeit zitieren
- Diplom-Wirtschaftsinformatiker (FH) M. Gläß (Autor:in), M. Flügel (Autor:in), N. Röhr (Autor:in), R. Rygol (Autor:in), 2008, Material eXchange vs. vergleichbare Formate, München, GRIN Verlag, https://www.grin.com/document/136823