Motion Capture im semi-professionellen Umfeld


Diplomarbeit, 2003
127 Seiten, Note: sehr gut

Leseprobe

INHALTSVERZEICHNIS

Einleitung

Kurzfassung / Summary

Teil 1 - Motion Capture in der Theorie (Einleitung)

1. Was ist Motion Capture

2. Warum Motion Capture

3. Geschichte des Motion Capture
3.1 The Catherine Wheel (1978 - 1979)
3.2 Goniometer (1980 - 1982)
3.3 Graphische Marionette (1983)
3.4 Mike the Talking Head und Waldo (1988)
3.5 Dozo (1989)
3.6 Mat the Ghost (1991)
3.7 Face Waldo und Mario (1992)
3.8 Alive! und Moxy (1992)
3.9 Acclaim (1993)
3.10 Kommerzielle Systeme (Heute)

4. Zukunft
4.1 Probleme, die es zu lösen gilt
4.2 Ziele

5. Die verschiedenen Systeme
5.1 Einteilung nach Funktionsweise
5.1.1 Outside-In
5.1.2 Inside-Out
5.1.3 Inside-In
5.2 Einteilung nach Technik
5.2.1 (Elektro-)Magnetisches System
5.2.2 Optisches System
5.2.3 Mechanisches System
5.2.4 Weitere Systeme

6. Einsatzgebiete von Motion Capture
6.1 Computerspiele
6.2 Fernsehen
6.2.1 Live Motion Capture-Performance
6.2.2 Werbung
6.2.3 Musikvideos
6.3 Film
6.3.1 Einbindung in Realfilm
6.3.2 3D-Feature Filme
6.4 Web
6.5 Live Elements
6.6 Wahrnehmungsforschung
6.7 Biomechanische Analyse
6.8 Konstruktion/Maschinenbau/Technik
6.9 Virtual Reality

Teil 2 - Motion Capture an der FH Vorarlberg

7. Situation an der FH
7.1 Das Motion Capture-System
7.1.1 MotionStar
7.1.2 Maya-Rechner
7.2 Die Räumlichkeiten

8. Der Avatar
8.1 Modellierung
8.2 Skelett
8.3 Skin Binding

9. Maya

10. Vorbereiten der Aufnahmen
10.1 Systeminitialisierung
10.1.1 Einmalige Grundeinstellung des Systems
10.1.2 Hochfahren des Systems
10.2 Einbinden in Maya
10.3 Montieren der Sensoren

11. Die Aufnahmen
11.1 Versuch 1
11.1.1 Bemerkungen
11.1.2 Aufbau der Szene
11.1.3 Erstellen des Skeletts
11.1.4 Montieren der Sensoren
11.1.5 Übertragen der Bewegungen
11.1.6 Probleme bei diesem Versuch
11.2 Versuch 2
11.2.1 Bemerkungen
11.2.2 Aufbau der Szene
11.2.3 Erstellen des Skeletts
11.2.4 Montieren der Sensoren
11.2.5 Übertragung der Bewegungen
11.2.6 Probleme bei Versuch 2
11.3 Versuch 3
11.3.1 Bemerkungen
11.3.2 Aufbau der Szene
11.3.3 Erstellen des Skeletts
11.3.4 Montieren der Sensoren
11.3.5 Übertragen der Bewegungen
11.3.6 Probleme bei Versuch 3
11.4 Versuch 4
11.4.1 Bemerkungen
11.4.2 Aufbau der Szene
11.4.3 Erstellen des Skeletts
11.4.4 Montieren der Sensoren
11.4.5 Übertragen der Bewegungen
11.4.6 Probleme bei Versuch 4

12. Die Handhabung von Aufnahmen
12.1 Takes
12.1.1 Speichern von Takes
12.1.2 Laden von Takes
12.2 Clips
12.2.1 Umwandeln in Rotationsdaten
12.2.2 Erstellen von Character Sets
12.2.3 Umwandeln der Bewegungsdaten in Keyframes
12.2.4 Umwandeln der Keyframes in Clips
12.2.5 Export und Import von Clips

13. Bearbeiten von Motion Capture-Daten
13.1 Automatisches Bearbeiten der Animationskurven
13.2 Manuelles Bearbeiten der Animationskurven

14. Kombination von Motion Capture mit Keyframing
14.1 Motion Capture als Referenz
14.2 Offset-Skelett
14.3 Trax Editor
14.3.1 Ändern eines einzelnen Clips
14.3.2 Überlagern von Clips
14.3.3 Überblenden von Clips
14.4 Kombination beider Methoden

15. Optimierung des Arbeitsablaufs
15.1 Verbinden des Motion Capture-Systems mit Maya
15.2 Erstellen von Takes
15.3 Erstellen von Clips

Teil 3 - Bewegungsuntersuchungen

Einleitung

Arm

Bein

Hand

Fuß

Kopf

Rücken

Sport

Schlussfolgerung

Anhang

Glossar

Abbildungsverzeichnis

Tabellenverzeichnis

Literaturverzeichnis

Abkürzungsverzeichnis

Eidesstattliche Erklärung

Impressum

EINLEITUNG

Diese Diplomarbeit befasst sich mit der Frage, inwieweit es sinnvoll und mög- lich ist, Motion Capture in einem semi-professionellen Umfeld einzusetzen. Die Fachhochschule Vorarlberg bietet die Voraussetzungen, entsprechende Untersuchungen ansetzen zu können. Das zur Verfügung stehende System MotionStar der Firma Ascension ist im mittleren Preissegment angesiedelt, die benutzbaren Räumlichkeiten beschränken sich auf gewöhnliche Büroräu- me und sind nicht speziell für Motion Capture-Aufnahmen prädestiniert. Ins- besondere das fehlende Know-How bezüglich des praktischen Einsatzes des vorhandenen Systems dient als Anstoß dazu, sich eingehend mit der Materie auseinander zu setzen. Die vorgenommenen Versuchsreihen basieren auf den innerhalb eines knappen Jahres in den lokalen Gegebenheiten erworbe- nen Erfahrungen.

Die vorliegende Arbeit dokumentiert die Erkenntnisse, welche zum einen durch das Befassen mit dem von der Fachhochschule Vorarlberg erworbe- nen magnetischen Motion Capture-System gewonnen werden konnten, zum anderen aus den Nachbearbeitungen der erfassten Bewegungen in Alias Wavefront Maya 4.5 resultieren. Die folgenden Ausführungen sollen als Leit- faden für den Einsatz von Motion Capture an der Fachhochschule Vorarlberg dienen, können jedoch auch für ein anderes Umfeld herangezogen werden.

KURZFASSUNG

Die vorliegende Arbeit ist in drei Schwerpunkte gegliedert.

Teil 1 informiert über das Thema »Motion Capture«, indem sowohl die historische Entwicklung näher gebracht, als auch ein Überblick über die unterschiedlichen Systeme und deren Einsatzgebiete gegeben wird.

Teil 2 dokumentiert die praktische Auseinandersetzung mit dem magnetischen Motion Capture-System MotionStar von Ascension und beschreibt iterative Experimente, die sich mit dem Übertragen menschlicher Bewegungen auf virtuelle Charaktere auseinander setzen.

Teil 3 visualisiert die Ergebnisse dieser Versuche und gibt Einblick in die bei den Aufnahmen entstandenen Probleme.

SUMMARY

The following diploma thesis is subdivided into three sections.

Part 1 informs about the subject »Motion Capture« by specifying its his- tory and giving a description about the various systems and their range of application.

Part 2 documents the practical work with Ascension ‘ s magnetic Motion Capture-System MotionStar and details repeating experiments concerning the transition of human motion to a virtual character.

Part 3 visualises the results of those attempts and shows the problems during the process of recording.

TEIL 1 - MOTION CAPTURE IN DER THEORIE

Motion Capture ermöglicht die Aufnahme realer Bewegungen und deren Umsetzung in virtu- elle Welten. Die relativ junge Technik findet immer größer werdenden Anklang und gewinnt sukzessive in den unterschied- lichsten Bereichen an Relevanz.

Der folgende Abschnitt definiert den Begriff »Motion Capture«, beschäftigt sich mit dessen His- torie und beleuchtet sowohl die wesentlichen System-Varianten als auch die Einsatzgebiete, in denen Motion Capture Anwen- dung findet.1,2

1. WAS IST MOTION CAPTURE

Alberto Menache definiert im Buch »Understanding Motion Capture for Computer Anima- tion and Video Games«1 Motion Capture als »die Erzeugung einer dreidimensionalen Darstellung einer live performance«. Somit steht Motion Capture, oft als »MoCap« ab- gekürzt, im Kontrast zur Animation, die »von Hand« geschaffen wird (»Keyframe Ani- mation«). Das Ergebnis von Motion Capture ist nicht die Animation selbst, sondern eine Ansammlung von Daten, welche die aufgezeichneten Bewegungen repräsentieren.

Motion Capture wurde als umstrittenes Werkzeug betrachtet, da in den Anfangszeiten der Aufwand, Motion Capture-Daten aufzuarbeiten, oftmals mehr Zeit in Anspruch nahm als die bisher angewandte Technik. Doch im Laufe der Jahre wurden Motion CaptureSysteme und Software dermaßen verbessert, dass es mittlerweile zu einem brauchbaren Werkzeug für Animatoren geworden ist.

Die Animationssoftware, welche mit den Daten, die von einem Motion Capture-System stammen, arbeitet, entwickelte sich in den vergangenen Jahren so weit, dass Animato- ren die Aufnahmen von verschiedenen Capture-Versuchen mit der Technik der Keyframe Animation mischen können. Somit kann die Qualität des Ergebnisses für jede Art von Bewegung - vom Zeichentrick bis hin zur realistischen Bewegung - entsprechend ge- steuert werden.

Keyframe Animation : Animationen werden mit Hilfe von Schlüsselbildern (»Key- frames«) definiert. Zu bestimmten Zeitpunkten wird der Wert für ein bestimmtes Attribut, beispielsweise die Position eines Objekts, festgelegt. Die Zwischenwerte werden automatisch vom Programm berechnet und als Animationskurven (siehe Abbildung 1) dargestellt, wobei deren Verlauf durch Tangenten manipuliert wer- den kann. 3

Abb. 1, »Keyframe Animation«

Animationskurven verschiedener Attribute eines Objekts

Abbildung in dieser Leseprobe nicht enthalten

2. WARUM MOTION CAPTURE

Motion Capture kann eine äußerst zeitsparende Technik bei Animationsprojekten sein. Der Animationsprozess kann insbesondere vereinfacht werden, wenn eine realistische Charakteranimation mit komplexen Bewegungen erstellt werden soll. In diesem Zusam- menhang fällt auch oft der Ausdruck »Performance Animation«. Dieser Begriff kann als Aufzeichnung von charakteristischen Bewegungen einer bestimmten Person beschrieben werden. So kann eine virtuelle Figur den Bewegungs-Stil der beim Motion Capture als Darsteller eingesetzten Person, oft einer Berühmtheit, unverkennbar nachahmen.

Motion Capture-Hardware findet hauptsächlich in zwei Bereichen Anwendung. Das häufigste Einsatzgebiet ist die Aufnahme von Daten für die weitere Verarbeitung in einer 3D Animationssoftware oder in einer Bewegungsanalyse. Da der Prozess von der Aufnahme bis zur Vorschau oft innerhalb weniger Minuten erledigt werden kann, ermöglicht diese Technik einem kleinen Produktionsteam mit einem einzelnen Schauspieler, mehrere komplexe Animationen an einem Nachmittag zu produzieren. Sind die Daten einmal aufgenommen, kann eine Bewegung theoretisch auf jede Art von Figuren übertragen werden. Besonders bei der Herstellung eines Computerspiels bietet Motion Capture daher eine ökonomische Alternative zur rein manuellen Animation.

Weiters kann Motion Capture für so genannte Echtzeit-Anwendungen eingesetzt werden, in welchen Bewegungen eines Schauspielers ohne Verzögerung auf den animierten Charakter übertragen werden. Dies kommt besonders bei Live-Fernsehauftritten und Aufführungen bei Messen, Kongressen und anderen Ereignissen zum Tragen. Auch für die unterschiedlichen Einsatzgebiete im »Virtual Reality«-Bereich ist ein Echtzeit-Sys- tem eine unentbehrliche Hilfe. Sensoren dienen als Instrumente für Interaktivität und ermöglichen eine Steuerung und Manipulation von unterschiedlichen 3D-Objekten, Kamerafahrten, Änderung von Lichtverhältnissen etc.

Im Gegensatz zum realen Dreh kann die synthetische Kameraperspektive in Sekundenschnelle variiert werden, von der »Über-Kopf« Ansicht bis hin zur Ansicht (von unten) »durch den Boden« (siehe Abbildung 2).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2, Final Fantasy: Die M ä chte in dir3

3. GESCHICHTE DES MOTION CAPTURE

Die Technik des Motion Capture wurde erst in den späten 70er Jahren entwickelt. Die Idee, eine menschliche Bewegung auf eigens kreierte Charaktere zu kopieren, war natürlich nicht neu. Das so genannte »Rotoscoping«-Verfahren wurde schon vor Jahrzehnten beispielsweise in den Disney Studios erfolgreich eingesetzt. Bei dieser Methode werden die animierten Bewegungen vom Filmmaterial »live« agierender Schauspieler, die eine Szene nachspielen, nachgezeichnet.1

3.1 The Catherine Wheel (1978 - 1979)

Ende der 70er Jahre war es realisierbar, Charaktere mittels Computer zu animieren, wobei auch die »traditionelle« Technik des »Rotoscoping« berücksichtigt wurde. Rebec- ca Allen vom New York Institute of Technology Computer Graphics Lab benutzte einen Spiegel, um Videoaufnahmen von realen Ballett-Tänzern auf den Monitor zu überlagern und mit Hilfe dieser Vorlage einen computergenerierten Tänzer für den Film The Cathe- rine Wheel zu erstellen. Dabei dienten diese Posen als Schlüsselbilder für eine flüssige Animation. Die Komplexität einer menschlichen Bewegung verlangte die Erstellung auf- einander folgender Posen für beinahe jeden »Frame«. Somit kann »Rotoscoping« als eine Ur-Form des Motion Capture gesehen werden, bei der die Bewegungen sorgfältig per Hand »gecaptured« wurden.1

3.2 Goniometer (1980 - 1982)

Zu Beginn der 80er Jahre begannen Wissenschaftler vermehrt, Computer bei der Ana- lyse menschlicher Bewegung einzusetzen. Tom Calvert, Professor für Kinesiologie und Computerwissenschaft an der Simon Fraser Universit ä t, brachte Potentiometer (Teil- spannungsmesser) an einem Körper an und verwendete deren Messwerte, um compu- teranimierte Figuren für choreographische Studien und Bemessungen von Bewegungs- abnormalitäten zu steuern. Ein Außenskelett an jedem Bein diente beispielsweise dazu, die Beugung eines Knies zu verfolgen. Dabei wurden Potentiometer entlang jedes Beines angebracht, damit diese die Bewegungen in Übereinstimmung mit dem Knie vollzogen. Die analogen Daten wurden digitalisiert und an das Computeranimationssystem weiter- gegeben. Mit kinematischen Spezifikationen und dem Motion Capture-Apparat konnte dieses Animationssystem eine komplette Charakterbewegung beschreiben.1

3.3 Graphische Marionette (1983)

Sehr bald fanden die optischen Capture-Systeme wie Op-Eye und SelSpot im kommerziellen Bereich Verwendung. Sowohl die MIT Architecture Machine Group, als auch das New York Institute of Technology Computer Graphics Lab arbeiteten an der Entwicklung des optischen »Capturing« von menschlichen Körpern.

Im Jahre 1983 wurde von Ginsberg und Maxwell (MIT Architecture Machine Group) die »Graphische Marionette« präsentiert. Das System verwendete das optische Capture- System Op-Eye, wobei ein Anzug mit Leuchtdioden (LEDs) an den Gelenken und ande- ren charakteristischen Positionen eines Körpers verkabelt wurde. Jede zweidimensionale Position wurde durch zwei spezielle Kameras an den Computer weitergegeben. Dieser berechnete anschließend anhand dieser Positionsinformationen dreidimensionale Koor- dinaten für jede LED. Ein sofortiges Feedback kam von einer virtuell erstellten Figur, die durch diese Informationen bewegt wurde. Das System speicherte die Abfolge der Punkte für spätere Renderings (Rendering = digitales Berechnen eines Bildes) von detaillierte- ren Charakteren. Dass sich diese Technologie für Animationsproduktionen nicht rasch weltweit durchsetzen konnte, war hauptsächlich auf die langsame Geschwindigkeit beim Rendern von Charakteren und die hohen Kosten der Motion Capture-Hardware zurück- zuführen. Seit damals wurde das Hardware-Rendering zunehmend verbessert und somit finden diese Systeme vermehrt Anklang in der Welt der Charakteranimationen.1

3.4 Mike the Talking Head und Waldo (1988)

»Mike the Talking Head« war das Ergebnis einer Entwicklung von deGraf und Wahrmann für Silicon Graphics, um die Leistungsfähigkeit ihrer Maschinen unter Beweis zu stellen. Speziell erzeugte »Controller« ermöglichten einem Puppenspieler, diverse Parameter von Mike’s Gesicht zu kontrollieren, wobei Mund, Augen, Ausdruck und die Position des Kopfs gesteuert werden konnten. Die Hardware von Silicon Graphics vermochte eine EchtzeitInterpolation zwischen dem Gesichtsausdruck und der Geometrie des Kopfes aufgrund der Bewegungen des Darstellers zu errechnen.

Als Vorlage für das Gesicht, mit dem gearbeitet werden sollte, diente eine reale Person (Mike Gribble). Sein Gesicht wurde mit einem 3D-Digitalisierungsgerät (Analog-Digital- Wandler) gescannt, wodurch ca. 256.000 Punkte als digitale Daten erfasst wurden. Diese Punkte wurden in polygonale Daten konvertiert, wodurch Schattierungen des Bildes möglich waren. Um exakte Daten ohne Redundanz zu erhalten, variierte die Größe der Polygone (siehe Glossar) - abhängig davon, wie detailliert ein Bereich sein musste (je mehr Details, umso kleiner die Polygone).

Die sprechende Komponente von Mike wurde dadurch erzielt, dass der reale Mike ge- scannt wurde, als er seinen Mund für einen bestimmten Laut formte. Zur Simulation von Sprache wurde ein »Code« entwickelt, um zwischen den Positionen der Phoneme zu interpolieren. Als Eingabegeräte dienten Datenhandschuhe (»Data Gloves«) und Sprach- erkennungssysteme. Der Datenhandschuh konnte in einer ähnlichen Weise benutzt wer- den wie die Hand eines Puppenspielers im Inneren einer Puppe. Das Spracherkennungs- system ließ Mike Wörter sprechen, während eine Person in ein Mikrofon redet.

Seit Mitte der 80er Jahre versuchten Unternehmen, computergraphische Versionen von bereits entworfenen 2D-Figuren zu erstellen. Aufgrund der begrenzten Leistungsfähigkeit der Technologie zu dieser Zeit blieb der Erfolg jedoch meistens aus. Erst im Jahre 1988 wurde mittels der »Workstation« von Silicon Graphics und der Expertise des Unternehmens Pacific Data Images (PDI) eine brauchbare Lösung gefunden. Mit Hilfe der SGI Dial Box konnten Arm- und Mundbewegungen eines Charakters mit niedriger Auflösung in Echtzeit bewegt werden. Dies war die Geburtsstunde von »Waldo C. Graphic«. Die Stärke dieser computergenerierten Puppe war, dass sie in Echtzeit in Übereinstimmung mit realen Puppen gesteuert werden konnte. Das Mischen des Computerbildes mit den Videosignalen von Kameras, die auf die realen Puppen gerichtet waren, ermöglichte eine gemeinsame zeitgleiche Performance. Anschließend wurde Waldo in hoher Auflösung gerendert, wobei nachträglich einige dynamische Elemente hinzugefügt wurden.

Kontinuierlich entwickelte PDI ein - vom Gewicht her - möglichst leichtes Außenskelett (»Exoskelett«) in Form eines Anzugs für den Oberkörper, um Bewegungen von Torso, Kopf und Armen aufzunehmen, wodurch ein Schauspieler den Computer-Charakter steu- ern konnte. Potentiometer dienten dazu, die Bewegungen des Körpers, die in Echtzeit vom Computer erfasst wurden, zu übertragen. Dieser Anzug wurde oft eingesetzt, wenn- gleich das belastende Außenskelett nicht als die optimale Lösung angesehen wurde.1

3.5 Dozo (1989)

Kleiser und Walczak erschufen 1989 »Dozo«, eine Computeranimation mit einer Dame, die vor einem Mikrofon tanzt, während sie einen Song für ein Musikvideo singt. Dabei sollten Motion Capture-Technologien zum Einsatz kommen. Aufgrund der Erkenntnisse, die Kleiser durch Experimente mit Motion Capture bei Digital Productions erworben hat- te, fiel die Entscheidung auf ein optisch-basiertes System von Motion Analysis. Dieses verwendete mehrere Kameras, um Bilder von kleinen, am Körper angebrachten, reflek- tierenden Streifen aufnehmen zu können. Das Ergebnis ist eine Kurve jedes Reflektors im Raum. Für diesen Prozess war der Zeitaufwand äußerst groß, jedoch konnte dieser im Laufe der Jahre durch neuere und schnellere Systeme erheblich verringert werden.1

3.6 Mat the Ghost (1991)

Ein französischer Computergrafik-Entwickler richtete seine Aufmerksamkeit auf das Animieren virtueller Charaktere, nachdem er die Möglichkeiten der Charakteranimation bei »Waldo« gesehen hatte. Daraus resultierte ein Echtzeit-Charakteranimationssystem mit »Mat the Ghost« (»Mat, der Geist«) als Prototypen. Die Interaktion zwischen dem freundlichen grünen Geist Mat mit lebenden Schauspielern und Puppen in der täglichen Kindersendung Canaille Peluche war ein voller Erfolg. Mit Hilfe von »Data Gloves«, »Joy- sticks«, »Trackers« und MIDI-Schlagzeugpedalen wurde Mat interaktiv bewegt, einge- blendet dazu das bereits zuvor gedrehte Video mit den Schauspielern. Sieben Minuten Animation wurden normalerweise in eineinhalb Tagen fertig gestellt.

Mehrere Puppenspieler arbeiteten gewöhnlich simultan zueinander. Für Gesichtsausdruck, Lippensynchronisation und »Special Effects« (Gestaltänderung) waren zwei Puppenspie- ler oder Schauspieler notwendig, für den Oberkörper ein weiterer Schauspieler, der einen Anzug mit elektromagnetischen »Trackern« trug. Die Bewegungen dieses Schauspie- lers wurden dabei direkt auf den Charakter übertragen, während Fingerbewegungen der Puppenspieler in Gesichtsausdrücke und Charaktereffekte transformiert wurden.

»Face Waldo« wurde etwa 1992 von SimGraphics entwickelt. Dabei handelt es sich um ein Gesichts-Tracking System, bei dem mechanische Sensoren an Kinn, Lippen, Wangen und Augenbrauen sowie elektromagnetische Sensoren an einem Helm angebracht wur- den, damit die wesentlichen Bewegungen des Gesichts in Echtzeit auf Computer-Klone übertragen werden konnten. Besonders beachtlich bei diesem System war die Möglich- keit, Gesichtsausdrücke eines Charakters durch einfache Mimik verändern zu können.

Die überzeugende Echtzeit-Performance nutzte die Firma Nintendo auf Messen zur Promotion ihres bekannten Videospiels (Super) Mario. Dort unterhielt sich Mario - gesteuert von einem Schauspieler hinter den Kulissen - mit dem Publikum, reagierte auf Fragen und Kom- mentare. Aufgrund dieses Erfolges spezialisierte sich SimGraphics in der Folge auf »Live Performance-Animation« für Messen, Fernsehen und andere Live-Unterhaltung.

Die Technologie von »Face Waldo« wurde in den vergangenen Jahren sukzessive zuverlässiger.

Abbildung in dieser Leseprobe nicht enthalten2 1

Abb. 3, Supermario

3.8 Alive! und Moxy (1992)

»Alive!«, ein Echtzeit-Animationssystem, war die Weiterentwicklung von »Mike the Talking Head«. Brad deGraf entwickelte ein spezielles Hand- Gerät, das mit den Fingern gesteuert wurde. Damit wurden Gesichtsaus- drücke für ein mit dem Computer generiertes sprechendes Raumschiff geregelt, das ebenso wie »Mario« auf Messen (»Trade Shows«) zum Einsatz kam.

»Moxy«, ein mittels Computer erzeugter Hund, war das Nachfolgeprojekt von DeGraf bei Colossal Pictures, wobei »Moxy« in der Öffentlichkeit in Echtzeit vorgeführt, allerdings für die eigentliche Show nachgerendert wurde. Die Bewegungsaufnahme erfolgte durch ein elektromagnetisches Capture-System mit Sensoren am Oberkörper, an Händen und Füßen sowie auf dem Kopf des Schauspielers.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 4, Moxy3 1

3.9 Acclaim (1993)

Die Spieleschmiede Acclaim begeisterte das Publikum mit einer komplett mittels Motion Capture umgesetzten Zwei-Charakter-Animation. In den Jahren zuvor war Acclaim mit der Entwicklung eines leistungsstarken optischen Motion Capture-Systems beschäftigt, bei dem bis zu 100 Punkte gleichzeitig und in Echtzeit berücksichtigt werden konnten. Anwendung fand dieses System hauptsächlich bei Sequenzen mit Charakterbewegungen für Videospiele.1

3.10 Kommerzielle Systeme (Heute)

Ascension, Polhemus und SuperFluo sind nur drei von einer Vielzahl von Unternehmen, die Motion Capture-Systeme für Computeranimationen entwickelten. Zusätzlich ha- ben sich längst Entwickler von diversen 3D-Animationsprogrammen (Alias Wavefront, SoftImage, etc.) auf Motion Capture eingestellt und dementsprechend ihre Software dahin gehend verbessert, dass Daten eines Motion Capture-Systems problemlos auf vir- tuelle Welten übertragen werden können. Besonders die Software-Firma Kaydara bietet mit ihren unterschiedlichen Produkten maßgeschneiderte Lösungen für Probleme wäh- rend des Aufnahme-Prozesses sowie beim »Re-targeting« und »Re-sizing«.

Re-targeting und Re-sizing: Die aus einer Motion Capture-»Session« gewonnenen Bewegungsdaten sind per se nur auf derartige virtuelle Charaktere anzuwenden, welche sowohl bezüglich Größe als auch Proportionen mit dem Schauspieler ident sind. Um die Bewegungen auch auf andere Figuren wie Zwerge oder Riesen anwenden zu können, bedarf es eines aufwändigen Nachbearbeitungsprozesses. Dieses Anpassen der Bewegungen auf unterschiedliche Charaktere wird »Re-tar- geting« und/oder »Re-sizing« genannt.

Dennoch gibt es weiterhin viele Probleme in Bezug auf Motion Capture zu lösen. So wie sich diese Technologie entwickelt, ist es jedoch nur noch eine Frage der Zeit, bis Motion Capture ein elementarer Bestandteil von Animationen sein wird.1

4. ZUKUNFT DES MOTION CAPTURE

In welche Richtung die Entwicklung der Systeme gehen wird, ist schwierig vorauszu- sagen, da es unterschiedliche Meinungen darüber gibt, welche Technologie die viel- versprechendste ist. Shane Cooper, der unter anderem am innovativen ZKM Center f ü r Kunst und Medien in Deutschland arbeitete, glaubt, dass magnetische Systeme die beste Datenqualität ermöglichen werden. Die Forschungen scheinen hingegen eher in die Richtung von optischen Systemen zu gehen. Gewöhnlich werden optische Motion Capture-Systeme aufgrund der hohen Datenqualität in Spielfilmproduktionen eingesetzt (Bsp: Titanic, Star Wars Episode I), während magnetische Systeme eher für interaktive Situationen verwendet werden (Bsp: »Virtual Reality«, Echtzeit-»Performance«).1

4.1 Probleme, die es zu lösen gilt

Geometrische Verschiedenheiten zwischen dem Akteur und dem zu animierenden Cha- rakter werden immerfort als das größte Problem betrachtet, mit denen Motion Capture- Animatoren konfrontiert sind. 1999 diskutierten deGraf und Yilmaz dieses Problem:

» A crucial step in going beyond motion capture is re-proportioning data to fit non-human shaped characters. Making human-shaped data work on one of these characters, without introducing ugly artifacts like skating feet [feet that slide along the ground, as an effect of mismatched proportions], is a challenge

and an art. « 2

Es gibt offensichtlich Unterschiede in der Art und Weise, wie sich Menschen und klassisch animierte Charaktere bewegen. Die Geschwindigkeiten der Beschleunigung und der Ver- zögerung sind verschieden. Da die Bewegung vom Motion Capture-System Schritt für Schritt aufgenommen wird und dabei die natürliche menschliche Bewegung exakt ab- bildet, kann es z.B. zu Problemen bei der Erstellung einer genauen karikaturistischen Bewegung kommen.

Die Anzahl der Daten, die gesammelt werden kann, ist relativ begrenzt. DeGraf und Yilmaz gehören zu denjenigen, die behaupten, dass es sogar besser sei, weniger Datenpunkte zu verwenden:

» Ironically, it ’ s often better to have less data than more - we usually use only twelve body sensors. If you had one sensor for every single moving part of the body, you ’ d have a lot more information tying you to the human form, but for our purposes we just want enough sensors to convey the broad lines and arcs of the body. « 2

Die Leistungsfähigkeit der Datenaufnahme ist heutzutage recht gut, meint Seth Rosenthal von ILM (Industrial Light & Magic, eine der größten »Special Effects«-Schmie- den), aber die Vermischung dieser Daten zu einer anspruchsvollen Animation bleibt schwierig. Die Technologie des Motion Capture selbst ist laut Rosenthal auf einem höheren Level als die Technologie der Weiterverarbeitung und Nachbearbeitung:

» The software tools are not adequate at this point, so it requires a high level of expertise to use the data effectively. « 12

4.2 Ziele

Bei der Weiterentwicklung von Motion Capture-Systemen werden insbesondere die folgenden Ziele angestrebt:

Verbesserung der Arbeitsbedingungen durch Wegfallen von Kabeln und Vereinfachung der zu tragenden Kleidung

Höhere Geschwindigkeit der Technologie

Größerer räumlicher Bereich, in dem Daten aufgenommen werden können

Senkung der Kosten, damit Verbraucher und unabhängige Künstler Zugang zu der Technologie haben und damit experimentieren können

Höhere Genauigkeit der Resultate, damit Interaktionen mit Gegenständen und Gehbewegungen problemloser umsetzbar sind

Verbesserte Möglichkeiten, Daten von mehreren Charakteren aufzunehmen

Ausarbeiten der Möglichkeit, menschliche Bewegungen rein aufgrund des Körpervolumens zu messen, also ohne Einsatz von »Markern« oder Sensoren1

5. DIE VERSCHIEDENEN SYSTEME

5.1 Einteilung nach Funktionsweise

5.1.1 Outside-In

Externe Sensoren ermitteln Daten von Datenquellen, die am Körper der Schauspieler angebracht sind. Dieses System wird auch als »passiv« bezeichnet, da die Markierungen selber keine Daten senden. Die meisten optischen Motion Capture-Systeme basieren auf dieser Technik, wobei Kameras die Funktion von Sensoren übernehmen und die reflek- tierenden Marker als passive Datenquellen fungieren. Geeignet ist diese Technik sowohl für »Full Body-Motion Capture« als auch für »Facial-Capture«, also das Aufzeichnen von Mimik.

5.1.2 Inside-Out

Die Datenübertragenden Sensoren sind direkt am Körper der Schauspieler befestigt. Insofern ist diese Art des Motion Capture »aktiv«. Sämtliche magnetische Systeme ar- beiten nach diesem Schema, es existieren aber auch optische Apparate mit aktiv strah- lenden Lichtern.

5.1.3 Inside-In

Sowohl die Sensoren als auch die Datenquellen sind am Körper der Schauspieler angebracht. Die mechanische Motion Capture-Technologie arbeitet nach diesem Prinzip, welches besonders für die Aufzeichnung von Handbewegungen eingesetzt wird.2

5.2 Einteilung nach Technik

5.2.1 (Elektro-)Magnetisches System

Bei magnetischen Motion Capture-Systemen werden an bestimmten Stellen des Schauspielers Sensoren angebracht. Diese messen das Niederfrequenz-Magnetfeld, das von einem Übertragungsgerät erzeugt wird. Verkabelt werden die Sensoren sowie die Quelle mit einer elektronischen Kontrolleinheit, die mit einem »Hostrechner« vernetzt ist. Auf diesem Computer läuft eine Software, welche die aufgezeichneten Positionen und Rotationen im dreidimensionalen Raum darstellt.

Um Gelenksbewegungen eines menschlichen Körpers aufzuzeichnen, werden bei einem magnetischen System mindestens sechs Sensoren benötigt. Die Informationen, welche die Sensoren übermitteln, beinhalten Position und Rotation. Da magnetische Systeme an sich mit hohen »Frame-Raten« arbeiten, werden diese grundsätzlich dafür verwendet, Störungen aus den Daten herauszufiltern. Dies führt jedoch zu einer erheblichen Reduktion der effektiven »Frame-Rate« und zu einem Anstieg der Wartezeit für Berechnungen. Weil jeder einzelne Sensor ein eigenes Kabel benötigt, kann das magnetische System sehr schwerfällig sein. Die Firma Ascension bietet jedoch mittlerweile auch ein kabelloses magnetisches System an (MotionStar Wireless).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 5, Magnetisches Motion Capture-System2 MotionStar von Ascension1

5.2.2 Optisches System

Bei optischen Systemen werden für gewöhnlich kleine »Marker« am Körper angebracht und zwei oder mehr Kameras fokussieren auf den Bewegungsraum. Die »Marker« sind entweder passiv reflektierend oder infrarot emittierend.

Ein- und zweifache Kamera Systeme werden für Gesichtsbewegungsaufnahmen verwen- det, während zwischen 3 und 24 Kameras für Aufnahmen des gesamten Körpers benötigt werden. Jede von den Kameras erfasste Markierung wird durch eine Kombination von spezieller Hardware und Software herausgefiltert und durch Vergleich der Bilder wird eine dreidimensionale Position jeder Markierung zu einer bestimmten Zeit berechnet.

Die Geschwindigkeit, mit der die »Marker« geprüft werden, ist bei dieser Technologie begrenzt, was Auswirkungen auf die Anzahl der pro Sekunde erfassbaren Positionen hat. Ebenso entstehen Einschränkungen durch das Verdecken von Markern durch den Körper und durch die optische Auflö- sung der Kameras - speziell durch die feh- lende Fähigkeit, nah aneinander liegende Marker zu differenzieren. Deshalb konnten ältere Systeme lediglich etwa ein Dutzend Marker gleichzeitig erfassen. Je mehr Ka- meras zum Einsatz kommen, desto einfa- cher lässt sich das Problem der Verdeckung durch den Körper minimieren, wobei eine manuelle Nachbearbeitung - um die Daten

Abb. 6, Optisches Motion Capture-System2 Vicon Kamera

Abbildung in dieser Leseprobe nicht enthalten

bei der Verdeckung einer Markierung wieder herzustellen - auch bei heutigen optischen Systemen erforderlich ist. Durch den Fort- schritt bei der Entwicklung der optischen Systeme wird dieses Problem jedoch bald der Vergangenheit angehören.

Hohen Bekanntheitsgrad genießt das optische System Vicon 8i (siehe Abbildung 6), wel- ches speziell für Animationen im »Entertainment«-Bereich entwickelt wurde. Aufgrund der Möglichkeit, bis zu 24 Kameras einzusetzen, vergrößert sich nicht nur der Aufnahme- bereich, auch das Problem der Verdeckung einzelner »Marker« kann reduziert werden. Die Konzeption des Systems verbessert zusätzlich die simultane Arbeit mit mehreren Charakteren. Die Dauer einer Datenerfassung kann 24 Stunden betragen, was jedoch zu einer immens großen Anzahl von Daten führt. Daher besteht die Möglichkeit, die Datengröße durch Löschen einer bestimmten Anzahl von »Frames pro Sekunde« zu re- duzieren.3

Abbildung in dieser Leseprobe nicht enthalten1

5.2.3 Mechanisches System

Bei diesem Verfahren tragen die Akteure eine gewisse Anzahl von Metallstücken, die den menschlichen Körperformen angepasst sind. Dieses Außenskelett wird bei jeder Hand- lung der Person mitbewegt. Eingebaute Sensoren erfassen die Bewegungen und leiten diese schließlich an den Computer weiter. Mechanische Systeme werden generell direkt am Körper montiert und somit direkt mit dem Benutzer verbunden, was eine flächen- mäßig unbeschränkte Bewegung ermöglicht. Bei einer anderen Variante ist das äußere Skelett fest mit dem Boden verbunden und der Darsteller kann sich nur innerhalb vorge- gebener Grenzen bewegen. Die mechanische Motion Capture-Technik findet besonders in Form von Datenhandschuhen bei der Aufzeichnung von Handbewegungen Verwendung.

Abbildung in dieser Leseprobe nicht enthalten1

5.2.4 Weitere Systeme

5.2.4.1 Radio Frequenz System

Dieses System beinhaltet einen Radio Frequenz »Transponder« (Antwortsender, Wiedergabesender), der Informationen zurückgibt, wenn ein Übertragungsgerät diesen abfragt. Die Zeit, welche die Abfrageeinrichtung benötigt, um das Signal zu erhalten, ist zweimal so lang wie die Zeit, die notwendig war, bis das ursprüngliche Signal zum Chip gelangt. Die Geschwindigkeit der Radio Frequenz in der Luft ist bekannt, somit kann die Distanz vom Abfragegerät bis zum Chip berechnet werden. Ist die Distanz für drei Achsen bekannt, kann ein Punkt im dreidimensionalen Raum definiert werden.

Vorteile des Systems:

Geringe Kosten (ein Antwortsender kostet ca. 10 Euro), hohe »Sampling-Rate«, hohe Auflösung, klein und handlich, minimale Kalibrierung, keine Verdeckungsprobleme Nachteile des Systems:

Elektromagnetische Störungen durch das Umfeld, problematische Berechnung, unbekannte Hardware, Dopplereffekt und Phasenverschiebung in den Daten1,2

5.2.4.2 Akustisches System

Der Schauspieler ist am ganzen Körper mit Emittern ausgestattet, die sequenzielle Schallimpulse aussenden, welche die Empfänger mit einer Zeitverzögerung, je nach Entfernung der Person, aufzeichnen. Aus dieser Zeitspanne lässt sich in der Folge der Abstand berechnen. Aufgrund der Positionierung von mindestens drei Empfängern lässt sich dies auch dreidimensional gestalten.

Vorteile des Systems:

Niedrige Kosten (ein Ultraschall-Messwandler kostet ca. 10 Euro), problemlose Berechnung, minimale Kalibrierung, klein und handlich

Nachteile des Systems:

Überlagerung und Reflektionen der Schallwellen, Dopplereffekt und Phasenverschiebung, niedrige »Sampling-Rate« und Auflösung 3

5.2.4.3 Inertial System

Das grundlegende Prinzip beim »Inertial Tracking« ist das Messen der Beschleunigungen von Massen oder der Orientierung bei sich drehenden Massen mit Hilfe eines Gyroskops. Wenn die Rotation normal erfolgt, widersetzt dieses sich den Änderungen der Richtung. Lineare Beschleunigungsmesser sind klein und leicht, somit wird das Trägheitsmoment reduziert und eine Spiralfeder an jeder Spule fängt die Gegenbewegung auf. Drei Form- federn, von denen jede zu jeweils einer Achse gehört, nehmen die Beschleunigung auf.

Vorteile des Systems:

Völlige Störungsfreiheit, absolute Bewegungsfreiheit und unproblematische Montage

Nachteile des Systems:

Ungenauigkeiten und Akkumulation von Messfehlern

EINSATZGEBIETE

6. EINSATZGEBIETE VON MOTION CAPTURE

6.1 Computerspiele

Der größte Markt für Motion Capture existiert im Bereich der Entwicklung von Compu- terspielen. Angesichts der Tatsache, dass Spiele inzwischen denselben Ertrag einbringen wie Filme, ist es leicht zu erklären, warum bei der Entwicklung von Spielen immer häu- figer auf höchste Qualität Wert gelegt wird. Um erfolgreiche Spiele produzieren zu kön- nen, müssen sämtliche Ressourcen optimal genutzt werden. Daher ist Motion Capture das optimale Hilfsmittel, welches nicht nur eine schnellere und dadurch kostengünstigere Alternative zur manuellen Animation darstellt, sondern auch durch die realitätsnahen Bewegungsabläufe ein realistischeres Spielgefühl aufkommen lassen kann.1

Beispiel: Spiele von EA Sports und Eidos Interactive

Electronic Arts benutzt Motion Capture, um Bewegungen von realen professionellen Eishockeyspielern, American Footballspielern, Fußballern, Basketballspielern etc. (siehe Abbildungen 7.1 bis 7.3) auf die virtuellen Charaktere ihrer Sportspiele zu übertragen. Auch die berühmte Spielefigur Lara Croft (siehe Abbildung 7.4) wurde (von Eidos Interactive) mit Hilfe von Motion Capture zum Leben erweckt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 7.1 bis Abb. 7.3, EA Sports2 Abb. 7.4, Tomb Raider3

Bei sämtlichen Bewegungen der Spielfigur, die der Spieler steuert, werden die entsprechenden Motion Capture-Daten aus einer Datenbank abgerufen und auf die Spielfigur in Echtzeit angewandt. Weiters werden Motion Capture-Sequenzen in so genannte »Cinematics« implementiert. Dies sind bereits vollständig erzeugte Filme für Intro, Zwischensequenzen oder Abspann. Sie sind nicht notwendig für ein Spiel, erhöhen jedoch den Reiz eines Computerspiels enorm.1

6.2 Fernsehen

6.2.1 Live Motion Capture-Performance

Für Live-Ausstrahlungen im TV ist Echtzeit-Motion Capture zu einem wichtigen Thema geworden. Dadurch können virtuelle Charaktere in eine reale Szene eingebaut werden. Werden Live-Elemente mit virtuellen Elementen verbunden, ist zu beachten, dass sowohl die echten als auch die virtuellen Kameras dieselben Einstellungen besitzen (Perspektive, Brennweite, Tiefenschärfe), da ansonsten die Illusion der Verschmelzung der zwei Wel- ten nicht funktioniert.

Beispiel: Donkey Kong Country2

Windlight Studios produzierte anno 1997 eine Fernsehserie mit dem bekannten Com- puterspiel-Helden »Donkey« und seinen Ahnen (siehe Abbildung 8). Ein System von Silicon Graphics und Ascension speist die Echtzeitaufnahmen über die eigens programmierte Software Clovis in ein leis- tungsfähiges Computersystem zur direkten Weiterverarbeitung. Um einen Charakter in Echtzeit zu animieren, benötigt es zwei Personen. Ein Puppenspieler ist für die Ge- sichtsanimationen zuständig, wobei sämtli- che Aktivitäten der Gesichtsmuskulatur wie Abb. 8, Donkey Kong Country3 Sprechen und Mimik in Echtzeit aufgezeich- net werden. Ein Schauspieler, mit 16 Senso- ren bestückt, sorgt für die restlichen Bewegungen. Beide Personen müssen ihre Tätigkeit perfekt aufeinander abstimmen und zudem mit den über ein DAT(»Digital Audio Tape«) eingespielten Dialogen und Sounds synchron agieren. Die aufgenommenen Daten werden schließlich, falls notwendig, noch produktionsreif nachbearbeitet. So entstanden insgesamt 26 Folgen mit einer Gesamtlaufzeit von über zehn Stunden.

6.2.2 Werbung

Im TV-Alltag spielt Werbung eine entscheidende Rolle. Je mehr Aufmerksamkeit ein Produkt erlangt, desto höher sind in der Regel die Verkaufszahlen. Daher wird auch in diesem Bereich vermehrt die 3D-Technologie eingesetzt, um das Publikum mit neuen und interessanten Effekten neugierig zu machen. So entstanden beispielsweise Werbespots für Toyota oder Dany & Sahne mit Hilfe von Motion Capture.

6.2.3 Musikvideos

Auch auf Musiksendern wie MTV oder VIVA trifft man immer wieder auf Beiträge, in welchen die Technik des Motion Capture zum Einsatz gekommen ist. Willenium von Will Smith wurde von der für Spielfilme oft eingesetzten »Special Effects«-Firma Industrial Light and Magic produziert. Für andere Projekte haben sich meist mehrere Produktions- firmen zusammengeschlossen, wie z.B. für den Back Street Boys-Hit Larger than Life.1

6.3 Film

6.3.1 Einbindung in Realfilm

In Situationen, die für reale Schauspieler und Stuntmen unpraktisch oder gar zu ge- fährlich wären, wird heutzutage immer häufiger auf Motion Capture gesetzt. Beispiels- weise in Szenen von James Cameron‘s Titanic, in welchen Passagiere reihenweise von Bord des untergehenden Schiffs fallen. Motion Capture wurde in diesem Film außerdem sehr ausgiebig für so genannte »Filler Characters« verwendet (Komparsen hinter den eigentlichen Schauspielern), weiters in Situationen mit virtuellen Kameras, die über das virtuelle Schiff »fliegen«. Ohne diese Technik wäre es äußerst schwierig, vielleicht sogar unmöglich gewesen, mit echten Kameras, einem echten Schiff und ausschließlich realen Charakteren diverse Szenen zu drehen. Bei einigen Figuren, besonders wenn sie deutlich zu sehen sind, ist der Gebrauch von Motion Capture notwendig, damit die Animationen nicht künstlich aussehen.

Unabhängige Unternehmen beginnen immer öfters, sich für Projekte zusammen zu schließen. Die Idee, dass zwei oder drei Leute einen gesamten Film erstellen ist nicht abwegig, sofern die Technik korrekt eingesetzt wird. So entstanden schon einige inde- pendent (Kunst)Filme, wie beispielsweise die deutsche Produktion Vera, mit Hilfe von Motion Capture.

Auch für die Aufzeichnung von Tier-Bewegungen wurden optische Systeme erfolgreich eingesetzt. Locomotion Studios in Texas erstellte im Jahr 2000 Clips eines galoppierenden Pferdes samt Reiter für die Fox Produktion Night of the Headless Horseman. Motion Capture von Tieren erfordert natürlich einige Tricks und viel Erfahrung, daher ist dieses Einsatzgebiet nicht sonderlich verbreitet. Da aber die Versuche im erwähnten Beispiel sehr erfolgreich waren, wird es zukünftig gewiss vermehrt Projekte geben, in welchen MoCap von Tieren eingesetzt wird.2

Haupteinsatzgebiet der Motion Capture-Technik ist bestimmt der High-Budget Holly- wood-Film. Um perfekte Ergebnisse zu erzielen, ist ein entsprechend teures System not- wendig, besonders wenn es sich um komplizierte Handlungsabläufe oder die Simulation von Menschenmassen handelt. Die Liste von Filmen, welche Motion Capture einsetzen, ist lang, aktuelles Paradebeispiel ist die Verfilmung des Romans Der Herr der Ringe von J.R.R. Tolkien.

Beispiel: Die Herr der Ringe -Trilogie1

Bereits im ersten Teil der Trilogie Die Gef ä hrten kann das Publikum einen kurzen Blick auf eine schattenhafte Figur, die eine entfernte Wand hochklettert, werfen. In Die zwei T ü rme, dem zweiten Teil, bekommt dieses Wesen Gollum bereits eine »Hauptrolle«. Deshalb ist es äußerst wichtig, dass Gollum so real wie ein Schauspieler wirkt. Remington Scott, Leiter von Weta Digital Ltd. in Neuseeland, wo ein Gros der Spezialeffekte erzeugt wurde, meinte zu dem animierten Gollum:

» He had to be real emotionally, psychologically and physically because Frodo (the ring bearer) is supposed to see himself reflected in Gollum. Motion capture is the only way to do that. « 2

Abbildung in dieser Leseprobe nicht enthalten

Abb. 9.1 bis Abb. 9.3, Herr der Ringe: Die zwei T ü rme3

Um dieses Wesen glaubwürdig zeigen zu können, war ein aufwändiges Verfahren not- wendig. Ein eigener Schauspieler (Andy Serkis) verlieh Gollum die Stimme und diente als Vorbild für sämtliche Körperbewegungen (siehe Abbildungen 9.1 bis 9.3). Daher wurde er dafür engagiert, zuerst Sprachaufzeichnungen in einem Tonstudio, danach Bewe- gungsaufnahmen mit einem optischen Motion Capture-System zu erstellen. Der Akteur trug einen Anzug mit reflektierenden Bällen während er sich in der Capture-Zone beweg- te. Kameras nahmen die Bewegungen der lichtreflektierenden Bälle auf. Diese Informati- onen wurden in Computerdaten umgerechnet, anhand derer ein Skelett entstand.

Eine Herausforderung dabei war, dass die Proportionen des Schauspielers und der virtuellen Figur nicht übereinstimmten und somit mussten die Knochen des Darstellers in die Knochenstruktur von Gollum umgewandelt werden. Per Computer wurden Serkis Glieder proportional verkleinert.

Beim ersten Teil der Trilogie reichte ein 16-Kamera Motion Capture-Studio, was sich bei dem Erstellen von Gollum für den zweiten Teil als unzureichend erwies. Somit erfolgte der Umstieg auf 24 Kameras, um eine größere Zone für Bewegungen zu erhalten.

6.3.2 3D-Feature Filme

Vollständig computeranimierte Filme konnten in den letzten Jahren enorm an Beliebtheit gewinnen. Den Meilenstein legte anno 1995 der Film Toy Story aus dem Hause Pixar, welcher wenige Jahre später erfolgreich fortgesetzt wurde. Einige weitere Filme folgten, wobei Final Fantasy bis dato der einzige vollständig animierte 3D-Film ist, der massiv auf Motion Capture zurückgegriffen hat.

Beispiel: Final Fantasy1

Nach vier Jahren Produktionszeit konnte der Regisseur Hironobu Sakaguchi im Jahr 2001 sein revolutionäres 3D-Spektakel präsentieren (siehe Abbildungen 10.1 bis 10.3). Für die Animation waren insgesamt nur 22 Personen verantwortlich, die sämtliche Szenen

- nicht zuletzt dank Motion Capture - innerhalb von eineinhalb Jahren fertig stellen konnten. Die Geschichte des Films forderte eine möglichst realitätsgetreue Bewegung der Charaktere, daher sollten die traditionell überspitzten und übertriebenen Methoden der Charakteranimation der Motion Capture-Technik weichen. So wurden beinahe alle Ganzkörper-Bewegungen mit einem optischen System aufgezeichnet. Um dennoch eine Nachbearbeitung per »Keyframe-Animation« und Kombinationen der Aufnahmen zu ermöglichen, wurden eigene Tools entwickelt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 10.1 bis Abb. 10.3, Final Fantasy: Die M ä chte in dir2

» In one scene the lead male character Gray jumps through a glass window, falls from more than 25 feet onto solid ground, tumble rolls forward, and gets up. A jump from three stories onto a hard surface could seriously injure any

one, even a stunt man. To complicate matters, we didn ‘ t want to use a stunt man because the motion of a stunt man would not match that of the actor playing Gray. We solved this by dividing the motion into three segments. In the

first segment, the actor breaks through the glass and jumps from a platform of about 4 feet in height; in the second segment, Gray ‘ s fall is keyframed; in the third segment, the actor again jumps from the platform, only this time he focuses on the landing and his reaction to the fall. We then blended these three

segments to form one continuous action. « 3 1

6.4 Web

Auch für das »World Wide Web« ist Motion Capture ein Thema, sei es für die Erstellung eines virtuellen »Hosts« oder von Grußkarten. In Form von Charakteren, mit denen Benutzer interagieren können, wird Motion Capture dem Internet ein humanes Element einhauchen, sobald es technisch ausgereifter ist und die Bandbreite zunimmt.1

6.5 Live Elements

»Live-Animation«, mit Motion Capture generiert, kann als »Improvisation trifft Compu- ter Grafik« angesehen werden. Auf Messen, Meetings oder Pressekonferenzen kann ein virtueller Charakter in Echtzeit eine durchaus nachhaltige Erfahrung für den Betrachter bedeuten.1

6.6 Wahrnehmungsforschung

Motion Capture ist eine nützliche Technik für die Wahrnehmungsforschung. Werden Testpersonen mit abstrakten, durch Motion Capture gefilterten, Bewegungen konfrontiert, können beliebig oft wiederholbare Experimente durchgeführt werden. Dies gewährt einen zuverlässigen Einblick in die menschliche Wahrnehmung.1

6.7 Biomechanische Analyse

Biomechanische Analysen zu Rehabilitationszwecken stützen sich aufgrund der Fähig- keit, wiederholbare Resultate erzielen zu können, intensiv auf Motion Capture. So kann sowohl das Ausmaß der Behinderung eines Patienten als auch dessen Fortschritt in der Rehabilitation gemessen werden. Zudem erweist sich diese Technik beim Erstellen von Prothesen als hilfreich. Das optische Motion Capture-System wird oft zu Sport-Analysen herangezogen, wobei sich in den letzten Jahren speziell die Analyse von Golfschlägen großer Beliebtheit erfreut.1

6.8 Konstruktion/Maschinenbau/Technik

Ergonomisch praktische Produktdesigns zu produzieren ist ein wesentlicher Bereich von Motion Capture, ebenso das Gestalten von physischen Produkten mit einem hohen Maß an Komfort und Anreiz.1

6.9 Virtual R eality

Für VR-Anwendungen ist Motion Capture ein unentbehrliches Werkzeug. Nicht nur im »Entertainment«-Sektor ist ein intensiveres Erlebnis möglich, auch virtuelle Wohnungs- begehungen wie beispielsweise im Terminal V der Wohnbaufirma Hefel Wohnbau AG in Lauterach, Österreich können durch Motion Capture interessanter gestaltet werden.

[...]


1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture.htm, Stand: 15.05.03[2]

2 Vgl. Michael Gleicher: Motion Capture and Motion Editing (ISBN 1568810865), noch nicht erschienen, Stand: 28.04.03 [3]

3 Vgl. Vorlesungsreihe DI. DWI Miglena Dontschewa, Medientechnologie 2000 Fachhochschule Vorarlberg[4]

1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture.htm, Stand: 15.05.03[5]

2 Vgl. Internet http://www.edvec.ed.ac.uk/html/services/motioncapture/why.html, Stand: 15.05.03[6]

3 Internet http://www.misterwall.com/eng/image.asp?idimage=22104, Stand: 05.06.03, © 2001 Columbia Tristar Inc.

1 Vgl. Internet http://www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/ history1.htm, Stand: 13.05.03[7]

1 Vgl. Internet http://mambo.ucsc.edu/psl/mike.html, Stand: 15.05.03[8]

1 Vgl. Internet http://www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/ history1.htm, Stand: 13.05.03

1 Vgl. Internet http://www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/ history1.htm, Stand: 13.05.03

2 Internet http://www.sm128c.com/images/renders/ssbmart/mario.jpg, Stand: 15.06.03, © 2002 Nintendo

3 Internet http://www.stuartink.com/MOXY/moxy.jpg, Stand: 15.06.03, © 1992 Colossal Pictures

1 Vgl. Internet http://www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/ history1.htm, Stand: 13.05.03

1 Vgl. Internet http://web.mit.edu/comm-forum/papers/furniss.html#32, Stand: 15.05.03[9]

2 Internet http://web.mit.edu/comm-forum/papers/furniss.html#32, Stand: 15.05.03

1 Internet http://web.mit.edu/comm-forum/papers/furniss.html#32, Stand: 15.05.03

2 Vgl. Internet http://web.mit.edu/comm-forum/papers/furniss.html#32, Stand: 15.05.03

1 Vgl. Internet http://www.cg.tuwien.ac.at/courses/Seminar/SS2001/mocap/MotionCapture_Ablauf.pdf, Stand: 18.05.03[10]

2 Vgl. Internet http://www.metamotion.com/motion-capture/magnetic-motion-capture-1.htm, Stand: 18.05.03[11]

1 Vgl. Internet http://medien.informatik.uni-ulm.de/lehre/courses/ss02/ModellingAndRendering/07-motion-capturing.pdf[12], http://www.metamotion.com/motion-capture/magnetic-motion-capture-1.htm, Stand: 13.05.03

2 Internet http://www.ascension-tech.com/images/motionstar_large.jpg, Stand: 16.06.03, © 2003 Ascension

1 Vgl. Internet http://www.siggraph.org/education/materials/HyperGraph/animation/character_animation/motion_capture/history1.htm, http://www.metamotion.com/motion-capture/optical-motion-capture-1.htm, Stand: 22.05.03[13]

2 Internet http://www.vicon.com/main/technology/img/sv-cam-3co.jpg, Stand: 08.06.03, © 2003 Vicon Motion Systems Ltd.

3 Vgl. Internet http://www.vicon.com/entertainment/technology/v8.shtml, Stand: 08.06.03[14]

1 Vgl. Internet http://medien.informatik.uni-ulm.de/lehre/courses/ss02/ModellingAndRendering/07-motion-capturing.pdf, http://www.metamotion.com/motion-capture/optical-motion-capture-1.htm, Stand: 13.05.03

1 Vgl. Internet http://medien.informatik.uni-ulm.de/lehre/courses/ss02/Computergrafik/CorneliaHipp.pdf, Stand: 22.05.03[15]

2 Vgl. Internet http://medien.informatik.uni-ulm.de/lehre/courses/ss02/ModellingAndRendering/07-motion-capturing.pdf, http://www.metamotion.com/motion-capture/electro-mechanical-motion-capture.htm, Stand: 13.05.03[16]

1 Vgl. Internet http://www.rpi.edu/~ruiz/research/research2/krmkmocap.htm, Stand: 15.05.03[17]

2 Vgl. Internet http://medien.informatik.uni-ulm.de/lehre/courses/ss02/Computergrafik/CorneliaHipp.pdf, Stand: 15.05.03

3 Vgl. Internet http://www.cs.nps.navy.mil/people/faculty/capps/4473/projects/01Summer/tracking/tracking.ppt, Stand: 01.06.03[18]

1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture-who-1.htm, Stand: 02.06.03[19]

2 Internet http://netcenter.easports.com/platforms/wallpaper/home.jsp, Stand: 03.06.03, © 2003 EA Sports

3 Internet http://tombraider.t-online.de/wallpapers/7_1024x768.jpg, Stand: 03.06.03, © 2003 Eidos Interactive

1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture-who-1.htm, Stand: 02.06.03

2 Vgl. Scott Dyer, Course Notes Siggraph 1997, Course #1 - Motion Capture in Practice, Seite 22ff20

3 Internet http://www.n-archives.com/showimage.php?i=051303_dkc_dkdiddy01.jpg, Stand: 06.06.03, © 2003 Nintendo

1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture-who-1.htm, Stand: 02.06.03

2 Vgl. Animation World Magazine, Ausgabe 04/11, Seite 13ff[21]

1 Vgl. Internet http://www.chicagotribune.com/technology/local/chi-0211300210nov30,0,4956462.story, Stand: 19.06.03[22]

2 Internet http://www.chicagotribune.com/technology/local/chi-0211300210nov30,0,4956462.story, Stand: 19.06.03

3 Animation World Magazine, Ausgabe 07/12, Seite 12, © 2002 New Line Productions

1 Vgl. John Kundert-Gibbs, Maya: Secrets of the Pros (ISBN 0-7821-4055-6), Sybex, Seite 87ff23

2 Internet http://www.joblo.com/moviewallpapers/finalfantasy.htm, Stand: 05.06.03, © 2001 Columbia Tristar Inc.

3 John Kundert-Gibbs, Maya: Secrets of the Pros (ISBN 0-7821-4055-6), Sybex, Seite 87ff

1 Vgl. Internet http://www.metamotion.com/motion-capture/motion-capture-who-1.htm, Stand: 02.06.03

Ende der Leseprobe aus 127 Seiten

Details

Titel
Motion Capture im semi-professionellen Umfeld
Hochschule
Fachhochschule Vorarlberg GmbH  (Intermedia)
Note
sehr gut
Autoren
Jahr
2003
Seiten
127
Katalognummer
V17146
ISBN (eBook)
9783638217859
Dateigröße
5649 KB
Sprache
Deutsch
Schlagworte
Motion, Capture, Umfeld
Arbeit zitieren
Andreas Kuenz (Autor)Michael Gabriel (Autor), 2003, Motion Capture im semi-professionellen Umfeld, München, GRIN Verlag, https://www.grin.com/document/17146

Kommentare

  • Gast am 15.4.2005

    Wer hat's gekauft?.

    Hallo!
    Danke an den edlen Käufer unserer Arbeit. Es würde mich sehr interessieren, was Sie von der Arbeit halten!

    Dankeschön,
    Andy Künz

Im eBook lesen
Titel: Motion Capture im semi-professionellen Umfeld


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden