Einsatzmöglichkeit und Potenzial von Web3D in der Online-Marktforschung unter besonderer Berücksichtigung von Produktkonzepttests


Masterarbeit, 2004
177 Seiten, Note: 2,3

Leseprobe

Inhaltsverzeichnis

0.1. Vorwort

1. Einführung
1.1. Relevanz des Themas
1.2. Problemstellung und Zielsetzung
1.3. Vorgehensweise und Aufbau der Arbeit

2. Theoretische Grundlagen
2.1. Begriffliche Grundlagen und Definitionen
2.2. Wahrnehmungs- und Konsumentenpsychologie
2.2.1. Aufbau des Sehorgans
2.2.2. Wie entsteht der dreidimensionale Eindruck?
2.3. Grundlagen der interaktiven 3D-Computergrafik
2.3.1. Mathematische Grundlagen
2.3.1.1. Vektoren
2.3.1.2. Matrizen
2.3.1.3. Projektion
2.3.2. Repräsentation von 3D-Objekten
2.3.2.1. Polygonales Verfahren
2.3.2.2. Bi-cubic parametric patches
2.3.2.3. Sonstige Verfahren der Objektrepräsentation
2.3.3. Realitätsgrad der 3D-Darstellung
2.3.3.1. Die gängigsten Darstellungstechniken für 3D-Grafik
2.3.3.2. Erweiterte Darstellungstechniken und Effekte
2.3.4. Navigation/Interaktion mit 3D-Inhalten und Interface-Design
2.4. Entwicklung und Grundlagen des Internet und WWW
2.5. Geschichtliche Entwicklung der 3D-Darstellung im Web
2.6. Realisierung von 3D-Darstellung im WWW
2.6.1. Generelle technische Voraussetzungen/Schnittstellen für Web3D
2.6.1.1. 3D-Schnittstellen
2.6.1.2. Browser-Schnittstellen
2.6.2. Charakteristische Probleme und Restriktionen bei Web3D
2.6.3. Lösungsansätze
2.6.3.1. Verwendung von weniger komplexen Objekten
2.6.3.2. Kompression von Geometrien
2.6.3.3. Optimierung und Kompression von Texturdaten
2.6.3.4. Modularisierung und Streaming von Web3D-Inhalten
2.6.3.5. Skalierung von Web3D-Inhalten

3. Analyse - 3D-Lösungen für das Web
3.1. Formate, Standards und Basistechnologien für die 3D-Darstellung im Web
3.1.1. VRML/VRML97
3.1.2. X3D und XML
3.1.3. SWF
3.1.4. Adobe SVG
3.1.5. MPEG-4 und XMT
3.1.6. MPEG-7 und MPEG-21, Multimedia Framework
3.2. Untersuchung aktuell relevanter 3D-Lösungen für das Web
3.2.1. PlugIn-basierte Lösungen
3.2.1.1. Apple Quicktime VR
3.2.1.2. Macromedia Flash
3.2.1.3. Pivoron Player
3.2.1.4. Cortona VRML Client
3.2.1.5. OpenWorlds Horizon
3.2.1.6. Macromedia Shockwave 3D
3.2.1.7. Viewpoint / VET
3.2.1.8. Adobe Atmosphere
3.2.1.9. Pulse3D
3.2.2. Java und PlugIn-Lösungen kombiniert
3.2.2.1. Cult3D
3.2.2.2. blaxxunContact
3.2.3. Reine Java-Lösungen
3.2.3.1. blaxxun3D
3.2.3.2. Shout3D
3.2.3.3. Anfy3D
3.2.3.4. 3D Anywhere
3.2.4. Die Technologien im Überblick
3.2.5. Diskussion: Die geeignete Web3D-Technik für Produktkonzepttests

4. Moderne Marktforschung mittels neuer Medien
4.1. Einführung in die moderne Marktforschung
4.1.1. Einsatz der Online-Marktforschung
4.1.2. Das Internet als Methode der Marktforschung
4.2. Multimediale Tests von Produkten und Produktkonzepten in der Marktforschung
4.2.1. Abgrenzung von Produkttest und Produktkonzepttest
4.2.2. Multimediale Präsentation von Produktkonzepten bei Produktkonzepttests unter Berücksichtigung von 3D-Darstellungen
4.3. Markt- und Präferenzforschung: Die Conjoint-Analyse
4.3.1. Moderne Methoden der Conjoint-Analyse
4.3.1.1. Hybird-Conjoint-Analyse (HCA)
4.3.1.2. Adaptive-Conjoint-Analyse (ACA)
4.3.1.3. Choice-Based- Conjoint-Analyse (CBC)
4.3.2. Potenziale der neuen Medien für die Conjoint-Analyse

5. Zusammenführung: Web3D-gestützte Conjoint-Analyse
5.1. Vorüberlegung
5.1.1. Einsatzmöglichkeit von Web3D bei welchen Produktkonzepten?
5.1.2. Das Beispiel-Produkt
5.2. Technische Rahmenbedingungen für die Realisierung von 3D-Conjoint bei Viewpoint/VET
5.2.1. Vertiefung der Viewpoint/VET-Technologie
5.2.3. Der Web3D-Export-Prozesses bei Viewpoint/VET
5.2.3. Umsetzung des Produktkonzeptes als Web3D-Darstellung
5.3. Web3D Conjoint-Analyse mit Viewpoint/VET
5.3.1. Die Choice-Based-Conjoint-Analyse als geeignete Form
5.3.2. Das Web3D-Conjoint-Projekt
5.3.3. Architektur des Web3D-Conjoint-Projektes
5.4. Darstellung und Ablauf der eigentlichen Befragung
5.5. Erweiterte Möglichkeiten des Medieneinsatzes in Viewpoint/VET
5.6. Zwischenfazit

6. Diskussion und kritische Betrachtung
6.1. Darstellung und kritische Betrachtung der Erkenntnisse
6.2. Weiterführende Diskussion

7. Zusammenfassung und Ausblick
7.1. Zusammenfassung
7.2. Ausblick

Quellenangaben

Anhang
A1. Beispiele für unterschiedliche Stimuli eines Produktkonzeptes

Abbildungsverzeichnis

Abb. 1-1: Entwicklung/Prognose von 3D-Content: Seiten, Browser und Umsatz

Abb. 2-1: Abgrenzung zwischen Marktforschung und Marketingforschung bzw. Absatzforschung

Abb. 2-2: Merkmale von Multimedia

Abb. 2-3: Querschnitt durch das menschliche Auge

Abb. 2-4: Verarbeitung visueller Reize im Gehirn

Abb. 2-5: Erstellung eines perspektivischen Bildes mit Hilfe von Albertis Fenster

Abb. 2-6: Ein Vektor im 3D-Raum

Abb. 2-7: Vektorkreuzprodukt

Abb. 2-8: Beispiel für die Multiplikation eines Vektors mit einer Matrix

Abb. 2-9: Projektion eines Dreiecks in die Bildschirmebene

Abb. 2-10: Konzeptionelle Hierarchie des polygonalen Verfahrens

Abb. 2-11: Eine Kugel als polygonale Darstellung in verschiedenen Auflösungen

Abb. 2-12: Torusobjekt als NURBS- und Polygon-Repräsentation

Abb. 2-13: CSG – Modellierung und Repräsentation von 3D-Objekten

Abb. 2-14: Grundlage des Rendering, die Renderpipline

Abb. 2-15: Die gängigsten Darstellungsweisen für 3D-Grafik

Abb. 2-16: Bestimmung des Lichteinfallswinkels mittels Normalenvektor

Abb. 2-17: Interpolation der Normalenvektoren

Abb. 2-18: Prinzip des Texturemapping

Abb. 2-19: .kkrieger – First Person Shooter in 96KB

Abb. 2-20: Torusobjekt ohne und mit Anti-Aliasing

Abb. 2-21: Die Stufen des Bumpmapping (eindimensionales Beispiel)

Abb. 2-22: 3D-Objekt mit und ohne Bumpmapping

Abb. 2-23: Beispiel für eine Steuerkontrolle außerhalb einer 3D-Szene

Abb. 2-24: 3D-Widget-Metapher, virtueller Laser-Pointer

Abb. 2-25: Schema des Java Runtime Environment

Abb. 2-26: Ablauf und Anwendung von Generalized Triangle Strips

Abb. 2-27: Verlustbehaftete Kompression eines Polygon-Mesh

Abb. 2-28: Progressive Compressed Stream

Abb. 3-1: Beispiel für einen VRML-Szenengraph

Abb. 3-2: Zusammenhang von SGML, XML, HTML, CSS und DSSSL

Abb. 3-3: Aufbau einer typischen X3D-Datei (Code und Szenengraph)

Abb. 3-4: Die Profile der X3D-Architektur (eigene Darstellung)

Abb. 3-5: Möglichkeiten der Verwendung von Video-Content

Abb. 3-6: BIFS Komponenten

Abb. 3-7: Zusammenwirken der Formate untereinander im Kontext von XMT

Abb. 3-8: Flash erreicht 98% der Internetnutzer

Abb. 3-9: dreidimensionale, interaktive Darstellung des Koenigsegg CC

Abb. 3-10: Beispielhafte 3D-Darstellung mit OpenWorlds Horizon

Abb. 3-11: Interaktive Produktpräsentation des Buick Rainier

Abb. 3-12: Virtuelles Gebäude mit Adobe Atmosphere

Abb. 3-13: Das Pulse3D Authorenwerkzeug

Abb. 3-14: Interaktive 3D-Darstellung des Mars-Rovers mittels Cult3D

Abb. 3-15: Beispielscreenshots von Anfy3D-Szenen

Abb. 4-1: Verfahren der Online-Marktforschung

Abb. 4-2: Überschneidung von multimedialem Konzept- und Produkttest

Abb. 4-3: Multimediale Anwendungen in der Datenerhebung

Abb. 4-4: Phasen des Produktentwicklungsprozesses

Abb. 4-5: Verbreitung der Conjoint-Analyse

Abb. 4-6: Unterschiedliche Möglichkeiten der Stimuluspräsentation im Rahmen der Conjoint-Analyse

Abb. 4-7: Formen der Conjoint-Analyse

Abb. 5-1: Produktkonzept - Sonnenbrille

Abb. 5-2: Die Viewpoint MTX-Code Struktur

Abb. 5-3: Einfacher Beispielcode für die Einbettung von Viewpoint-Content in HTML

Abb. 5-4: Die Viewpoint-Datei-Architektur im Überblick

Abb. 5-5: Export/Veröffentlichung von 3D-Inhalten mit Viewpoint

Abb. 5-6: Die Oberfläche des Viewpoint-Scene-Builders

Abb. 5-7: Erstellung von Web3D-Applikationen mit Hilfe von Viewpoint im Detail

Abb. 5-8: Funktionsweise eines UV-Textur-Templates

Abb. 5-9: Verwendung von UV-Maps am konkreten Beispiel

Abb. 5-10: Ablaufschritte einer Conjoint-Analyse

Abb. 5-11: Beispielhafte XML-Conjoint-Datei des Produktkonzeptes einer Sonnenbrille

Abb. 5-12: Web3D-Conjoint-Projekt

Abb. 5-13: Architekturmodell des Web3D-Conjoint-Konzeptes

Abb. 5-14: Empfehlungen für die Vorgehensweise bei Online-Befragungen

Abb. 5-15: Web3D-CBD im Fragebogen

Abb. 5-16: Beispielbild virtuelles Möbelhaus mit VR-Hintergrund

Abb. 6-1: Die am meisten verbreiteten Multimedia-PlugIns

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

0.1. Vorwort

Lange Zeit galten 3D-Inhalte für das Web als „Zukunftsmusik“. Viele Internetnutzer und Experten sahen darin nicht mehr als eine unausgereifte „Spielerei“, bestenfalls eine Art „Eyecatcher“ oder ein innovatives Gimmick. In der Tat war es vor einigen Jahren noch die Regel, dass 3D-Anwendungen für das Web über einen künstlerischen bzw. experimentellen Status nicht hinauskamen. Ein wirklicher Mehrwert war für die meisten Nutzer und auch Entwickler nicht erkennbar. Dies lag zum einen an den wenig vorhandenen (und wenig standardisierten) Software-Lösungen für die 3D-Darstellung und zum anderen an der nicht hinreichend vorhandenen Grafikhardware und Rechnerleistung der Endgeräte sowie an zu geringen Bandbreiten auf Seiten der Internetnutzer.

Seit im Jahr 1994 die erste Spezifikation der Virtual Reality Modelling Language (VRML) herausgegeben wurde und damit das Zeitalter von Web3D begann, ist die technische Entwicklung bis zum heutigen Zeitpunkt enorm vorangeschritten und Web3D-Inhalte werden bereits für die unterschiedlichsten Anwendungsbereiche, wie z.B. eCommerce, eLearning, Online-Games, Visualisierung bzw. Simulation und Produktpräsentationen, eingesetzt.

Die vorliegende Master-Thesis soll sich auf die Einsatzmöglichkeiten in der Online-Marktforschung beziehen. Dieser Bereich der Marktforschung ist aus der heutigen Marktforschungspraxis nicht mehr wegzudenken und hat durch die Entwicklung von multimedialen Technologien - wozu auch Web3D gehört - ein erweitertes Potenzial. Insbesondere für eine Online-Befragung, die eine Beurteilung von Produktkonzepten zum Inhalt hat, bieten sich 3D-Darstellungen an. Innovative Produktkonzepte können so schnell und kostengünstig einer Vielzahl von Nutzern zugänglich gemacht werden, so dass sich das Erfolgspotenzial schnell einschätzen lässt.

1. Einführung

1.1. Relevanz des Themas

In den großen Industrienationen lässt sich seit geraumer Zeit ein stetiges Wachstum der Marktsättigung im Konsumgütermarkt feststellen.[1] Dies bringt für die Anbieter von Produkten einige Probleme mit sich: Die angebotenen Produkte werden von den Verbrauchern zunehmend als austauschbar empfunden, da sie sich aufgrund objektiver Merkmale wie Produktqualität und Funktionalität kaum von konkurrierenden Produkten unterscheiden. Das Marketing übernimmt in diesem Zusammenhang die zentrale Aufgabe, das eigene Produkt durch zielgerechte Maßnahmen von der Konkurrenz abzugrenzen.

Insbesondere die Marktforschung dient dazu, Produktpräferenzen und die zugrundeliegenden Ursachen für bestimmte Vorlieben zu ermitteln. Insbesondere die Online-Marktforschung hat in den letzten Jahren sehr an Relevanz gewonnen.[2] Aufgrund der schnellen nationalen und internationalen Verbreitung des Internet gewannen Online-Befragungen zunehmend an Bedeutung. So ergab eine TNS Emnid Umfrage im Mai 2003, dass die Internet-Nutzung in Deutschland inzwischen bei 50,1% liegt. Somit hat sich das Verhältnis von „Onlinern“ und „Offlinern“ umgekehrt: 50,1% Internet-Nutzern stehen heute 42,7% „Offliner“ gegenüber. Im Vorjahr waren noch 50,1% der Befragten offline und lediglich 41,7% online. Das Statistische Bundesamt veröffentlichte Zahlen, wonach in Deutschland im ersten Quartal 2002 rund 16 Millionen Haushalte über einen Internetzugang verfügten, was einem Anteil von 43% entspricht.[3] Die Zahlen zeigen, dass die Verbreitung des Internet weiter voranschreitet, wenn auch nicht mit den großen Wachstumsraten früherer Zeiten.

Ein wesentlicher Vorteil der Online-Marktforschung besteht darin, dass innerhalb eines kurzen Zeitraums viele Personen schnell und vor allem kostengünstig befragt werden können.[4] Durch den Einsatz des Internet in der Marktforschung ergeben sich neben Vorteilen wie Kosteneinsparungen und Verringerung des Zeitaufwands (langwierige Telefonumfragen und Interviews fallen weg) auch Vorteile in Bezug auf den Einsatz multimedialer Darstellungsformen. So herrscht bei Online-Befragungen keine Beschränkung auf rein verbale Inhalte vor. Es können Bilder, Audioelemente und Animationen eingesetzt werden, um den Befragten ein realeres und greifbareres Bild vom Befragungsgegenstand zu präsentieren. Dies ist dann von besonderer Relevanz, wenn es darum geht, Produktprototypen oder gar noch immaterielle Produktkonzepte via Online-Fragebogen zu beurteilen.

An diese Thematik soll die vorliegende Arbeit anknüpfen: Im Internet ist durch die technische Entwicklung der Consumer-PCs und der entsprechenden Web3D-Technologien auch der Einsatz von 3D-Darstellungen in einer marktreifen Form möglich. So ist mittlerweile fast jeder herkömmliche PC mit einer Grafikkarte ausgerüstet, die zumindest über eine grundlegende Unterstützung der 3D-Beschleunigung verfügt und auch die Prozessoren sind inzwischen leistungsfähig genug, um die Berechnungen für aufwendige 3D-Darstellungen und Animationen in einer akzeptablen Geschwindigkeit durchzuführen.[5] Zudem existieren hierzu bereits eine Fülle von Technologien und Formaten für 3D-Darstellung im Web (siehe Kapitel 3).

Eine solche 3D-Darstellung würde sich insbesondere für eine Präsentation von Produkten bzw. Produktkonzepten innerhalb eines Online-Fragebogens anbieten. Zumal die hohen Anforderungen an die Bandbreite des Internetzugangs, die aufwendige 3D-Darstellungen häufig benötigen, heutzutage weit weniger ins Gewicht fallen, da die Verbreitung von Breitbandverbindungen im Vergleich zu konventionellen Internetverbindungen stark ansteigt[6] Bei den Technologien zur 3D-Darstellung im Web existiert momentan noch das Problem der geringen Standardisierung. So gibt es keinen etablierten Standard für 3D im Web, den Standardbrowser wie der Internet-Explorer beherrschen. Die Standardisierungsbemühungen des Web 3D-Consortiums[7] sind hinter der tatsächlichen technologischen Entwicklung weit zurück. Nichtsdestotrotz nimmt die Verbreitung von 3D im Internet ständig zu, was die Abbildung 1-1 belegt. So wird erwartet, dass die Anzahl der Internetseiten mit 3D-Inhalten bis zum Jahr 2007 fast exponentiell von knapp 50 Millionen auf eine Milliarde ansteigt. Bei der Verbreitung der Browser, die in der Lage sind, 3D-Inhalte darzustellen, zeigt die Prognose ein annähernd lineares Wachstum, wobei die Anzahl von 25 Millionen auf 550 Millionen ansteigt. Der Umsatz, der mit Web3D-Software pro Jahr generiert wird, steigt ähnlich konstant von ca. 400 Millionen auf ca. 1,1 Milliarden USD.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1-1: Entwicklung/Prognose von 3D-Content: Seiten, Browser und Umsatz[8]

1.2. Problemstellung und Zielsetzung

Sollen Produkte bzw. Produktkonzepte via Online-Fragebogen beurteilt werden, so spielt die Art der visuellen Repräsentation eine entscheidende Rolle. Dabei könnte insbesondere die Web3D-Technologie einige Vorteile mit sich bringen, wenn es darum geht, die Akzeptanz einer Online-Befragung zu erhöhen. Wie eine Studie des Marktforschungsinstituts eResult GmbH (Göttingen) belegt, wirkt sich eine 3D-Darstellung positiv auf die Beurteilung des abgebildeten Produktes aus.[9] Ein weiterer Grund, der für den Einsatz von 3D spricht, bezieht sich auf die bessere Wahrnehmbarkeit bzw. den höheren Realitätsgrad der in 3D präsentierten Produktkonzepte.

In diesem Zusammenhang soll in dieser Arbeit untersucht werden, ob und wie sich Produktkonzepttests mit Web3D-Unterstützung praktikabel und effizient durchführen lassen.

Basierend auf der grundsätzlichen Fragestellung der Arbeit soll folgendes untersucht werden:

I. Wo kann in der Online-Marktforschung Web3D ansetzen?
II. Welches Web3D-System ist für den Einsatz in der Online-Marktforschung - insbesondere für Produktkonzepttests - am ehesten geeignet?
III. Wie realitätsnah können solche 3D-Darstellungen von Produktkonzepten umgesetzt werden?
IV. Welche Möglichkeiten, Potenziale oder auch Grenzen ergeben sich, wenn Web3D in einem Online-Produktkonzepttest realisiert wird?
V. Ist der Einsatz von Web3D bei Produktkonzepttest adäquat/effizient durchführbar?
Ist dieses Vorgehen effizient bzw. können so Kosten verringert werden? Welche Synergieeffekte ergeben sich aus der Verknüpfung von Web3D mit Online-Marktforschung?
VI. Wie ist die Verbreitung der notwendigen Plugins oder gibt es Plugin-freie Alternativen?[10]

Teil der Fragestellung ist auch der Aspekt der Akzeptanz von 3D-Inhalten (bzw. den dazu notwendigen Technologien) bei Online-Umfragen und damit auch, in wieweit der Einsatz von 3D angesichts der teilweise immer noch beschränkten technologischen Voraussetzungen zur heutigen Zeit sinnvoll ist.

1.3. Vorgehensweise und Aufbau der Arbeit

Die vorliegende Master-Thesis vermittelt dem Leser im Anschluss an die Einführung in das Thema zunächst die erforderlichen theoretischen Grundlagen. Dabei werden die Begriffe Multimedia, Online-Marktforschung und Web 3D erläutert. Im Zusammenhang der Thematik Web3D wird zudem auf die Grundlagen der interaktiven 3D-Computergrafik im Allgemeinen eingegangen. Anschließend folgt eine genauere Untersuchung des Wahrnehmungsprozesses. Darum wird der visuelle Wahrnehmungskanal umfassend betrachtet, da das Internet ein vornehmlich visuelles Medium ist und andere Wahrnehmungskanäle in der Online-Marktforschung eine untergeordnete Rolle spielen.[11]

In Kapitel 3 werden aktuell relevante Technologien und Systeme für eine 3D-Darstellung im Web analysiert. Dabei wird insbesondere auf Basistechnologien und Standards des Web 3D-Consortiums eingegangen. Im weiteren Verlauf wird eine Betrachtung der derzeit marktrelevanten Web-3D-Lösungen vorgenommen, wobei zwischen PlugIn-basierten Lösungen, hybriden Lösungen (Java und PlugIn kombiniert) und reinen Java-Lösungen unterschieden werden soll. Am Ende des Kapitels wird ein Zwischenfazit gezogen, in dem festgestellt wird, welche 3D-Lösung(en) für den Einsatz in der Online-Marktforschung, respektive bei Produktkonzepttests, am besten geeignet erscheinen.

In Kapitel 4 werden dann Methoden der modernen Marktforschung beleuchtet. Dazu gehört im Wesentlichen der Einsatz des Internet unter der Berücksichtigung multimedialer Technologien wie Echtzeit 3D. Des weiteren wird speziell auf Verfahren zur Beurteilung von Produktkonzepten eingegangen, wozu insbesondere die Conjoint-Analyse zu zählen ist. In diesem Zusammenhang werden die unterschiedlichen Verfahren der Conjoint-Analyse genauer spezifiziert, wobei grundsätzlich eine Abgrenzung zwischen modernen und traditionellen Methoden vorgenommen wird. Der Fokus liegt hier insbesondere auf den modernen Methoden, da diese sich für den Einsatz von Internet und Multimedia bzw. Web3D-Technologien am ehesten eignen.

Im fünften Kapitel werden nun die beiden Themenkomplexe Web3D und Online-Conjoint-Analyse zusammengeführt. Es sollen anhand der Konzeption eines Produktkonzepttests mit Web3D-Unterstützung die Möglichkeiten und Grenzen einer solchen Befragungsmethode aufgezeigt werden. Es wird unter anderem betrachtet, für welche Art von Produkten diese Art von Befragungen sinnvollerweise zum Einsatz kommen könnte. Des weiteren wird der Workflow bei der Erstellung (vom Konzept bis zur Web3D-gestützten Befragung) aufgezeigt. Auch werden die erforderlichen technischen Gegebenheiten weiter vertieft und kritisch beleuchtet. Die gewonnenen Erkenntnisse fließen anschließend in Kapitel 6 ein, wo sie die Grundlage der kritischen Diskussion bilden.

In Kapitel 6 sollen dann die Aspekte des Themas noch mal kritisch betrachtet und hinterfragt werden. Im Zuge dessen werden auch die aufgestellten Fragestellungen verifiziert und ggf. falsifiziert.

Abschließend wird in Kapitel 7 eine Zusammenfassung der Arbeit vorgenommen und die gewonnenen Erkenntnisse verdichtet. Darüberhinaus soll ein Ausblick auf weitere Möglichkeiten und potentielle Entwicklungen im behandelten Themengebiet gegeben werden.

2. Theoretische Grundlagen

2.1. Begriffliche Grundlagen und Definitionen

Die Thesis beschäftigt sich mit dem Einsatz von Web3D-Technologien in der Marktforschung. Es wird dabei unter anderem untersucht, in wieweit diese multimedialen Technologien Online-Umfragen, im speziellen Fall Online-Produktkonzeptbeurteilungen, unterstützen bzw. verbessern können. In diesem Zusammenhang werden deshalb zunächst die Begriffe Multimedia, Online-Marktforschung und Web3D genauer betrachtet.

Zunächst soll auf den Begriff Marktforschung eingegangen werden, der im Anschluss daran noch um die Online-Marktforschung erweitert wird. Marktforschung ist eine Teildisziplin des Marketings bzw. des Absatzes. Die Ergebnisse der Marktforschung bilden die Grundlage für unternehmerische Entscheidungen. Sie dient der systematischen Untersuchung eines Marktes mit dem Ziel, Informationen über den Absatz bzw. den Beschaffungsmarkt zu gewinnen.[12]

In der relevanten Literatur findet sich neben dem Begriff „Marktforschung“ auch der Begriff „Marketingforschung“ oder „Absatzforschung“. Die drei Begriffe sind gegeneinander austauschbar, obwohl die Bereiche, auf die sie sich beziehen, nicht deckungsgleich sind. Während sich die Marktforschung sowohl mit den Beschaffungs- als auch den Absatzmärkten beschäftigt, dient die Marketing- bzw. Absatzforschung lediglich der Informationsgewinnung für absatzwirtschaftliche Entscheidungen. Hierbei werden im Gegensatz zur Marktforschung auch unternehmensinterne Daten berücksichtigt.[13] Die begrifflichen Überschneidungen in diesem Bereich sind in der folgenden Abbildung veranschaulicht.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-1: Abgrenzung zwischen Marktforschung und Marketingforschung bzw. Absatzforschung[14]

Für den Rest der vorliegenden Arbeit, soll die folgende Definition des Begriffs Marktforschung zugrunde gelegt werden: „Unter Marktforschung versteht man die systematische Gewinnung, Aufbereitung und Interpretation von für die Marketingplanung relevanten Informationen über Absatz- und Beschaffungsmärkte sowie über Möglichkeiten zu ihrer Beeinflussung“.[15]

Neben der klassischen Marktforschung wird die Marktforschung via Internet, die sogenannte Online-Marktforschung, immer wichtiger. „Die Online-Marktforschung gewinnt gegenüber der klassischen Marktforschung ständig an Bedeutung. Nach Prognosen werden die Ausgaben im Online-Sektor bereits bis 2004 auf über 15 Prozent des Gesamtmarktes in Deutschland wachsen.“[16]

In diesem Zusammenhang ist auch die Betrachtung des Begriffs Multimedia relevant. Multimedia ist ein Schlagwort der 90er Jahre, das aus dem heutigen Sprachgebrauch nicht mehr wegzudenken ist. Doch was verbirgt sich überhaupt hinter dieser Bezeichnung? Eine allgemeingültige Definition von Multimedia ist durch die unterschiedliche Verwendung dieses Begriffes in der Praxis sehr schwierig. Wörtlich übersetzt bedeutet der Begriff „viele Medien“, wobei ein Medium ein Mittel zur Verbreitung und Darstellung von Informationen ist.[17] Doch nicht die alleinige Integration verschiedener Medien macht Multimedia aus, sondern auch die Computerunterstützung bzw. die Digitalisierung von Informationen sowie die Interaktion des Nutzers mit dem jeweiligen Multimediasystem.[18] So definiert Silberer unter Berücksichtigung der Merkmale Medienintegration, Interaktion, Kommunikation und Digitalisierung Multimedia wie folgt: „Multimedia ist ein rechnergestütztes multimodales Interaktionssystem bzw. Interaktionsangebot.“[19]

Im folgenden Schaubild werden die Merkmale von Multimedia noch etwas genauer spezifiziert, wobei eine Aufteilung in visuelle und auditive Elemente (Elemente der Wahrnehmung) sowie Eingabe (Bedien)-Elemente und Ausgabe-Elemente (Elemente der Interaktion) vorgenommen wird. In dieser Arbeit soll allerdings der auditive Kanal keine Berücksichtigung finden, sondern es soll vornehmlich um das Visuelle und dessen Wahrnehmung und Interaktion gehen. Auditiven Inhalten kann lediglich eine unterstützende Wirkung zugeschrieben werden. Dies ist damit zu begründen, dass das Internet immer noch ein vornehmlich visuelles Medium ist und der visuelle Kanal somit auch in der Online-Marktforschung sehr dominant ist.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-2: Merkmale von Multimedia[20]

Durch den vermehrten Einsatz von multimedialen Elementen bei Offline- aber auch bei Online-Befragungen kann Online-Marktforschung auch als multimedial gestützte Marktforschung aufgefasst werden. Zu multimedialen Inhalten (sowohl Offline als auch Online) gehören neben Bildern, Tönen und Animationen auch interaktive (Echtzeit) 3D-Inhalte und somit auch Web3D-Inhalte.

Unter dem Begriff Web3D lassen sich generell alle Systeme und Technologien subsumieren, die interaktive Echtzeit-3D-Darstellungen im Internet ermöglichen. Der Begriff Echtzeit bedeutet hierbei, dass jedes Frame bzw. Einzelbild zur Laufzeit berechnet wird. Ganz im Gegensatz z.B. zu Videodaten, bei denen schon auf dem Datenträger vorhandene Bilder/Frames lediglich abgespielt werden. Eine Echtzeit -Darstellung ist auch die Voraussetzung für Interaktivität, da sich die darzustellende 3D-Szene an jede mögliche Veränderung, welche durch den User veranlasst wird, anpassen muss.

In einer Pressemitteilung zur Web3D-Konferenz 2001 in Paderborn wurde Web3D wie folgt definiert: „Der Begriff ‚Web3D’ bezeichnet alle offenen, aber auch firmeneigenen Technologien, die interaktive 3D-Grafiken im Web darstellen können. Experten sprechen auch schon vom ‚zweiten Web’, einer neuen Generation des World-Wide-Web, die durch Web3D Technologien ermöglicht wird.“[21]

Neben den „echten“ Echtzeit-3D-Darstellungen werden zur Darstellung von 3D im Web auch häufig so genannte „Pseudo-3D“-Verfahren eingesetzt. Hier wird 3D-Darstellung durch vorher gerenderte Bildsequenzen und Animationen bzw. durch perspektivisch/optische Verfahren (z.B. Isometrie) vorgetäuscht. Der Vorteil liegt hier häufig in einem fotorealistischeren Aussehen und meist sind hierfür auch keine zusätzlichen 3D-PlugIns nötig bzw. die benötigten PlugIns sind sehr weit verbreitet (z.B. Quicktime VR, Flash). Ein großer Nachteil liegt darin begründet, dass für die Darstellung vorher gerenderte Frames verwendet werden und somit der Speicherverbrauch und damit auch die Downloadzeit stark ansteigt. Dies geht ebenfalls mit einer sehr geringen Interaktionsmöglichkeit einher, da die Darstellung lediglich auf die vorher gerenderten Ansichten der jeweiligen Szene beschränkt ist. Dennoch sollen diese „Pseudo-3D“-Verfahren in dieser Arbeit berücksichtigt werden, da sie in der Praxis, aufgrund des häufigen Nichtvorhandenseins der speziellen 3D-PlugIns, immer noch weit verbreitet sind. „Pseudo-3D“-Darstellung soll in der vorliegenden Arbeit auch unter dem Begriff „Web-3D“ gefasst werden.

2.2. Wahrnehmungs- und Konsumentenpsychologie

Der Mensch nimmt Informationen über seine Umwelt durch verschiedene Wahrnehmungskanäle auf. Allgemein ist der Begriff Wahrnehmung laut Kroeber-Riel/Weinberg wie folgt definiert: „Informationsverarbeitungsprozess, durch den das Individuum Kenntnis von sich selbst und von seiner Umwelt erhält.“[22]

Wenn es um die Beurteilung von Produktkonzepten geht, kommt man nicht um eine Betrachtung der menschlichen Wahrnehmungskanäle herum. Insbesondere auf die visuelle Wahrnehmung soll in diesem Abschnitt eingegangen werden, da Produktkonzepte, die als 3D-Inhalt im Internet präsentiert werden, bei dem heutigen Stand der Technik lediglich durch den visuellen Wahrnehmungskanal dargestellt und letztlich auch wahrgenommen werden können. Auditive Inhalte sind zwar auch möglich, aber in diesem Zusammenhang zu vernachlässigen.

Der Mensch verfügt generell über fünf Wahrnehmungskanäle:[23]

- Visueller Wahrnehmungskanal (sehen)
- Auditiver Wahrnehmungskanal (hören)
- Haptisch-somatischer Wahrnehmungskanal (fühlen)
- Gustatorischer Wahrnehmungskanal (schmecken)
- Olfaktorischer Wahrnehmungskanal (riechen)

Die visuelle Wahrnehmung

Der visuelle Kanal ist gegenüber den anderen Wahrnehmungskanälen sehr dominant. Der Mensch nimmt ca. 80% der Informationen über die Augen auf. Die Aufnahme und Verarbeitung visueller Reize erfolgt dabei sehr schnell und geschieht vielfach unbewusst. Der Empfänger von visuellen Informationen greift bei ihrer Verarbeitung auf ein erlerntes bzw. vorhandenes „visuelles Vokabular“ zurück und begreift nahezu automatisch die erkannten Symbole und Zeichen. Wegen der zumeist unbewussten Wahrnehmung ist der visuelle Kanal besonders gut dazu geeignet, um emotionale Wirkungen zu erzeugen.[24] Visuelle Eindrücke werden über die rechte Gehirnhälfte verarbeitet, in der auch die Emotionen verarbeitet werden. Sie können emotionale Reize unkomplizierter bzw. mit geringerem kognitivem Aufwand und auch wesentlich einprägsamer als auf rein sprachlicher Ebene vermitteln.

Aus diesem Grund ist der visuelle Wahrnehmungskanal für die Online-Marktforschung interessant. Es liegt hier nahe, bei Online-Befragungen verstärkt auf visuelle anstatt auf rein textuelle Darstellungen zu setzen. So können Präferenzen, die aufgrund von Emotionen vorherrschen, besser ermittelt werden.

Zudem können räumliche Wirkungen mittels Echtzeit 3D-Grafik relativ realitätsnah simuliert werden. Daher soll in diesem Zusammenhang auch auf die Entstehung dreidimensionaler Eindrücke eingegangen werden.

Da das Internet mittlerweile ein vornehmlich visuelles Medium ist und somit auch bei Online-Befragungen die visuelle Präsentation (auch aus den oben genannten Gründen) eine nicht unwesentliche Rolle spielt, soll auf das Thema „visuelle Wahrnehmung“ im Folgenden etwas näher eingegangen werden.

2.2.1. Aufbau des Sehorgans

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-3: Querschnitt durch das menschliche Auge[25]

Die Abbildung 2-3 zeigt einen Querschnitt des menschlichen Wahrnehmungsorgans, welches sich wiederum in die Bereiche Auge, Sehnerv und Sehzentrum unterteilen lässt. Der Sehvorgang beginnt, wenn Lichtstrahlen einer bestimmten Wellenlänge auf das Auge treffen. Grundsätzlich ist das menschliche Auge im Stande, Lichtwellen bzw. Lichtenergie, die sich wellenförmig ausbreitet, in einem Spektrum zwischen ca. 360 bis etwa 760 nm[26] wahrzunehmen – dies ist das Spektrum des sogenannten sichtbaren Lichts.[27] Diese Lichtwellen werden vom Auge als unterschiedliche Farben wahrgenommen (z.B. rot = 700nm, grün = 500nm, blau = 400nm). Daraus folgt, dass nur dann ein optischer Farbeindruck entstehen kann bzw. eine Form oder ein Objekt wahrgenommen werden kann, wenn auch Licht vorhanden ist.[28] Anschließend wird dieses einfallende Licht von Hornhaut und Linse gebündelt und auf die Netzhaut gelenkt. Die Netzhaut wiederum setzt sich aus unterschiedlichen Photorezeptoren zusammen, die das Licht mittels lichtempfindlicher chemischer Substanzen (Sehpigmente) in elektrische Signale umwandeln.

Abbildung in dieser Leseprobe nicht enthalten

In der Abbildung 2-4 wird gezeigt, wie die Weiterverarbeitung dieser visuellen Informationen im Gehirn abläuft. Das Abbild, welches auf die Netzhaut projiziert wurde, wird nun durch den Sehnerv weiterge­leitet. Ein Großteil der Impulse erreichen den seitlichen Kniehöcker im Zwischenhirn (Corpus geniculatum laterale) und gelangen von dort zur primären Sehrinde (primärer visueller Cortex).[29]

Abb. 2-4: Verarbeitung visueller Reize im Gehirn[30]

2.2.2. Wie entsteht der dreidimensionale Eindruck?

In den vorherigen Kapiteln wurde auf generelle Aspekte der visuellen Wahrnehmung eingegangen. Da das Thema 3D natürlich auch die Wahrnehmung in drei Dimensionen impliziert, soll der Aspekt der Wahrnehmung räumlicher Tiefe an dieser Stelle betrachtet werden. Dies bezieht sich auch auf die dreidimensionale Wahrnehmung von 2D-Repräsentationen einer dreidimensionalen Wirklichkeit, wie z.B. Gemälde oder im speziellen Fall auch Monitorbilder.

Das menschliche Auge kann streng genommen nicht dreidimensional wahrnehmen. Ein 3D- bzw. Tiefeneindruck entsteht lediglich durch zwei versetzte Bilder (2D-Repräsentationen), die jeweils durch das linke und rechte Auge wahrgenommen werden. Interessant sind in diesem Zusammenhang die Voraussetzungen bzw. Kriterien durch die aus einer solchen zweidimensionalen Repräsentation heraus und das gilt für das Netzhautbild genauso wie für das Monitorbild ein dreidimensionaler Eindruck entstehen kann.

Die Theorie des wahrnehmungsökologischen Ansatzes von J.J.Gibson geht hierbei von sogenannten Tiefenkriterien aus, die, falls vorhanden, es dem Betrachter ermöglichen, das Wahrgenommene als dreidimensional zu empfinden.

Diese Tiefenkriterien lassen sich in vier Arten einteilen, die nun nacheinander erläutert werden:

- okulomotorische Tiefenkriterien
- monokulare Tiefenkriterien
- bewegungsindizierte Tiefenkriterien
- Querdisparation

Okulomotorische Tiefenkriterien: Die Tiefenwahrnehmung wird durch Stellung der Augen und Auswertung der Spannung der Augenmuskulatur erzeugt. Dieses Kriterium ist im Kontext der Arbeit weniger relevant, da die Augen bei Betrachtung eines Monitors in der Regel auf einen festen Punkt konvergieren.

Monokulare Tiefenkriterien: Das für den Kontext der Arbeit wichtigste Kriterium. Es ermöglicht nämlich die Wahrnehmung eines 3D-Eindrucks mittels 2D-Repräsentation, wie z.B. bei einem Gemälde, Foto oder Monitorbild oder aber wenn nur ein Auge benutzt wird (monokular). Diese für die 3D-Wahrnehmung relevanten Tiefeninformationen werden im folgenden beschrieben:

Es entsteht der Eindruck von Tiefe bereits durch das Verdecken von Objekten. Auf diese Weise kann der Betrachter erkennen, dass ein Objekt näher am Betrachter liegt als das andere. Ein weiterer Faktor ist die relative Größe und Höhe im jeweiligen Blickfeld. Die Darstellung von unterschiedlichen Größen im Bild kann den Betrachter häufig zur irrigen Annahme führen, dass kleinere Objekt wäre weiter entfernt.

Ähnliches gilt auch für die Höhe eines Objektes im Verhältnis zum Horizont. So werden Objekte, die sich weiter oben bzw. höher im Blickfeld befinden, für gewöhnlich als weiter entfernt befunden, wobei dieses Phänomen nur für Objekte unterhalb der Horizontlinie zutrifft. Objekte, die sich oberhalb der Horizontlinie befinden, erscheinen weiter entfernt, wenn sie im Blickfeld niedriger stehen: So erscheinen Wolken, die ja über dem Horizont liegen, als weiter entfernt je näher sie sich an der Horizontlinie befinden.

Der Eindruck von Tiefe kann auch durch atmosphärische Phänomene, genauer gesagt durch die atmosphärische Perspektive, erzeugt werden. In diesem Zusammenhang wird auch häufig von Luftperspektive gesprochen. Da die Luft nicht zu 100% durchsichtig ist, sondern von Wassertröpfchen, Staub und sonstigen Partikeln getrübt ist, scheinen weiter entfernte Objekte weniger klar und scharf als nahe. Dieses Phänomen ist gut in Bergregionen zu beobachten. Luftperspektive wird häufig in Gemälden verwendet, um einen Tiefeneindruck zu suggerieren und kann auch in der heutigen 3D-Computergrafik gut mittels Transparenzen (Alphablending), Depth-of-Field oder durch Nebeleffekte erzeugt werden.

Nicht zuletzt ist auch die gewohnte bzw. gelernte Größe von Objekten relevant. So stellte William Epstein 1965 in diesem Zusammenhang fest, dass das Wissen um die Größe eines Objektes unter bestimmten Bedingungen beeinflusst, als wie weit entfernt dieses Objekt wahrgenommen wird.

Das wohl wichtigste Tiefenkriterium, auch im Hinblick auf die 3D-Computergrafik, ist die lineare Perspektive. Im Jahr 1435 beschreibt L.B. Alberti erstmalig in seinem Buch De Pictura, wie sich mittels Linearperspektive ein dreidimensionaler Eindruck in einem zweidimensionalen Gemälde realisieren lässt. De Pictura erklärt mithilfe geometrischer Verfahren wie sich Bilder mittels Linearperspektive zeichnen lassen.

Ein etwas anderer Ansatz geht auf da Vincisoperationale Definition“ der Perspektive zurück: Demnach lässt sich die dreidimensionale Umwelt auf eine Fläche abbilden bzw. reduzieren, indem man lediglich durch ein gewöhnliches Fenster sieht und die Konturen auf der durchsichtigen Scheibe nachzeichnet. Dieses Verfahren wurde als Albertis Fenster bekannt und häufig verwendet, wobei nicht direkt auf das Fenster gezeichnet wurde, sondern die markanten Bildbeschreibungspunkte auf die Leinwand übertragen wurden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-5: Erstellung eines perspektivischen Bildes mit Hilfe von Albertis Fenster[31]

Die Linearperspektive wird auch in der 3D-Computergrafik für die Konstruktion und Repräsentation von 3D-Szenen eingesetzt. Dabei ist die 2D-Projektion im Kontext der 3D-Computergrafik (siehe auch Kapitel 2.3.1. Ende) auch stark an die Verwendung der Zentralperspektive, respektive an Albertis Fenster, angelehnt.

In diesem Kontext ist noch der Texturgradient als Quelle für Tiefeninformationen erwähnenswert. Dabei bezieht sich dieses Phänomen stark auf Prinzipien der Linearperspektive und besagt, dass Elemente, die gleich weit voneinander entfernt sind, mit zunehmendem Abstand zum Betrachter als „dichter gepackt“ erscheinen.

Die bis hierher erklärten Kriterien können in der Realität vorkommen, aber auch als 2D-Bild simuliert werden.

Bewegungsindizierte Tiefenkriterien: Dieses Tiefenkriterium tritt bei Bewegtbildern auf und kann den dreidimensionalen Eindruck zusätzlich verstärken. Das wichtigste Phänomen ist in diesem Zusammenhang die Bewegungsparallaxe. Bewegungsparallaxe bezieht sich auf den Geschwindigkeitsunterschied bei unterschiedlich weit voneinander entfernten Objekten. So scheinen nahe Objekte besonders rasch vorbei zu fliegen, weiter entfernte Objekte scheinen sich sehr langsam zu bewegen. Dies lässt sich gut während einer Zugfahrt beobachten, wenn man aus dem Fenster schaut. Das Phänomen tritt auf, weil die Abbildung des nahen Objektes bei Änderung der Position eine größere Strecke auf der Netzhaut zurücklegt als die Abbildung des fernen Objektes.[32] Eine detaillierte Erklärung der Bewegungsparallaxe kann unter Goldstein S.223 nachgelesen werden.

Dieses Phänomen kann auch in 2D-Darstellungen benutzt werden, um bei Bewegung räumliche Tiefe zu simulieren: So wurde früher häufig das so genannte Parallax-Scrolling in 2D-Computerspielen verwendet, welches den Eindruck räumlicher Tiefe simulierte, indem verschiedene Layer mit 2D-Grafik übereinander gelegt und während des Bildscrollings unterschiedlich schnell bewegt wurden. Je weiter vorne der jeweilige Layer erscheinen sollte, desto schneller wurde er bewegt; je weiter hinten, desto langsamer.

Querdisparation: Dies bezeichnet ein binokulares Tiefenkriterium, d.h. für die Wirkung sind beide Augen für die Wahrnehmung nötig. Der dreidimensionale Eindruck entsteht hier durch die minimalen Unterschiede der beiden Bilder, da sie aus 2 leicht abweichenden Blickwinkeln gesehen werden.[33] Diese Unterschiede ergeben sich aus den abweichenden Blickwinkeln beider Augen sowie aus den korrespondierenden Netzhautpunkten.[34]

Für die Bildwahrnehmung am Monitor hat dieses Kriterium keine Relevanz, da eine (gleiche) 2D-Repräsentation von beiden Augen wahrgenommen wird. Beim Einsatz einer 3D-Brille allerdings werden auch zwei 2D-Bilder mit zwei verschiedenen Blickwinkeln auf eine 3D-Szene verwendet, die den dreidimensionalen Eindruck erzeugen.

Verallgemeinert kann festgestellt werden, dass je mehr der aufgeführten Tiefenkriterien erfüllt sind, desto dreidimensionaler bzw. „realer“ ist die Wahrnehmung.

2.3. Grundlagen der interaktiven 3D-Computergrafik

Da Web3D-Technologien auf den allgemeinen Grundlagen der 3D-Computergrafik aufbauen, sollen diese innerhalb des vorliegenden Kapitels behandelt werden. Hierbei stehen die Echtzeitfähigkeit, die Interaktivität sowie der Realitätsgrad im Vordergrund. Echtzeitfähigkeit[35] eines 3D-Systems ist dabei immer Voraussetzung für die Möglichkeit zur Interaktion. Nur wenn die Position der Kamera und der 3D-Objekte innerhalb einer virtuellen Welt zur Laufzeit berechnet werden und nicht statisch vorliegen, können freie Interaktionen in einer 3D-Szene realisiert werden.

Es werden in den folgenden Abschnitten die grundlegenden mathematischen Zusammenhänge in Bezug auf 3D-Computergrafik dargelegt sowie der Aspekt der internen Repräsentation von 3D-Modellen beleuchtet. Des weiteren sollen die Darstellungsformen für 3D-Grafik und der Grad des Realismus, der bei den unterschiedlichen Darstellungsverfahren erzielt wird, betrachtet werden. So ermöglichen es diese Verfahren erst, 3D-Daten an einem zweidimensionalen Medium (respektive Monitor) auszugeben.

2.3.1. Mathematische Grundlagen

In diesem Kapitel sollen die mathematischen Grundlagen der 3D-Computergrafik kurz umrissen werden. Die mathematischen Themenkomplexe beziehen sich dabei im Wesentlichen auf Vektoren und Matrizen sowie die Projektion.

2.3.1.1. Vektoren

„Vektoren sind gerichtete Größen, die durch ihre Länge, ihre Richtung und ihren Betrag gekennzeichnet sind. Sie können als eindimensionale Matrizen, in Zeilen- oder Spaltenschreibweise angegeben werden.“[36] Ein Vektor ist eine Liste von n Werten für n Dimensionen. Vektoren sind zumindest zweidimensional, können aber abhängig von der Anzahl der Werte unendlich viele Dimensionen haben. Bei einem dreidimensionalen Raum besteht ein Vektor folglich aus einer Liste von drei Zahlen (entsprechend der drei Dimensionen), welche die Position eines Punktes im 3D-Raum eindeutig bezeichnen.[37] Alle einzelnen Punkte bzw. Koordinaten, aus denen die 3D-Objekte aufgebaut sind, werden durch Vektoren beschrieben. Die folgende Abbildung zeigt einen Vektor im dreidimensionalen Raum:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-6: Ein Vektor im 3D-Raum[38]

Da in der Computergrafik nicht nur statische Punkte beschrieben werden sollen, lassen sich mit Vektoren auch Berechnungen durchführen: Es kann eine Addition zweier Vektoren a und b vorgenommen werden, indem die jeweils korrespondierenden Werte (also ax + bx; ay + by; az + bz) miteinander addiert werden. Durch dieses Additionsverfahren wird im Prinzip auch die Subtraktion definiert, indem anstelle der positiven Werte Negative addiert werden, also ax + (-bx); ay + (-by); az + (-bz).

Durch die jeweilige Multiplikation der einzelnen Werte eines Vektors mit einem Faktor s, kann ein Vektor skaliert, d.h. seine Länge vergrößert (bei einem s-Wert >1) oder verringert werden (bei einem s-Wert <1).

Bedeutend ist im Zusammenhang der Vektorrechnung auch der sogenannte Normalenvektor. Zu seiner Bestimmung ist es nötig, den Betrag bzw. die Länge eines Vektors zu berechnen, wozu unterstehende Formel dient. Der Normalenvektor dient dazu, Berechnungen, die die Richtung eines Vektors betreffen, korrekt durchführen zu können.

Abbildung in dieser Leseprobe nicht enthalten

Des weiteren können Vektoren auch miteinander multipliziert werden, indem (ähnlich der Vektoraddition) die jeweils korrespondierenden Werte miteinander multipliziert werden. Bei der Multiplikation zweier Vektoren a und b ergibt sich folgende Rechnung: ax * bx + ay * by + az * bz. Ein besonders interessanter Aspekt bei der Vektormultiplikation ist, dass das Ergebnis der Multiplikation gleich dem Ergebnis folgender Formel ist:

Abbildung in dieser Leseprobe nicht enthalten Abbildung in dieser Leseprobe nicht enthalten

Alpha ist dabei der Winkel zwischen beiden Vektoren – der Winkel zwischen zwei Vektoren kann somit durch Umstellen der Formel berechnet werden.

Als weiterer wichtiger Punkt wäre noch das Vektorkreuzprodukt zu nennen. Durch diese Berechnungsart wird ein Vektor erzeugt, der senkrecht auf der von Vektor a und Vektor b aufgespannten Ebene steht. Die folgende Abbildung verdeutlicht dieses:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-7: Vektorkreuzprodukt[39]

2.3.1.2. Matrizen

Matrizen dienen in der Computergrafik dazu, Vektoren zu modifizieren. Die gängigsten Modifikationen sind hierbei Verschieben (Translate), Skalieren (Scale) und Rotieren (Rotate). Um Matrizen auf Vektoren anwenden zu können, muss zu den drei Zeilen (für x, y, z-Achse) eines Vektors eine vierte Zeile hinzugefügt werden. Diese vierte Zeile ist eine Art Hilfsmittel, damit die Matrixtransformationen den existierenden mathematischen Konventionen entsprechend durchgeführt werden können. Man spricht in diesem Zusammenhang von homogenen Koordinaten.

Die Matrixtransformationen werden angewendet, indem die Vektoren mit den entsprechenden Matrizen multipliziert werden. Dazu werden die Zeilen der Matrix nacheinander mit dem Vektor multipliziert. Das Ergebnis ist wieder ein Vektor, der entsprechend modifiziert wurde. In folgendem Beispiel wurde der Vektor (X=4; Y=1; Z=7) durch eine Matrix um 5 Einheiten verschoben. Genauer gesagt wurde kein Vektor verschoben, sondern es wurde ein neuer Vektor mit den Koordinaten X=9; Y=1; Z=1 erzeugt. Die unterschiedlichen Matrizen, welche die verschiedenen Modifikationen erreichen, werden in diesem Abschnitt noch etwas genauer beschrieben.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-8: Beispiel für die Multiplikation eines Vektors mit einer Matrix[40]

Sollen nun ganze 3D-Objekte manipuliert werden, so müssen diese Operationen auf eine sehr große Anzahl von Vektoren angewendet werden, da Objekte durch eine Vielzahl von Koordinatenpunkte definiert werden.[41]

Im folgenden sollen die gebräuchlichsten Matrizen für die Transformation behandelt werden. Dies sind im Wesentlichen:

- Einheitsmatrix
- Verschiebung (Translate)
- Skalierung (Scale)
- Drehung (Rotate)

Die Transformationen werden durch die entsprechende Matrizenmultiplikation durchgeführt.

Einheitsmatrix

Die so genannte Einheitsmatrix dient in der 3D-Computergrafik quasi als „Träger“ für die spezifischen Transformationswerte. Die Werte für die anschließende Transformation werden dieser „leeren“ Matrix „hinzumultipliziert“. Eine Multiplikation eines Vektors mit einer solchen Einheitsmatrix hat keinerlei Wirkung. Die folgende Abbildung zeigt eine solche Matrix:

Abbildung in dieser Leseprobe nicht enthalten

Verschiebung

Die einfachste Form der Transformation ist die Verschiebung. Wie schon angesprochen können Vektoren nicht verschoben werden, da ein Vektor immer im Nullpunkt seinen Ursprung hat. Die Verschiebung mittels Matrizenmultiplikation bezieht sich also nur auf den Punkt an den jeweiligen Koordinaten und hat das gleiche Resultat, als wenn zwei Vektoren addiert werden würden. Wie die folgende Abbildung zeigt, befinden sich die Werte für die Verschiebung in der letzten Spalte der Matrix (siehe Beispiel auf der vorherigen Seite):

Abbildung in dieser Leseprobe nicht enthalten

Skalierung

Die Transformationsmatrix für die Skalierung ist ähnlich einfach aufgebaut. Hier befinden sich die Transformationswerte auf der Diagonalen, auf der sich in der Einheitsmatrix die Einsen befinden.

Abbildung in dieser Leseprobe nicht enthalten

Rotation

Die Rotation ist etwas komplexer. Zudem ist zu beachten, dass die Reihenfolge bei dieser Transformation zu unterschiedlichen Ergebnissen führt. Da die Rotation auf allen drei Achsen (X, Y, Z) möglich sein soll, existieren drei unterschiedliche Matrizen für die Rotation:

Abbildung in dieser Leseprobe nicht enthalten

Rotation auf der X-Achse Rotation auf der Y-Achse Rotation auf der Z-Achse

Transformationsmatrizen lassen sich auch kombinieren. Es lassen sich Verschiebung, Skalierung und Rotation auf einen Vektor anwenden. Das Vorteilhafte an dem Matrizenverfahren ist die schnelle Berechnung von Objekttransformationen.[42] Hierbei gilt es allerdings noch die Reihenfolge der Transformationen zu beachten: Eine unterschiedliche Abfolge von Rotation und beispielsweise Verschiebung führt zu völlig unterschiedlichen Ergebnissen.

2.3.1.3. Projektion

Durch die bisher behandelten mathematischen Verfahren können Objekte in einem imaginären 3D-Raum beschrieben und manipuliert werden. Die Punkte und Koordination sind in einem 3D-Raum enthalten, der theoretisch unendlich groß sein kann. Letztlich sollen diese aber auf dem Monitor, einem zweidimensionalen Ausgabegerät mit einer begrenzten Auflösung, angezeigt werden. Die vorliegenden dreidimensionalen Bildinformationen müssen also auf eine zweidimensionale Fläche (Monitor) reduziert bzw. projiziert werden. Die folgende Abbildung 2-9 verdeutlicht dieses Prinzip: Eine virtuelle Kamera, welche sich ebenfalls im imaginären 3D-Raum befindet und in die Richtung des abzubildenden Objektes zeigt, liefert dabei durch die Schnittpunkte mit der Bildebene (respektive Bildschirm, siehe Abbildung 2-9) die entsprechenden 2D-Bildinformationen.[43]

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-9: Projektion eines Dreiecks in die Bildschirmebene[44]

Wichtig ist in diesem Zusammenhang noch das Clipping, was im wesentlichen bedeutet, dass nicht auf der Bildebene (Bildschirm) sichtbare Elemente „abgeschnitten“ werden. Genauer gesagt werden beim 3D-Clipping die Polygone auf ihre Sichtbarkeit hin überprüft. Dabei wird jedes Polygon, das aufgrund der Projektion nicht in den sichtbaren Bereich fällt, nicht berechnet.

2.3.2. Repräsentation von 3D-Objekten

In der 3D-Computergrafik existieren unterschiedliche Verfahren 3D-Objekte und Szenen intern zu beschreiben. Da von diesen internen 3D-Daten später zweidimensionale Bilder erzeugt werden sollen, ist die Art der Beschreibung bzw. Repräsentation von 3D-Objekten auch im Hinblick auf die spätere (2D)-Darstellung bzw. Darstellungsqualität zu berücksichtigen. In diesem Zusammenhang ist die polygonale Darstellungsweise am gebräuchlichsten.[45] Auch die zuvor beschriebenen mathematischen Grundlagen beziehen sich in erster Linie auf polygonale Darstellung. Es existieren jedoch noch andere Verfahren zur Repräsentation von 3D-Modellen, die an dieser Stelle erwähnt werden sollen. Hierzu zählen insbesondere die Bi-cubic parametric patches, auf die später noch etwas genauer eingegangen wird.

Weitere Verfahren in diesem Zusammenhang sind Construktive solid geometry (CSG), Spatial subdivision techniques und Implicit representation, wobei diese nur am Rand Beachtung finden sollen.

2.3.2.1. Polygonales Verfahren

Dies ist die klassische und meistverwendete Repräsentationsform für 3D-Computergrafik. Da derzeit fast ausschließlich das polygonale Verfahren in der Echtzeit-3D-Grafik zum Einsatz kommt, soll an dieser Stelle nur dieses Verfahren umfangreicher betrachtet werden. Beim polygonalen Verfahren werden 3D-Objekte mithilfe von sogenannten vertices (Eckpunkten), e dges und faces (Flächen/Polygone) beschrieben. Zusammen ergeben sie sogenannte Polygon-Meshes. Ein Polygon (face) ist eine Fläche, die durch drei bis n Seiten (Edges) begrenzt wird. Jede Seite wird durch zwei Punkte (Vertices, singular Vertex) beschrieben, wobei die Seiten gemeinsame Eckpunkte besitzen können. Die Verwendung von Dreiecken (triangles) hat den Vorteil, dass die Performance gesteigert wird, da Grafikkarten mit 3D-Beschleunigung insbesondere Berechnungen mit Dreiecks-Polygonen schneller durchführen können.[46] Abbildung 2-10 zeigt den hierarchischen Aufbau, der bei dem polygonalen Verfahren verwendet wird, am Beispiel eines Zylinders.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-10: Konzeptionelle Hierarchie des polygonalen Verfahrens[47]

Generell hat die polygonale Form der Objektrepräsentation den Nachteil, dass Objekte mit runden bzw. organischen Formen nicht exakt, sondern nur angenähert gespeichert und dargestellt werden können.

Je exakter Rundungen dargestellt werden sollen, desto mehr Polygone sind erforderlich. Dabei muss je nach Anwendungszweck abgewogen werden, wieviele Polygone ein akzeptables Ergebnis liefern, da theoretisch unendlich viele Polygone nötig wären, um eine Rundung optimal zu beschreiben. Für eine Echtzeit 3D-Darstellung gilt es möglichst wenige Polygone zu verwenden, da jedes Polygon berechnet werden muss und bei zu vielen Polygonen die Performance nicht mehr akzeptabel wäre. Die folgende Abbildung zeigt, wie mit zunehmenden Detaillierungsgrad des Objektes die Anzahl der Polygone stark ansteigt.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-11: Eine Kugel als polygonale Darstellung in verschiedenen Auflösungen[48]

Bei Web3D-Anwendungen kommt noch der Aspekt des Speicherverbrauchs hinzu. So können zu hoch aufgelöste Geometrien zu inakzeptablen Downloadzeiten führen.

Bei den alternativen 3D-Repräsentationen, die im folgenden Abschnitt vorgestellt werden sollen, spielt auch die Polygon-Technik eine Rolle, da bei diesen Verfahren häufig kein direktes Rendering möglich ist, sondern die Daten während des Renderingprozesses erst intern in Polygone konvertiert werden müssen. Trotz aller Einschränkungen lässt sich mit einer polygonalen Repräsentation mit geringerer Auflösung eine realitätsnahe 3D-Darstellungen (z.B. mittels Texturing) erreichen.

2.3.2.2. Bi-cubic parametric patches

Da aufgrund fortschrittlicherer Grafikhardware mittlerweile auch Bi-cubic parametric patches (wie z.B. NURBS) in Echtzeit verwendet werden können, sollen sie in diesem Abschnitt betrachtet werden. Die Beschreibung der 3D-Objekte erfolgt hier nicht durch einzelne vertices und faces, sondern geschieht mittels mathematisch berechneter Kurven. Hierzu werden üblicherweise Bézier-Kurven oder B-Spline-Kurven verwendet. Bei den B-Spline-Kurven lassen sich uniform B-Splines und non-uniform B-Splines unterscheiden, wobei letztere eine weitere Unterart, die non-uniform Rational B-Splines (NURBS) beinhalten.

NURBS werden vor allem häufig bei CAD-Anwendungen eingesetzt und stellen die gängigste Alternative zu polygonalen Verfahren dar. Auch einige Echtzeit-Renderer von vereinzelten Web3D-Systemen unterstützen bereits die Darstellung von NURBS (siehe Kapitel 3.2.). Charakteristisch bei den Bi-cubic parametric patches ist, dass Objekte zunächst einmal nur durch Kurven beschrieben werden; die eigentliche Geometrie muss zusätzlich erzeugt werden (siehe polygonale Darstellung). Beim polygonalen Verfahren ist die Geometrie bereits aufgrund der Repräsentationsform angelegt.

Die Objektgeometrie betreffend sind Bi-cubic parametric patches speicherschonender als Polygon-Modelle, da sie durch (einfache) mathematische Kurven angenähert werden können (siehe Abbildung 2-12 links), die wiederum weniger Speicherplatz benötigen. Unter dem Gesichtspunkt der Minimierung des Speicherverbrauchs (siehe Kapitel 2.6.2.) ist dieses Verfahren besonders interessant. Zudem liefern Bi-cubic parametric patches eine exakte Repräsentation der Objekte. Die folgende Abbildung zeigt deutlich den Unterschied zwischen polygonaler und bikubischer, parametrischer Objektrepräsentation. Die folgende Abbildung zeigt auf der linken Seite eine Abstraktion eines NURBS-Torus innerhalb eines 3D-Programms. Die Kurven sollen dabei die Parameter der NURBS an dieser bestimmten Stelle darstellen.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-12: Torusobjekt als NURBS- und Polygon-Repräsentation[49]

2.3.2.3. Sonstige Verfahren der Objektrepräsentation

Die übrigen Verfahren spielen für die Echtzeit-3D-Computergrafik, besonders für den Einsatz im Web3D-Bereich, eine untergeordnete Rolle. Auf eine genauere Erläuterung soll an dieser Stelle daher verzichtet werden.

Constructive solid geometry (CSG) wird vor allem im Industriedesign eingesetzt. Objekte werden dabei aus einer Kombination verschiedener Primitive gebildet, wobei dies mittels boolscher Operationen[50] geschieht. Auf diese Weise können sehr komplexe Objekte erstellt werden, die zudem eine exakte Repräsentation ermöglichen. Das CSG-Verfahren wird auch als volumetrische Repräsentation bezeichnet, da Formen mittels Volumen-Objekten bzw. Primitiven beschrieben werden.[51] Abbildung 2-13 macht dieses deutlich.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-13: CSG – Modellierung und Repräsentation von 3D-Objekten[52]

Mit Spatial subdivision techniques sind Verfahren gemeint, die den 3D-Raum in Würfel, die sogenannten Voxel, unterteilen. Es wird in diesem Zusammenhang auch von Voxelspace gesprochen. Diese Darstellungsweise kann als das dreidimensionale Pendant zur 2D-Darstellung eines Bildes durch eine Vielzahl von Pixeln angesehen werden.

Implicit repräsentation gibt dreidimensionale Objekte in einer rein mathematischen Form an. So kann z.B. eine Kugel eindeutig mit x2 + y2 + z2 = r2 beschrieben werden. Für die Repräsen-tation von konkreten Objekten in Echtzeit 3D-Szenen ist dieses Verfahren wenig geeignet, da Objekte lediglich in abstrakter mathematischer Form beschrieben werden. Lediglich beim Raytracing und Volumenrendering ist diese Repräsentationsweise von gewisser Relevanz.

2.3.3. Realitätsgrad der 3D-Darstellung

Nachdem die mathematischen Zusammenhänge und die theoretischen Grundlagen der Repräsentation von 3D-Objekten in den Grundzügen dargestellt wurden, soll in diesem Kapitel der Aspekt des Realismus in die Betrachtung einbezogen werden.

Aus einer Anhäufung von Punkten und Koordinaten in einem abstrakten 3D-Raum sollen visuell wahrnehmbare Objekte am Bildschirm dargestellt werden. Für das weitere Verständnis ist dabei die Kenntnis des Rendering-Begriffs wichtig. Unter diesem Begriff werden in der Computergrafik alle (Rechen-)Vorgänge zusammengefasst, die bei der Umsetzung von Szenedaten in Bilddaten durchgeführt werden. Ein derartiger Vorgang wird im Schaubild 2-14 verallgemeinert dargestellt. Abweichungen können sich je nach verwendeter API und 3D-Technologie ergeben.

Hierzu müssen 3D-Modelle bzw. Szenen mehrere Stufen der sogenannten Renderpipeline durchlaufen, bevor sie auf dem Bildschirm dargestellt werden. Dazu gehören unter anderem die Verwerfung unnötiger Polygone, die Texturierung und Beleuchtung sowie das Clipping und die Projektion auf die viewing plane, was letztlich die endgültige Darstellung ermöglicht.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-14: Grundlage des Rendering, die Renderpipline[53]

2.3.3.1. Die gängigsten Darstellungstechniken für 3D-Grafik

Für eine hinreichende gute Beurteilung von 3D-visualisierten Produktkonzepten ist eine möglichst realistische Darstellung der 3D-Inhalte Voraussetzung. In diesem Zusammenhang sollen nun einige Verfahren zur realistischeren Darstellung von 3D-Modellen erläutert werden.

Die bedeutendsten Darstellungstechniken werden im folgenden erläutert. Dazu gehören:

- Drahtgittermodell (Wireframe)
- Drahtgittermodell mit verdeckten Linien
- Flat-Shading (schattierte Flächen)
- Gouraud-Shading
- Phong-Shading
- Texturierte Flächen

Abbildung 2-15 zeigt die Darstellungsverfahren zunächst im Überblick, bevor auf sie im einzelnen eingegangen wird:

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-15: Die gängigsten Darstellungsweisen für 3D-Grafik[54]

Bei einem Drahtgittermodell, auch Wireframe genannt, werden lediglich die Koordinatenpunkte, die sich im 3D-Raum befinden, durch Linien miteinander verbunden. Dies stellt die einfachste Form der 3D-Darstellung dar. Aufgrund der hohen Darstellungsgeschwindigkeit - das Zeichnen von einfachen Linien benötigt nur sehr wenig Rechenzeit - wird diese Darstellungsweise vor allem in 3D-Modellierungsprogrammen und anderen 3D-Editoren verwendet, um schnelles Arbeiten zu ermöglichen.[55]

Eine erweiterte und „realistischere“ Form dieser Darstellung bietet ein Drahtgittermodell mit verdeckten Linien. Im Gegensatz zum einfachen Drahtgittermodell, wo lediglich die Punkte miteinander verbunden werden, werden hierbei nur ausschließlich die Linien gezeigt, die auch dem Betrachter sichtbar zugewandt sind. Durch das Entfernen von verdeckten Linien wird eine zusätzliche Tiefeninformation erzeugt. Nicht sichtbare Linien, die eher verwirrend wirken, werden nun nicht mehr gezeichnet. Somit wirkt die 3D-Darstellung realer.

Flat-shading (schattierte Flächen) basiert im wesentlichen auf der im vorherigen Abschnitt erläuterten Darstellungstechnik, nur dass hier die dargestellten Polygone noch mit einer entsprechenden Farbe gefüllt werden. Um hier die „richtige“ Farbe für jedes Polygon bestimmen zu können, was letztlich zu einem räumlichen Erscheinungsbild führt, muss in diesem Zusammenhang jedoch außerdem ein weiterer Faktor miteinbezogen werden:

Die virtuelle Lichtquelle. Der Normalenvektor (siehe Kapitel 2.3.1.1.) erfüllt genau diesen Zweck. Da er senkrecht auf der Fläche des jeweiligen Polygons steht, kann darüber der Einfallswinkel der virtuellen Lichtquelle bestimmt werden. Aufgrund der Information, die dieser Winkel liefert, kann die entsprechende Farbe bzw. Helligkeit auf jedes Polygon angewendet und so eine räumlich wirkende Beleuchtung des Objektes erzeugt werden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-16: Bestimmung des Lichteinfallswinkels mittels Normalenvektor[56]

Durch diese Form der Beleuchtungssimulation wirkt das Objekt schon deutlich plastischer. Dennoch ist seine Wirkung immer noch sehr flächig und damit unrealistisch, da pro Polygon nur eine entsprechende Farbe bzw. ein entsprechender Helligkeitswert verwendet werden kann (siehe Abbildung 2-15). Da dieses sehr flächige Erscheinungsbild in der Regel nicht erwünscht ist, wurden so genannte Interpolations-Shading-Verfahren entwickelt, um eine weniger stufige Lichtverteilung auf Objekten in innerhalb von 3D-Szenen zu realisieren. Der Begriff Shading bezeichnet ein Verfahren (z.B. Interpolation), welches einem Raumpunkt (Pixel), der auf eine Bildebene projizierten wird, eine bestimmte Farbe zuweist.[57] Es wird im Zusammenhang dieser Arbeit zwischen Gouroud-Shading und Phong-Shading unterschieden.

Beim Gouraud-Shading[58] wird für jeden Eckpunkt (Vertex) des Polygons die Bestimmung des Farb- bzw. Helligkeitswertes durchgeführt, was wiederum mittels des Normalenvektors geschieht. Der Normalenvektor definiert die Ausrichtung der Fläche in dem jeweiligen Eckpunkt. Zwischen den Eckpunkten wird dann eine lineare Interpolation[59] der Farbwerte durchgeführt, so dass ein linearer Farbverlauf entsteht.[60] Da beim Gouraud-Shading zunächst mehrere Beleuchtungsrechnungen durchgeführt werden müssen, benötigt es mehr Rechenaufwand als Flat-Shading - dazu kommt noch die Berechnung der Interpolation. Gouraud-Shading hat den wesentlichen Nachteil, dass es keine Highlights bzw. Lichtreflexe darstellen kann, da lediglich die Lichtintensität an den Eckpunkten als Grundlage für die Berechnung herangezogen wird (siehe hierzu auch entsprechende Grafik in Abbildung 2-15).[61]

Das Phong-Shading[62] - Verfahren führt dagegen für jeden einzelnen Bildpunkt im jeweiligen Polygon eine Berechnung des Farb- bzw. Helligkeitswertes durch. Hierzu wird zunächst eine Interpolation der Normalenvektoren durchgeführt. Die interpolierten Normalen werden dann zur Berechnung der einzelnen Bildpunkte herangezogen.[63] Abbildung 2-17 zeigt die Eckpunkt-Normalen (N0, N1) und einige der Normalen (Na, Nb, Nc), die zwischen N0 und N1 mittels Interpolation erzeugt wurden.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-17: Interpolation der Normalenvektoren[64]

Diese neu erzeugten Normalen werden dann für das Shading eines jeden projizierten Pixels verwendet. Phong-Shading liefert aufgrund der genaueren Berechnung der Helligkeitsverteilung eine wesentlich realistischere Darstellung der Lichtverhältnisse als das Gouraud-Shading. Da Phong-Shading durch die im Vergleich zum Gourauld-Shading aufwendigeren Berechnungen, sehr zulasten der Performance geht, wird in der Echtzeit 3D-Grafik häufig das weit weniger rechenintensive Fake -Phong-Shading verwendet, welches durch eine einfache Texturemap nachgebildet wird (siehe Texturemapping im nächsten Abschnitt). Der charakteristische Lichtpunkt wird dabei lediglich auf eine Bitmapgrafik „aufgemalt“ und die Texturkoordinaten aus den Normalen der Eckpunkte gewonnen. Fake-Phong-Shading ist somit ein texturierter Gourauld-Shader und wird auch oft als Environmentmapping bezeichnet.

Besonders wichtig für eine realistische Darstellung von 3D-Objekten ist das Texturemapping. Die Einschränkungen bei der Darstellung, die auf die nötigen Einsparungen bei Modelldetails zurückzuführen sind (siehe Kapitel 2.6.2.), können am besten durch (foto-)realistische Texturen kompensiert werden. Texturen haben den Vorteil, dass nicht alle Einzelheiten eines 3D-Objektes bis ins kleinste Detail modelliert werden müssen, was in der Regel zu einem sehr komplexen Modell mit all den zugehörigen Problemen führen würde. Die Technik des Texturemapping besteht darin, ein digitales Bild korrekt auf ein 3D-Objekt abzubilden. Die einzelnen Elemente einer Textur werden Texel genannt.[65] Üblicherweise werden dazu zweidimensionale Texturen verwendet.

Die verwendete Texturemap hat dabei ihr eigenes Koordinatensystem, welches die Texturkoordinaten mit u und v angibt, wobei u die horizontale und v die vertikale Achse beschreibt.
Schon während der Erstellungsphase der 3D-Grafik werden die u-v -Koordinaten den entsprechenden Eckpunkten der Polygone zugewiesen, wenn Objekte mit Texturen belegt werden. Dies gilt allerdings nur für „echtes“ bzw. perspektivisch korrektes Texturmapping – beim
Fake -Phong-Shading und Environmentmapping wird die Textur direkt auf ein Objekt projiziert.

Ferner dienen ausgewählte Texel dazu, an jedem dargestellten Pixel auf dem Bildschirm eine oder mehrere Materialeigenschaften der Fläche entweder zu ersetzen oder zu skalieren. Ein Pixel wird dabei häufig durch mehrere Texel bedeckt. Um Aliasing-Probleme zu vermeiden, müssen alle relevanten Texel berücksichtigt werden. Wie die folgende Abbildung zeigt, muss berechnet werden, was sich hinter einem bestimmten Pixel gerade befindet bzw. welcher Farbwert einem bestimmten Pixel zugeordnet werden muss.[66]

Die Aufgabe des Rendering besteht nun darin, für jeden Pixel des Polygons die entsprechende u-v -Koordinate zu bestimmen. Das Problem dabei ist, dass nur die u-v -Koordinaten an den jeweiligen Eckpunkten bekannt sind.

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-18: Prinzip des Texturemapping[67]

Interessant ist an dieser Stelle auch die Technik des bilinearen Filtering. Wie bereits erwähnt ist es bei der Belegung von Flächen mit Texturen erforderlich, die Positionen der einzelnen Punkte auf der Fläche mit den Pixeln der Textur zu vergleichen. Anschließend wird dem Flächen-Pixel der Farbwert des Textur-Pixels zugewiesen. In kurzer Distanz zur Fläche kann es aber zu einer grob-pixeligen Darstellung kommen, da möglicherweise mehreren Pixeln auf der Fläche der gleiche Farbwert zugeordnet wird. Beim bilinearen Filtering werden weiche Übergänge gezeichnet, um die so auftretende Pixelakkumulation zu verhindern. Dazu werden die Farbwerte von jeweils vier nebeneinander liegenden Pixeln der Textur gemischt und der errechnete Farbwert für den Bildpunkt auf der Fläche verwendet.[68]

Ein generelles Problem, dass bei qualitativ hochwertigen Texturdaten auftritt, besteht in einem relativ hohen Speicherverbrauch und damit einer langen Downloadzeit. Heute existieren zwar schon sehr leistungsfähige Komprimierungsverfahren (z.B. JPEG oder Wavelet), aber der Speicherbedarf bleibt vergleichsweise hoch. In diesem Zusammenhang könnten sogenannte prozedurale Texturen den Speicherverbrauch auf ein Minimum reduzieren. Bei dieser Methode werden nicht auf Datenträgern vorhandene Bitmap-Grafiken übertragen, sondern die Texturdaten werden vor dem Start der 3D-Applikation mittels mathematischer Algorithmen generiert. So müssen lediglich die Daten bzw. Algorithmen für diese Berechnung übertragen werden, die zumeist nicht mehr Speicher benötigen als einige Zeilen Text. Wie das folgende Beispiel zeigt ist diese Vorgehensweise mittlerweile soweit ausgereift, dass die Demoversion eines First-Person-Shooters (inkl. Texturdaten, Sound und Programmcode) mit nur 96KB Speicherbedarf realisiert werden konnte (siehe Abbildung 2-19).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 2-19: .kkrieger – First Person Shooter in 96KB[69]

[...]


[1] vgl. KROEBER-RIEL 1996, S.358

[2] vgl. REHKUGLER 2003, Web

[3] vgl. ARCHMATIC 2004, Web

[4] vgl. BANDILLA 1999, S. 9

[5] vgl. LAMPRECHT 2002, S.9

[6] vgl. MULTIMEDIA 2004, Web

[7] vgl. W3C 2004, Web

[8] Quelle: RIEDL 2002

[9] vgl. ERESULT 2002, Web

[10] Die Installation eines PlugIns stellt häufig einen unerwünschten Eingriff in das System eines Nutzers dar und sollte daher wenn möglich vermieden werden.

[11] vgl. BÖSHENZ 1999, S.45

[12] vgl. WEIS 2000, 16f.

[13] vgl. SCHARF 2001, S. 344f.

[14] eigene Darstellung in Anlehnung an SCHARF 2001, S. 344

[15] SCHARF 2001, S. 344

[16] vgl. REHKUGLER 2003, Web

[17] vgl. LUCKHARDT 1999, Web

[18] vgl. ZOU 1999, S.4

[19] SILBERER 1995, S.5

[20] eigene Darstellung in Anlehnung an SCHULZ 2004, Web

[21] WEB3D 2001, Web

[22] KROEBER-RIEL 1996, S. 265

[23] vgl. WEINBERG 1992, S.54f.

[24] vgl. ebenda, S.54

[25] vgl. GOLDSTEIN 1997, S.41

[26] nm (Nanometer), entspricht einer Größenordnung von 10 –9 m

[27] vgl. LINXWEILER 1999, S.39

[28] vgl. ZUFFO 1993, S.102

[29] vgl. SHATZ 1994, S.2

[30] vgl. GOLDSTEIN 1997, S.42

[31] vgl. GOLDSTEIN 1997, S.221

[32] vgl. GOLDSTEIN 1997, S.216ff.

[33] vgl. ebenda, S.224f.

[34] ‚Korrespondierend’ beutet in diesem Zusammenhang, dass jedem Punkt auf der Netzhaut des einen Auges ein bestimmter Punkt auf der Netzhaut des anderen Auges zugeordnet ist, die wiederum beide mit dem visuellen Cortex verbunden sind. (vgl. GOLDSTEIN 1997, S.226)

[35] Für die Definition von Echtzeit-3D siehe Kapitel 2.1.

[36] HALGASCH 2003, S.38

[37] vgl. LAMPRECHT 2002, S.15f.

[38] Quelle: LAMPRECHT 2002, S.20

[39] Quelle: LAMPRECHT 2002, S.23

[40] eigene Darstellung

[41] vgl. LAMPRECHT 2002, S.24

[42] vgl. WATT 2000, S.4f.

[43] vgl. LAMPRECHT 2002, S.27

[44] Quelle: LAMPRECHT 2002, S.27

[45] vgl. WATT 2000, S.28

[46] vgl. WATT 2000, S.30ff.

[47] Quelle: WATT 2000, S.35

[48] eigene Darstellung

[49] eigene Darstellung

[50] mögliche bool’sche Operationen sind z.B. Vereinigung, Subtraktion und Intersektion von Objekten

[51] vgl. WATT 2000, S.48

[52] Quelle: WATT 2000, S.48

[53] Quelle: STANEKER 1999, Web

[54] eigene Darstellung

[55] vgl. WATT 2000, S.182

[56] Quelle: LAMPRECHT 2002, S.32

[57] vgl. NETLEXIKON 2004, Web

[58] Wird häufig auch als ‚intensity interpolation shading’ oder ‚color interpolation shading’ bezeichnet. (vgl. FOLEY 1993, S.736)

[59] Interpolation bezeichnet eine Mittelwertbestimmung zwischen Punkten/Werten

[60] vgl. FOLEY 1993, S.736-737

[61] vgl. WATT 2000, S.180

[62] Wird häufig auch als ‚normal-vector interpolation shading’ bezeichnet. (vgl. FOLEY 1993, S.738)

[63] vgl. WATT 2000, S.181

[64] Quelle: FOLEY 1993, S.738

[65] vgl. SEILER 2002, S.9

[66] vgl. SEILER 2002, S.9

[67] Quelle: SEILER 2002, S.9-10

[68] vgl. 3DMUHKUH 2004, Web

[69] Quelle: PRODUKKT 2004, Web

Ende der Leseprobe aus 177 Seiten

Details

Titel
Einsatzmöglichkeit und Potenzial von Web3D in der Online-Marktforschung unter besonderer Berücksichtigung von Produktkonzepttests
Hochschule
Hochschule Furtwangen
Note
2,3
Autor
Jahr
2004
Seiten
177
Katalognummer
V64604
ISBN (eBook)
9783638573764
Dateigröße
6729 KB
Sprache
Deutsch
Schlagworte
Einsatzmöglichkeit, Potenzial, Web3D, Online-Marktforschung, Berücksichtigung, Produktkonzepttests
Arbeit zitieren
Master of Computerscience in Media Jan-Christoph Sievers (Autor), 2004, Einsatzmöglichkeit und Potenzial von Web3D in der Online-Marktforschung unter besonderer Berücksichtigung von Produktkonzepttests, München, GRIN Verlag, https://www.grin.com/document/64604

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Einsatzmöglichkeit und Potenzial von Web3D in der Online-Marktforschung unter besonderer Berücksichtigung von Produktkonzepttests


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden