Einsatzmöglichkeiten der virtuellen Realität im Produktlebenszyklus


Diplomarbeit, 2010

130 Seiten, Note: 1


Leseprobe


I. Inhaltsverzeichnis

II Abbildungsverzeichnis

III Tabellenverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung der Diplomarbeit ,
1.3 Gang der Diplomarbeit

2 Theoretische und praktische Grundlagen der Arbeit
2.1 Grundlagen der Virtual Reality
2.2 Elemente der Virtual Reality
2.2.1 Bildausgabegeräte als Bestandteil von Virtual Reality
2.2.1.1 Einfluss der visuellen Hinweisreize auf den Effekt der Immersion
2.2.1.2 Techniken zur Erzeugung stereoskopischer Visualisierungen
2.2.2 Trackingsysteme als interaktiver Bestandteil immersiver VR-Systeme
2.2.2.1 Eingabegeräte als interaktiver Bestandteil für immersive VR-Systeme,
2.2.3 Softwarekomponenten von VR
2.2.4 Ausführungsformen von kompletten VR-Systeme
2.2.5 Anwendungsmöglichkeiten von Virtual Reality ,
2.3 Der Produktentstehungsprozess
2.3.1 Forschung
2.3.2 Produktplanung
2.3.3 Produktenwicklung
2.3.4 Produkterprobung
2.4 Die Nutzwert-Kosten-Analyse
2.4.1 Beschreibung der Nutzwertanalyse
2.4.2 Beschreibung der Kostenanalyse
2.4.3 Zusammenführung von Nutzwertanalyse und Kostenanalyse

3 Nutzenuntersuchung von Virtual Reality für die Phasen des Produktentstehungsprozesses
3.1 Potenzielle Einsatzgebiete für VR in den verschiedenen Prozessschritten
3.1.1 Identifikation der Einsatzkriterien für VR pro Prozessschritt
3.1.1.1 VR in der Forschung
3.1.1.2 VR in der Produktplanung
3.1.1.3 VR der Produktentwicklung
3.1.1.4 VR in der Produkterprobung
3.1.2 Definition der potenziellen Einsatzgebiete für VR ,
3.2 Nutzwertanalyse für VR im Produktentstehungsprozess
3.2.1 Aufstellung des Zielsystems
3.2.2 Aufstellung der Gewichtungsfaktoren ,
3.2.3 Aufstellung der Wertetabellen
3.2.4 Darstellung der VR-Systemkonfigurationen
3.2.5 Ergebnisse der Nutzwertanalyse
3.2.5.1 VR-Nutzwerte nach den ausgewählten Einsatzgebieten des PEP
3.2.5.2 Gesamtnutzwerte der VR-Systemkonfigurationen im Produktentstehungsprozess
3.3 Aufwandsanalyse für VR im Produktentstehungsprozess
3.3.1 Bewertung des kostenmäßigen Aufwandes von VR
3.3.2 Bewertung des Personalaufwandes von VR
3.3.3 Zusammenfassung der Ergebnisse der Aufwandsanalyse
3.4 Zusammenführung von Nutzwerten und Aufwänden
3.4.1 Aufstellen der Nutzen-Aufwand-Matrix
3.4.2 Bilden des Nutzen-Aufwand-Quotienten
3.4.3 Bilden des Aufwand-Risiko-Diagramms
3.5 Zusammenfassende Ergebnisinterpretation der Nutzenuntersuchung

4 Fazit und Ausblick

V Eidesstattliche Erklärung

VI Quellenverzeichnis

VII Anhänge

II. Abbildungsverzeichnis

Abbildung 1: Veränderung der Entwicklungszeit, Quelle: Westkämper

Abbildung 2: Produktentwicklungszeit früher und heute

Abbildung 3: VR-Elemente

Abbildung 4: Eintauchen in die virtuelle Realität

Abbildung 5: Räumlicher Tiefeneindruck des virtuellen Modells, Quelle: IC IDO

Abbildung 6: Querdisparation

Abbildung 7: Konvergenz

Abbildung 8: Polarisiertes Licht

Abbildung 9: Infitec-Verfahren, Quelle: Eberhardt, Bernhardt

Abbildung 10: Head-Mounted-Display (HMD), Quelle: RWTH Aachen

Abbildung 11: Anaglyphen-Brille, Quelle: RWTH Aachen

Abbildung 12: Autostereoskopische Verfahren, Quelle: Eberhardt, Bernhardt

Abbildung 13: Tracking-Targets, Quelle: RWTH Aachen

Abbildung 14: Bewegungsmöglichkeiten im dreidimensionalem Raum

Abbildung 15: Space-Mouse, Quelle: RWTH Aachen

Abbildung 16: VR-Zeigergerät, Quelle: RWTH Aachen

Abbildung 17: Data-Glove, Quelle: RWTH Aachen

Abbildung 18: Data-Glove mit Exoskellett, Quelle: RWTH Aachen

Abbildung 19: CAVE, 3-seitig, Quelle: ESC Japan

Abbildung 20: VR-Powerwall, Quelle: TU Dresden

Abbildung 21: VR-Workbench, Quelle: Loughborough University

Abbildung 22: Desktop-VR, Quelle: Virtual Simulations Inc

Abbildung 23: Phasen des Produktentstehungsprozesses, Quelle: Seiffert, Ulrich

Abbildung 24: Phasen der Produktplanung, Quelle: Westkämper

Abbildung 25: Produkt-Auswahlverfahren der operativen Produktplanung, Quelle: Meffert, Heribert

Abbildung 26: Beeinflussbarkeit und Beurteilung der Kosten im Produktenstehungsprozess, Quelle: Westkämper

Abbildung 27: Ablauf der Nutzwert-Kosten-Analyse, Quelle: Rinza und Schmitz

Abbildung 28: Teilnutzwerte als Bestandteil des Gesamtnutzwertes, Quelle: Rinza und Schmitz

Abbildung 29: Entscheidungsraumdiagramm zur Bestimmung potenzieller Einsatzgebiete für VR, Quelle: Rinza und Schmitz

Abbildung 30: Zuordnung potenzieller VR-Einsatzgebiete

Abbildung 31: Zielsystem der Nutzwertanalyse

Abbildung 32: VR-Systemkonfiguration: Desktop VR(1)

Abbildung 33: VR-Systemkonfiguration: Desktop VR(2), Quelle: Virtual Simulations Inc

Abbildung 34: VR-Systemkonfiguration: Powerwall, Quelle: CAD Lab

Abbildung 35: Nutzwertergebnisse der VR-Systemkonfigurationen in den VR-Einsatzgebieten

Abbildung 36: Zusammenfassung der Kostenbewertung der VR-Systemkonfigurationen nach Anschaffungskosten

Abbildung 37: Zusammenfassung der Kostenbewertung der VR-Systemkonfigurationen nach Anschaffungskosten

Abbildung 38: Zusammenfassung der Kostenbewertung der VR-Systemkonfigurationen nach Anschaffungskosten

Abbildung 39: Nutzen-Aufwand-Diagramm der VR-Systemkonfigurationen im PEP

Abbildung 40: Einstufung der Risikogruppen nach KMU-Profilen

Abbildung 41: Aufwand-Risiko-Diagramm

Abbildung 42: Aufwand-Risiko-Diagramm der VR-Systemkonfigurationen

II. Tabellenverzeichnis

Tabelle 1: Verfahren zur stereoskopischen Visualisierung, Quelle: aus Hausstädtler, Uwe

Tabelle 2: Wirkprinzipien von Trackingsystemen in VR, Quelle: Hausstädtler, Uwe

Tabelle 3: VR-Softwaresysteme, Quelle: Hausstädtler

Tabelle 4: VR-Systemvarianten, Quelle: Hausstädtler

Tabelle 5: VR-Systemvariante CAVE, Quelle: Hausstädtler

Tabelle 6: VR-Systemvariante Powerwall, Quelle: Hausstädtler

Tabelle 7: VR-Systemvariante Workbench, Quelle: Hausstädtler, Uwe

Tabelle 8: VR-Systemvariante VRML Desktop VR, Quelle: Hausstädtler, Uwe

Tabelle 9: Wertetabelle zur Bestimmung des Erfüllungsgrades, Quelle: Rinza und Schmitz

Tabelle 10: Bewertung der Alternativen nach Erfüllungsgraden, Quelle: Rinza und Schmitz

Tabelle 11: Berechnung der Nutzwerte, Quelle: Rinza und Schmitz

Tabelle 12: Gegenüberstellung der Nutzwerte und Kosten, Quelle: Rinza und Schmitz

Tabelle 13: Prozessschritt Forschung als potenzielles Einsatzgebiet für VR

Tabelle 14: Prozessschritt Produktplanung als potenzielles Einsatzgebiet für VR

Tabelle 15: Prozessschritt Produktentwicklung als potenzielles Einsatzgebiet für VR

Tabelle 16: Prozess Produkterprobung als potenzielles Einsatzgebiet für VR

Tabelle 17: Zielkriterium 1: Steigerung der Produktqualität

Tabelle 18: Zielkriterium 2 Reduktion der Entwicklungszeit

Tabelle 19: Zielkriterium 3: Bessere Unterstützung des Marketing

Tabelle 20: Zielkriterium 4: Verbesserung des Produktservice

Tabelle 21: Zielkriterium 5: Reduktion der Kosten

Tabelle 22: Zielkriterium 6: Steigerung der Außenwirkung des Unternehmens

Tabelle 23: Absolute Gewichtung der Zielkriterien für jedes VR-Einsatzgebiet

Tabelle 24: Absolute Gewichtung der Teilzielkriterien Zij

Tabelle 25: Gewichtetes Zielsystem Nr.1 Visualisierungseigenschaften

Tabelle 26: Übersicht aller Knoten- und Stufengewichte des Zielsystems der Nutzenuntersuchung von VR für die Phasen des PEP

Tabelle 27: Beispiel Wertetabelle 2.1.1 Räumlicher Tiefeneindruck

Tabelle 28: VR-Systemkonfiguration 1 Desktop VR(1)

Tabelle 29: VR-Systemkonfiguration 2 Desktop VR(2)

Tabelle 30: VR-Systemkonfiguration 3 Powerwall

Tabelle 31: Absolute Gewichtung und Erfüllungsgrade

Tabelle 32: Nutzwert-Rangfolge der VR-Systemkonfigurationen in den VR-Einsatzgebieten

Tabelle 33: Gewichtung der VR-Einsatzgebiete

Tabelle 34: Gesamtnutzwerte der VR-Systemkonfigurationen im PEP

Tabelle 35: Rangfolge der VR-Systemkonfigurationen nach Nutzwerten im PEP

Tabelle 36: Kostenbewertung VR-Systemalternative 1

Tabelle 37: Kostenbewertung VR-Systemalternative 2

Tabelle 38: Kostenbewertung VR-Systemalternative 3

Tabelle 39: Rangfolge der VR-Systemkonfigurationen nach Kostenkategorien im PEP

Tabelle 40: Aufwandskategorisierung der VR-Systemkonfigurationen nach Kosten

Tabelle 41: Rangfolge der VR-Systemkonfigurationen nach Kostenaufwänden

Tabelle 42: Aufwandskategorisierung der VR-Systemkonfigurationen nach Personal

Tabelle 43: Rangfolge der VR-Systemkonfigurationen nach Personalaufwänden

Tabelle 46: Gesamt- und Mittlerer Gesamtaufwand der VR-Systemkonfigurationen

Tabelle 47: Nutzen-Aufwand-Matrix der VR-Systemkonfigurationen

Tabelle 48: Rangfolge der Nutzen-Aufwand-Quotienten der VR-Systemkonfigurationen

Tabelle 49: KMU-Profil 1 - Risikogruppe 1: geringes Risiko

Tabelle 50: KMU-Profil 2 - Risikogruppe 2: mittleres Risiko

Tabelle 51: KMU-Profil 3 - Risikogruppe 3: hohes Risiko

Tabelle 52: Aufwand-Risiko-Matrix nach KMU-Profilen

1. Einleitung

1.1 Problemstellung

„Die Revolution ist vorbeijetzt kommt die Evolution “ Dr. Emmerich Schiller, Daimler AG Die produzierenden Unternehmen sind heute bei der Entwicklung ihrer Produkte einem immer dynamischer werdenden Umfeld aus­gesetzt. Immer kürzere Produktlebenszyklen erfordern einen immer kürzer werdenden Pro­duktentstehungsprozess. Gleichzeitig haben sich bei gestiegenen Kun­denanforderungen die Variantenvielfalt und der Komplexitätsgrad der Produkte stetig erhöht (siehe Abbildung 1). Um im Wettbe­werb auf den Märkten bestehen zu können, sind die Unternehmen gezwungen, Produkt­innovationen bei gleichbleibend hoher Qualität immer schneller und kostengünstiger zu entwickeln.[1]

Die langwierige sequenzielle und kostenintensive Entwicklung einer Vielzahl von phy­sischen Produktprototypen bis zur Serienreife des Produkts bietet hierbei ein großes Optimierungspotenzial. Mithilfe neuer Entwicklungsmethoden wird das Ziel angestrebt, dass bereits der erste entwickelte Prototyp sofort die geplanten Produktanforderungen erfüllt, um so möglichst schnell die Serienreife zur Markteinführung zu erreichen.[2]

In diesem Zusammenhang hat sich die virtuelle Produktentwicklung als Werkzeug zur Unterstützung des Produktentstehungsprozesses etabliert. Der Begriff virtuelle Produkt­entwicklung meint dabei die digitalisierte Entwicklung von Design- oder Konzeptproto­typen des neuen Produktes am Computer unter Verwendung von entsprechenden Infor­mationstechnologien (IT) als Werkzeug.[3]

Ein wesentlicher Bestandteil der IT-Werkzeuge sind CAD-Systeme (Computer Aided Design). CAD-Systeme ermöglichen die Entwicklung von zwei- bzw. dreidimensiona­len Produktmodellen vollständig am Computer.[4] Sogenannte Digital Master enthalten dabei alle wesentlichen Informationen über das zukünftige Produkt, vom Produktdesign, über die Produktfunktionen, bis hin zu den physikalischen Eigenschaften des Produktes. Damit dient das Mastermodell nicht nur der reinen Geometriemodellierung, sondern auch als Grundlage der technischen Absicherung der Entwicklungsergebnisse. Anhand des Digital Master werden physikalische Eigenschaften des realen Produkts, wie bei­spielsweise die Festigkeit, vorausberechnet und simuliert. Berechnungswerkzeuge dazu sind die Finite-Elemente-Methode (FEM), die Mehrkörpersimulation (MKS), oder die Simulation von Strömungsvorgängen (CFD). Mithilfe dieser Werkzeuge lassen sich beliebige technische Modelle, zuverlässig und schnell, den im realen Nutzen entstehen­den Anforderungen gerecht, simulieren und optimieren.[5] Demnach werden durch die Verwendung virtueller Prototypen zur virtuellen Produkterprobung, physische Produkt­erprobungen vielfach eingespart. So sind im Idealfall nur noch wenige physische Proto­typen notwendig, um die Ergebnisse der virtuellen Produkterprobung zu validieren.[6]

Durch die Einsparung von physischen Prototypen, ist es möglich, zeitlich nachgelagerte Entwicklungsschritte zu parallelisieren. Wurden zuvor Produktkomponenten in physi­schen Prototypen erst gegen Ende des Entwicklungsprozesses aufeinander abgestimmt, ist dies heute schon relativ am Anfang möglich. Durch die Vernetzung der Softwaresys­teme und der Austauschbarkeit der Datenformate stehen virtuelle Produktmodelle, so­genannte Digital Mock Up‘s (DMU), interdisziplinär allen anderen Ingenieurbereichen der Produktentwicklung als zentrales Arbeitsmedium zur Verfügung, was eine Verkür­zung des Produktentwicklungsprozesses bewirkt (siehe Abbildung 2).[7]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Produktentwicklungszeit früher und heute

Ein neueres Werkzeug zur Unterstützung der virtuellen Produktentwicklung ist die vir­tuelle Realität (VR). Die VR beschreibt eine vom Computer simulierte künstliche Wirk­lichkeit, in der unter anderem virtuelle Produktmodelle und das Produktumfeld visuali- siert werden.[8] Die VR kommt ganz besonders dann zum Tragen, wenn komplexe Sach­verhalte und Zusammenhänge des Produktmodells durch eine Visualisierung des Mo­dells begreifbar und erlebbar gemacht werden sollen. Die VR bewirkt dabei eine Ver­besserung des Vorstellungsvermögens von komplizierten und unübersichtlichen Zu­sammenhängen des Produktes. Der Anwender hat dabei das Gefühl, sich tatsächlich in der virtuellen Produktumgebung zu befinden.[9]

Verantwortlich für das Eintauchen in die virtuelle Realität ist der Effekt der Immersion, der durch die Beeinflussung optischer, akustischer, haptischer und olfaktorischer Sin­nesreize erzeugt wird. Wichtigster Aspekt der immersiven Darstellung virtueller Pro­duktmodelle ist der räumliche Tiefeneindruck des gesehenen Objekts, sowie die Mög­lichkeit mit der virtuellen Umgebung zu interagieren oder diese manipulieren zu kön-nen[10]

Abbildung in dieser Leseprobe nicht enthalten

Das Nutzenpotenzial dieser Technologie ist im Produktentstehungsprozess durch ver­schiedene Forschungsprojekte und durch den großflächigen Einsatz in der Automobilin- dustrie oder der Luft- und Raumfahrt erkannt und nachgewiesen worden. Jedoch ist eine breite Marktdiffusion gerade bei den kleinen und mittleren Unternehmen (KMU) noch nicht zu erkennen.[11]

Barrieren bei der Einführung von VR sind zum einen die hohen Anschaffungskosten und das damit verbundene Risiko für die Unternehmen. Zum anderen steht einer An­schaffung der VR-Technologie die konservative Haltung vieler KMU's entgegen. So sind viele dieser Unternehmen der Meinung, dass klassische Formen der Entwicklung und Vermarktung ihrer Produkte einer Anwendung von VR entgegen stehen. In ihren Augen ist für sie kein klarer Wettbewerbsvorteil durch den Einsatz von VR erkennbar. Dies ist dadurch begründet, dass das Wissen um den Nutzen der Anwendung von VR größtenteils nicht gegeben ist. Demnach fehlt ein konkreter Beleg, der für KMU’s zeigt, wo die VR im Produktentstehungsprozess tatsächlich einen realen Nutzen bringt.[12]

1.2 Zielsetzung der Diplomarbeit

Ziel dieser Arbeit ist es, eine Übersicht zu erstellen, die aufzeigt, wo VR einen Zusatz­nutzen pro Prozessschritt innerhalb der Produktentstehung für kleine und mittlere Un­ternehmen (KMU) erbringt. Für die Zielerreichung ist es notwendig:

1. den Stand der derzeitigen der Technik bezüglich der Hard- und Software von VR zu dokumentieren;
2. die einzelnen Prozessschritte der Produktentstehung zu definieren;
3. die potenziellen Einsatzgebiete der VR in der Produktentstehung herauszuarbei­ten;
4. den Nutzen von VR in den Einsatzgebieten zu ermitteln

1.3 Gang der Diplomarbeit

In Kapitel 1 wird die Problemstellung dieser Arbeit herausgearbeitet, indem die Trends innerhalb der Produktentwicklung in Bezug auf die heutige Marktsituation der Unter­nehmen erfasst wurden. Daraus werden schließlich die Ziele zur Problemlösung defi­niert und in diesem Abschnitt wird beschrieben, wie diese Ziele erreicht werden.

In Kapitel 2 werden die praktischen und theoretischen Grundlagen dieser Arbeit be­schrieben. Dabei geht es zum Einen um den grundlegenden Aufbau und das Funktionie­ren der Hard- und Software Elemente von VR und deren Anwendungsmöglichkeiten. Zum Anderen werden die Phasen des Produktenstehungsprozesses als potenzielles Ein­satzgebiet für VR erläutert. Abschließend werden die Methoden vorgestellt und erklärt, nach denen der Nutzen von VR für die Phasen des Produktentstehungsprozesses ermit­telt werden.

In Kapitel 3 wird die Nutzenuntersuchung von VR in den Phasen des Produktentste­hungsprozesses durchgeführt. Hierzu werden anhand bestimmter Einsatzkriterien po­tenzielle Einsatzgebiete für VR ermittelt und ausgewählt. Für diese Einsatzgebiete wird mithilfe einer Nutzwert-Aufwand-Analyse, der Nutzen von unterschiedlichen VR- Systemen ermittelt und den Kosten und Aufwänden des jeweiligen VR-Systems gegen­übergestellt. So wird erarbeitet, welches VR-System in den Phasen des Produktentste­hungsprozesses, in Bezug auf dessen Nutzen und dem damit verbundenen Aufwand, das vorteilhafteste VR-System ist. Abschließend wird anhand einer Aufwand-Risiko­Bewertung erarbeitet, wie hoch das finanzielle Risiko, durch eine VR-Investition, für bestimmte Unternehmenstypen ist. Dadurch wird gezeigt, welches VR-System für wel­chen Unternehmenstyp am ehesten geeignet ist.

Kapitel 4 gibt in einem Fazit abschließend einen Ausblick über die Möglichkeiten einer VR-Anwendung im Produktentstehungsprozess.

2. Theoretische und praktische Grundlagen der Arbeit

2.1 Grundlagen der Virtual Reality

Der Begriff der virtuellen Realität wird im Brockhaus folgendermaßen definiert:

Virtuelle Realitäten sind „mittels Computer simulierte dreidimensionale Räume, in de­nen sich der Benutzer mithilfe elektron. Geräte (...) sowie umfangreicher Software (...) bewegt“.[13]

Virtuell bedeutet in diesem Sinne „als Möglichkeit vorhanden, nicht wirklich, aber echt erscheinend. Realität bedeutet die Gesamtheit des Realen[14], real ist, was „sachlich, dinglich. (...) stofflich. (...) wirklich, wahrhaft“ ist.[15]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: VR-Elemente

Eine VR-Anlage setzt sich nach Abbildung 3 aus folgenden Komponenten zusammen:

- Ausgabegerät zur Visualisierung von am Computer generierten 3D-Modellen. In den meisten Fällen sind die Ausgabegeräte in der Lage, die 3D-Modelle mit dem Eindruck von räumlicher Tiefe abzubilden. Zusätzlich glaubt der Anwender durch eine entsprechende Displaygröße des Ausgabegeräts und einer hohen Gra­fikqualität, sich in der visualisierten 3D-Umgebung zu befinden. Dieser Effekt wird Immersion genannt.
- Hardware zur Positionsverfolgung. Durch die Verwendung sogenannter Tra­ckingsysteme werden beispielsweise die Position der Hand des Anwenders und sein Kopf im Raum erfasst. Dadurch „weiß“ die VR-Software, wo sich der An-wender befindet und passt die perspektivische Darstellung des 3D-Modells der Blickrichtung des Anwenders an.
- Intuitive Eingabegeräte zur Interaktion und Manipulation der 3D-Modelle und der 3D-Umwelt.
- Softwaresysteme zur Berechnung der Bildwiedergabe und Modellinformationen, sowie als Ein- und Ausgabeschnittstelle zwischen Bediener und VR-Hardware.

Die Ausführungsformen der VR-Systeme unterscheiden sich nach der Art und der Qua­lität der Visualisierung, sowie dem Anwendungsgebiet, für das sie eingesetzt werden sollen. Die Elemente der VR-Systeme werden in den folgenden Abschnitten näher er­läutert.

2.2 Elemente der Virtual Reality

2.2.1 Bildausgabegeräte als Bestandteil von Virtual Reality

VR-Bildausgabegeräte sind ein wesentlicher Bestandteil von VR-Systemen, da sie für die Visualisierung von am Computer generierten Geometriemodellen zuständig sind. Die Besonderheit von VR-Bildausgabegeräten ist, dass sie in der Lage sind, bei der Vi­sualisierung einen räumlichen Tiefeneindruck bei der Wahrnehmung der Abbildung zu erzeugen. Die Wahrnehmung des räumlichen Tiefeneindrucks beeinflusst wiederum sehr stark den Immersionsgrad in VR.

Mit Immersion ist der Effekt gemeint, welcher dem Betrachter das Gefühl gibt, in die virtuelle Umgebung „einzutauchen“ und sich wahrhaftig in ihr zu befinden. Wie stark der Effekt der Immersion ist, bzw. wie sehr der Betrachter „fühlt“, dass er in die virtuel­le Umgebung eingetaucht ist, hängt stark vom Grad der Übereinstimmung zwischen virtueller und realer Umgebung ab.[16] Das bedeutet in Bezug auf die VR- Bildausgabegeräte, dass je stärker der Betrachter das visualisierte virtuelle Modell für real hält, desto stärker hat er das Gefühl in die virtuelle Umgebung eingetaucht zu sein. (siehe Abbildung 4)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Eintauchen in die virtuelle Realität, Quelle: TU Aachen

Visualisierungen auf herkömmlichen Ausgabegeräten, wie beispielsweise auf PC- Monitoren, sind zwar ebenfalls in der Lage, bei entsprechender Rechenleistung der Hard- und Softwareelemente, gewisse Aspekte einer räumlichen Wahrnehmung der Ab­bildung zu erzeugen. Diese sind beispielsweise eine exakte perspektivische Darstellung dreidimensionaler Körper, eine korrekt abgebildete gegenseitige Verdeckung von meh­reren Körpern oder Geometrieebenen sowie eine möglichst reale Darstellung von Be­leuchtung und Schatten. Jedoch wird bei einer herkömmlichen Visualisierung immer nur ein einziges ebenes Bild in der Wahrnehmung erzeugt.[17]

Um in der Wahrnehmung ein dreidimensionales, räumliches Abbild des virtuellen Modells zu erzeugen (siehe Abbildung 5), verwenden VR-Ausgabegeräte das Verfahren der sogenannten Stereoskopie. Der Begriff der Stereoskopie, oder des Raumbildverfahrens, beschreibt ein „Verfahren zur Herstellung von Bildpaaren, die beim Betrachten mit entsprechenden Hilfsmitteln einen Raumeindruck vermitteln“. Stereo bedeutet dabei körperlich oder räumlich, ein Stereobild ist demnach ein Bild, „das bei der Betrachtung einen räuml. Eindruck hervorruft(...).“.[18] Dieses Verfahren liefert für das rechte und das linke Auge des Betrachters je einen Bildausschnitt des Gesamtbildes eines Objektes. Das menschliche Gehirn setzt diese Bilder wieder zusammen und interpretiert diesen visuellen Sinnesreiz als räumliche Tiefe.[19] Im folgenden Exkurs in Abschnitt 2.2.1.1 werden zum besseren Verständnis diese Vorgänge näher erläutert.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Räumlicher Tiefeneindruck des virtuellen Modells, Quelle: IC IDO

2.2.1.1 Einfluss der visuellen Hinweisreize auf den Effekt der Im­mersion

Einflussmöglichkeiten auf die Sinne des Menschen bestehen durch die Verwendung von visuellen, akustischen, haptischen und olfaktorischen Signalen.[20] Das menschliche Auge ist mit etwa 70 Prozent an der Wahrnehmung der Umgebung für den Menschen verant­wortlich. Die Fähigkeit des Menschen, über visuelle Hinweisreize einen räumlichen Tiefeneindruck des Gesehenen wahrzunehmen, ist demnach, wie in Abschnitt 2.2.1 be­reits erwähnt, ein bedeutender Einflussfaktor für den Effekt der Immersion von VR- Systemen.[21]

Die Hinweisreize für die Wahrnehmung des räumlichen Tiefeneindrucks bestehen aus okulumotorischen und visuellen Hinweisreizen. Die wichtigsten Aspekte beider Kategorien werden in diesem Abschnitt zum besseren Verständnis beschrieben.

Den größten Einfluss auf die Tiefenwahmehmung der Umgebung, hat der Vorgang der sogenannten Querdisparation (oder binokulare Dis­paration). Dadurch dass die Augen des Menschen in einem horizontalen Abstand zueinander stehen, wird ein Objekt aus zwei unterschiedlichen pektiven wahrgenommen. Es entstehen also zwei Bildausschnitte desselben Objekts, aus der Perspek­tive des rechten und des linken Auges. Das men­schliche Gehirn ist in der Lage, die Bildausschnitte des rechten und linken Auges zu einem einzigen Gesamtbild zusammenzusetzen. Es ist in der Lage, aus dem Abstand der beiden Bildausschnitte vonei­nander die Entfernung zum Objekt zu ermitteln. Dieser Hinweisreiz, dass sich das gesehene Objekt in einer bestimmten Entfernung zum Betrachter befindet, wird vom Gehirn als räumliche Tiefe interpretiert (siehe Abbildung 6).[22]

Der Eindruck der räumlichen Tiefe wird durch den Vorgang der Konvergenz weiter ver­stärkt. Ist ein Objekt dem Betrachter nahe, so bewegen sich die Sichtachsen der Augen aufgrund des horizontalen Abstandes aufeinander zu (Konvergenz) und die Augenmus­kulatur erzeugt eine gewisse Spannung.[23] Ist ein Objekt weiter vom Betrachter entfernt, so liegen die Sichtachsen nahezu parallel zueinander und die Muskulatur entspannt sich (Divergenz). Das Gehirn interpretiert die Spannung der Muskulatur als Nähe und eine Entspannung als Ferne (siehe Abbildung 7).[24]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Konvergenz

Ein weiterer wichtiger Hinweisreiz für die Wahrnehmung räumlicher Tiefe, ist die ge­genseitige Verdeckung von Objekten, welche der Gruppe der Bildhaften Hinweisreize angehört. Das verdeckende Objekt wird dabei immer als das näher liegende interpretiert als das verdeckte Objekt. Weitere Einflüsse sind die geometrische Perspektive und Dar­stellungsgröße, sowie das Zusammenspiel von Licht und Schatten.[25]

2.2.1.2 Techniken zur Erzeugung stereoskopischer Visualisierun­gen

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1 zeigt die Verfahren zur stereoskopischen Visualisierung, welche nachfolgend ausführlich erklärt werden:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Verfahren zur stereoskopischen Visualisierung, Quelle: aus Hausstädtler, Uwe Passiv-Stereobildverfahren

- Polarisationsverfahren

Der Begriff Polarisation bedeutet, dass Licht - unter der Annahme, dass es eine elekt­romagnetische Welle ist, die sich senkrecht zu ihrer Fortpflanzungsachse bewegt, durch eine Spiegelung unter einem bestimmten Einfallswinkel oder einer Doppelbrechung in Kristallen (Polarisator) nur in einer bestimmten Ebene zur Fortpflanzungsachse vor­kommt. Trifft das polarisierte Licht auf einen zweiten Spiegel oder Kristall (Analysa­tor), wird es bei gleicher Polarisation hindurch gelassen oder bei abweichender Polarisa­tion ausgelöscht (siehe Abbildung 8).[26]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Polarisiertes Licht

Das Polarisationsverfahren ist ein mehrkanaliges passives Stereobildverfahren. Das be­deutet, dass das Polarisationsverfahren für jedes Stereohalbbild einen Projektor benö­tigt. Je für das rechte und das linke Auge. Die Projektoren sind mit Polarisatoren unter­schiedlicher Polarisation versehen. Der Betrachter muss zur Stereobildtrennung eine sogenannte Polarisationsbrille tragen, deren Brillengläser entsprechend dem linken oder rechten Bildausschnitt polarisiert sind. So lässt das linke Brillenglas nur das Bild für das linke Auge durch und umgekehrt. Man unterscheidet zwischen linearer und zirkularer Polarisation. Bei linearer Polarisation sind die Polarisationsebenen in einem Winkel von 90° zur Bildachse verdreht. Bei einer Kopfdrehung gelingt die Bildtrennung nicht mehr. Bei zirkularer Polarisation drehen sich Polarisator und Analysator zueinander, was die Bildtrennung auch bei einer Kopfdrehung aufrechterhält.[27]

Ein Nachteil des Polarisationsverfahrens ist das sogenannte Kanalübersprechen. Kana- lübersprechung tritt durch toleranzbedingte Ungenauigkeiten bei der Herstellung der Polarisationsfilter auf und führt dazu, dass sich die beiden Bildkanäle überlagern. Das bedeutet, dass ein geringer Anteil der Bildinformation für das rechte Auge zum linken Auge gelangt und umgekehrt.[28]

- Infitec-Verfahren

Das Infitec-Verfahren, auch Wellenlängen-Multiplex-Verfahren genannt, gehört eben­falls zu den passiven Stereobild-Verfahren. Der Aufbau dieses Verfahrens entspricht dem des Polarisationsverfahrens, mit dem Unterschied, dass statt der Polarisationsfilter, Interferenzfilter zur Bildtrennung verwendet werden. Das Verfahren beruht auf dem Prinzip, dass der Farbeindruck bei farbigen Anzeigeräten durch die Kombination von den drei Grundfarben Rot, Grün und Blau (RGB) erzeugt wird. Werden die Wellenlän­gen der Grundfarben durch Interferenzfilter verschoben, so kann durch eine veränderte Kombination der Grundfarben trotzdem derselbe Farbeindruck erreicht werden (siehe Abbildung 9).[29]

Bei dem Infitec-Verfahren sind die verwende­ten Projektoren mit schmalbandigen Interfe­renzfiltern ausgestattet, welche die Grundfar­ben für das linke und rechte Bild in einem unterschiedlichen Wellenlängenspektrum durchlassen. Da die Grundfarben für den glei­chen Farbeindruck in unterschiedlichen Ver­hältnissen kombiniert werden müssen, muss für jeden Projektor eine entsprechende Farb­korrektur durchgeführt werden. Die Bildtren­nung erfolgt durch die Interferenzfilter der Filterbrillengläser. Der linke Filter lässt nur das linke Bild mit dem entsprechenden Wel­lenlängenspektrum durch und umgekehrt.[30]

Aktiv-Stereobildverfahren

- Zeit-Multiplex-Verfahren

Das Zeit-Multiplex-Verfahren gehört zu den sogenannten Aktiv- Stereoprojektionsverfahren.[31] Bei der Anwendung dieses Verfahrens werden dem Be­trachter auf dem verwendeten Bildschirm oder Projektor die Stereobilder abwechselnd in hoher Frequenz für das linke und das rechte Auge gezeigt. Eine sogenannte Shutter- Brille (aktives Element) dunkelt - synchronisiert durch einen Infrarot-Emitter, jeweils eines der beiden Brillengläser durch Flüssigkristalle in den Brillengläsern ab. Die Pro­jektoren oder Monitore arbeiten dabei mit einer Bildwiederholrate zwischen 100 bis 120Hz.[32] Aufgrund der Trägheit des menschlichen Auges nimmt der Betrachter die Bildausschnitte gleichzeitig, jedoch mit dem Eindruck eines leichten Flimmerns wahr. Bei der Verwendung von Bildausgabegeräten mit einer Bildwiederholfrequenz unter 100Hz, kann die Anwendung ein Betrachter schnell zu starken Kopfschmerzen führen.[33] Nachteilig ist zudem eine relativ geringe Nutzungsdauer der Shutter-Brille, von etwa einer halben Stunde.[34]

Sonstige Stereobildverfahren

- HMD-Verfahren (Head-Mounted Display)

Beim HMD-Verfahren werden vor das rechte und das linke Auge zwei kleine Bild­schirme platziert, die das jeweilige Halbbild des abzubildenden Objektes zeigen. Um ein störendes Umgebungslicht fernzuhalten, sind die Bildschirme in einer Art Helm untergebracht (siehe Abbildung 10). Durch die Kopplung von Audiosystemen über Kopfhörer im Helm und einer Positionsverfolgung, wird der Immersionsgrad weiter gesteigert, wodurch der Benutzer jedoch völlig von der Umgebung abgeschottet ist. HMD-s waren eines der ersten Geräte zur stereoskopischen Visualisierung von virtuel­len Realitäten. Große Nachteile dieses Verfahrens zur stereoskopischen Bilderzeugung sind, dass die Helme mitunter sehr schwer und unhandlich sind, und dass die relativ rasche Ermüdung der Augen zu einer kurzen Nutzungszeit der Anwendung führt. Eine gleichzeitige Betrachtung der virtuellen Umgebung durch mehrere Benutzer ist zudem nicht möglich.[35]

- Anaglyphen-Verfahren

Die Stereobilder werden bei dem sogenannten Anaglyphen-Verfahren nicht nebeneinan­der dargestellt, sondern überlagert. Dabei werden die Stereohalbbilder mit komplemen­tären Farben für das linke und das rechte Auge einfarbig abgebildet.[36]

Häufig verwendete Farben sind Rot und Grün, sowie Rot und Cyan. Beispielsweise wird das Bild für das linke Auge nur in Rottönen abge­bildet und das Bild für das rechte Auge nur in Grüntönen. Die Bildtrennung erfolgt dadurch, dass die Farbfilter für das rechte und linke Auge, mit einer sogenannten Anaglyphen- Brille (siehe Abbildung 11), beispielsweise nur die grünen oder die roten Bilder durch­lassen. Vorteile dieses Verfahrens sind seine Einfachheit und günstige Herstellungskos­ten der Anaglyphen-Brille und dass für dieses Verfahren keine speziellen Monitore oder Projektoren benötigt werden. Nachteile sind der Verlust der Farbe in der Wahrnehmung und dass bestimmte farbige Gegenstände nur für ein Auge abgebildet werden. Dadurch kommt das Anaglyphen-Verfahren für einen industriellen Einsatz nicht in Frage.[37]

- Autostereoskopische Verfahren

Das autostereoskopische Verfahren ist speziell für Bildgrößen handelsüblicher Desk- topmonitore entwickelt worden und benötigt zur stereoskopischen Visualisierung kei­nerlei Hilfsmittel wie Filterbrillen. Für verschiedene Blickrichtungen und Blickwinkel werden mehrere Ansichten eines Objekts gleichzeitig dargestellt. Die Augen des Be­trachters erhalten für jede beliebige Position zum Bildschirm den zugehörigen Bildaus­schnitt. Dies wird erreicht, indem jeder Bildpixel in mehrere Subpixel unterteilt wird.

Durch geeignete Linsenraster wird sichergestellt, dass für eine bestimmte Sichtrichtung auch nur ein bestimmter Pixel für das entsprechende Auge sichtbar ist (siehe Abbildung 12).[38]

Nachteilig ist bei diesem noch nicht voll ausgereiften Verfahren, dass, um eine annä­hernde Bildqualität wie bei den zuvor beschriebenen Verfahren zu erreichen, eine Unter­teilung des Pixels in bis zu 100 Subpixel nötig ist. Die erforderliche Subpixelgröße ist zum jetzigen Zeitpunkt jedoch technisch noch nicht umsetzbar. Außerdem steht die zur Datenübertragung der Bildinformation notwendige Bandbreite noch nicht zur Verfü­gung. Derzeitige Displays arbeiten daher mit einer Unterteilung von bis zu 7 Subpi- xeln.[39] Das Verfahren ist weder für Großprojektionen noch für mehrere Betrachter[40]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: Autostereoskopische Verfahren, Quelle: Eberhardt, Bernhardt

2.2.2 Trackingsysteme als interaktiver Bestandteil immersiver VR-Systeme

Ins deutsche übersetzt, bedeutet der Begriff des Trackings „Folgen“, „Nachspüren“, oder „Zielverfolgen“.[41] Der Zweck des Trackings ist die Lagebestimmung und Positi­onsverfolgung von Punkten im dreidimensionalen Raum. Für immersive VR- Anwendungen wird das Tracking dazu benutzt, die Kopf- und Handposition des Bedie­ners zu erfassen. Aus der ermittelten Kopfposition des Bedieners wird der projektions­gerechte Bildblickpunkt berechnet. Indem sich die Abbildung des Modells dem Blick­winkel des Betrachters anpasst, erhöht sich für den Betrachter die Übereinstimmung zwischen realer und virtueller Umgebung, was wiederum eine Steigerung des Immersi­onsgrads in VR bewirkt. Weiterhin ermittelt die VR-Software aus der Handposition des Anwenders, die Position des virtuellen Zeigers in der VR-Anwendung, welcher - wie die PC-Maus für den Desktop PC - als Bedienungselement der Softwarefunktionen dient.[42]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2 zeigt die Trackingsysteme nach ihren unterschiedlichen Wirkprinzipien:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Wirkprinzipien von Trackingsystemen in VR, Quelle: Hausstädtler, Uwe Optisches Tracking

Die Positionsbestimmung erfolgt beim optischen Tracking durch Kameraaufnahmen mithilfe von in hoher Frequenz auf­blitzenden LED werden Infrarotstrahlen von festinstallierten Positionen aus ausgestrahlt und von kugelförmigen Reflekto­ren an den zu trackenden Objekten reflektiert (siehe Abbil­dung 13). Die Reflektoren, sogenannte Targets, müssen an den zu trackenden Objekten in einer charakteristischen Anordnung installiert werden, damit die Trackingsoftware in der Lage ist, zwischen einer Hand als Zeigegerät oder dem Kopf zu unterscheiden. Aus den aufge- LEO Deutsch-Englisches Wörterbuch 2010 zeichneten Kamerabildern erfolgt die Positionsberechnung durch die Trackingsoftware. Diese gibt die Informationen schließlich in Echtzeit an die VR-Software weiter. Das optische Tracking ist sehr weit verbreitet und zeichnet sich durch eine sehr genaue Posi­tionsbestimmung und einfache Nutzbarkeit aus. Nachteilig wirken sich der relativ hohe Preis gegenüber anderen Trackingsystemen, sowie eine gewisse Störanfälligkeit durch UV-Licht aus.[43]

- Elektromagnetisches Tracking

Beim elektromagnetischen Tracking strahlt ein Sender an den zu trackenden Objekten ein Magnetfeld niederer Frequenz aus, welches von Empfängern an festen Positionen im Raum empfangen wird. Die Positionsberechnung und Orientierung des zu tracken­den Objekts erfolgt über die Bestimmung des relativen Abstandes zwischen Sender und Empfänger. Dieses Trackingsystem zeichnet sich durch einen vergleichsweise niedrigen Preis und eine geringe Verzögerungszeit bei der Positionsbestimmung aus. Allerdings ist dieses System sehr störanfällig, sobald sich elektronische Geräte und diverse metalli­sche Bauteile im Trackingbereich befinden.[44]

- Akustisches Tracking

Beim akustischen Tracking senden, ähnlich dem elektromagnetischen Tracking, Ultra­schallsender am zu trackenden Objekt Ultraschallsignale an fest im Raum positionierte Empfänger aus. Entsprechend dem Echolotprinzip erfolgt die Positions- und Orientie­rungsbestimmung mit Hilfe der Laufzeitunterschiede der Ultraschallsignale. Vorteil die­ses Verfahrens ist eine schnelle Positionsermittlung.[45]

Dem gegenüber steht allerdings die relative Ungenauigkeit bei der Positionsbestimmung gegenüber den anderen Systemen. Weiterhin zählen eine geringe Reichweite, sowie eine gewisse Störanfälligkeit durch Fremdgeräusche zu den Nachteilen dieses Verfahrens. Das Ultraschall Tracking ist in Reinform selten anzutreffen und kommt hauptsächlich in Kombination mit anderen Verfahren zum Einsatz.[46]

- Inertial Tracking

Beim Inertial Tracking erfolgt die Orientierungs- und Lagebestimmung durch die Ver­wendung von Gyroskopen und Beschleunigungsmessungen am zu trackenden Gerät. Es handelt sich dabei um ein bisher wenig verbreitetes Verfahren zur Positionsverfolgung. Eine absolute Positionsbestimmung ist nur unter Verwendung eines weiteren Messver­fahrens möglich.[47]

- Hybrides Tracking

Beim hybriden Tracking handelt es sich um ein Mischverfahren aus Ultraschall- und Inertial Tracking.[48]

- Mechanisches Tracking

Das mechanische Tracking war das erste Verfahren zur Positions- und Lagebestimmung von Objekten in VR. Es handelt sich jedoch um eine veraltete Technologie, welche auf­grund des kleinen Aktionsradius heutzutage so gut wie keine Anwendung mehr findet.[49]

2.2.2.1 Eingabegeräte als interaktiver Bestandteil für immersive VR-Systeme

VR-Eingabegeräte dienen der Interaktion[50] zwischen Bediener und der VR-Umgebung. Dies sind beispielsweise das Bewegen von Objekten im dreidimensionalem Raum und die Eingabe von Steuerbefehlen an das VR-System. Für eine Anwendung in VR sind spezielle Eingabegeräte nötig, welche für jede Achse des dreidimensionalen Raums eine translatorische und eine rotatorische Bewegung zulassen (siehe Abbildung 14).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: Bewegungsmöglichkeiten im dreidimensionalem Raum

VR-Eingabegeräte beeinflussen ebenfalls den Immersionsgrad der VR-Anwendung, da sich durch die Interaktion in Echtzeit die Übereinstimmung zwischen realer und virtuel­ler Umgebung weiter erhöht. Echtzeitige Interaktion bedeutet, dass der Bediener wäh­rend der Interaktion zwischen dem Eingabebefehl und der Systemantwort keinerlei Ver­zögerung wahrnimmt. Um den Immersionsgrad weiter zu erhöhen, muss weiterhin eine hohe Positioniergenauigkeit bei einer gleichzeitig hohen Zahl an verfügbaren Freiheits­graden durch das Trackingsystem gewährleistet sein und die Interaktion zwischen Be­diener und VR-System muss intuitiv und leicht bedien- und erlernbar sein.[51]

Die verschiedenen VR-Eingabegeräte werden im Folgenden vorgestellt:

- Space Mouse

Die Space-Mouse ist ein nicht-immersives Eingabegerät, welches aber über sechs Frei­heitsgrade verfügt und eine freie Bewegung im dreidimensionalen Raum erlaubt. Die Space Mouse ist gut für VR-Anwendungen am Desktop geeignet (siehe Abbildung 15).[52]

- Zeigergeräte

Abbildung in dieser Leseprobe nicht enthalten

Bei den VR-Zeigergeräten handelt es sich um stiftförmige oder pistolenförmige, mit Tracking-Targets versehene Eingabegeräte für immersive VR-Anwendungen (siehe Ab­bildung 16).[53]

- Data Gloves

Bei Data Gloves handelt es sich um sogenannte Datenhandschuhe. Die Eingabe der Steuerbefehle sowie die Interaktion erfolgt mithilfe bestimmter Gesten. Das bedeutet, dass beispielsweise eine bestimmte Fingerhaltung einem bestimmten Eingabebefehl entspricht (siehe Abbildung17).[54]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 17: Data-Glove, Quelle: RWTH Aachen

In den Handschuh eingearbeitete Dehnmessstreifen und Biegesensoren erfassen die Stellung der Finger und die Bewegung der Hand. Über sogenannte Tracking-Targets wird die absolute Position der Hand im dreidimensionalen Raum bestimmt. Data Gloves können um eine taktile Rückkopplung an den Fingerspitzen erweitert werden. Dies wird durch die Integration eines sogenannten Exoskeletts am Datenhandschuh erreicht (siehe Abbildung 18). Das Exoskellett gibt dabei ein gewisses Force Feedback bei der Berüh­rung von virtuellen Objekten in der VR-Umgebung wieder. Durch die Simulation der Haptik von Objekten wird eine weitere Übereinstimmung zwischen realer und virtueller Umgebung erreicht. Der Data Glove ist damit ein Eingabegerät für hoch-immersive VR- Anwendungen. Und er eignet sich gut für realitätsnahe Montagesimulationen und Kolli­sionsüberprüfungen von Bauteilen.[55]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 18: Data-Glove mit Exoskellett, Quelle: RWTH Aachen

2.2.3 Softwarekomponenten von VR-Systemen

VR-Softwaresysteme sind neben den in den vorangegangenen Abschnitten vorgestellten Hardwarekomponenten ein weiteres zentrales Element von VR-Systemen. Sie bilden als Benutzeroberfläche die Schnittstelle zwischen Bediener und VR- Hardwarekomponenten. Die VR-Software erfasst und verarbeitet die Eingaben und Be­fehle des Bedieners und gibt die Resultate der Interaktion durch die VR-Ausgabegeräte aus.

Tabelle 3 zeigt die unterschiedlichen VR-Softwaretypen zusammen mit ausgewählten etablierten Produktbeispielen.[56]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3: VR-Softwaresysteme, Quelle: Hausstädtler

- Shareware-Softwaresysteme für VR

Shareware Programme sind vorwiegend kostenfreie oder kostengünstige Softwareprog­ramme für VR-Anwendungen am Desktop PC. Diese Programme werden für VR- Präsentationen im Internet angewandt und als Plug-In im Internetbrowser des Desktop PC installiert oder als Viewer zur Darstellung außerhalb des Browsers installiert.

[...]


1 Vgl. Seiffert 2008, S.6

2 Vgl. Seiffert 2008, S.6-9

3 Vgl. Seiffert 2008, S.8-9

4 Vgl. Vajna 2009, S. 161-162

5 Vgl. Vajna 2009, S. 159

6 Vgl. Seiffert 2008, S.27-28

7 Vgl. Sendler 2009, S. 11-12

8 Vgl. Brill 2009, S.6

9 Vgl. Brill 2009, S.6

10 Vgl. Brill 2009, S.6-7

11 Vgl. Becker 2002, S.72

12 Vgl. Becker 2002, S.76

13 Vgl. Der Brockhaus 2003, S. 957

14 Vgl. Wikipedia 2010, Realität

15 Vgl. Der Brockhaus 2003, S. 726

16 Vgl. Brill 2009, S.6

17 Vgl. Schmitz 2007, S.86

18 Vgl. Der Brockhaus 2003, S. 859

19 Vgl. Schmitz 2007, S.86

20 Vgl. Schmitz 2007, S.84

21 Vgl. Brill 2009, S.6-7

22 Vgl. Campenhausen 1993

23 Vgl. Campenhausen 1993

24 Vgl. Campenhausen 1993

25 Vgl. Campenhausen 1993, S.

26 Vgl. Der Brockhaus, S.695

27 Vgl. Schmitz 2007, S.88

28 Vgl. Hausstädtler 2010, S.38

29 Vgl. Schmitz 2007, S.88-89

30 Vgl. Schmitz 2007, S.88-89

31 Vgl. Schmitz 2007, S.88-89

32 Vgl. Brill 2009, S. 24

33 Vgl. Brill 2009, S.21

34 Vgl. Brill 2009, S.21

35 Vgl. Eberhardt 2007, S.90

36 Vgl. Eberhardt 2007, S.90

37 Vgl. Hausstädtler 2010, S.40

38 LEO Deutsch-Englisches Wörterbuch 2010

39 Vgl. Hausstädtler 2010, S.48

40 Vgl. Eberhardt 2007, S.90

41 Vgl. Eberhardt 2007, S.90

42 Vgl. Hausstädtler 2010, S.40

43 Vgl. Hausstädtler 2010, S.49

44 Vgl. Hausstädtler 2010, S.50

45 Vgl. Hausstädtler 2010, S.51

46 Vgl. Hausstädtler 2010, S.51

47 Vgl. Hausstädtler 2010, S.51

48 Vgl. Hausstädtler 2010, S.51

49 Vgl. Hausstädtler 2010, S.48

50 „ Interaktion als definiertes Zusammenwirken von Mensch und Maschine"

51 Vgl. Hausstädtler 2010, S.52

52 Vgl. Hausstädtler 2010, S.53

53 Vgl. Hausstädtler 2010, S.53

54 Vgl. Hausstädtler 2010, S.53

55 Vgl. Hausstädtler 2010, S.53

56 Vgl. Hausstädtler 2010, S.77-91

Ende der Leseprobe aus 130 Seiten

Details

Titel
Einsatzmöglichkeiten der virtuellen Realität im Produktlebenszyklus
Hochschule
Fachhochschule Gießen-Friedberg; Standort Friedberg
Note
1
Autor
Jahr
2010
Seiten
130
Katalognummer
V163457
ISBN (eBook)
9783640785766
ISBN (Buch)
9783640785667
Dateigröße
3633 KB
Sprache
Deutsch
Schlagworte
Virtual Reality, virtuelle Realität, VR, virtuelle Produktentwicklung, Nutzwertanalyse, Kostenanalyse, Risikoanalyse, Einsatzgebiete Virtual Reality, Anwendungsgebiete Virtual Reality, Nutzen-Kosten-Analyse Virtual Reality
Arbeit zitieren
Benjamin Holten (Autor:in), 2010, Einsatzmöglichkeiten der virtuellen Realität im Produktlebenszyklus, München, GRIN Verlag, https://www.grin.com/document/163457

Kommentare

  • Noch keine Kommentare.
Blick ins Buch
Titel: Einsatzmöglichkeiten der virtuellen Realität im Produktlebenszyklus



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden