Einsatzmöglichkeiten für Datenbrillen im geschäftlichen Umfeld. Eine Arbeitsplan-App für die Vuzix M100


Master's Thesis, 2017

159 Pages, Grade: 1,1


eBook
Free Download! (PDF)

Excerpt


Inhaltsverzeichnis

Abkürzungsverzeichnis

1 Hintergrund, Ziel und Aufbau der Arbeit
1.1 Hintergrund
1.2 Ziel und Aufbau

2 Definitionen
2.1 Augmented Reality/Erweiterte Realität
2.2 Head Mounted Displays und Datenbrillen

3 Technik
3.1 Augmented Reality
3.1.1 Stationäre Augmented Reality
3.1.2 Mobile Augmented Reality
3.2 Datenbrillen
3.2.1 Aktuelle Datenbrillen: Allgemeiner Aufbau
3.2.2 Unterschied zu anderen mobilen Endgeräten
3.2.3 Beispielhafte Vorstellung der Vuzix M100 . .
3.2.4 Technische Beschränkungen
3.2.5 Aktuelle technische Entwicklungen
3.2.6 Anwendungsbeispiele
3.3 Zusammenfassung

4 Anwendungskontext
4.1 Umgebung und Umfeld
4.2 Dargestellter Inhalt
4.3 Steuerung
4.4 Usability
4.5 Werbeversprechen
4.6 Zusammenfassung

5 Menschlicher Aspekt
5.1 Wahrnehmung von Datenbrillen in der Öffentlichkeit
5.2 Rechtliche und gesellschaftliche Regelungen
5.3 Hilfe für Menschen mit Behinderung
5.4 Physische Belastung
5.5 Psychische Belastung
5.6 Zusammenfassung

6 Zwischenergebnis

7 Entwicklung einer App zur Darstellung eines Arbeitsplans auf der Vuzix M100
7.1 Hintergrund der praktischen Arbeit
7.2 Rahmenbedingungen: Android
7.3 Analyse, Konzeption und Implementierung
7.3.1 Analyse und Anforderungen
7.3.2 Konzeption und Implementierung

8 Evaluation der Datenbrille und der Arbeitsplan-App
8.1 Allgemeines Vorgehen
8.2 Aufbau
8.3 Durchführung
8.4 Ergebnisse der Evaluation
8.4.1 Verwendete Methoden der Statistik
8.4.2 Median-Zeiten je Endgerät
8.4.3 Auswirkung von Vorerfahrung mit Datenbrillen
8.4.4 Auswirkung der Empfindung bezüglich der Darstellung auf einem Auge
8.4.5 Auswirkung der gelesenen Werkzeugseite auf die Zeit
8.4.6 Als einfacher empfundene Figur in Abhängigkeit vom Endgerät
8.4.7 Einfluss des Alters und des Geschlechts . .
8.4.8 Gezeichnete Brille
8.4.9 Sonstige Ergebnisse
8.4.10 Allgemeine Antworten im Fragebogen
8.4.11 Hinweise zur Durchführung der Evaluation
8.5 Eigene praktische Erfahrungen mit der Datenbrille
8.6 Ergebnis

9 Zusammenfassung der Ergebnisse

10 Zukunftsaussichten
10.1 Tourismus
10.2 Mediated Reality
10.3 Medizin
10.4 Weitere Bereiche .

11 Fazit

A Steuerung Vuzix M100

B Steuerungskonzepte

C Fragebogen

D Origami-Anleitungen
D.1 Schwan
D.2 Kiste

Literatur

Magazin

Sonstige schriftliche Quellen

Internetquellen

Kurzfassung

Diese Arbeit beschäftigt sich mit der Frage, was Datenbrillen - und im weiteren Sinne auch ihre Vorgänger, die Head-Mounted Displays - sind und was bei ihrem Einsatz zu beachten ist. Dafür besteht diese Arbeit aus einem theoretischen und einem praktischen Teil.

Der theoretische setzt sich mit der Technik, dem Anwendungskontext und menschlichen Aspekten auseinander, die bei der Arbeit mit einer Datenbrille beachtet werden müssen, sowie Kriterien zu deren Auswahl. In diesem Teil geht die Arbeit zusätzlich auf Augmented Reality ein, welche oftmals zusammen mit Datenbrillen genannt wird. Hierzu wird der technische Hintergrund von Datenbrillen und Augmented Reality beleuchtet, der Stand der Technik untersucht, aktuelle Datenbrillen betrachtet und ihr allgemeiner Aufbau aufgezeigt.

Die Vuzix M100, die im praktischen Teil dieser Arbeit verwendet wurde, wird dabei genauer vorgestellt. Auch aktuelle Anwendungsfälle werden beschrieben.

Anschließend werden Vorbedingungen und Einschränkungen für den Einsatz von Daten- brillen untersucht. Dabei liegt der Fokus zunächst auf dem Anwendungskontext, also der Umgebung, dem dargestellten Inhalt, der Steuerung sowie der Komplexität und der Usability der Anwendung. Auch werden an dieser Stelle Werbeversprechen der Hersteller auf ihren Wahrheitsgehalt überprüft.

Zuletzt wird auf die menschliche Komponente eingegangen. Es wird unter anderem unter- sucht, wie Datenbrillen in der Öffentlichkeit wahrgenommen werden und welche Einschrän- kungen sich für den Einsatz daraus ergeben. Auch rechtliche Vorgaben sowie physische und psychische Belastungen, welche durch Datenbrillen hervorgerufen werden können, werden dargestellt.

Im praktischen Teil der Arbeit wird auf die Konzeption und Entwicklung einer App einge- gangen, welche für die Datenbrille Vuzix M100 erstellt wurde und dem Nutzer die Schritte eines Arbeitsplans anzeigt. Diese App wurde in einer Versuchsreihe mit 20 Personen eva- luiert, welche die Aufgabe bekommen hatten, eine Origami-Figur nach Vorgabe zu falten. Dafür mussten sie die Anweisungen einmal auf einem Tablet und einmal auf der Vuzix M100 befolgen. Die Ergebnisse wurden statistisch ausgewertet.

Das Ergebnis der Evaluation wird im Hinblick auf die Ergebnisse des theoretischen Teils diskutiert und es wird versucht, daraus Empfehlungen für den App-Aufbau sowie die Anwendungsbereiche für Datenbrillen (mit und ohne Augmented Reality) abzuleiten.

Als Letztes wird ein Zukunftsausblick gegeben, der aktuell in der Forschung befindliche Projekte vorstellt, ehe ein abschließendes Fazit gezogen wird. Schlagworte: Datenbrillen, Smart Glasses, Google Glass, Vuzix M100, Erweiterte Realität, Augmented Reality, AR, Mixed Reality, Head-Mounted Display, HMD

Abbildungsverzeichnis

1.1 Gartner Hype-Zyklus 2015

2.1 Sprühpistole als Beispiel für AR

2.2 Visualisierung des Reality-Virtuality-Kontinuums nach Milgram

2.3 Sutherlands Head-Mounted Display (HMD)

2.4 Optical See-Through (OST) (oben) und Video See-Through (VST) (unten) im direkten Vergleich

3.1 Zwei Beispiele für dreidimensionale Marker

3.2 Revi C/12D

3.3 Vergleich eines heutigen HUDs (links) mit einem AR-HUD der Zukunft (rechts)

3.4 Land Rovers AR-Ausstellungsraum

3.5 Lego Augmented Reality (AR)

3.6 Hatsune Miku (mitte) bei David Letterman (rechts) (Bildausschnitt)

3.7 Google Translate App mit AR-Übersetzung

3.8 Konzept für AR-Tastatur

3.9 Vuzix M100 grau auf Brillengestell

3.10 Vergleich zweier neuer Datenbrillen

4.1 Durch das AR-Menü der Microsoft HoloLens durchscheinender Hintergrund . .

4.2 Ungewollte Überlagerung der Realität mit einem AR-Objekt

4.3 Microsoft HoloLens Clicker

4.4 Controller der Epson Moverio BT-300 (Bildausschnitt)

4.5 Eigene Darstellung: Tastatur-Laufband der Vuzix M100

4.6 Vergleich Werbeversprechen (oben) - Realität (unten) anhand eines Drohnenfluges auf der Epson Moverio BT-300

5.1 Google Glass ban sign

7.1 MVC in Android nach Karpouzis

7.2 Eigene Darstellung: Schematischer Aufbau des Arbeitsplans

7.3 Eigene Darstellung: sieben mögliche Steuerungspfade

7.4 Eigene Darstellung: Finales Steuerungskonzept

7.5 Eigene Darstellung: Steuerungsrichtungen aus Sicht des Nutzers

7.6 Eigene Darstellung: Screenshot eines Arbeitsplanschrittes mit allen Icons erklärt

8.1 Eigene Darstellung: Altersverteilung der Testteilnehmer

8.2 Eigene Darstellung: Benötigte Faltzeit aller Teilnehmer

8.3 Eigene Darstellung: Faltzeiten im Durchschnitt und Median. Konfidenzintervalle wurden für Konfidenzniveau 1 − α = 0,95 ermittelt

8.4 Eigene Darstellung: Bewertung der einäugigen Darstellung im Verhältnis zur benötigten Zeit

8.5 Eigene Darstellung: Übersicht der verschiedenen Arten an gezeichneten Brillen

8.6 Eigene Darstellung: Verhältnis der Bewertung der Steuerung zur benötigten Faltzeit

8.7 Eigene Darstellung: Bewertung der Schärfe der Anzeige im Verhältnis zur benö- tigten Faltzeit für den Schwan

8.8 Weißer Farbverlauf

10.1 Idee von AdBlock Plus auf der Google Glass

10.2 Durch Brand Killer verdecktes Markenlogo

10.3 Virtual Mirror

A.1 Ausführbare Gesten der M100

B.1 Eigene Darstellung: Steuerungsvorschlag 1

B.2 Eigene Darstellung: Steuerungsvorschlag 2

B.3 Eigene Darstellung: Steuerungsvorschlag 3

B.4 Eigene Darstellung: Steuerungsvorschlag 4

B.5 Eigene Darstellung: Steuerungsvorschlag 5

Tabellenverzeichnis

3.1 Vergleich aktueller Datenbrillen

7.1 Muss-Anforderungen (MUST)

7.2 Soll-Anforderungen (SHOULD)

7.3 Könnte-Anforderungen (COULD)

8.1 Vergleich der Mittelwert- und Median-Faltzeiten

8.2 Vergleich der auf der Datenbrille benötigten Median-Zeiten im Verhältnis zu der Bewertung der einäugigen Darstellung

8.3 Übersicht, welche Origami-Figur auf welchem Gerät als einfacher empfunden wurde

8.4 Nach Geschlecht aufteilt auf welchem Gerät die Figur, die als einfacher empfunden wurde, gefaltet wurde

8.5 Verteilung der gezeichneten Brille dazu, ob der Zeichner vorher schon einmal eine monokulare Datenbrille gesehen hat

8.6 Verteilung der gezeichneten Brille dazu, ob der Zeichner vorher schon einmal eine monokulare Datenbrille getragen hat

8.7 Bewertung der Brillensteuerung

A.1 Gestensteuerung der Vuzix M100

Quellcodeverzeichnis

7.1 Vorauswahl eines Buttons

7.2 Einbindung der Gestensteuerung

7.3 Einbindung der Sprachsteuerung

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Einleitende Erklärung

Zur besseren Lesbarkeit wird in dieser Arbeit generell die maskuline Form verwendet. Sämtliche Personenbezeichnungen gelten gleichwohl für alle Geschlechter. Anmerkungen, die keine Quelle darstellen, sondern nur weiterführende Quellen angeben, sind daran erkennbar, dass ihr Fußnotenanker in Klammern steht.

1 Hintergrund, Ziel und Aufbau der Arbeit

1.1 Hintergrund

Als Google am 4. April 2012 sein ‚Project Glass‘ in einem kurzen Konzept-Video vorstellte, erreichte die Idee der Datenbrille erstmals die breite Öffentlichkeit. In den darauf folgenden Tagen veröffentlichte Google weitere Informationen und Bilder. Ab dem 27. Juni 2012 konnte die ‚Google Glass Explorer Edition‘ für US$ 1.500 vorbestellt werden. Etwa 2000 Reservierun- gen gingen zu diesem Zeitpunkt - kaum zwei Monate nach der ersten Vorstellung - ein. Ab dem 20. Februar 2013 nahm Google erneut Vorbestellungen entgegen. Und obwohl die ersten Kunden ihre Glass noch immer nicht erhalten hatten, war das Interesse so groß, dass Google die Vorbestellungen nicht einfach entgegennahm, sondern die Interessenten dazu aufforderte, in 50 Wörtern oder weniger zu beschreiben, was sie mit der Google Glass machen würden, und basierend auf diesen Texten entschied, wer für die nächste Vorbestellung ausgewählt wurde1.

Seitdem finden sich regelmäßig Schlagzeilen in den Medien, in denen von der ‚Revolution‘ gesprochen wird, die Datenbrillen sowohl für die Arbeitswelt als auch das Privatleben bringen werden: „Erste Datenbrillen wie Googles ‚Glass‘ manifestieren die Speerspitze einer technologischen und sozialen Veränderung, die den Alltag von Menschen revolutionieren wird“2, „Datenbrillen werden in naher Zukunft das Arbeiten im Lager nachhaltig verändern“3, „Die Datenbrille revolutioniert das Wirtschaftsleben“4 oder „Datenbrillen revolutionieren die Arbeitswelt“5.

Auch das Marktforschungsunternehmen Gartner behauptete 2013, dass der Einsatz von Datenbrillen 2017 im Außendienst eine Milliarde US-Dollar pro Jahr sparen könnte. Als generelle Einsatzgebiete prognostizierte Gartner damals Montage, Außendienst, Verkauf und das Gesundheitswesen. Gartners Forschungsdirektorin Angela McIntyre sagte in diesem Zusammenhang:

„Smartglasses with augmented reality (AR) and head-mounted cameras can increase the efficiency of technicians, engineers and other workers in field service, maintenance, healthcare and manufacturing roles. In the next three to five years, the industry that is likely to experience the greatest benefit from smartglasses is field service, potentially increasing profits by $1 billion annually. The greatest savings in field service will come from diagnosing and fixing problems more quickly and without needing to bring additional experts to remote sites.“6

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1.1 Gartner Hype-Zyklus 20157

Im 2014 veröffentlichen Hype-Zyklus Hype Cycle for Emerging Technologies führt Gartner ‚Wea- rable User-Interfaces‘ als eigenen Punkt auf. Dort zeigt die Y-Achse die Höhe der Erwartung, während die X-Achse den zeitlichen Verlauf seit Bekanntgabe des jeweiligen Produkts/The- mas darstellt. Dabei beginnen die Technologien im Technischen Auslöser (Innovation Trigger), von dort steigen die Erwartungen an die jeweilige Technologie steil an, ehe sie den Gipfel der überzogenen Erwartungen (Peak of Inflated Expectations) erreichen. Wenn klar wird, dass die in die Technologie gesetzten (überzogenen) Erwartungen nicht von ihr erfüllt werden können, fallen diese stark ab, bis sie ihren Tiefpunkt im Tal der Enttäuschungen (Trough of Disillusionment) erreichen. Von dort aus beginnen sie langsam wieder zu steigen, wobei sie den Pfad der Erleuchtung (Slope of Enlightenment) passieren, bevor sie das Plateau der Produktivität (Plateau of Productivity) erreichen, auf welchem die Technologie langsam ihre Marktfähigkeit erreicht.

Die bereits erwähnten Wearable User-Interfaces befanden sich 2014 auf dem Abstieg vom Gipfel der überzogenen Erwartungen, wobei Gartner vorhersagte, dass sie noch 5 bis 10 Jahre bis zum Plateau der Produktivität benötigen würden. Augmented Reality als Technologie hatte damals die Schwelle zum Tal der Enttäuschung gerade überschritten.

Dieses Bild änderte sich 2015 kaum, außer dass Gartner den Technologienamen auf ‚Wearables‘ kürzte8. Abbildung 1.1 zeigt diesen Hype-Zyklus.

2015 beendete Google seine ‚Explorer‘-Testphase offiziell9, doch das Interesse der Öffentlich- keit blieb. Die Begriffe ‚Datenbrille‘ und ‚Smart Glasses‘ waren allgemein bekannt geworden und andere Firmen hatten mit der Entwicklung und Produktion ihrer eigenen Datenbrillen begonnen. Auch Google gab noch 2015, kaum dass die Explorer-Phase beendet war, bekannt, unter der Bezeichnung ‚Project Aura‘ an einer neuen Datenbrille zu arbeiten10.

1.2 Ziel und Aufbau

In Hinblick auf diese rasante Entwicklung in der Branche und des öffentlichen Interesses, ist es das Ziel dieser Arbeit, einen Überblick über den aktuellen Stand zum Thema ‚Datenbrillen‘ zu geben und zu klären, ob die ‚Datenbrillen-Revolution‘ real ist und Datenbrillen allgemein für bereits existierende Aufgaben in der Industrie eingesetzt werden können, oder ob sie eher ein Werkzeug für spezielle Nischenanwendungen bleiben werden, die Revolution also nur ein Medien-Hype ist.

Den Schwerpunkt dieser Arbeit bilden Datenbrillen, Head-Mounted Displays werden auf- grund ihrer ähnlichen Form und Funktion mit eingeschlossen. Virtual Reality-Brillen werden bewusst nicht näher betrachtet, da ihr Fokus aktuell eher auf die private Spielebranche gerichtet ist, während sich diese Arbeit hauptsächlich mit Einsatzmöglichkeiten im geschäft- lichen Umfeld auseinandersetzt.

Im ersten Teil der Arbeit wird der theoretische Hintergrund von Datenbrillen und ihren Anwendungsbereichen untersucht. Er beginnt, nach einführenden Definitionen in Kapitel 2, mit der Betrachtung der Technik in Kapitel 3. In Kapitel 4 wird auf den Anwendungskontext eingegangen, welcher Einfluss auf die Einsatzmöglichkeiten von Datenbrillen haben kann; etwa Umwelteinflüsse und Beschränkungen, welche durch Art und Form der Datenbrille selbst entstehen. Des Weiteren werden Werbeversprechen der Hersteller betrachtet. Den ersten Teil schließt Kapitel 5 ab, in welchem der menschliche Aspekt untersucht wird. Dabei geht es sowohl um die physische wie auch psychische Belastung, die durch den Einsatz von Datenbrillen und Head-Mounted Displays entstehen kann, sowie rechtliche Vorschriften und die Wahrnehmung von Datenbrillen in der Öffentlichkeit.

Für den zweiten Teil der Arbeit wurde eine App für die Datenbrille Vuzix M100 entwickelt, die dem Nutzer Schritte eines Arbeitsplans anzeigt. In Kapitel 7 wird auf die Entwicklung der App eingegangen, wobei der Fokus weniger auf der grundlegenden Android-Entwicklung liegt, sondern auf Details, die bei der Entwicklung für die M100 beachtet werden müssen. Ergänzend fand eine Evaluation der App statt, deren Durchführung in Kapitel 8 erläutert und deren Ergebnisse in Kapitel 9 dargelegt, statistisch ausgewertet und diskutiert werden. Abschließend wird in Kapitel 10 auf zukünftige Einsatzmöglichkeiten von Datenbrillen eingegangen, ehe ein Fazit gezogen wird.

2 Definitionen

2.1 Augmented Reality/Erweiterte Realität

Datenbrillen werden oft mit dem Begriff der Augmented Reality in Verbindung gebracht, da viel Potenzial in der Kombination der beiden Technologien gesehen wird. Der Begriff Augmented Reality muss daher vorab definiert werden, um Teilbereiche der Datenbrillen- Definition zu erleichtern.

Augmented Reality (AR), übersetzt Erweiterte Realität, bezeichnet eine Erweiterung der von menschlichen Sinnen wahrgenommenen Realität um von einem Computer generierte Ele- mente und/oder Eigenschaften in Echtzeit. Dabei handelt es sich in der Regel um visuelle Erweiterungen, wie das Hinzufügen von dreidimensionalen Objekten, welche die Realität überlagern.

Die heute allgemein anerkannte Definition stammt aus dem Jahr 1997. Damals definierte Ronald Azuma, der heute als Pionier im Feld der Augmented Reality gilt, sie in „A survey of augmented reality“ als:

1) „Combines real and virtual
2) Interactive in real time
3) Registered in 3-D“11

Also als eine dreidimensional wahrgenommene Verbindung des Realen mit dem Virtuellen in Echtzeit, welche dem Nutzer die Möglichkeit zur Interaktion bietet.

Dr. Johannes Tümler definiert AR, sich ebenfalls auf Azuma berufend, in drei Begriffen als:

- „Abbildung virtueller Elemente auf eine reale Situation (Kontextabhängigkeit)
- Echtzeitinteraktion des Anwenders mit realen und virtuellen Inhalten (Interaktivität)
- Darstellung der AR-Inhalte über computergesteuerte Anzeigegeräte (Visualisierung)“12

In dieser Arbeit wird eine leicht abgewandelte Kombination dieser beiden Definitionen genutzt, da nach der originalen Definition Azumas Texte, die zu einem Objekt angezeigt werden, nicht unter AR fallen würden, da diese in der Regel nicht dreidimensional sind. Auch die Anzeige eines Bildes an einer Wand wäre keine erweitere Realität, solange es nicht über einen dreidimensional wirkenden Rahmen verfügt. Nach der Definition von Tümler hingegen wären nur visuelle Erweiterungen AR, nicht aber andere künstlich erzeugte Sinneseindrücke wie beispielsweise Geräusche oder Gerüche.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.1 Sprühpistole als Beispiel für AR13

Für diese Arbeit wird AR wie folgt definiert:

Eine Erweiterung der Realität durch eine künstlich erzeugte Virtualität, wobei die Erwei- terung im relevanten Kontext zur Realität steht (Kontextabhängigkeit), für den Nutzer wahrnehmbar ist (Wahrnehmbarkeit) und bei Bedarf die Möglichkeit zur Interaktion bietet (Interaktivität).

Ein Text, der Informationen zur Frauenkirche zeigt, während die Frauenkirche betrachtet wird, wäre somit AR, nicht jedoch ein dreidimensionales Icon eines Briefumschlags, das vor der Frauenkirche erscheint, weil eine E-Mail eingegangen ist.

Abbildung 2.1 zeigt das klassische Verständnis der AR am Beispiel einer nur virtuell existie- renden Sprühpistole.

Die Idee, die Realität computergestützt zu erweitern, geht allerdings weiter als bis Azuma zurück. 1965 schrieb Ivan Sutherland, der spätere Erfinder des erstens Head-Mounted Dis- plays, in „The Ultimate Display“ davon, wie ein Computer-Display die Realität erweitern könnte. Er schließt damit, dass das „ultimative Display“ ein kompletter Raum wäre, dessen Materie von einem Computer kontrolliert wird. Ein darin ‚abgebildeter‘ Stuhl wäre real genug, um auf ihm zu sitzen und eine ‚abgebildete‘ Pistolenkugel könnte töten14.

In diesem Zusammenhang ist der Unterschied zwischen AR und Virtual Reality (VR) (deutsch: Virtuelle Realität) zu beachten. AR ist, wie der Namen bereits verdeutlicht, eine Erweiterung der bereits vorhandenen Realität. VR hingegen ist die Simulation einer „schein- baren Welt“15, also einer komplett eigenen, virtuell erstellten Umgebung (auch als Virtualität

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.2 Visualisierung des Reality-Virtuality-Kontinuums nach Milgram16

bezeichnet), die keinerlei Bezug zur „echten“ Realität aufweist und unabhängig von dieser existiert.

Im 1994 von Prof. Paul Milgram etal. in „Augmented Reality: A Class of Displays on the Reality-Virtuality Continuum“ vorgestellten Reality-Virtuality-Kontinuum ist AR ein Teil der Mixed Reality (MR) und befindet sich eher auf der Seite der Realität als der Virtualität. Eben- falls ein Teil dieses Kontinuums ist Augmented Virtuality (AV), bei welcher die Virtualität im Verhältnis zur Realität überwiegt. Die Übergänge zwischen allen Bereichen sind fließend. Abbildung 2.2 zeigt das Kontinuum an einem einfachen Beispiel auf.

2.2 Head Mounted Displays und Datenbrillen

Ein Head-Mounted Display (HMD) ist ein Gerät, welches der Nutzer wie eine Brille oder einen Helm auf dem Kopf trägt und welches ihn über ein Display mit Informationen versorgt17. „Im Vergleich zu den in der Vergangenheit bereits entwickelten [HMDs], die im Bereich der Virtuellen oder Erweiterten Realität eingesetzt wurden, zeichnen sich moderne Datenbrillen durch eine erhebliche Gewichtsreduktionen sowie verbesserte Nutzerschnittstellen zur Da- tenerfassung aus — bei gleichzeitiger Steigerung der Datenverarbeitungskapazität in der Brille“18. Anders ausgedrückt ist eine Datenbrille, im Englischen auch „Smart Glasses“ oder seltener „Data Glasses“ genannt, ein „mit Peripheriegeräten ergänzter Kleinstrechner, der am Kopf getragen und mit Augen und Händen sowie der Stimme gesteuert bzw. bedient wird“19.

Der Hauptunterschied zwischen einem HMD und einer Datenbrille besteht somit in der Computerhardware für Eingabe und Verarbeitung, welche nur in einer Datenbrille verbaut ist, während ein HMD nur ein reiner Bildschirm für die Ausgabe ist. Forschungsergebnisse, die aus HMD-Studien gewonnen werden, können daher auf Datenbrillen übertragen werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2.3 Sutherlands HMD21

Das erste HMD wurde bereits 1968 von Sutherland präsentiert und zeigte dem Nutzer ein perspektivisches, dreidimensionales Drahtgittermodell (englisch Wire-Frame) eines Würfels, welches sich passend zu den Kopfbewegungen des Trägers drehte. Bereits damals war es möglich, diese Grafik über halb-versilberte Spiegel über die Realität des Raumes zu legen20. Abbildung 2.3 zeigt dieses erste, aufgrund seiner Befestigung an der Decke als ‚Damoklesschwert‘ bezeichnete HMD.

Im militärischen Bereich kann die Abkürzung HMD auch für Helmet-Mounted Display stehen, also ein Display, das nicht direkt am Kopf des Trägers befestigt ist, sondern an seinem Helm22. Für diese Arbeit wird jedoch nicht zwischen kopf- und helmgetragenen Dis- plays unterschieden, da es keine relevanten Unterschiede in Aufbau und Funktionsweise gibt.

An dieser Stelle wird darauf hingewiesen, dass in Listen aktueller Datenbrillen immer öf- ter Modelle zu finden sind, die nur als zweites Display für ein verbundenes Smartphone gedacht sind. Bei diesen Geräten handelt es sich um keine Datenbrillen im Sinne dieser Arbeit, sondern um HMDs, da sie über keine eigene Rechenhardware verfügen und ohne gekoppeltes Smartphone funktionsunfähig sind.

Displays von Datenbrillen und HMDs sind entweder monokular oder binokular. Monokular bedeutet, dass nur ein Display existiert, welches der Nutzer vor einem Auge trägt. Binokular sagt hingegen aus, dass zwei Displays existieren, eines vor jedem Auge, die in der Lage

Abbildung in dieser Leseprobe nicht enthalten

(a) Optical See-Through nach Azuma23

Abbildung in dieser Leseprobe nicht enthalten

(b) Video See-Through nach Azuma24

Abbildung 2.4 OST (oben) und VST (unten) im direkten Vergleich

sind, entweder beide das gleiche Bild oder ein Paar Stereobilder anzuzeigen25. Wenn die beiden Anzeigen so zusammenwirken, dass sie scheinbar verschmelzen und einen dreidimensionalen Eindruck erwecken, werden binokulare Displays auch als stereoskopisch bezeichnet26. Die ersten Datenbrillen verfügten nur über monokulare Displays, bei modernen Smart Glasses sind hingegen mehr und mehr binokulare Varianten vertreten.

Ein weiterer wichtiger Punkt für die Unterscheidung der verschiedenen Displays ist, wie die Realität durch sie weiterhin wahrgenommen werden kann. Hier existieren zwei unterschied- liche Ansätze: Optical See-Through (OST) (auch: Durchsichts-Modus) und Video See-Through (VST) (auch: Geschlossenen-Modus oder Lookaround). Diese beiden Definitionen gehen ebenfalls auf Azuma zurück. Erstere bedeutet, dass die Realität weiterhin direkt wahrgenom- men wird, während ein „Combiner“ vor den Augen des Trägers platziert wird, welcher die sichtbare Realität um die AR erweitert. VST hingegen schneidet den Nutzer im Bereich des Displays, das dieser vor den Augen trägt, visuell von der Außenwelt ab. Die Umgebung wird von einer am Display angebrachten Kamera aufgenommen, um die AR erweitert und erst dann als komplette MR im Display angezeigt27. Einfacher ausgedrückt ist ein OST-Display durchsichtig und der Träger kann auch durch das ausgeschaltete Display hindurchschauen und seine Umwelt wahrnehmen. Bei einem VST-Display hingegen hätte er einen kleinen, ausgeschalteten Bildschirm im Gesichtsfeld, welcher ihm den Blick auf die dahinter liegende Realität verwehrt. Abbildung 2.4 zeigt Azumas originale Grafiken zur Erklärung von OST und VST.

Beide Techniken haben Vor- und Nachteile. So kann der Nutzer in einem OST die Realität immer im Blick behalten, jedoch können Latenzzeiten dazu führen, dass die Virtualität zeitlich hinter der Realität zurück bleibt. VST hingegen kann die Realität nicht ‚live‘ zeigen, dafür jedoch eine bessere Übereinstimmung der MR erzeugen28.

3 Technik

3.1 Augmented Reality

Eine einheitliche Definition eines AR-Systems und seiner technischen Komponenten exis- tiert bisher nicht. Nach Dr. rer. nat. Marcus Tönnis besteht ein solches System aus drei Komponenten: Darstellung, Tracking und Interaktion29. Dabei ist Darstellung die Anzeige der computergenerierten Grafiken, Tracking das Verfolgen der (Nutzer-)Bewegungen zur Erkennung der Position im Raum und Interaktion die Eingaben von Daten durch den Nutzer oder die Umgebung. Dr.-Ing. André Tegtmeier hingegen benennt in Augmented Reality als Anwendungstechnologie in der Automobilindustrie die vier Komponenten eines AR-Systems als: Anzeigegerät, Trackingsystem, Computer (Datenhaltungssystem) und Software (Szenenge- nerator)30. Somit hat er, im Vergleich zu Tönnis, Generierung und Anzeige in zwei eigene Aspekte unterteilt sowie den zusätzlichen Aspekt der Datenhaltung hinzugenommen. Die Interaktion hingegen ist bei ihm entfallen.

Diese beiden Beispiele für sehr unterschiedliche Definitionen verdeutlichen, dass eine exakte Definition eines AR-Systems nicht ohne Weiteres möglich ist, sondern stark vom Einsatz- zweck des jeweiligen Systems abhängt.

Vereinfachend kann festgestellt werden, dass fast jedes moderne AR-System über eine Kame- ra verfügt, welche die Realität aufnimmt, einen Computer, der die Aufnahmen verarbeitet und mit den Erweiterungen versieht, sowie ein Display, um die finale AR anzuzeigen. Eingaben können entweder über das Scannen von (QR-)Codes oder mithilfe von anderen Eingabegeräten erfolgen. Gegebenenfalls werden Marker benötigt, welche das System nutzt, um die Position von Gegenständen im Raum zu bestimmen. Diese Positionsbestimmung wird auch als Tracking bezeichnet31.

Der Vollständigkeit halber werden in diesem Kapitel alle soeben aufgezählten Punkte kurz angesprochen, auch wenn auf eine genauere Betrachtung aufgrund der technischen Komplexität leider verzichtet werden muss.

Abbildung in dieser Leseprobe nicht enthalten

(a) Würfel mit je einem Marker pro Seite32

Abbildung in dieser Leseprobe nicht enthalten

(b) Marker mit reflektierenden Kugeln33

Abbildung 3.1 Zwei Beispiele für dreidimensionale Marker

3.1.1 Stationäre Augmented Reality

Technische Abgrenzung

Heutzutage wird AR häufig mit den entsprechenden Apps auf Smartphones gleichgesetzt. Diese Anschauung ist jedoch nicht zutreffend. Es gibt AR-Systeme ganz ohne mobile Endge- räte, beispielsweise in Gebäuden oder fest eingebaut in Fahr- und Flugzeugen, aber auch Systeme, bei denen ein großer Teil des Systems stationär angebracht ist, auch wenn die Anzeige der AR durch ein Mobilgerät wie ein Smartphone erfolgt.

Stationäre beziehungsweise ortsgebundene AR-Systeme sind in der Regel für eine bestimmte Aufgabe vorgesehen und entsprechend für diese optimiert. Als solche sind sie fest im Raum oder im Fahrzeug verbaut und können nicht ohne Weiteres daraus entfernt werden. Ist eine genaue Positionsbestimmung innerhalb eines Raumes notwendig, kann dieser mit entsprechenden Sensoren (in der Regel Kameras, die im Raum verteilt angebracht sind) und alle relevanten Objekte mit passenden Markern versehen werden. Als Marker kann alles fungieren, was von den jeweiligen Sensoren als solcher erkannt wird. Für eine Kamera können das beispielsweise die reflektierenden Kugeln sein, die auch von Motion-Tracking im Film bekannt sind, oder einfache zweidimensionale Symbole, die vom Aussehen her mit QR-Codes vergleichbar sind. Aber auch nicht-visuelle Marker, wie der Bluetooth-basierte iBe- acon, existieren34. Zwei dreidimensionale Marker, welche durch ihre Form die Bestimmung der Objektausrichtung erleichtern, sind in Abbildung 3.1 zu sehen. Ein zweidimensionaler

Marker wurde bereits in Abbildung 2.1 gezeigt. Als Alternative zu diesem Marker-basierten Tracking existiert eine markerlose Variante. In diesem Fall muss das System in der Lage sein, sich beispielsweise nur anhand des Kamerabil- des zu orientieren, wobei in der Regel markante Punkte, sogenannte Feature Points, genutzt werden, welche von der Bilderkennungssoftware erkannt werden35. Alternativ kann GPS für markerloses Tracking genutzt werden36.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.2 Revi C/12D38

Es existiert keine einheitliche Definition, um Marker-Tracking von markerlosem Tracking zu unterscheiden. Auch eine Form, die per Bilderkennung erkannt wird, kann als Marker angesehen werden. Daher wird im Rahmen dieser Arbeit von einem Marker gesprochen, wenn dieser zusätzlich zu dem eigentlichen realen Objekt angebracht ist. Die genauen Berechnungen für Positionen und Anzeigen werden auf einem Computer oder Server mit entsprechender Rechenleistung durchgeführt. Wird eine komplexe Anzeige gewünscht, kann ein normaler Bildschirm von beliebiger Größe genutzt werden, der an passender Stelle positioniert wird. Wird ein HMD benutzt, können dem Träger Positionen oder ergänzende Informationen sehr genau auf dem Objekt angezeigt werden37.

Anwendungsbeispiele

Im Folgenden sollen einige beispielhafte Anwendungen vorgestellt werden, die entweder schon existieren oder sich aktiv in der Entwicklung befinden.

Eines der ältesten Beispiele für AR ist um einiges älter als die Möglichkeit, mit einem Com- puter Grafiken zu erzeugen. 1940 (ein Jahr vor Zuses Z3) wurde das Reflexvisier Revi C/12D entwickelt. Dieses kam unter anderem in Prototypen des Jagdflugzeugs Messerschmitt Bf 109 F zum Einsatz und „spiegelte ein ‚virtuelles‘ Fadenkreuz ins Sichtfeld des Piloten (Visua- lisierung). Die Position des Fadenkreuzes auf dem Display passte sich der Geschwindigkeit des Flugzeugs an (Kontextabhängigkeit), um eine optimale Zielsicherheit zu gewährleisten. Der Pilot konnte somit interaktiv die Visualisierung beeinflussen“39. Abbildung 3.2 zeigt das Reflexvisier mit dem ‚eingeblendeten‘ Fadenkreuz.

Abbildung in dieser Leseprobe nicht enthalten

(a) Heutiges HUD (Bildausschnitt)40

Abbildung in dieser Leseprobe nicht enthalten

(b) AR-HUD der Zukunft (Bildausschnitt)41

Abbildung 3.3 Vergleich eines heutigen HUDs (links) mit einem AR-HUD der Zukunft (rechts)

Im automotiven Bereich nimmt der Einsatz von AR stetig zu. Immer mehr Fahrzeughersteller bieten heutzutage die Möglichkeit, Head-up-Displays (HUD) in ihre Fahrzeuge einzubauen.

Diese projizieren wichtige Informationen auf die Frontscheibe des Fahrzeuges. Daraus ergibt sich der Vorteil, dass der Fahrer durch den „kontinuierlichen Blickkontakt zur Straße und zum Verkehrsgeschehen kritische Situationen und Gefahren früher erkennen [kann]“42. Da- mit kann die bis zu zwei Sekunden andauernde ‚Akkommodationsphase‘, die Zeit, welche die Augen benötigen, um von der Straßen-Fernsicht auf die Tacho-Nahsicht (oder zurück) umzuschalten, umgangen werden, da das HUD für den Fahrer etwa zwei Meter entfernt scheint43. Die Zukunft des HUDs liegt jedoch im Bereich der AR, welche helfen soll, das Fahren noch sicherer und komfortabler zu gestalten, indem „die Hinweise quasi mit der Fahrsituation, die sich vor dem Fahrzeug abspielt, [. . . ] verschmelzen. Bei der Navigation beispielsweise weist dem Fahrer an der Abbiegung vor dem Fahrzeug ein passgenau in die Außenansicht eingefügtes virtuelles Symbol, etwa in Form von Richtungspfeilen auf der entsprechenden Fahrbahn den Weg (bisher sind nur generelle Richtungspfeile möglich).

Bei aktiviertem Abstandstempomaten (Adaptive Cruise Control, ACC) visualisiert eine Markierung im AR-HUD, welches vorausfahrende Fahrzeug vom Assistenzsystem erkannt wird“44. Abbildung 3.3b zeigt, wie so ein AR-HUD in Zukunft für den Nutzer aussehen könnte, im Vergleich zu einem heutigen HUD eines modernen BMWs in Abbildung 3.3a.

Der Automobilhersteller Land Rover hat 2014 ein Video vorgestellt, in welchem gezeigt wird, wie ein Auto per AR in einem Ausstellungsraum einem Kunden vorgeführt wird, solange kein reales Fahrzeug vorhanden ist. Dazu dient ein großer, gemusterter Block, welcher an einer freien Stelle im Raum platziert ist, als Marker. Bewegt sich der Interessent mit dem zugehörigen mobilen Anzeigegerät um den Marker herum, erkennt die Kamera die unterschiedlichen Seiten des Blockes und das System kann infolgedessen genau berechnen, aus welcher Position der Träger das Auto gerade sehen würde46. Abbildung 3.4 zeigt den Marker-Block im Einsatz.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.4 Land Rovers AR-Ausstellungsraum45

Auch der Spielzeughersteller Lego hat bereits AR für Marketing genutzt. Die sogenannte ‚Digital Box‘ wurde in Läden platziert und bestand aus einem stationären System aus Kamera und Bildschirm. Kunden konnten die Verpackungen der Legobausätze vor die Kamera halten und bekamen dann auf dem Monitor den aufgebauten Bausatz auf der Packung stehend angezeigt. Wenn sie die Verpackung drehten, drehte sich das angezeigte Lego-Modell mit, sodass es die Kunden vor dem Kauf genau betrachten und sich so die Kaufentscheidung erleichtern konnten47. Ein Beispiel für die Lego-AR zeigt Abbildung 3.5. Eine ungewöhnliche Art, stationäres AR zu nutzen, zeigt sich in Live-Konzerten der von Yamaha Corporation entwickelten Gesangssoftware VOCALOID. Diese dient zur Synthese

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.5 LegoAR48

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.6 Hatsune Miku (mitte) bei David Letterman (rechts) (Bildausschnitt)49

von Stimmen, um Gesang am Computer zu erzeugen50. Jeder dieser Stimmen wird eine fiktive Figur zugeordnet, wobei die bekannteste Stimme/Figur Hatsune Miku sogar schon als Japans weltweit bekanntestes Idol bezeichnet wurde51. Die den Stimmen zugehörigen Figuren treten live als AR-Simulation auf, während ihr Gesang über die Lautsprecher eingespielt wird. Abbildung 3.6 zeigt Hatsune Miku 2014 bei einem solchen Live-Auftritt in The Late Show With David Letterman. Durch die auf den Moderator gerichteten Scheinwerfer ist die Projektionsfläche gut erkennbar, die ansonsten im Halbdunklen der Konzerte nicht sichtbar ist. Durch die Scheinwerfer wirken jedoch auch die Farben blasser, als sie in den Konzerten eigentlich sind.

3.1.2 Mobile Augmented Reality

Technische Abgrenzung

Da die Definition von Mobile Augmented Reality (MAR) stark mit der zugrundeliegenden Technik verknüpft ist, wird erst in diesem Kapitel auf sie eingegangen. MAR wird oft lediglich als AR auf Smartphones oder Tablets beschrieben52. Als einer der wenigen Autoren, die sich um eine vollständige Definition bemühen, definiert Tümler MAR wie folgt:

„MOBILE AUGMENTED REALITY beschreibt die situationsgerechte Anzeige rechnergene- rierter Informationen auf im Sichtfeld positionierten, vom Benutzer mitführbaren Anzeigegeräten, die die Bearbeitung primärer Arbeitsaufgaben nicht behindern.“53

Diese Definition wird jedoch, bezogen auf die vorhergehende Definition von stationärer AR, als ungenau empfunden, denn laut Tümler wäre Land Rovers AR-Ausstellungsraum ebenfalls mobil, da das Anzeigegerät mobil ist, obwohl es ohne den Marker-Block seine Aufgabe nicht erfüllen kann.

Eine reine Definition über die Etymologie des Begriffs ist ebenfalls nicht sinnvoll. Das Wort mobil hat seinen Ursprung im Lateinischen mobilis, was beweglich bedeutet. Somit wäre mobile AR nichts weiter als „bewegliche“ AR. Nach dieser Definition ist bereits ein Aufbau aus Kamera, Tower-PC und Monitor beweglich, sobald alle drei Komponenten auf einem beweglichen Roll- oder Werkswagen platziert sind. Nach der oben genannten Definition hingegen ist ein solches Rollwagen-System kein MAR, da es nicht im Sichtfeld des Benutzers positioniert ist. Das ist ein Smartphone jedoch die meiste Zeit auch nicht, da es in der Tasche getragen und nur orts- oder situationsbezogen hervorgeholt wird.

Für diese Arbeit wird AR nur als MAR klassifiziert, wenn alle ihre Bestandteile mobil sind, also ggf. auch die Marker.

Wichtig für MAR-Systeme ist, dass sie den Nutzer möglichst nicht behindern oder in seiner Mobilität einschränken. Sie dürfen also beispielsweise über keine fest verbundenen Kabel für Datenübertragung oder externe Stromversorgung verfügen. Nach dem aktuellen Stand der Technik lässt es sich in der Regel noch nicht komplett vermeiden, dass der Nutzer behindert wird, da Datenbrillen sich noch am Anfang der technischen Entwicklung befinden und es theoretisch bereits als ‚Behinderung‘ angesehen werden kann, wenn ein Smartphone oder Tablet in die Hand genommen und an die passende Stelle gehalten werden muss. HMDs fallen in der Regel nicht unter mobile Geräte, da sie kabelgebunden sind und selbst ohne Kabel würde ein Gewicht von bis zu einem Kilogramm54 auf Dauer wohl die meisten Nutzer behindern.

Im Vergleich zur im vorangegangenen Kapitel vorgestellten stationären AR hat mobile AR sowohl Vor- als auch Nachteile. Ein Vorteil der MAR ist die Mobilität, ein Nachteil die Akkulaufzeit, welche ohne feste Stromverbindung stark begrenzt ist. Dafür kann sie

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.7 Google Translate App mit AR-Übersetzung55

vielerorts ohne größeren Aufwand eingesetzt werden, während stationäre AR-Systeme an ihrem Einsatzort fest eingebaut sind und Ortswechsel somit mit größerem Aufwand verbunden sind.

Auch muss der Vollständigkeit halber an dieser Stelle darauf hingewiesen werden, dass es Grenzfälle gibt, die nicht eindeutig dem stationären oder mobilen Bereich zugeordnet

werden können.

Anwendungsbeispiele

MAR, oder einfach AR-Apps, gibt es es bereits eine große Anzahl. Die meisten der im Google PlayStore gelisteten, können als Spielereien bezeichnet werden, da sie Effekte wie einen Tornado oder kleine Tiere in die Kamera-Umgebung einbetten. Eine Reihe haben japanische Titel und Beschreibungen, sodass die Autorin ihren faktischen Sinn nur vermuten kann.

Auch gibt es kleine Services, die per AR-App angeboten werden: Neben den zu erwartenden AR-Navigationen auch solche, die beispielsweise helfen sollen, Sternbilder zu erkennen56 oder Texte zu übersetzen und die in der MR den Originaltext direkt mit dem übersetzten ‚überschreiben‘57. Abbildung 3.7 zeigt Googles AR-Übersetzung in Aktion. Dabei handelt es sich um ein Beispiel für MAR, da die App überall eingesetzt werden kann, um jeden beliebigen Text zu übersetzen, deren Sprache die App beherrscht. Ein Schild mag ortsgebun- den sein, aber die App funktioniert überall. Die Schrift funktioniert dabei zugleich als Marker.

Bei den AR-Apps gibt es auch Angebote, die versuchen, bestehende Geschäftsmodelle zu erweitern. So bietet der Möbelhersteller IKEA an, Möbel per erweiterter Realität in den eigenen Raum zu stellen, um den Gesamteindruck vor Ort zu überprüfen58. Dabei dient ein IKEA-Katalog als Marker, auf den das gewünschte Möbelstück projiziert wird. Dieses System ist trotz des Markers mobil, da sowohl das Anzeigegerät (Smartphone oder Tablet) als auch der Marker (ein IKEA-Katalog aus Papier) problemlos transportiert werden können.

Auch wenn AR im Gegensatz zu VR für Spiele in der Regel keine große Rolle spielt, soll Pokémon Go an dieser Stelle kurz erwähnt werden, da es dazu beigetragen hat, den Begriff der Augmented Reality allgemein bekannt zu machen59. In Pokémon Go nutzt der Spieler die Kamera seines Smartphones dazu, sich AR-Pokémon in der realen Umgebung anzeigen

zu lassen (hier dient das Smartphone-Display als VST-Display) und diese per Touch-Geste zu fangen.

3.2 Datenbrillen

3.2.1 Aktuelle Datenbrillen: Allgemeiner Aufbau

Der grundlegende Aufbau einer Datenbrille ähnelt stark dem eines HMDs. Beide sind am Kopf des Trägers befestigt und haben, wie bereits in Abschnitt 2.2 dargestellt, ein oder zwei Displays vor einem oder beiden Augen des Nutzers. Allerdings liegt der technologische Fokus von HMDs derzeit auf VR, während Datenbrillen auf AR spezialisiert sind.

Im Gegensatz zu HMDs sind Datenbrillen nicht dazu gedacht, nur als Display zu dienen. Wie der englische Name Smart Glasses andeutet, sind sie eher als eine Art Smartphone anzusehen, das der Nutzer wie eine Brille trägt. Entsprechend verfügen Datenbrillen über zusätzliche Hardware, die es ihnen erlaubt, vollständig unabhängig von anderen Computern/Systemen zu arbeiten. Datenübertragung wird über WLAN und Bluetooth ermöglicht. Die Hardware ist in der Regel im Brillen- oder Kopfbügel verbaut. Wie auch Smartphones verfügen Datenbrillen über ein eigenes Betriebssystem, bei welchem es sich in der Regel um Android handelt60. Eine Ausnahme bildet hierbei die Microsoft HoloLens, welche Windows 10 als Betriebssystem nutzt61.

Was Display und Steuerung angeht, hat sich noch kein Standard etabliert. Bei den Displays existieren sowohl monokulare als auch binokulare Modelle, wobei Microsoft selbst die Anzeige der HoloLens mit zwei Displays als stereoskopisch bezeichnet62. Sowohl OST als auch VST finden sich, wobei VST jedoch mehr im Bereich der VR-Brillen angesiedelt ist.

Für die Steuerung stellen die meisten Brillen ein Touchpad bereit, aber auch Sprachsteuerung, Handgesten, Eyetracking, sowie Eingabe über externe Geräte oder AR-Menüs beziehungs- weise AR-Tastaturen sind vertreten. Weitere Steuerungsmöglichkeiten wie Bilderkennung über QR-Codes, Marker, etc. sind möglich. Tabelle 3.1 zeigt einen Vergleich einiger aktueller Datenbrillen.

Tabelle 3.1 Vergleich aktueller Datenbrillen

Abbildung in dieser Leseprobe nicht enthalten

3.2.2 Unterschied zu anderen mobilen Endgeräten

Trotz ähnlicher Technologien unterscheiden sich Datenbrillen grundlegend von anderen aktuellen mobilen Geräten, wie in erster Linie Tablets und Smartphones, aber auch Laptops (Notebooks, Netbooks, Ultra-Mobile PCs (UMPC), etc.) oder Wearables wie Smartwatches74. Da Smartwatches im Gegensatz zu Datenbrillen, welche auch auf sich allein gestellt einen großen Funktionsumfang bieten, rein als Ergänzung zu einem Smartphone gedacht sind75, wird hier nicht weiter auf sie eingegangen.

Der grundlegende Unterschied zwischen Datenbrillen und den anderen oben genannten Geräten besteht darin, dass Smart Glasses dazu gedacht sind, dass ihr Bildschirm dauerhaft im Sichtfeld des Nutzers positioniert ist, ohne dass dieser ihn dabei aktiv festhalten muss. Somit hat der Träger bei der Nutzung einer Datenbrille beide Hände frei, während für Smartphones, Tablets und Laptops ein bis zwei Hände benötigt werden, um sie so mit sich zu führen, dass der Bildschirm einsehbar ist. Diese freihändige Bedienung („hands free“) wird als der größte Vorteil von Datenbrillen angepriesen, da sie effektiveres Arbeiten ermöglichen soll76.

Durch die unterschiedliche Tragweise ergibt sich zwangsläufig ein erheblicher Unterschied in der Steuerung.

Bei den anderen, oben genannten Geräten gibt es einfache Möglichkeiten, auf dem Bildschirm angezeigte Objekte direkt auszuwählen. Befinden sich dort etwa sechs Schaltflächen, kann jede beliebige davon durch einen direkten Klick (durch Berührung der Touch-Oberfläche oder Klick mit einer Maus oder einem Touchpad) ausgewählt werden.

Diese direkte Art der Interaktion ist mit den allermeisten Datenbrillen nicht möglich, da bisher, außer bei der Blicksteuerung der Microsoft HoloLens, keine Möglichkeit existiert, direkt Objekte in einem Datenbrillendisplay auszuwählen. Eine Berührung von Anzeigen im Display ist nicht möglich, da das Display sowohl im Verhältnis zu Fingern zu klein ist, als auch so getragen wird, dass eine direkte physische Betätigung einer Schaltfläche nicht möglich ist. Mauszeiger existieren (bis auf den Cursor besagter Blicksteuerung) nicht. Ihre genaue Steuerung und Positionierung durch ein kleines, an der Seite der Brille befindliches Touchpad wäre sehr schwierig.

Daher werden, wie bereits in Abschnitt 3.2.1 erwähnt, andere Methoden der Steuerung ver- wendet. Die Auswahl des gewünschten Objektes muss hier anders erfolgen, als die Nutzer es bisher von ihren mobilen Endgeräten gewohnt sind. Die einfachste und direkteste Methode ist dabei, wenn Schaltflächen per AR in den Raum projiziert werden und der Brillenträger die gewünschte ‚in der Luft‘ berührt. Da er jedoch faktisch nur in der leeren Luft agiert, fehlt das haptische Feedback darüber, ob nun eine Schaltfläche ausgelöst wurde oder nicht, sofern die Schaltflächen nicht bewusst auf eine Oberfläche projiziert werden. Sollte dann nicht sofort optisches oder akustisches Feedback gegeben werden, kann das dazu führen, dass der Nutzer die gleiche Schaltfläche mehrmals auswählt. Ein ähnliches Problem besteht mit Handgesten im Generellen. Diese müssen zuerst vom System erkannt werden, bevor die Software auf sie reagieren kann. Lässt das Feedback zu lange auf sich warten, ist davon auszugehen, dass es zu Fehleingaben kommt, weil der Nutzer die Geste wiederholt oder eine andere versucht.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.8 Konzept für AR-Tastatur79

Auch die Eingabe von Daten gestaltet sich schwieriger. Laptops verfügen über eine ein- gebaute Tastatur, Smartphones und Tablets blenden eine auf ihrem Touchbildschirm ein. Datenbrillen hingegen müssen wieder auf andere Methoden ausweichen. Hier besteht die Möglichkeit, eine AR-Tastatur für den Nutzer anzuzeigen, auf welcher er seine Eingaben tätigen kann77, wie Abbildung 3.8 ein Konzept für eine zeigt. Alternativ besteht die Möglichkeit, die Datenbrille doch wieder mit einem Smartphone zu koppeln und auf diesem Eingaben über die Touch-Tastatur zu tätigen78. Zusammenfassend lässt sich festhalten, dass sich Datenbrillen darin, wie sie getragen und bedient werden, grundlegend von anderen mobilen Endgeräten unterscheiden.

3.2.3 Beispielhafte Vorstellung der Vuzix M100

Nachfolgend wird die für den praktischen Teil der Arbeit verwendete Datenbrille Vuzix M100 genauer vorgestellt.

Dieses in Abbildung 3.9 gezeigte Gerät kam im Dezember 2013 auf den Markt81. Das ver- wendete Betriebssystem ist Android 4.0.4 (API 15, ‚Ice Cream Sandwich‘) und kann nicht geändert werden. Das Display ist, wie auf dem Bild erkennbar, monokular und VST. Die Brille verfügt über ein WQVGA-Display, was einer Auflösung von 432 × 240 Pixeln entspricht. Verbaut ist ein ARM Cortex-A9 Dual-Core-Prozessor (OMAP4430) mit einer Taktfrequenz von 1 GHz, 1 GB RAM sowie 4 GB internem Flash-Speicher. Ferner besitzt die Brille eine 5 Megapixel Kamera, ein Störgeräusche herausfilterndes Mikrofon und einen Lautsprecher (mit Letzterem hebt sie sich von der bekannteren Google Glass ab, welche Töne per Kno- chenschall überträgt). Für die Datenübertragung bietet die Vuzix M100 WLAN 802.11b/g/n, Bluetooth 4.0 sowie eine Kabelverbindung per USB an82. Um sie tragen zu können, muss sie auf dem Gestell einer gewöhnlichen Sehhilfe befestigt werden. Alternativ ist eine Befestigung

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3.9 Vuzix M100 grau auf Brillengestell80

auf einer beiliegenden Schutzbrille oder einem Kopfbügel, der aber extra bestellt werden muss, möglich. Sie kann sowohl vor dem linken als auch dem rechten Auge positioniert werden. Im Lieferumfang sind zwei Brillengestelle (eine normalen Brille, die jedoch nicht die in Abbildung 3.9 gezeigte ist, und die bereits erwähnte Schutzbrille) enthalten. Beide können wahlweise mit Sehstärke bestellt werden, sodass die M100 auch für Fehlsichtige nutzbar ist. Ein externer Akku zählt ebenfalls zum Lieferumfang.

Für die Datenbrille stehen drei Steuerungsmöglichkeiten zur Verfügung: Sprachsteuerung, Gestensteuerung und Steuerung über vier Bedienknöpfe.

Der Gestensensor befindet sich seitlich auf dem Displaykopf der M100. Auf Abbildung 3.9 ist er als die linke der drei Vertiefungen erkennbar. Der Sensor identifiziert sechs Gesten: vor, zurück, hoch, runter, zum Sensor hin und vom Sensor weg.

Die Sprachsteuerung erkennt insgesamt 417 englische Begriffe (einige sind Varianten vonein- ander wie „move left“ und „move right“), die in mehreren, thematisch sortierten Sprachbi- bliotheken vorliegen. Ganze Sätze werden nicht erkannt. Neue, das heißt weitere, Begriffe können nur vom Hersteller selbst gegen Bezahlung hinzugefügt werden83. Die Bedienknöpfe befinden sich auf dem hinteren Teil der Brille, drei auf der Oberseite, einer auf der Unterseite. Wird die Brille links getragen, befinden sich die drei Bedienknöpfe folglich auf der Unterseite, der einzelne auf der Oberseite. Die drei Knöpfe sind mit jeweils zwei Funktionen (kurzer Knopfdruck und langer Knopfdruck) belegt, der einzelne mit dreien (kurzer Knopfdruck, langer Knopfdruck und 10-Sekunden-Druck). Die drei Knöpfe dienen primär der Steuerung (kurz gedrückt: vor/rechts, zurück/links, auswählen; lang gedrückt: Menü, Home, zurück), der einzelne ist der Aus-Knopf (kurz gedrückt: Stand-by; lang gedrückt: ausschalten; 10 Sekunden: Reset)84.

Das Nachfolgemodell, die M300, sollte Ende November 2016 auf den Markt kommen85. Anfang 2017 war sie auf der Webseite von Vuzix noch immer nicht erhältlich.

Neben generellen technischen Verbesserungen, die Tabelle 3.1 entnommen werden können, ist der auffallendste Unterschied zur M100, dass die M300 nicht mehr über einen Gestensensor verfügt. Vuzix verbaut stattdessen, wie die meisten anderen Hersteller auch, ein Touchpad, das sich an der Seite des Gehäuses befindet. Die Brille selbst ist fest mit ihrem Tragegestell verbunden.

3.2.4 Technische Beschränkungen

Eine der schwerwiegendsten Beschränkungen aller Datenbrillen ist die Akku-Laufzeit. Diese kann zwar durch die Nutzung von externen Akkus erheblich verlängert werden, dies be- deutet jedoch, dass ein zusätzliches Gerät mitgeführt werden muss. Ein weiteres, allerdings eher subjektiv empfundenes Problem entsteht, wenn eine Brille während des Ladevorgangs hörbar summt, da sie in direkter Nähe des Ohres getragen wird.

Die Problematik der Akku-Laufzeit lässt sich auch daran erkennen, dass diese auch bei heutigen Smartphones oftmals ein Problem darstellt, das bisher nicht lösbar ist86. Der letzte bekannt gewordene Versuch, das Problem der kurzen Akku-Laufzeit zu lösen, führte zu explodierenden Smartphones87.

Gewicht und Tragekomfort sind in diesem Zusammenhang weitere wichtige Faktoren, wel- che die Technik der Brille beschränken. Ein größerer Akku beispielsweise würde mehr Platz einnehmen und zusätzliches Gewicht bedeuten und so die Brille nicht nur unhand- licher machen, sondern auch den Tragekomfort durch die zusätzliche Gewichtsbelastung verringern. Eine zusätzliche externe Stromversorgung über Kabel wäre nur an stationären Arbeitsplätzen eine Lösung, bei einer mobilen Nutzung jedoch nicht praktikabel. Zudem sind einige Datenbrillen mit manchen verbreiteten Brillengestellen gewöhnlicher Sehhilfen nicht kombinierbar.

Speziell die Datenbrillen der ersten Generation, aber auch die neue Vuzix M300, weisen, wie Tabelle 3.1 entnommen werden kann, als weitere Beschränkung einen sehr kleinen Bildschirm mit geringer Auflösung auf. Größere oder detailreichere Bilder können darauf nicht vollständig angezeigt werden.

Durch die Vielzahl an Datenbrillen verschiedener Hersteller, welche in letzter Zeit auf den Markt gekommen sind, ergeben sich entsprechende Herausforderungen in der App- Entwicklung, beispielsweise die vielfältigen Unterschiede in der Steuerung und den dafür benötigten Bibliotheken. Die Google Glass besitzt ihr eigenes Software Development Kit (SDK), die unterschiedlichen Vuzix-Brillen haben jeweils ein eigenes SDK und auch neue Brillen wie die Epson Moverio BT-300 stellen jeweils ihr eigenes zur Verfügung. Somit müssen Apps für jede Datenbrille einzeln entwickelt werden. Hinzu kommen Brillen wie die HoloLens, deren Betriebssysteme nicht auf Android basieren.

Somit müssen Apps, die auf mehreren unterschiedlichen Brillen laufen sollen, jeweils an- gepasst und gegebenenfalls umgeschrieben werden und bei Apps, die für Smartphones

Abbildung in dieser Leseprobe nicht enthalten

(a) Microsoft HoloLens88

Abbildung in dieser Leseprobe nicht enthalten

(b) Epson Moverio BT-30089

Abbildung 3.10 Vergleich zweier neuer Datenbrillen

gedacht sind, muss damit gerechnet werden, dass sie auf den Brillen aufgrund der Steuerung überhaupt nicht bedienbar sind. Ansonsten treffen die üblichen Beschränkungen, die bei anderen Elektrogeräten gelten, auch auf Datenbrillen zu.

3.2.5 Aktuelle technische Entwicklungen

Werden die 2016 angekündigten beziehungsweise auf den Markt gebrachten Datenbrillen betrachtet, fällt der erhebliche Sprung in der technischen Entwicklung auf, der im Vergleich zu den Smart Glasses der ersten Generation erfolgt ist. Es ist davon auszugehen, dass diese Entwicklung auch weiterhin andauern wird, denn für ein technisches Gerät, dessen primäre Funktion es ist, dem Nutzer Daten anzuzeigen, ist ein gutes Display ein wichtiges Verkaufsargument.

Die Bildschirme verfügen nicht nur über eine bessere Auflösung, sondern immer häufiger auch über binokulare Displays. Die bereits erwähnte HoloLens ist ein Beispiel für eine solche Brille90. Bei den aktuell auf dem Markt befindlichen, sowie jenen Datenbrillen, die demnächst auf dem Markt kommen sollen, dominieren Optical See-Through-Displays91. Es ist anzunehmen, dass sich die Art und Weise der Bedienung vereinheitlichen wird, sobald sich aufgrund einer größeren Anzahl verkaufter Brillen und damit steigender Erfahrungswer- te herauskristallisiert hat, welche Art der Steuerung bevorzugt wird. Die Sprachsteuerung ist heute schon bei den meisten überprüften Datenbrillen verfügbar und wird vermutlich auch in Zukunft weiterhin eine Standard-Bedienungsart bleiben.

In diesem Zusammenhang besteht die Möglichkeit, dass sich Datenbrillen auf verschiedene Bereiche spezialisieren werden. Die Ansätze sind heute bereits erkennbar, wenn die Unter- schiede zwischen der Microsoft HoloLens, deren Zielgruppe Unternehmen sind92, und der Epson Moverio BT-300, die sich an den privaten Nutzer richten soll93, betrachtet werden. Das spiegelt sich auch im Design der beiden Brillen wieder. Die in Abbildung 3.10a dargestellte HoloLens ist groß und wiegt 579 g, hat dafür aber vier Mikrophone, fünf Kameras und einen eigenen, neu entwickelten Grafikprozessor, die Holographic Processing Unit (HPU)94. Die BT-300 hingegen ist kleiner und im Alltag unauffälliger. Des Weiteren wirbt Epson damit, dass die BT-300 mit ihren 129 g die leichteste binokulare Datenbrille am Markt ist95.

3.2.6 Anwendungsbeispiele

Der Einsatz von Datenbrillen im Beruf oder Alltag ist derzeit noch als sehr gering zu be- zeichnen. Auch nach längerer Suche konnte keine einzige Firma gefunden werden, die Datenbrillen im großen Stil in ihrem Unternehmen einsetzt. Zwar verkündete Volkswagen 2015, Datenbrillen nun im Serieneinsatz zu haben, schrieb jedoch in der gleichen Pressemit- teilung, dass der Einsatz der Datenbrille auf freiwilliger Basis erfolge und „aktuell [. . . ] 30

Mitarbeiterinnen und Mitarbeiter in verschiedenen Bereichen wie der Frontscheibe oder der Gelenkwellen mit der Datenbrille“96 arbeiten. Seitdem gibt es keine weiteren Berichte mehr über den Einsatz von Datenbrillen bei Volkswagen.

Das bekannteste Einsatzgebiet für Datenbrillen ist Pick-by-Vision. Dabei handelt es sich nach Prof. Dr.-Ing. Dipl.-Wi.-Ing. Willibald Günthner et al. um AR-gestützte, „mobile, situationsab- hängige Informationsbereitstellung in visueller Form zur Leistungs- und Qualitätssteigerung in der Kommissionierung“97. Einfach ausgedrückt, hilft Pick-by-Vision bei der Kommissio- nierung (Pick), also der Zusammenstellung von Gütern oder Waren nach Vorgabe durch im Datenbrillen-Display angezeigte optische Signale (Vision), wie etwa Pfeile, die den Weg weisen (Wegoptimierung) oder die eingeblendete Stückzahl, die von einer Ware entnom- men werden soll. Hierfür eignen sich Datenbrillen besonders gut, da ihr Display immer im Blickfeld des Nutzers ist, um Informationen anzuzeigen, der Nutzer trotzdem beide Hände für die eigentliche Kommissionierung frei hat und die Datenbrille ihn dabei nicht behindert. Die Waren verfügen über einen Strich- oder QR-Code, der von der Kamera der Brille erfasst und verarbeitet wird. Beispiele für den erfolgreichen Einsatz von Pick-by-Vision in Pilotprojekten finden sich mehrere. Entsprechende Software existiert bereits, etwa die von den in Deutschland ansässigen Unternehmen Picavi GmbH98 und Ubimax GmbH99, sowie der nach zwei Jahren Entwicklung fertiggestellte ‚Mobile App SAP AR Warehouse Picker‘, welcher von der Bechtle AG, in Zusammenarbeit mit der SAP SE, entwickelt wur- de100. All diese Software ist jedoch noch nicht die ‚perfekte‘ Pick-by-Vision-Software, wie sie oben beschrieben wurde. Statt dass etwa der Weg dem Träger direkt eingeblendet wird, wird nur „gehen Sie zum Lagerplatz X“ angezeigt und dem Träger die Wegfindung selbst überlassen101. Auch die Mitbewerber-Firma KBU-Logistik stellt in einer Veröffentlichung im November 2016 fest, dass die aktuellen Datenbrillen aufgrund verschiedener Hardware- beschränkungen bei Pick-by-Vision noch nicht über eine Pilotphase hinausgekommen sind102.

Anfang 2015 berichtete DHL in einer Pressemitteilung davon, eine 25 %ige Effizienzsteige- rung bei einem testweisen Einsatz von Datenbrillen mit zehn Mitarbeitern erzielt zu haben. Ein weiterer Ausbau des Einsatzes von Datenbrillen würde überprüft103. Es folgten allerdings keine weiteren Berichte über den Einsatz von Datenbrillen bei DHL, jedoch präsentierte Post-Chef Frank Appel im Juli 2016 die Idee, auch Briefträger mit Datenbrillen auszustatten. Diese sollen Briefträgern die Briefkasten- und Adressenfindung in unbekannten Zustellge- bieten erleichtern104. Auch hier erfolgte bisher keine weitere Meldung, was eventuell darin begründet sein könnte, dass Datenbrillen nach Herstellerangaben nicht regenfest sind.

Im privaten Bereich hat sich die Nutzung von Datenbrillen bisher kaum durchgesetzt. Der Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom) hat 2013 in einer repräsentativen Umfrage ermittelt, dass 7 % der Befragten sich damals schon sicher waren, dass sie eine Datenbrille nutzen werden, wobei unter den 14- bis 29-Jährigen sogar 12 % angaben, auf jeden Fall eine Datenbrille tragen zu wollen. Insgesamt konnten sich 19 % der Befragten vorstellen, eine Datenbrille zu nutzen105. Eine weitere Studie kam 2015 zu einem ähnlichen Ergebnis. Hier gaben 17 % der Befragten an, auf jeden Fall eine Datenbrille nutzen zu wollen. Unter den 14- bis 29-Jährigen war die Zahl sogar auf 57 % gestiegen. 38% aller Deutschen konnten sich nun vorstellen, eine Datenbrille zu nutzen106. Dennoch findet sich in der Öffentlichkeit so gut wie niemand, der eine Datenbrille trägt.

3.3 Zusammenfassung

Die Idee hinter Datenbrillen ist nicht neu, auch wenn sie erst vor kurzem in den Fokus der öffentlichen Aufmerksamkeit gerückt sind. Aus technischer Sicht handelt es sich dabei eher um eine Weiterentwicklung der bereits seit Ende der 60iger Jahre bekannten Head-Mounted Displays, als um eine neue Erfindung. HMDs benötigen verbundene Endgeräte, denen sie lediglich als Display dienen, während Datenbrillen über eigene Rechenhardware und Eingabemöglichkeiten verfügen.

Somit sind sie in gewissen Teilen mit mobilen Endgeräten wie Smartphones und Tablets vergleichbar, auch wenn sie sich dadurch, wie sie vom Nutzer getragen und bedient werden, stark von diesen Geräten unterscheiden. Augmented Reality ist eine vergleichsweise junge Technologie, zumindest wenn der Begriff auf computergenerierte AR beschränkt wird. Dennoch finden sich breite Anwendungsgebie- te, in denen sie heute erfolgreich eingesetzt wird - sowohl für stationäre wie auch mobile AR. Dabei gibt es nicht den einen Aufbau von AR-Systemen. Jedes System verfügt, je nach Bedarf, über Sensoren und Marker. Einzig über ein Ausgabegerät verfügen alle Varianten.

Der Begriff der Datenbrille wird heute noch sehr unterschiedlich interpretiert: Regelmäßig werden HMDs, die als Anzeige für Smartphone-Bildschirme dienen sollen, als Datenbrillen bezeichnet und auch VR-Brillen fallen immer wieder unter die Sammelbezeichnung der Smart Glasses, obwohl auch sie nur als Ausgabegerät fungieren, für einen anderen Anwen- dungsbereich gedacht sind und ihr technischer Aufbau sich entsprechend unterscheidet. Die große Formenvielfalt der heutigen Brillen hilft nicht dabei, ein einheitliches Bild zu erzeugen. Auch wenn der Begriff ‚Brille‘ eine bestimmte Form impliziert, sind bei weitem nicht alle Datenbrillen binokulare OST-Displays - oder zumindest von außen nicht als solche erkennbar. Die Microsoft HoloLens etwa erinnert aufgrund des getönten Kunststoffvisieres, hinter dem das eigentliche Display verborgen ist, auf den ersten Blick eher an gängige VR-Brillen.

Wie alle mobilen Endgeräte unterliegen auch Datenbrillen technischen Beschränkungen, wie beispielsweise der Akku-Laufzeit oder der Auflösung des Displays. In Zukunft können sich Design, Art der Befestigung am Kopf, Steuerungsmöglichkeiten und Hardware am Einsatzgebiet der jeweiligen Datenbrille orientieren, wenn die Vor- und Nachteile der verschiedenen Display- und Steuerungsarten besser mit der jeweiligen Aufgabe abgeglichen werden können. Allgemein kann davon ausgegangen werden, dass neben der Erhöhung der generellen Hardwareleistung weiterhin versucht werden wird, die Akku- Laufzeit zu verlängern, den Tragekomfort zu erhöhen und das Gewicht zu reduzieren.

4 Anwendungskontext

4.1 Umgebung und Umfeld

Die Verwendung von Datenbrillen bietet sich grundsätzlich überall da an, wo zusätzliche Informationen für gegebene Arbeitsprozesse benötigt werden. Dabei scheinen sie auf den ersten Blick nicht nur für den Innen-, sondern auch für den Außenbereich geeignet zu sein und sich für Arbeiten zu eignen, an denen keine große Ablagefläche zur Verfügung steht und für die beide Hände benötigt werden.

Bei näherer Überlegung schränken Umwelteinflüsse die Verwendung von Datenbrillen jedoch ein. Hier kann zum Beispiel das Wetter, speziell auch die Luftfeuchtigkeit, ein Problem darstellen. Auch wenn keine Untersuchungen zu diesem Thema gefunden wer- den konnten, muss davon ausgegangen werden, dass die Brillen keinen Regen vertragen. Outdoor-Datenbrillen sind, im Gegensatz zu den entsprechenden Smartphones, derzeit noch nicht auf dem Markt oder auch nur angekündigt. Zwar gibt es Berichte von einzelnen Nutzern, die ihre Google Glass sogar in der Dusche getragen haben107, jedoch weisen die Sicherheitshinweise der Brillen (z.B. Vuzix M100108, Epson BT-200109, etc.) explizit darauf hin, dass die Brille keinen Kontakt mit Flüssigkeiten haben soll.

Dr.-Ing. Dennis Krannich listet in Mobile System Design zusätzlich zu der oben genannten Feuchtigkeit noch Staub, Geräusche, Lichtverhältnisse, Ort und Objekte (Verkehrsdichte, Personen) als relevante Umweltfaktoren auf110. Staub kann, wie auch Luftfeuchtigkeit, die Funktionalität der Datenbrille einschränken. Laute Geräusche können verhindern, dass der Nutzer akustisches Feedback wahrnimmt. Einschränkende Lichtverhältnisse sind bei Datenbrillen besonders Gegenlicht. Während Reflexionen auf dem Bildschirm durch die

Nähe zum Auge eher kein Problem darstellen, kann speziell bei Optical See-Through (OST) nicht verhindert werden, dass Gegenlicht blendet. Da die Datenbrillen den Platz einer nor- malen Brille einnehmen, ist eine Kombination mit einer Sonnenbrille nur bedingt möglich. In dunklen Räumen kann der Bildschirm blenden, der Inhalt in sehr heller Umgebung hingegen, je nach Bildschirmqualität, schlecht erkennbar sein. Auch die Kamera benötigt entsprechende Lichtverhältnisse. Ebenso erschweren reflektierende Oberflächen, wie etwa Schnee, die korrekte Bilderkennung111.

Zuletzt sind auch Aufenthaltsort und in der Umgebung befindliche Objekte relevant. Kran- nich spricht in diesem Zusammenhang davon, dass etwa die Anwesenheit anderer Personen stören kann oder eine erhöhte Verkehrsdichte die volle Aufmerksamkeit des Nutzers für sich beansprucht112, sodass eine sichere Bedienung anderer Geräte nicht mehr möglich ist.

Die Akku-Laufzeit von Datenbrillen ist in der Regel sehr kurz. Daher ist die Möglichkeit der Stromversorgung ein wichtiges Argument, wenn es darum geht, die Nutzbarkeit von Daten- brillen für einen Anwendungsbereich zu evaluieren. Die HoloLens gibt eine Akku-Laufzeit von zwei bis drei Stunden an113, die Moverio BT-300 sechs114. Vuzix hält sich bei seinen beiden neuen Datenbrillen M300115 und M3000116 sehr bedeckt und gibt eine Akku-Laufzeit von zwei bis zwölf Stunden, abhängig vom gewählten externen Akku, an. Mit einem externen Akku mag es möglich sein, eine Brille während eines normalen, achtstündigen Arbeitstages mit Strom zu versorgen, aber wie auch bei Smartphones und Tablets verbrauchen GPS und Kamera (für AR oder QR-Code-Leser), sowie rechenaufwendige Apps zusätzlichen Strom. Somit sind Datenbrillen zumindest aktuell nicht dafür geeignet, länger als einen halben Tag ohne neues Aufladen genutzt zu werden. Für längere Einsätze ohne Zugriff auf ein Stromnetz sind Datenbrillen somit nur nutzbar, wenn der Nutzer ein bis zwei externe Akkus pro Tag zur Verfügung hat.

Wird Internetzugriff benötigt (z. B. um Daten abzugleichen oder Kontakt mit dem Support aufzunehmen), ist auch die Verfügbarkeit von WLAN ein nicht zu vernachlässigender Faktor, der heutzutage jedoch an Bedeutung verliert, da inzwischen fast jedes Smartphone in der Lage ist, seinen eigenen Hotspot zu öffnen.

4.2 Dargestellter Inhalt

Speziell die Datenbrillen der ersten Generation verfügten über sehr kleine Displays, wo- durch die Größe des dargestellten Inhalts stark beschränkt wurde. So hatte die Google Glass lediglich eine Anzeigengröße von 640 × 360 Pixeln. Die Auflösung der Vuzix M100 war mit 432 × 240 Pixeln sogar noch geringer. Neuere Datenbrillen haben die Anzahl an Pixel jedoch oftmals erheblich erhöht. Entsprechend verfügen sie über ausreichend Platz, um auch größere Bilder und längere Texte anzuzeigen. Hier kann jedoch die durchsichtige Qualität der OST-Displays ein Hindernis darstellen, da die virtuellen AR-Objekte die Realität zum Teil nicht vollständig überdecken. So zeigt Abbildung 4.1 das AR-Menü der Microsoft HoloLens. Der Hintergrund wird dabei aus einer weißen Wand und einem dunklen Poster gebildet. Die dunkle Kante des Posters ist auch durch das Menü hindurch noch erkennbar. Derartige teilweise Überlagerungen könnten sich speziell beim Lesen längerer Texte oder bei sehr detailreichen Bildern als störend erweisen.

Die Darstellung der AR ist eine besondere Herausforderung. Dazu ist nicht nur mindestens eine Kamera notwendig, welche das Blickfeld des Nutzers wahrnimmt, sondern auch die entsprechende Software für die Berechnung der korrekten und exakt platzierten AR-Anzeige im Display. In diesem Zusammenhang nennt Tönnis allerdings in Augmented Reality: Einblicke in die Erweiterte Realität Schwimmeffekte, Verdeckung und Jitter als Beispiele für Probleme. „Schwimmeffekte nennt man die Erscheinung, dass das reale Bild und die überlagerten virtu- ellen Bilder nicht exakt vom selben Zeitpunkt stammen und damit versetzt sein können. Im Allgemeinen entsteht dieser Effekt durch die Laufzeit der Signale durch das Trackingsystem,

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4.1 Durch das AR-Menü der Microsoft HoloLens durchscheinender Hintergrund117

die Verarbeitung im Computer und die zum Rendern benötigte Zeit.“118. Entsprechend tritt dieser Effekt nicht auf, wenn sowohl Kamera als auch Marker stillstehen. Ein Beispiel für Schwimmeffekte wäre ein virtuelles Objekt, das über einem QR-Code-Marker im Raum angezeigt wird. Wird der Marker bewegt (entweder direkt oder indirekt durch Bewegung der Kamera), folgt das virtuelle Objekt ihm erst mit leichter Verzögerung. Für den Träger der Datenbrille kann dies, vor allem bei Kippbewegungen des Kopfes wie Nicken oder seitlichem Neigen, zu einer Störung des Gleichgewichtssinnes und somit zu Schwindel und Übelkeit führen. Diese Auswirkungen werden auch Simulatorkrankheit genannt119. In diesem Zusam- menhang wird auch von visuell induzierter Bewegungskrankheit (visually induced motion sickness) gesprochen, welche mit See- oder Reisekrankheit, also der Bewegungskrankheit auf Schiffen, im Auto oder in Flugzeugen, vergleichbar ist120. Schwimmeffekte treten vor allem bei OST-Displays auf, da VSTs dadurch, dass die gesamte Anzeige computergeneriert ist, die Anzeige leichter korrigieren können. Prof. Jannick Rolland, Prof. Richard Holloway und Prof. Dr. Henry Fuchs begründen dies wie folgt:

„One of the major advantages of video see-through HMDs is the capability of enforcing registration of the real and synthetic images. In other words, because the system has access to both the real and synthetic images, it can manipulate them in space or in time in order to register them.“121

Das zweite von Tönnis angesprochene Problem ist die falsche Verdeckung, die entstehen kann, wenn sich reale und virtuelle Objekte überlagern, denn in der Regel wird das virtuelle Objekt vor alle realen Objekte projiziert, auch wenn das reale Objekt eigentlich vor dem

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4.2 Ungewollte Überlagerung der Realität mit einem AR-Objekt122

virtuellen liegen sollte. „Das wirkt für den Benutzer irritierend und erschwert die Arbeit mit dem System. Es ist schwer, den richtigen Tiefeneindruck zu erhalten, da durch die falsche Verdeckung immer zusätzlich eingeschätzt werden muss, wo eigentlich welches Objekt gegenüber welchem liegt“123. Abbildung 4.2 zeigt eine AR-Teekanne. Um den Marker zu überdecken, wird auch eine virtuelle Tischplatte erzeugt, die wiederum auch die den Marker haltende Hand überdeckt und somit den Eindruck erweckt, mitten im Raum zu schweben und nicht mehr auf dem eigentlichen Tisch zu stehen.

Zuletzt nennt Tönnis Jitter, ein ‚Wackeln‘ des virtuellen Objektes, welches auftreten kann, wenn die Software die Position falsch berechnet. Dies passiert vor allem, wenn „bei bild- verarbeitenden Systemen [. . . ] das reale Bild in Pixel gerastert [wird]. Liegt ein Punkt des Markers fast in der Mitte zwischen zwei Pixeln, reicht die kleinste Bewegung, um diesen Punkt von einem Pixel in den anderen springen zu lassen. Je nach Algorithmus wird die Position des Markers anders berechnet, ein Sprung kann entstehen“124.

Zusammenfassend ist festzuhalten, dass zum Zeitpunkt dieser Arbeit die Auflösung aktueller Datenbrillen weit genug fortgeschritten ist, um einfachen Inhalt wie einzelne Bilder oder Text darzustellen. Jedoch muss beachtet werden, dass die Realität durch die virtuellen Objekte einer OST-Brille durchscheinen kann und störende Effekte bei der Darstellung von AR-Objekten auftreten können. VST-Brillen können einige dieser Probleme besser lösen, dafür weisen sie jedoch eine unvermeidbare Latenzzeit bei der Anzeige auf. Diese beträgt in der Regel 60 bis 180 Millisekunden125.

[...]


1 vgl. Glass Almanac, The History of Google Glass.

2 Schwenke, „Schnittstellen zum „Cyborgspace“ - Erkenntnisse zu Datenbrillen nach Ende des „Google Glass“Experiments“, S. 161.

3 KBU Logistik GmbH, „Die Zukunft des Kommissionierens“, S. 12.

4 Gillies, Die Datenbrille revolutioniert das Wirtschaftsleben.

5 KBU Logistik GmbH, Datenbrillen revolutionieren die Arbeitswelt.

6 Gartner, Gartner Says Smartglasses Will Bring Innovation to Workplace Efficiency

7 Gartner, Gartner’s 2015 Hype Cycle for Emerging Technologies Identifies the Computing Innovations That Organizations Should Monitor

8 Gartner, Gartner’s 2015 Hype Cycle for Emerging Technologies Identifies the Computing Innovations That Organizations Should Monitor.

9 vgl. McGee, Google Shuts Down Explorer Program, Reorganizes Glass Project.

10 vgl. Peckham, Project Aura is the confusing new name for Google Glass.

11 Azuma, „A survey of augmented reality“, S. 2

12 Tümler, Untersuchungen zu nutzerbezogenen und technischen Aspekten beim Langzeiteinsatz mobiler Augmented Reality Systeme in industriellen Anwendungen, S. 7

13 Chin, Now available: eDrawings for iOS with Augmented Reality

14 vgl. Sutherland, „The Ultimate Display“, S. 1 f.

15 ITWissen.info, Virtuelle Realität.

16 Nölle, Augmented Reality als Vergleichswerkzeug am Beispiel der Automobilindustrie, S. 4

17 vgl. Melzer, „Head-Mounted Displays“, S. 5-3 f.

18 Stocker et al., „Datenbrillengestützte Checklisten in der Fahrzeugmontage“, S. 1.

19 Bendel, Definition »Datenbrille«.

20 vgl. Sutherland, „A Head-mounted Three Dimensional Display“, S. 757 ff.

21 ebd., S. 760

22 vgl. Bayer, Rash und Brindle, „Introduction to Helmet-Mounted Displays“, S. 47.

23 Azuma, „A survey of augmented reality“, S. 11

24 ebd., S. 11

25 vgl. Wilson, Head-mounted Displays and New Technologies for Firefighting and Rescue in a Post 9/11 World, S. 179.

26 vgl. Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 23 f.

27 vgl. Azuma, „A survey of augmented reality“, S. 10 ff.

28 vgl. Rolland und Fuchs, „Optical Versus Video See-Through Head-Mounted Displays in Medical Visualization“.

29 vgl. Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 4.

30 vgl. Tegtmeier, Augmented Reality als Anwendungstechnologie in der Automobilindustrie, S. 14.

31 vgl. Färber, Augmented Reality, S. 1 ff.

32 Korat, Augmented Reality

33 Advanced Realtime Tracking GmbH, Glasses Targets

34 vgl. iBeacon.com, What is iBeacon? A Guide to Beacons.

35 vgl. Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 51.

36 vgl. Comport et al., „Real-Time Markerless Tracking for Augmented Reality“, S. 615.

37 vgl. Caudell und Mizell, „Augmented reality: an application of heads-up display technology to manual manufacturing processes“, S. 660.

38 Hartmann, LuftArchiv.de - Das Archiv der Deutschen Luftwaffe

39 Tümler, Untersuchungen zu nutzerbezogenen und technischen Aspekten beim Langzeiteinsatz mobiler Augmented Reality Systeme in industriellen Anwendungen, S. 8.

40 BMW, What is a BMW Head-Up Display and how can it support your driving?, 00:17

41 Continental Automotive GmbH, Continental Head-up Display Augmented Reality HUD

42 Windemuth, „Mehr Sicherheit durch Anzeigen in der Windschutzscheibe?“, S. 20.

43 vgl. ebd., S. 20.

44 Continental Automotive GmbH, Continental Head-up Display Augmented Reality HUD.

45 Collins, Land Rover Is Using Augmented Reality To Sell Cars That Aren’t There

46 vgl. ebd.

47 vgl. R/GA FutureVision, LEGO Uses AR To Bring Toys To Life In Stores.

48 antjeverena, augmented reality with LEGO

49 The Late Show With David Letterman, Hatsune Miku Sharing The World - David Letterman 2014 10 08, 03:39

50 vgl. Yamaha Corporation, What’s VOCALOID?

51 vgl. Anime News Network, Hatsune Miku’s ’Father’ Hiroyuki Ito Receives Japan Medal with Blue Ribbon.

52 vgl. Taketomi, „Image-Based Geometric Registration for Zoomable Cameras Using Precalibrated Information“, S. 126.

53 Tümler, Untersuchungen zu nutzerbezogenen und technischen Aspekten beim Langzeiteinsatz mobiler Augmented Reality Systeme in industriellen Anwendungen, S. 12

54 vgl. Runde, Head Mounted Displays & Datenbrillen - Einsatz und Systeme, S. 9.

55 Turovsky, Hallo, hola, olá to the new, more powerful Google Translate app

56 vgl. Terminal Eleven, SkyView® Free.

57 vgl. Google, Google Übersetzer.

58 vgl. Inter IKEA Systems B.V., IKEA Katalog.

59 vgl. Wharton School of the University of Pennsylvania, How “Pokemon Go” Took Augmented Reality Mainstream.

60 vgl. Picavi, Technology - Picavi Pick-by-Vision.

61 vgl. Microsoft, Microsoft HoloLens hardware.

62 vgl. Microsoft, Rendering.

63 vgl. VRODO, Google Glass

64 vgl. Vuzix Corporation, Vuzix M100 Smart Glasses Hands-Free Mobile Computing, S. 2

65 vgl. Vuzix Corporation, Vuzix M300 Smart Glasses Hands-Free Mobile Computing, S. 2

66 vgl. Microsoft, Hardware details

67 vgl. Epson, Moverio BT-300

68 vgl. Golem.de, Google Glass in den USA am 15. April für jeden erhältlich

69 vgl. Fingasm, Vuzix’s Android-powered M100 Smart Glasses now available to pre-order for $1,000

70 vgl. Vuzix, M100/M300 Pre-Order Swap Program

71 vgl. Gilbert, Microsoft’s ambitious HoloLens headset ships on March 30

72 vgl. Epson, Epson announces launch of world’s lightest OLED binocular see-through smart glasses, the Moverio BT-300 in Southeast Asia, S. 1 ff.

73 vgl. Microsoft, Rendering

74 vgl. Scholz, Mobile Future: Mobile Endgeräte.

75 vgl. Golem.de, Smartwatch.

76 Ancud IT-Beratung, Hands -- free mit Google Glass.

77 vgl. NEC Corporation, NEC develops new user interface that turns arm into virtual keyboard.

78 vgl. Vuzix Corporation, M100 Smart Glasses Product Guide Enterprise Edition, S. 45.

79 Nikkei Asian Review, Augmented reality: NEC turns arm into virtual keyboard with wearable tech

80 Vuzix Corporation, Product Photos, (Veränderte Darstellung)

81 vgl. Vuzix Corporation, Vuzix M100 Production Model Shipping to Developers and Available for General Preorder - Vuzix M100 Smart Glasses serve up the digital world “hands free”, S. 1.

82 vgl. Vuzix Corporation, Vuzix M100 Smart Glasses Hands-Free Mobile Computing, S. 2.

83 vgl. Vuzix Corporation, Support: Product FAQs.

84 vgl. Vuzix Corporation, M100 Smart Glasses Product Guide Enterprise Edition, S. 19 ff.

85 vgl. Vuzix Corporation, Vuzix Next Generation M300 Smart Glasses Nears Final Regulatory Approvals to Allow Volume Shipments to Commence in November.

86 vgl. Curved, Die Smartphones mit der besten Akkulaufzeit 2016.

87 Kalenda, Samsung ruft Note 7 wegen explodierender Akkus zurück.

88 Microsoft, Microsoft HoloLens hardware

89 S. Stein, Epson’s Moverio BT-300 borrows the best TV tech to create improved smart glasses

90 vgl. Charara, Microsoft HoloLens: Everything you need to know about the $3,000 AR headset.

91 vgl. Dzyre, 10 Forthcoming Augmented Reality & Smart Glasses You Can Buy.

92 vgl. Gulf South Technology Solutions, HoloLens: Microsoft’s Five Year Plan to Conquer Augmented Reality.

93 vgl. S. Stein, Epson’s Moverio BT-300 borrows the best TV tech to create improved smart glasses.

94 Microsoft, Hardware details.

95 vgl. Epson America, Inc., Epson Moverio BT-300 and BT-200 Smart Glasses.

96 Volkswagen AG, Volkswagen bringt 3D-Datenbrille in den Serieneinsatz.

97 Günthner et al., Pick-by-Vision, S. 1.

98 vgl. Picavi GmbH, Lösungen: Smart und Pure - Picavi Pick-by-Vision.

99 vgl. Ubimax GmbH, Ubimax GmbH - Portfolio -- Smart Glasses standardisierte Lösungen wie xPick.

100 vgl. Bechtle AG, Bechtle startet Einsatz von Smart Glasses.

101 vgl. Picavi GmbH, Picavi: Pick-by-Vision Kommissionierung mit Datenbrillen, 02:02.

102 vgl. KBU-Logistik GmbH, Pick by Vision - Software wartet auf Hardware.

103 vgl. Deutsche Post DHL Group, DHL testet erfolgreich Augmented Reality-Anwendung im Lagerbetrieb.

104 vgl. WeltN24 GmbH, Post-Chef will schlaue Datenbrillen für Briefträger.

105 vgl. Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.V. (Bitkom), Datenbrillen finden schon vor Markteinführung Interesse.

106 vgl. Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e. V. (Bitkom), Großes Interesse an den Funktionen von Smart Glasses.

107 vgl. Scoble, Yes, Google Glass survives a wet shower.

108 vgl. Vuzix Corporation, M100 Safety & Warranty, S. 1 f.

109 vgl. Epson, Moverio BT-200 User’s Guide, S. 6.

110 vgl. Krannich, Mobile System Design, S. 78 ff.

111 vgl. Höllerer und Feiner, „Mobile Augmented Reality“, S. 11 f.

112 vgl. Krannich, Mobile System Design, S. 79.

113 vgl. Microsoft, Hardware details.

114 vgl. Epson, Moverio BT-300.

115 vgl. Vuzix Corporation, Vuzix M300 Smart Glasses Hands-Free Mobile Computing, S. 2.

116 vgl. Vuzix Corporation, Vuzix M3000 Smart Glasses Advanced Waveguide Optics, S. 2.

117 Bowden, Microsoft HoloLens Start / UI, 00:30

118 Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 83.

119 vgl. Hellwig, Interaktion mit ubiquitären User-Interfaces, S. 18 f.

120 vgl. Grasnick, 3D ohne 3D-Brille, S. 78.

121 Rolland, Holloway und Fuchs, „A comparison of optical and video see-through head-mounted displays“, S. 5

122 Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 85

123 Tönnis, Augmented Reality: Einblicke in die Erweiterte Realität, S. 84.

124 Ebd., S. 88.

125 vgl. Rolland, Holloway und Fuchs, „A comparison of optical and video see-through head-mounted displays“, S. 5.

Excerpt out of 159 pages

Details

Title
Einsatzmöglichkeiten für Datenbrillen im geschäftlichen Umfeld. Eine Arbeitsplan-App für die Vuzix M100
College
University of Applied Sciences Rosenheim
Grade
1,1
Author
Year
2017
Pages
159
Catalog Number
V374412
ISBN (eBook)
9783668525924
ISBN (Book)
9783668525931
File size
13153 KB
Language
German
Keywords
Datenbrillen, Smart Glasses, Google Glass, Vuzix M100, Erweiterte Realität, Augmented Reality, AR, Mixed Reality, Head-Mounted Display, HMD
Quote paper
Jana Meisinger (Author), 2017, Einsatzmöglichkeiten für Datenbrillen im geschäftlichen Umfeld. Eine Arbeitsplan-App für die Vuzix M100, Munich, GRIN Verlag, https://www.grin.com/document/374412

Comments

  • No comments yet.
Look inside the ebook
Title: Einsatzmöglichkeiten für Datenbrillen im geschäftlichen Umfeld. Eine Arbeitsplan-App für die Vuzix M100
eBook
Free Download! (PDF)



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free