Augmented Reality in der Produktion. Analyse von Frameworks zur Erstellung von Anwendungen ohne Programmierkenntnisse


Masterarbeit, 2020

122 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

1. Einleitung
1.1. Ausgangssituation
1.2. Vorangegangene Studien
1.3. Forschungsfrage
1.4. Ziel der Arbeit
1.5. Vorgehensweise zur Behandlung der Forschungsfrage
1.6. Aufbau

2. Augmented Reality in einer digitalen Produktion
2.1. Die vierte industrielle Revolution
2.1.1. Visionen von Industrie 4.0
2.1.2. Potentiale von Augmented Reality in der digitalisierten Fertigung
2.2. Abgrenzung der erweiterten Realität
2.3. Prozesse zur Realisierung von Augmented RealityAnwendungen
2.3.1. Tracking
2.3.2. Registrierung
2.3.3. Visualisierung und Ausgabe von Augmented Reality

3. Vorangegangene relevante Arbeiten
3.1. Vorgehen Studienauswertung
3.2. Ergebnisse Studienauswertung
3.2.1. Studien über Potentiale und Herausforderungen von Augmented Reality.
3.2.2. Forschungen zum Vergleich von Augmented Reality-Frameworks
3.3. Forschungslücke

4. Integration von Augmented Reality in Rüstprozesse
4.1. Optimierung des Umrüstprozesses
4.2. Grundlegende Rüsttätigkeiten
4.2.1. Arbeitsanweisung
4.2.2. Einrichteblatt
4.3. Konzept zur Augmented Reality Unterstützung von Rüstvorgängen
4.4. Abgeleitete Anforderungen des Frameworks

5. Evaluierung von Augmented Reality Frameworks
5.1. Modelle zur Bewertung von Softwaretools
5.2. Evaluierung durch OpenBRR
5.2.1. Marktanalyse
5.2.2. Use Case spezifische Gewichtung der Kategorien
5.2.3. Datengewinnung und -Verarbeitung

6. Ergebnisse
6.1. Ergebnisse der OpenBRR-Evaluierung
6.2. Auswertung der Marktanalyse

7. Diskussion
7.1. Frameworks zur einfachen Erstellung von Augmented Reality Anwendungen
7.2. Vorteile und Nachteile der evaluierten Frameworks
7.2.1. Vuforia Studio
7.2.2. Microsoft Dynamics 365 Guides
7.2.3. Unity und zugehörige SDKs
7.3. Framework zur Umsetzung des Konzeptes
7.4. Methodenkritik
7.5. Forschungsbedarf

8. Fazit
8.1. Zusammenfassung
8.2. Schlussfolgerungen
8.3. Ausblick

Literaturverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Anhang

Gender-Klausel

In dieser Arbeit wird aus Gründen der besseren Lesbarkeit das generische Maskulinum verwendet. Weibliche und anderweitige Geschlechteridentitäten werden dabei ausdrücklich mitgemeint, soweit es für die Aussage erforderlich ist.

Kurzfassung

Das Voranschreiten der Digitalisierung konfrontiert die Industrie mit einer Vielzahl an Herausforderungen. Zentrale Punkte stellen die Verarbeitung und die effiziente Bereitstellung von Daten dar. Durch eine perspektivisch korrekte Überlagerung der realen Umgebung mit digitalen Informationen, ermöglicht Augmented Reality eine Integration prozessrelevanter Informationen in das Sichtfeld des Users. In der Produktion eingesetzt, bietet es Potenzial zur Verbesserung der Stabilität und Effizienz der Fertigungsprozesse. Schwierigkeiten in der Umsetzung der Use-Cases können jedoch bereits bei der komplexen Entwicklung der benötigten Applikationen entstehen, für die oft umfassende Programmierkenntnisse benötigt werden. Das Ziel dieser Arbeit ist daher eine Analyse von Softwaretools, um Programme für eine einfache Erstellung von industriellen Augmented Reality Anwendungen zu ermitteln.

Die leitende Forschungsfrage der vorliegenden Arbeit lautet daher: Wie können Augmented Reality Anwendungen ohne vertiefende Programmierkenntnisse erstellt und in einen bestehenden Produktionsprozess integriert werden?

Durch eine konzeptuelle Anwendung zur Unterstützung eines Rüstprozesses werden Anforderungen an die Programme abgeleitet. In einer umfangreichen Marktanalyse erfolgt anhand der vordefinierten Voraussetzungen eine Auswahl geeigneter Softwaretools. Die Resultate der Marktanalyse können Entwicklern bei der Auswahl eines Frameworks helfen, das am besten ihre spezifischen Bedürfnisse erfüllt. Fünf ermittelte Programme werden im Rahmen einer Evaluierung anhand einer Reihe von Kriterien bewertet, wobei die Benutzerfreundlichkeit und der Funktionsumfang wesentliche Punkte darstellen.

In der Analyse werden zwei Programme für eine mögliche Umsetzung des Konzeptes ermittelt. Diese bieten mit vordefinierten Funktionen, Designs und Logiken, Möglichkeiten zur Erstellung von Augmented Reality Programmen ohne vorbestehende Programmierkenntnisse. Die Ergebnisse der Evaluierung veranschaulichen die Eignung der jeweiligen Frameworks, um Benutzern ohne Programmierkenntnisse die Entwicklung eigener Anwendungen zu ermöglichen.

Abstract

The progress of digitalisation confronts the industry with a variety of challenges. Central points are handling and efficient provision of data. Augmented Reality enables the integration of process-relevant information into the user's field of vision by overlaying the real environment with digital information in the correct perspective. Implemented in industrial environments, it offers potential for improving the stability and efficiency of manufacturing processes. However, difficulties in the implementation of use cases can already arise during the complex development of the required applications, which often require extensive programming skills. The goal of this thesis is therefore an analysis of software tools in order to identify programs for an easy creation of industrial Augmented Reality applications.

The leading research question of the present paper is accordingly as follows: How can Augmented Reality applications be created and integrated into an existing production process without in-depth programming knowledge?

By a conceptual application to support a setup process, requirements for the programs are derived. In a comprehensive market analysis, a selection of suitable software tools is made based on the pre-defined criteria. The results of the market analysis can help developers to select a framework that best suits their requirements. Five identified programs are evaluated against a series of criteria, the main priorities being usability and functionality.

The analysis determines two programs for a possible implementation of the concept. With predefined functions, designs and logics, these offer possibilities for creating Augmented Reality programs without any previous programming knowledge. The results of the evaluation illustrate the capability of the respective frameworks to enable users without programming skills to develop their own applications.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Schlüsselbegriffe

Augmented Reality

Frameworks

OpenBRR-Evaluierung

Programmierkenntnisse

Rüstprozess

Vuforia Studio

1. Einleitung

1.1. Ausgangssituation

„I believe that augmented reality will be the biggest technological revolution that happens in our lifetimes. “- (Tim Sweeney, ChinaJoy Shanghai 2015 [Tak15])

Mit dieser Aussage wird von Tim Sweeney, dem Gründer von Epic Games, einem der größten Computerspielekonzerne, eine starke Erwartungshaltung gegenüber der Entwicklung dieser Technologie geschürt. Die erweiterte Realität (Augmented Reality) ist eine Überlagerung von digitalen Objekten, wie Texten, Fotos, CAD-Dateien, etc., auf die reale Umgebung. Damit verschwimmen die Grenzen der virtuellen und realen Welt. (vgl. [MTU+95]) Applikationen wie Pokémon Go nützen das Medium der Augmented Reality (AR) kommerziell und begeistern so bereits Millionen von Menschen (vgl.[RRt17]).

In Zukunft soll Augmented Reality auch in der Industrie eine große Rolle spielen. Einige Firmen profitieren bereits davon, um Wartungen zu beschleunigen (vgl. [Hap16]) oder um gewisse Arbeitsprozesse zu unterstützen (vgl. [Boe18], [HS19]). Das Potential dieser Anwendungen liegt darin, schnellere Interaktionen mit digitalen Informationen zu ermöglichen (s. [UC18]).

Bekanntermaßen liegt der schnelle Zugriff auf Daten im Zeitalter von Industrie 4.0 immer mehr im Fokus der Unternehmen (vgl. [TMN18]). Industrie 4.0 bezeichnet die vierte industrielle Revolution, in der die digitale Vernetzung verschiedener Maschinensysteme, Prozesse und Menschen im Vordergrund steht (s. [And15], [PRB19]).

Die Schwierigkeit in der Umsetzung von potenziellen Use Cases in der Produktion liegt unter anderem in der aufwendigen Entwicklung der notwendigen AR-Applikationen (vgl. [NS18]). Große Firmen erwerben daher kostspielige Softwareprogramme oder engagieren erfahrene Teams von Softwareentwicklern, um die benötigten Tools zu erstellen. Um Augmented Reality für eine Vielzahl an Unternehmen zugänglich zu machen, sollten zur firmeninternen Erstellung des Contents keine spezialisierten Softwareentwickler benötigt werden. Wie können produktionsunterstützende AR-Tools auch ohne Programmierkenntnisse erstellt werden? Im Mittelpunkt der folgenden Arbeit steht daher die Betrachtung des Stands der Technik zu dieser Problematik.

Zur Untersuchung dieser Thematik wird ein Use Case in der Fertigung auf Möglichkeiten zur Unterstützung mit AR-Anwendungen untersucht. Als Use Case wird der Umrüstvorgang einer CNC-Maschine behandelt. Bei diesen komplexen Rüstprozessen können kleine Fehler im schlimmsten Fall zu unbrauchbaren Produkten führen. Grund dafür können nicht standardisierte Beschreibungen sein, die Raum für Fehlinterpretationen lassen. Die Optimierung dieses Produktionsprozesses soll mithilfe einer AR-Applikation erfolgen. Die Implementierung ist möglichst mit vorhandenem Personal zu realisieren, wobei keiner der Mitarbeiter Erfahrung in der Erstellung von AR-Programmen besitzt. Im Rahmen dieser Arbeit wird ein Konzept zur Umsetzung einer solchen Applikation vorgestellt, mit dem Ziel, grundlegende Anforderungen an die Erstellungssoftware zu identifizieren.

Diese Anforderungen werden in einer Marktanalyse eingesetzt, um entsprechende Frameworks zu sichten. Die ermittelten Programme werden anschließend im Rahmen einer Evaluierung auf die Tauglichkeit für den Use Case untersucht.

1.2. Vorangegangene Studien

Relevante Studien zu der Thematik und deren Ergebnisse werden im Folgenden erläutert.

Die Autoren Henderson und Feiner [HF11] verglichen in einer Fallstudie eine AR-Applikation für die Durchführung von Instandhaltungsarbeiten und Reparaturen bei der Verwendung eines LCD-Bildschirms und HUD. Sie kamen zu der Schlussfolgerung, dass AR unter anderem zur Reduktion von Fehlerraten beitragen kann. Eine weitere Erkenntnis stellt den Zusammenhang zwischen der Anzahl eingeblendeter Informationen und dem Erfahrungslevel der Mitarbeiter dar. Um den Nutzen zu maximieren, werden für erfahrene Mitarbeiter weniger Mitteilungen eingeblendet als für unerfahrene User, um potenzielle Ablenkungen zu vermeiden.

Ein ähnliches Framework wurde von Mourtzis et al. [MXZ19] in einer Fallstudie erstellt und näher untersucht. Diese Software dient der Erstellung von Applikationen, die je nach Erfahrung des Mitarbeiters, einen gewissen Grad an zusätzlichen Informationen für die Durchführung eines Prozesses in der Produktion anzeigt. Durch die individuelle Anpassung an die Erfahrung der Mitarbeiter soll eine Steigerung der Akzeptanz gegenüber der neuen Technologie erzielt werden.

Eine tatsächliche Auswirkung dieser Theorie wurde in der Studie von Sanna et al. [SML+15] beobachtet. Die zentrale Erkenntnis der durchgeführten Experimente ist hierbei, dass der Grad des Nutzens von AR-Programmen stark von der Erfahrung der User abhängt. Dabei profitierten Probanden, welche die Aufgabe zuvor noch nicht gemacht hatten, mehr von der AR-Anwendung als erfahrene Teilnehmer.

Die Studie von Gavish et al. [GGW+15] verglich den Nutzen von Augmented-Reality- und Virtual-Reality- (VR) Trainingsapplikationen für den Zusammenbau verschiedener Produkte. Die wesentliche Erkenntnis ist, dass Augmented Reality besser für eine Integration in den Arbeitsprozess geeignet ist. Dabei ist besonders die Fehlerreduktion hervorzuheben, die mit der Verwendung des AR-Trainingsprogramms einhergeht.

Masood und Egger [ME20] führten eine Analyse kritischer Faktoren für eine erfolgreiche Implementierung von Augmented Reality in der Industrie durch. Akzeptanz der User, hervorragende Systemkonfiguration und erfolgreiche Integration der Technologie in das bestehende System sowie langfristige Validierung sind entscheidende Erfolgsfaktoren.

Im Zentrum dieser Arbeit steht der Vergleich von AR-Toolkits zur Unterstützung des Use Cases, wobei die Möglichkeit einer einfachen Erstellung der Augmented Reality Anwendungen im Vordergrund steht. Im zweiten Teil der Studienauswertung wurden Arbeiten betrachtet, die Softwaretools miteinander verglichen sowie eigene Frameworks evaluierten.

Im Mittelpunkt der Studie von Amin und Govilkar [AG15] stand der Vergleich verschiedener Software Development Kits (SDKs) zur Erschaffung von Augmented Reality Programmen u.a. in Bezug auf Kosten, Tracking sowie der Vor- und Nachteile.

Der Vergleich von sieben Frameworks zur Erstellung einer AR-Applikation, mit der geokodierte Adressen visualisiert werden sollten, stand im Zentrum der Studie von Rautenbach et al. [RCJ16] Dazu wurde eine binäre Punktevergabe der betrachteten Funktionalitäten herangezogen. Keine der Softwaretools genügte den Anforderungen der Autoren, weshalb der Proof of Concept in Java erstellt wurde.

Die Analyse von elf Frameworks stellte den Forschungsschwerpunkt der Studie von Herpich et al. [HGT17] dar. Dabei sollten auch unerfahrene User mit den SDKs pädagogische AR-Apps erstellen können. Die Bewertung erfolgte über eine binäre Punktevergabe für verschiedene Arten des Trackings und der Erstellung des Contents. Die Frameworks mit den höchsten Punkten wiesen eine sehr steile Lernkurve auf, weswegen Softwaretools benötigt werden, die besser für Anfänger geeignet sind.

Die Schaffung eines entsprechenden Frameworks zur blockbasierten Applikationserstellung war zentrales Thema der Studie von Mota et al. [MRD+18]. In einem Workshop konnten Pädagogen, die keine Programmiererfahrung besaßen, so eigene AR- Lerntools erstellen. Zwei davon wurden in Fallstudien evaluiert und fanden bei den Probanden hohen Anklang.

Nebeling und Speicher [NS18] beschäftigen sich in ihrer Arbeit mit der Klassifizierung verschiedener Softwaretools. Die zentrale Erkenntnis dieser ist, dass zuverlässige Programme ein hohes Maß an Programmierfähigkeiten und Ressourcen erfordern. Des Weiteren wurden zwei konzeptuelle Programme vorgestellt, die eine einfache Möglichkeit zur Erstellung von AR-Applikationen bieten.

1.3. Forschungsfrage

Bisher wurde keine Analyse der am Markt erhältlichen Softwaretools zur Schaffung einer AR-Applikation unter der Berücksichtigung des Zusammenspiels der folgenden Gesichtspunkte durchgeführt:

- Untersuchte Softwaretools bieten eine flache Lernkurve, wodurch sie vom Personal ohne vorhandene Programmierkenntnisse bedient werden können
- Use Case stellt die AR-Visualisierung eines Rüstplans dar, wodurch spezielle Anforderungen an das Programm entstehen

Ziel dieser Arbeit ist es, einen wissenschaftlichen Beitrag zu leisten, um diese Lücke zu schließen. Daraus lässt sich folgende Forschungsfrage ableiten:

Wie können Augmented Reality Anwendungen ohne vertiefende Programmierkenntnisse erstellt und in einen bestehenden Produktionsprozess integriert werden?

Für eine weitreichende Verbreitung von Augmented Reality ist es notwendig, dass zur firmeninternen Erstellung des AR Contents keine spezialisierten Softwareentwickler benötigt werden. Zur Beantwortung der leitenden Forschungsfrage werden zunächst folgende Unterfragen beantwortet:

1. Welche Tools zur einfachen Erstellung von AR-Applikationen existieren am Markt und können potenziell für den Use-Case eingesetzt werden?
2. Welche Vor- und Nachteile bieten die unterschiedlichen Programme?
3. Welches Programm eignet sich am besten für die Erstellung einer AR-Unterstützung des Rüstvorganges?

1.4. Ziel der Arbeit

Das Ziel dieser Arbeit ist eine Liste an bestehenden Programmen anzuführen, die eine Erstellung und Integration von AR-Anwendungen in einen Produktionsprozess ohne Programmierkenntnisse ermöglichen.

1.5. Vorgehensweise zur Behandlung der Forschungsfrage

Die betrachteten Studien von Amin [AG15], Rautenbach et al. [RCJ16] und Herpich et al. [HGT17] nutzten eine binäre Herangehensweise zur Bewertung von Funktionalitäten der betrachteten Programme. Die Arbeiten von Poth [Pot17] und Marinheiro [MB13] hingegen wandten das Modell OpenBRR zur Evaluierung der untersuchten Programme an.

Die Studie von Petrinja et al. [PSS10] führte Experimente zum Vergleich der Modelle OpenBRR, QSOS und OMM durch. Diese Methoden dienen der Bewertung von Open Source Software. Dabei lieferten alle drei Methoden ähnliche Ergebnisse für die betrachteten Gesichtspunkte der analysierten Projekte. Das OpenBRR-Modell konnte im Punkt der Flexibilität überzeugen, was für diese Arbeit einen entscheidenden Faktor darstellt.

OpenBRR ist eine standardisierte Methode zur objektiven Bewertung von Programmen. Dazu werden zunächst die zu betrachtenden Programme nach essenziellen Kriterien ausgewählt. Im Anschluss werden die wichtigsten 7 von 12 vorhandenen Kategorien und deren Metriken mit einer prozentuellen Gewichtung versehen. Diese integrierte Gewichtung und die Auswahl der wichtigsten Kategorien bestimmen den Fokus der Analyse. Im nächsten Schritt werden anhand von gesammelten Daten Punkte von 1 bis 5 für die Metriken vergeben. Im letzten Schritt wird der Business Readiness Score unter Beachtung der einzelnen Gewichtungen kalkuliert.

Anhand der gewonnenen Ergebnisse werden die vielversprechendsten Programme ausgewählt und für eine weitere Bewertung hinsichtlich der Anforderungen des Use-Cases herangezogen. Es wird untersucht, ob am Markt ein Programm existiert, das die Möglichkeit einer einfachen Erstellung eines AR-Rüstplans ermöglicht. Kann der Rüstplan mit einem der Programme umgesetzt werden, so ist auch die Implementierung von Augmented Reality Anwendungen in andere Prozesse der Produktion möglich.

1.6. Aufbau

Im ersten Kapitel der Arbeit werden mögliche Potentiale der Industrie 4.0 und die Rolle von AR-Applikationen in einer digitalisierten Fertigung aufgezeigt. Die wichtigsten Begrifflichkeiten und Definitionen der erweiterten Realität werden erläutert. Zudem werden die unterschiedlichen Arten des Trackings sowie verschiedene Darstellungsmöglichkeiten näher beleuchtet.

Im Mittelpunkt des zweiten Kapitels steht die Auswertung vorangegangener Arbeiten und das Aufzeigen einer entsprechenden Forschungslücke. Anhand dieser werden die Forschungsfrage und zugehörige Detailfragen definiert.

Das dritte Kapitel behandelt die Beschreibung des betrachteten Use Case. Dieser stellt die Abbildung von Rüstplänen mithilfe von AR-Applikationen dar. Es werden Möglichkeiten zur Optimierung des Rüstprozesses in der Produktion erläutert sowie auftretende Problematiken aufgezeigt. In einem Konzept einer AR-Applikation wird ein möglicher Ablauf beschrieben und daraus Anforderungen an Softwaretools zur Erstellung der Anwendungen abgeleitet.

Die Evaluierung verschiedener Softwaretools wird im vierten Kapitel durchgeführt. Es werden unterschiedliche Modelle zur Bewertung von Softwaretools verglichen. Die Evaluierung der Programme zur einfachen Erstellung von Augmented Reality Anwendungen erfolgt nach der OpenBRR Methode, die in vier Phasen unterteilt wird. Es wird eine umfassende Marktanalyse durchgeführt, die zur Ermittlung geeigneter Frameworks dient. Die Programme werden in den Kategorien Benutzerfreundlichkeit, Funktionalität, Architektur, Dokumentation, Skalierbarkeit, Qualität und Verbreitung bewertet.

Das fünfte Kapitel stellt das Aufzeigen und Interpretieren der Ergebnisse der OpenBRR-Evaluierung und Marktanalyse in den Mittelpunkt. Die gewonnenen Erkenntnisse werden genutzt, um die gestellten Forschungsfragen zu beantworten.

In einer nachfolgenden Diskussion werden die Erkenntnisse erörtert, etwaige Einschränkungen der Methodik aufgezeigt und auf weiteren Forschungsbedarf hingewiesen.

In einem abschließenden Conclusio wird eine zusammenfassende Bewertung abgegeben und ein Ausblick aufgezeigt.

2. Augmented Reality in einer digitalen Produktion

Im folgenden Kapitel werden verschiedene Gesichtspunkte der vierten industriellen Revolution erörtert. Dazu werden Potentiale von Industrie 4.0 sowie mögliche Verbesserungen durch eine Implementierung von Augmented Reality beschrieben. Im Mittelpunkt der nachstehenden Kapitel stehen verschiedene Bereiche der erweiterten Realität. Zur Abgrenzung der Augmented Reality werden die diversen Erscheinungsformen digitaler Realitäten beschrieben und anschließend grundlegende Definitionen für die wichtigsten Aspekte von Soft- und Hardware erläutert.

2.1. Die vierte industrielle Revolution

Der Begriff der vierten industriellen Revolution bzw. Industrie 4.0 wurde 2011 von Henning Kagermann, Wolf-Dieter Lukas und Wolfgang Wahlster geprägt. Sie stellten die digitale Vernetzung der gesamten Wertschöpfungskette als wesentliches Merkmal dar. Ziel der Industrie 4.0 ist die Schaffung autonomer Fertigungen, in der entstehende Produkte über eingebaute Sensoren Daten zu möglichen Fehlern generieren. Diese ermöglichen das Vornehmen von automatischen Optimierungen an einzelnen Prozessen in Echtzeit. Dadurch wird die Reaktionszeit bei Fehlern minimiert und die Nutzung der Ressourcen optimiert (vgl. [KLW11]).

2.1.1. Visionen von Industrie 4.0

Zur Schaffung solcher Systeme wird eine digitale Vernetzung und Verwaltung der Sensoren entlang der Fertigung sowie Produkte mit integrierter Sensorik und intelligenten Betriebssystemen angestrebt. Durch das Schaffen von Systemen, die digitale Umgebungen mit realen Gegebenheiten vereint, entstehen neue Möglichkeiten für die Industrie (vgl. [KLW11]).

Informationssysteme verschmelzen zunehmend mit der wertschöpfenden Produktionskette zu einem allumfassenden Produktions- und Wartungssystem. Die Integration der gesamten firmenübergreifenden Wertschöpfungskette ermöglicht eine schnelle Anpassung der Produkte an neue Anforderungen. Dabei wird der Trend zu individualisierten Produkten und damit zur Losgröße 1 durch eine hohe Flexibilität in der Fertigung vorangetrieben. Die Informationsübertragung vom Händler bis hin zum Rohstoffhersteller ermöglicht eine Justierung der Produktionsmenge nach Bedarf. Die Digitalisierung der Prozesse resultiert in einer erhöhten Produktivität, verkürzten Durchlaufzeiten und einer verbesserten Kontrolle der Produktion (vgl. [And15], [PRB19]). Smarte Produkte, die mit intelligenten Funktionalitäten ausgestattet sind, ermöglichen eine Funktionsüberwachung, wodurch Fernwartungen oder automatisierte Wartungen beim Verbraucher möglich gemacht werden. Mithilfe von vernetzten Maschinensystemen kann so auf erkannte Fehler automatisiert in die Produktionsprozesse eingegriffen werden. Der Ausschuss wird minimiert, wodurch ein Mehrwert für Kunden und Hersteller geschaffen wird (vgl. [And15], [PRB19]). Dabei beschränkt sich die Industrie 4.0 nicht nur auf die Produktion, sondern bietet zudem Möglichkeiten für neue Geschäftsmodelle. Der Verkauf von Funktionen eines Produktes (vgl. [And15]) oder der Netzwerkschaffung von intelligenten Produkten und Maschinen (vgl. [KLW11]) sind nur zwei Beispiele zur möglichen Nutzung der neuen Gegebenheiten.

2.1.2. Potentiale von Augmented Reality in der digitalisierten Fertigung

Das Zentrum der digitalen Produktion stellt, trotz voranschreitender Automatisierung, der Mensch und seine Kompetenzen dar. Durch die neuen Gegebenheiten des Arbeitsumfeldes entstehen spezielle Anforderungen zur Erweiterung der Kommunikation zwischen Mensch und Maschine. Augmented Reality bietet neue Möglichkeiten zur Interaktion zwischen Mensch und prozessrelevanten Daten. Der Einsatz von Datenbrillen ermöglicht ein zielgerichtetes Einblenden von Informationen in den Arbeitsprozess und die Interaktion mit digitalen Objekten, während die Hände des Users für Tätigkeiten frei bleiben. Eine Ablenkung von der entsprechenden Tätigkeit durch Suchen von Bedienungsanleitungen am Computer oder Betrachtung von technischen Zeichnungen am Papier entfällt somit. Damit einhergehend ist eine Steigerung der Effizienz und Qualität der Prozesse sowie eine Reduktion auftretender Fehler. Entsprechende Applikationen können u.a. in Montage, Wartung und Qualitätssicherung zum Einsatz kommen. Integrierte Funktionen zur Dokumentation der durchgeführten Arbeitsabläufe und Erstellung von Fehlerberichten können die Prozessstabilität weiter erhöhen. Grundlegend für die Einbettung solcher Augmented Reality Applikationen ist immer eine Standardisierung der Prozesse. Dadurch wird ein vorgeschriebener Ablauf mit den Applikationen unterstützt, wodurch die Ergebnisse bei Montagetätigkeiten teilweise vom Erfahrungslevel der Mitarbeiter entkoppelt werden können (vgl. [BGG17]).

Unternehmen investieren viele Ressourcen, um neues Personal auf die immer komplexer werdenden Tätigkeiten und Komponenten einzuschulen. Bisherige Ansätze, wie Schulungen am Computer oder in virtuellen Umgebungen, erweisen sich als zeit- und kostenintensiv, während die Teilnehmer nicht mit den Gegebenheiten vor Ort konfrontiert werden. Bei Einführungen vor Ort besteht oft das Problem, dass jeder der erfahrenen Techniker eigene Lösungsansätze bevorzugt und die Qualität der Einschulungen dadurch stark variieren kann. Eine Nutzung von AR-Applikationen ermöglicht durch die Bereitstellung von detaillierten Informationen am Prozess ein Training in der realen Arbeitsumgebung. Diese standardisierten Einschulungen resultieren in einem verbesserten Lernprozess, während Kosten und Zeit eingespart werden können (vgl. [UC18]).

Die erweiterte Realität ermöglicht neue Optionen für die digitale Interaktion von Menschen. Eine Video-Übertragung des Sichtfeldes eines Mitarbeiters zu einem externen Spezialisten machen eine Überwachung der durchgeführten Tätigkeiten in Echtzeit möglich. Als Quelle für das übertragene Bild dient eine Kamera, die in der AR-Brille des Users integriert ist. Der Fachmann ist schneller in der Lage Anweisungen zu geben und kann durch entsprechende Programme digitale Hinweise in das Sichtfeld des Arbeiters platzieren. Die projizierten Augmente können von beiden zur Erarbeitung einer Problemlösung genutzt werden. Die interaktive Zusammenarbeit kann Anreisezeiten für den Experten verhindern und gleichzeitig einen besseren Lerneffekt für den Arbeiter erzielen (vgl. [UC18]).

2.2. Abgrenzung der erweiterten Realität

Zur Definition der erweiterten Realität wurde 1995 von Milgram et al. das Modell des Realität-Virtualität-Kontinuums erstellt. Dieses betrachtet die reale Umgebung (real Environment) und die virtuelle Umgebung (virtual Environment) als zwei gegenüberliegende Punkte auf diesem Kontinuum (RV) (vgl. [MTU+95]). Damit eine Beschreibung der gemischten Realität (MR in Abbildung 1) gelingt, ist zunächst eine Differenzierung von einer realen zu einer virtuellen Umgebung notwendig.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Realität-Virtualität-Kontinuum [MTU+95, S. 283]

Die virtuelle Realität ist eine Umwelt, die rein aus digitalen Objekten besteht und nicht zwangsläufig einer realen Umgebung ähnelt. Die Befolgung der physikalischen Gesetze in punkto Gravitation, Zeit und Materialeigenschaften ist hierbei optional (vgl. [MTU+95]). Anwender können durch technische Endgeräte in diese künstliche Welt eintauchen und mit den darin befindlichen Objekten interagieren. Das Ziel hierbei ist eine immersive Erfahrung, was so viel bedeutet wie das komplette Eintauchen der User in eine virtuelle Umgebung. Sofern es vorgesehen ist, kann die virtuelle Welt optisch nicht von einer realen unterschieden werden (s. [ZWM+18]).

Im Gegensatz dazu steht die reale Umgebung, die aus greifbaren Objekten, Personen und Phänomenen besteht. Diese kann persönlich durch ein Fenster oder durch ein Display betrachtet werden (vgl. [MTU+95]).

Gemäß Abbildung 1 stellt die gemischte Realität (MR) alle Umgebungen dar, in denen Objekte der realen und virtuellen Welt vereint dargestellt werden. Zu unterscheiden sind die Varianten der Augmented Reality (AR) und der Augmented Virtuality (AV).

Grundlage für die AV bildet eine computergenerierte virtuelle Welt, welche mit realen Objekten überlagert wird. Der Unterschied zu VR besteht darin, dass reale Gegenstände eingeblendet werden.

Während die VR zur Darstellung sowohl statische als auch animierte Bilder und 3D-Objekte nutzt, wird in der AV zusätzlich ein live übertragenes Abbild eines Objektes in die virtuelle Welt eingeblendet. Dies ermöglicht dem User eine verbesserte Erfahrung der virtuellen Realität (vgl.[MK94]). So können Interaktionen von digitalen Objekten mit der echten Hand des Users, und nicht nur mit einem statischen Abbild oder einer digitalen Kopie davon, erfolgen.

Wie in Abbildung 2(a) zu sehen ist, ist zur Realisierung von AV ein spezielles Setup nötig. Dazu werden die einzufügenden Objekte mit den Kameras gefilmt und in der virtuellen Umgebung visualisiert. In Abbildung 2(b) ist die auf einem Display resultierende Sicht des Users dargestellt (s. [BSR+09]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: (a) Setup für AV-Anwendung (b) virtuelle Umgebung mit Abbild der realen Hand überlagert [BSR+09, S. 44]

Nach der Definition von Markgraf bezeichnet Augmented Reality eine computerunterstützte Wahrnehmung bzw. Darstellung, welche die reale Welt um virtuelle Aspekte erweitert (s. [Mar18]). Das wesentliche Merkmal der erweiterten Realität ist eine Überlagerung von digitalen Objekten, wie z.B.: Texten, Fotos, CAD-Dateien, etc., mit der realen Umgebung (vgl. [MTU+95]). Gemäß Abbildung 1 befindet sich demzufolge die AR auf der linken Hälfte des RV-Kontinuums.

Mit der realen Umgebung als Grundlage bietet die AR Potential für verschiedenste Use-Cases genutzt zu werden. Im Gegensatz zur VR wird hierbei der Nutzer nicht von der Umgebung abgeschirmt, sondern die reale Umgebung mit Objekten bereichert, die dem Entertainment dienen oder nützliche Anweisungen bieten. Im Optimalfall kann eine optische Unterscheidung von realen und digitalen Objekten nicht erfolgen (s. [DBG+13]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: AR zur Einblendung digitaler Spielfiguren [eeD17]

In Abbildung 3 ist eine der bekanntesten AR-Anwendungen im Konsumentenbereich dargestellt. Pokémon Go begeistert seit 2016 mehrere Millionen Nutzer mit Hilfe von Augmented Reality. Die Applikation kann auf jedem Smartphone oder Tablet genutzt werden. Dabei wird die gefilmte Umgebung mit digitalen Spielfiguren erweitert. Diese werden auf einem festen Punkt in der Umgebung verankert und bieten dem User verschiedene Interaktionsmöglichkeiten (vgl. [RRt17], [Nin17]).

2.3. Prozesse zur Realisierung von Augmented Reality-Anwendungen

Eine AR-Anwendung entsteht durch eine Aneinanderreihung der Operationen Tracking und Registrierung sowie Darstellung und Ausgabe. Jene müssen kontinuierlich im Hintergrund ausgeführt werden, um eine optimale Positionierung der Augmente im Raum zu ermöglichen. Eine entscheidende Rolle nimmt die permanente Anpassung an Blickfeld und Position des Users ein. Dies ist die Grundlage für das Einfügen der Objekte in korrekter Perspektive (vgl. [DBG+13]).

2.3.1. Tracking

Tracking definiert den Prozess der Ermittlung der Positionierung und der Orientierung des Users in einer Umgebung. Moderne AR Programme nutzen dazu verschiedene Technologien wie Kameras, Beschleunigungssensoren, GPS und Gyroskop (s. [BKE+13]). Durch die Verwendung einer Kamera werden Position und Ausrichtung des genutzten Gerätes im Raum ermittelt (vgl. [DBG+13]). Die Genauigkeit der Positionierung und des dadurch erhaltenen Ergebnisses ist stark vom Anwendungsfall abhängig (s. [MS14]). Es werden, je nach verwendeter Software, verschiedene Tracking-Algorithmen angewandt. Die Algorithmen werden in die Prinzipien nichtvisuelles Tracking, kamerabasiertes Tracking mit Markern, visuelles Tracking ohne Marker und hybride Tracking Techniken eingeteilt.

2.3.1.1. Nichtvisuelles Tracking

Diese Trackingalgorithmen machen sich ausschließlich verschiedene Sensoren im Endgerät zu Nutze. Dazu zählen, unter anderem, GPS, Magnetometer und Inertialsensoren.

Mobiles Positions-Tracking

Diese Art des Trackings wird besonders im Outdoor-Bereich verwendet. Dazu wird die Positionierung des Users per GPS ermittelt. Durch Verwendung verschiedener Methoden kann die Genauigkeit der Positionsermittlung erhöht werden (vgl. [DBG+13]):

DGPS (Differential GPS)

Lokale Referenzempfänger, deren Positionen bekannt sind, werden zur Ermittlung eines Korrektursignals genutzt. Damit werden die GPS-Daten des Empfängers korrigiert, wodurch Genauigkeiten von wenigen Zentimetern erreicht werden können.

SBAS (Satellite Based Augmentation Systems)

Es wird ein Referenzsystem über mehrere Satelliten gebildet, welche Korrekturdaten für bestimmte Gebiete liefern. Jedoch ist die Nutzung dieses Systems durch eine eingeschränkte Sicht auf die benötigten Satelliten oft nicht möglich. Meist stellt dieses System im Outdoor-Bereich die einzige Möglichkeit zur Positionsbestimmung dar, weshalb es vielfach für die Augmentierung von Gebäuden verwendet wird.

A-GPS (Assisted GPS)

Die Bestimmung der Position durch Messung der Signallaufzeiten zur aktuellen Mobilfunkzelle ist ein wesentliches Merkmal, das insbesondere von Tablets und Smartphones genutzt werden kann.

WLAN-Ortung

Durch Verwendung der Position bekannter WLAN-Netze differenziert sich diese Art der Standortbestimmung von den zuvor beschriebenen Varianten. Hierbei müssen die WLAN- Netze nicht mit dem genutzten Endgerät verbunden werden, es ist ausreichend, wenn sich mehrere Netze in der Umgebung befinden. Ein Nachteil dieser Methode ist, dass die erzielten Genauigkeiten im Vergleich geringer ausfallen.

Sensorbasiertes mobiles Orientierungs-Tracking

Eine Kombination aus Magnetometer sowie linearen und rotatorischen Inertialsensoren ist mittlerweile Standard bei Anwendungen in Smartphones und Tablets. Dazu werden je drei orthogonal zueinander angeordnete Sensoren verwendet. Durch Messung des Erdmagnetfeldes zur Ermittlung der individuellen Sensorausrichtung können Lageberechnungen der Magnetometer erfolgen. Die Messung linearer Beschleunigungen übernehmen die linearen Inertialsensoren, wohingegen rotatorische Drehraten von den rotatorischen Inertialsensoren (Gyrosensoren) ermittelt werden (s. [DBG+13]). Die Anzahl der verwendeten Sensoren können mittels Ultraschallsensoren (Messung der Laufzeit zwischen mehreren Sendern und Empfängern) und optoelektrischen Sensoren (Messung des Abstands per elektromagnetischen Wellen im nichtoptischen Spektrum) erweitert werden (vgl. [MS14]).

2.3.1.2. Kamerabasiertes Tracking mit Markern Merkmalbasierende Systeme

Dieses Verfahren zur Positionierung ist in den heutigen AR-Anwendungen weit verbreitet. Es setzt auf den Einsatz von realen Referenzobjekten als Referenzpunkte für einzufügende Augmente. Diese Marker sind zwei- oder dreidimensionale Objekte, die aufgrund ihrer Beschaffenheit leicht von einer Kamera zu identifizieren sind. Zur Verwendung der Marker werden diese in das Programm eingespielt, welche den Nullpunkt der Darstellung markieren. In der Realität werden diese Bilder oder Objekte am gewünschten Ort angebracht und dienen nun als Referenzpunkt für das Programm. Durch die bekannte Form des Markers kann die Positionierung und Orientierung der Kamera berechnet werden. Dies ermöglicht ein optimales Einfügen der digitalen Augmente (vgl. [MS14]). Unterstützt das Framework das Tracking von mehreren Markern zur selben Zeit, so wird dies als Multi-marker Tracking bezeichnet.

Dazu setzen wenige Programme auf vordefinierte Referenzbilder, wie ARToolkit Marker, HOM Marker, DOT Marker, etc. (vgl. [MS14]). Diese kontrastreichen Bilder bieten den Vorteil, dass sie unter schwierigen Lichtbedingungen auch noch zu tracken sind. Eine mögliche Art der Anwendung ist in Abbildung 4 dargestellt.

Andere Toolkits (Vuforia, Wikitude, etc.) differenzieren sich von dieser Vorgabe und ermöglichen das Nutzen von beliebigen Bildern als Marker. Diese Art der Image Recognition resultiert in einer hohen Anzahl an Integrationsmöglichkeiten von AR Markern in den Alltag. Marker können schnell und einfach ausgedruckt und am Objekt platziert werden. Alternativ ist somit eine Integration in Bücher oder Zeitschriften einfach umsetzbar. Als Beispiel dient die Anwendung in Abbildung 5, wo ein Ausmalbild den Marker darstellt. Das 3D-Objekt wird in den Farben animiert, mit denen das Bild coloriert wurde.

Die Anwendung wird durch eine komplette Erfassung des Markers initiiert. Dabei wird die Qualität der Augment-Positionierung durch Größe, Kontrast und Sichtbarkeit des Markers sowie durch Lichtverhältnisse und Qualität der Kamera stark beeinflusst. Wird die Kamera vom Marker wegbewegt, erkennt das Programm die Referenzposition nicht mehr und blendet die Augmentierung aus. Der Zeitpunkt des Ausblendens ist stark von der verwendeten Software abhängig.

Restriktionen ergeben sich dadurch, dass Marker in unmittelbarer Nähe des zu erweiternden Objekts angebracht werden müssen. Ist der Marker zu groß in Relation zum Objekt, kann dies störend wirken oder leicht per Hand abgedeckt werden. Beim näheren Betrachten des Objekts sind die Marker oftmals nicht sichtbar, wohingegen bei größerer Entfernung der Marker nicht genau erkannt wird. In beiden Fällen können dadurch Unschärfen des Trackings auftreten (vgl. [DBG+13, S. 256f.]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: standardisierter Marker dient als Referenzpunkt für 3D-Augment [Rob19]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Ausgemaltes Bild dient als Marker für AR-Anwendung [ZRM+15]

Modellbasierende Systeme

Als Grundlage für diese Art des Trackings, der Object Recognition, dient ein CAD-Modell. In der Umgebung erfasste Gegenstände werden mit Modellen in der vorliegenden Datenbank verglichen. Der Tracker erkennt Features bekannter Objekte und ordnet sie dem CAD-Modell zu. Anhand der relativen Position zum Objekt wird die Position der Kamera bestimmt und die benötigten Augmente eingeblendet. Dabei können in der Datenbank gespeicherte Modelle von Alltagsgegenständen nützlich sein, um das Tracking in einer gewohnten Umgebung zu initiieren. Im Zuge der Anwendung sucht sich das System nun bekannte Features oder Modelle in der Umgebung, mit denen das Tracking weitergeführt werden kann (vgl. [MS14]). Ein nächster möglicher Schritt solcher Anwendungen ist es, Datenbanken in einer Cloud zu verwalten, auf die alle User zugreifen können. Dies vergrößert das Portfolio an Objekten, die getrackt werden können (s. [GD07]). In Abbildung 6 ist eine mögliche Anwendung des modellbasierten Trackings zum besseren Verständnis abgebildet. Ein gefaltetes Auto aus Papier dient als reales Referenzobjekt. Der Anhänger wird als Augment eingefügt und folgt den Bewegungen des realen Papierautos.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Positionierung anhand eines CAD-Modells [eigene Darstellung (e.D.)]

2.3.1.3. Visuelles Tracking ohne Marker (Markerless-Tracking)

Das Verfahren der Natural Feature Recognition bzw. Natural Feature Tracking (NFT) ermöglicht das Tracking in fremden Umgebungen, in denen keine bekannten Objekte oder Marker vorzufinden sind. Als Grundlagen hierbei dienen natürliche Formen wie Linien, Punkte oder Kreise in der erfassten Umwelt. Diese markanten Features dienen der Erstellung von Referenzpunkten, anhand derer die Augmente eingeblendet werden. Dabei ist die Erkennung von planaren Oberflächen ein entscheidender Aspekt. So kann durch das Erkennen einer Oberfläche das Programm initiiert werden und eine perspektivisch korrekte Darstellung der Augmente auf dieser erfolgen. Als Beispiel einer fehlgeschlagenen und korrekten Oberflächenerkennung dienen Abbildung 8 (a) und (b).

Eine besondere Form stellt die automatisierte Erkennung von Gesichtern, das Face Tracking, dar. Dazu können verschiedene Verfahren genutzt werden, wobei eines die allgemeinen Merkmale von Gesichtern erkennt, das andere hingegen ein Raster zur Feststellung der Position des Gesichtes nutzt. Sind Position und Orientierung des Gesichtes erkannt, können Augmente hinzugefügt werden (vgl. [MS14]).

Eine Weiterentwicklung von NFT stellt das SLAM-Verfahren (Simultaneous Localization and Mapping) dar. Das System erstellt eine Punktewolke der Umgebung, welche für die Positionsermittlung der Kamera genutzt wird. In Abbildung 7 ist das merkmalbasierte Tracking, in dem markante Objekte oder Features (Ecken, Kanten, Flecke, etc.) der Umgebung erkannt und als Referenzpunkte der Karte genutzt werden, dargestellt (s. [GD07]). Die entstehenden Punktewolken können im Rahmen der Applikation für das Tracking genutzt werden. Alternativ sind das Speichern und Weiterverwenden zur Erstellung von Targets für AR-Applikationen möglich (vgl. [PTC20h]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: SLAM Technologie zur Zuweisung von Koordinaten [Ped17, S. 266]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: (a) fehlerhafte Registrierung der Augmente (b) korrekte Registrierung [KSG12, S. 249]

2.3.1.4. Hybride Tracking Techniken

Häufig wird bei AR-Anwendungen eine Kombination verschiedener Trackingverfahren eingesetzt. Mittels Erweiterung der merkmalbasierenden Systeme mit Inertialsensoren kann die Registrierung bei Verlust des Markers noch eine gewisse Zeit aufrechterhalten werden. Das System schätzt die neue Lage anhand der letzten Erfassung der Position des Markers und den Daten der Sensoren (vgl. [Azu97]).

2.3.2. Registrierung

Die Registrierung sichert die korrekte Positionierung der digitalen Inhalte in Bezug auf reale Objekte bzw. die reale Umgebung. Grundlage dieser ist das oben beschriebene Tracking. Anhand der gewonnenen Punkte wird ein Koordinatensystem zur Positionierung der digitalen Inhalte erstellt. Dieses Koordinatensystem wird so platziert, dass virtuelle Inhalte in der Realität verankert erscheinen, sofern es sich um nicht animierte Objekte handelt. In neueren Applikationen kann sogar eine Interaktion mit realen Gegenständen erfolgen. Dabei spielt eine korrekte Darstellung, in Bezug auf die Perspektive des Users, eine große Rolle. Eine fehlerhafte Registrierung gefährdet die Illusion einer Verschmelzung zwischen virtueller und realer Welt. Dabei spielen sowohl die richtige Positionierung als auch die dargestellte Beleuchtung des Augments entscheidende Rollen für den Realismus der Applikation. Frameworks wie ARCore schätzen die Lichtverhältnisse in der Umgebung ein, um so die 3D-Objekte mit der optimalen Schattierung darzustellen (vgl. [Goo20]).

In Abbildung 8(a) ist eine fehlerhafte Positionierung dargestellt. Bei einem einwandfreien System würden das Auto und die Vase auf dem Tisch abgebildet sein (siehe Abbildung 8(b)). Selbst bei Positionsveränderungen des Betrachters sollen die Objekte in korrekter Perspektive auf der exakten Lage verharren. Das Ergebnis der Registrierung ist stark von Qualität und Geschwindigkeit der verwendeten TrackingAlgorithmen abhängig. Die Geschwindigkeit entspricht im Idealfall der Rate der dargestellten Bilder. Das entspricht bei einer Frequenz von 60 Hertz 60 TrackingErgebnisse pro Sekunde. Ist der Wert der Tracking Berechnungen zu gering, können die Objekte bei Bewegungen des Betrachters nicht adäquat folgen (vgl. [ABB+01, S. 34], [DBG+13]).

2.3.3. Visualisierung und Ausgabe von Augmented Reality

Es wird zwischen vier verschiedenen Technologien zur Erzeugung der erweiterten Realität differenziert (vgl. [MTU+95]). Hierbei bietet jede davon gewisse Vorteile und Restriktionen in Bezug auf die Handhabung und Darstellung der gewünschten Inhalte.

2.3.3.1. Hand-Held-Display (HHD)

Hand-Held-Displays bezeichnen kleine Geräte, wie Smartphones oder Tablets, mit denen eine nicht immersive Augmented Reality erzeugt werden kann. Wie in Abbildung 9 zu erkennen ist, wird zur Erzeugung der erweiterten Realität die reale Umgebung über Kameras erfasst. Das live übertragene oder gespeicherte Videomaterial wird in richtiger Perspektive mit computergenerierten Inhalten überlagert (vgl. [MTU+95], [DBG+13]). Dabei ist die Kameraausrichtung auf die relevante Umgebung sehr einfach, da die Kameras der Geräte sich auf der gegenüberliegenden Seite des Displays befinden (s. [MS14]).

Die weite Verbreitung der HHDs bietet eine Vielzahl an möglichen Usern für erstellte AR-Applikationen. Laut Statista.com belief sich die Zahl der Smartphone-Nutzer im Jahr 2018 auf 2,9 Milliarden. Dies entsprach 37% der damaligen Gesamtbevölkerung (s. [Sta19]). Dadurch können entwickelte Applikationen schnell vielen Nutzern zugänglich gemacht werden, ohne zusätzliche Investitionen zu tätigen.

Dies trifft jedoch nur auf die Nutzer der neueren Generation an Smartphones zu. Viele ältere Endgeräte verfügen nicht über die notwendige Rechenleistung. Nichtsdestotrotz ist die Zahl an potenziellen Nutzern von AR über HHD um ein Vielfaches größer als jene von HMD und SAR. Die immer leistungsfähiger werdenden Geräte verfügen über eine Vielzahl an Sensoren, welche eine Unterstützung des Trackings der Umgebung ermöglichen (s. [MS14]).

Ein weiterer Vorteil ist die Darstellung von Hintergrund und Objekten in potenziell gleicher Qualität (s. [DBG+13]). Durch Einfügen von virtuellen Schatten kann so eine schönere Implementierung der digitalen Inhalte erfolgen, als dies zurzeit bei den HMD der Fall ist (vgl. [Mea18]). Eine grundlegende Restriktion für HHD ist der Mangel an Bewegungsfreiheit. Der User muss ständig das Gerät in der Hand halten und die Kamera auf den Fokuspunkt richten. Dadurch können die Hände nicht für andere Tätigkeiten verwendet werden. Zudem ist der Grad der Immersion aufgrund des kleinen Displays gegenüber SAR und HMD wesentlich geringer (s. [MS14]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: AR-Anwendung als Tool für Wartung [Wel17]

2.3.3.2. Head-Mounted Display (HMDs)

Als Head-Mounted-Display werden visuelle Ausgabegeräte bezeichnet, die auf dem Kopf des Users platziert werden. Es wird zwischen HMDs mit Video-See-thmugh-(VST) und optical see-through (OST) -Displays unterschieden (s. [DBG+16]).

Video-See-through-Display

Der prinzipielle Aufbau der Variante ist in Abbildung 2(a) dargestellt. Dabei ist das Funktionsprinzip denen der HHD ident. Den Unterschied bildet die Tatsache, dass das gesamte Konstrukt den Kopfbewegungen des Nutzers folgt. Zeitgleich wird die Umgebung von Kameras erfasst. Marker oder markante Punkte werden als Referenzpunkte für die Augmente herangezogen. Das Rendering der realen Umgebung und der digitalen Objekte wird abschließend auf das Display übertragen. Durch die zeitliche Differenz von Erfassung der Umgebung und Ausgabe treten bei der Darstellung höhere Latenzzeiten auf. Dies erschwert die Orientierung im Raum und kann Schwindelgefühle hervorrufen, was bei OST nicht der Fall ist (s. [MS14]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Mitarbeiter nutzt HoloLens am Arbeitsplatz [HSO18]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Sicht des Users der Microsoft HoloLens [Mic19b]

Optical See-through-Display

Diese semi-transparenten Displays bieten die Möglichkeit, digitale Inhalte direkt in das Sichtfeld des Users zu projizieren (siehe Abbildung 11). Durch ein fehlendes Rendering der Umgebung entsteht ein hoher Grad an Immersion der Augmente in das reale Umfeld (s. [MTU+95]). Die Überlagerung der Inhalte erfolgt durch Projektion von Licht auf das Display. Damit einhergehend entstehen folgende Vor- und Nachteile. Die reale Umgebung wird verdunkelt wahrgenommen und die eingefügten Objekte erscheinen semitransparent. Des Weiteren ist das Hinzufügen von Schatten für digitale Objekte nicht möglich (s. [DBG+13]).

Größter Vorteil gegenüber den HHDs entsteht durch die Befestigung der Displays am Kopf des Users. Es bleiben die Hände frei, wodurch das Gerät mehr Einsatzmöglichkeiten bietet. So ist ein Einsatz während Wartungsarbeiten denkbar, ohne den Arbeiter durch das Halten eines Displays einzuschränken (siehe Abbildung 10). Komplizierter gestaltet sich hingegen die Realisierung der Bedienung dieser Geräte. Während Hand-Held-Displays per Touchscreen, Controller oder Maus und Tastatur bedient werden können, benötigen einige HMDs oft eine komplexe Bedienung per Sprach- oder Gestensteuerung.

Head Mounted Displays unterliegen zum derzeitigen Stand der Technik gewissen Beschränkungen. Aufgrund der Komplexität der Geräte und Rechenoperationen muss der User sämtliches Equipment am Körper tragen. Die HoloLens von Microsoft realisiert dies über eine Integration sämtlicher Komponenten in das Headset. Infolgedessen ergibt sich ein relatives hohes Gewicht. Andere Firmen, wie Magic Leap, verlagern die Rechenpower auf einen Computer, der das Headset mit einem Kabel betreibt (s. [Mag18]). Folglich kann die Rechenleistung erhöht und das Gewicht des Headsets gesenkt werden.

Einhergehend mit der Rechenleistung ist zudem die Kenngröße Field of View (FOV). Jene bezeichnet die Größe des Bereiches, in dem Augmente in die Umgebung eingefügt werden können. Je größer der Bereich ist, desto mehr Rechenleistung ist für die Positionierung und Darstellung der Augmente notwendig. Um eine gewisse Portabilität zu bieten, sind demzufolge viele Brillen noch auf FOV Werte von unter 100 Grad beschränkt (vgl. [Cri 18]).

Der Fokus der Entwickler von HMDs liegt heutzutage in der Bereitstellung von Systemen für Unternehmen. Deswegen werden viele HMDs noch im Entwicklermodus verkauft. Dieser bietet gewisse Möglichkeiten zur weiteren Entwicklung eigener Programme, folglich sind die Brillen jedoch noch nicht für den Massenmarkt geschaffen. Dementsprechend und aufgrund ihrer hohen Kosten kommen hochqualitative AR-Brillen zurzeit hauptsächlich in Firmen zum Einsatz (vgl. [Mea18]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 12: HUD zur Visualisierung nützlicher Informationen [Mot19]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 13:SAR zur Darstellung von verborgenen Objekten [DBG+13, S. 250]

2.3.3.3. Spatial Augmented Reality (SAR)

Nach der Definition von Raskar, Welch & Fuchs ist die Spatial (räumliche) Augmented Reality eine Überlagerung der realen Umgebung mit digitalen Augmenten. Sie grenzt sich mit dem Verzicht eines notwendigen Displays von HHD und HMDs ab. Zur Realisierung werden spezielle digitale Lichtprojektoren genutzt, die zweidimensionale Objekte auf Oberflächen projizieren können (s. [RWF99]). Eine Projektion von dreidimensionalen Objekten ist in der Praxis noch nicht umsetzbar. Diese Form der AR beschränkt sich demzufolge nur auf die Einblendung von Informationen auf Oberflächen und Veränderung derer Farben. Ein konkreter Anwendungsfall ist in Abbildung 13 ersichtlich. Darin wird ein live gefilmtes Bild des Ganges auf die geschlossene Tür projiziert (vgl. [DBG+13]).

2.3.3.4. Head Up Displays (HUD)

Als Head-Up- Display werden stationäre Ausgabegeräte bezeichnet, die ein OST-Display besitzen. Sie werden üblicherweise im Sichtfeld des Nutzers platziert, um diesem Informationen einzublenden, ohne seinen Fokus zu verändern (s. [SL11]). Diese Art der Darstellung wird vor allem in Flugzeugen und Autos genutzt. In Abbildung 12 ist ein HUD eines Autos dargestellt. Damit können wertvolle Informationen, wie Geschwindigkeitsbeschränkungen, Navigationshinweise, etc. im Blickfeld des Fahrers visualisiert werden. Der Unterschied zu anderen Technologien ist hierbei, dass die Informationen lediglich eingespielt werden. Ein Tracking der Umgebung oder von Markern und eine Interaktion mit dem Nutzer entfällt (vgl. [MS14]).

3. Vorangegangene relevante Arbeiten

3.1. Vorgehen Studienauswertung

Nach dem Ansatz von Harris Cooper [Coo98] wurden die wichtigsten Inhalte relevanter Studien erhoben. Dazu zählen untersuchte Forschungsfragen und zugehörige Faktoren. Weitere Punkte der Analyse stellen die untersuchten Daten, die verwendeten Methoden und Modelle zur Datenerhebung sowie daraus resultierende Ergebnisse und Erkenntnisse dar. Abschließend wurden offene Fragen und Problematiken der Studien beschrieben und der Bezug der betrachteten Studien zur vorliegenden Arbeit hergestellt. Aufgrund der rasanten Entwicklung der erweiterten Realität wurden keine Artikel herangezogen, die vor dem Jahr 2010 erschienen sind, da die Ergebnisse möglicherweise bereits veraltet sind. Die aus der Auswertung resultierende Matrix bildet die Grundlage für die nachfolgende Analyse der Studien und ist in Anhang 1: Tabelle 36 dargestellt.

Im ersten Schritt lag der Fokus des Suchkatalogs auf Forschungen, die verschiedene Gesichtspunkte von Augmented Reality untersuchten. Für eine effiziente Implementierung dieser Technologie in einen bestehenden Produktionsprozess ist ein nachweisbarer Nutzen essenziell. Dazu wurden Arbeiten ausgewertet, die anhand von Experimenten und Case Studies mögliche Vor- und Nachteile sowie potenzielle Herausforderungen einer Integration von AR-Applikationen identifizierten.

Die zentrale Frage dieser Arbeit stellt die Untersuchung von AR-Toolkits zur Unterstützung des Use Cases dar. Dabei steht die Umsetzung der einfachen Erstellung von Augmented Reality Anwendungen im Vordergrund. Daher werden im zweiten Schritt der Analyse Arbeiten herangezogen, die verschiedene Tools und Programme bewerten und klassifizieren. Dabei werden auch Untersuchungen von Autoren hinzugezogen, die eigene Frameworks erstellten und diese im Rahmen von Experimenten evaluierten. Es werden die verschiedenen Methoden und die daraus resultierenden Ergebnisse betrachtet.

3.2. Ergebnisse Studienauswertung

3.2.1. Studien über Potentiale und Herausforderungen von Augmented Reality

Im Zentrum der Studie von Henderson und Feiner [HF11] stand die Entwicklung eines HMD-Prototypen inklusive zugehöriger Hard- und Software. Dabei visualisierte die Applikation bei jeder Aufgabe fünf verschiedene Augmente, um den Mechaniker bei der Arbeit zu unterstützen: Pfeile zur Lokalisierung des Tasks, Textinformationen zur Beschreibung der Aufgabe, Kontext der umliegenden Komponenten, vergrößerte Ansicht einer 3D-visualisierten Szene der Aufgabe und 3D-Modelle der zu benützenden Tools. Das HMD diente der Unterstützung von 18 Routinetätigkeiten zur Wartung eines gepanzerten Militärfahrzeugs. Zur Evaluierung des Prototypen wurde eine Feldstudie mit sechs Probanden durchgeführt. Darin wurde der HMD-Prototyp mit Anweisungen per HUD und LCD-Bildschirm verglichen. Die Analyse der verschiedenen Darstellungsformen erfolgte durch die Messung der Zeiten für Lokalisierung und Fertigstellung der einzelnen Aufgaben sowie die erzielte Fehlerquote und die Anzahl der Kopfbewegungen im Laufe der einzelnen Tätigkeiten. In einer abschließenden Befragung wurden die Meinungen der Probanden zu der Technologie eingeholt. Die Ergebnisse der Feldstudie ließen eine Verringerung der Zeit zur Lokalisierung der Tätigkeiten und der Anzahl an Kopfbewegungen erkennen. Die durchschnittliche Zeit zur Absolvierung des Tasks lag bei der Unterstützung durch HMD zwischen jener von HUD und LCD. Trotz des improvisierten Aufbaus des HMD war die Zufriedenheit der Probanden in Bezug auf die Technologie sehr hoch. Kritikpunkte entstanden vor allem durch eine mögliche Überlagerung der Aufgabe durch die Augmente. Zur Verifizierung einer Erhöhung der Schnelligkeit durch AR-Applikationen werden weitere Untersuchungen zu der Thematik vorgeschlagen. Es wird eine Anpassung des Contents auf den jeweiligen Mechaniker vorgeschlagen, um nicht benötigte Informationen ausblenden zu können.

Dieser Ansatz wurde in der Studie von Mourtzis, Xanthi und Zogopouklos [MXZ19] näher behandelt. In einer Fallstudie wurde ein Framework für Augmented Reality Anwendungen in der Produktion erstellt, das Daten aus dem CAM-System einer Biegemaschine, wie Setup und Teilegeometrie, in einer AR-Applikation visualisiert. Zusätzlich wird der Input der AR-Anwendung an den „Skill" des Arbeiters anpasst. Dazu wird jedem Arbeiter ein gewisses Level zugewiesen. Je nach Erfahrung wird ein gewisser Grad an Informationen in das Sichtfeld des Arbeiters eingeblendet. Während dem Beginner noch gewisse Sicherheitszonen und Hinweise zu Positionen eingeblendet werden, zeigt die Anwendung im Experienced Level nur mehr essenzielle Informationen an. Durch diesen Ansatz soll der Grad der Akzeptierung der Arbeiter erhöht werden. Jedoch wurde in der Studie dieser Ansatz nur theoretisch beschrieben und nicht durch Tests oder Befragungen der Mitarbeiter validiert. Nichtsdestotrotz stellt das Framework einen interessanten Beitrag für die Gestaltung der Schnittstellen von AR-Anwendungen zu CAM-Systemen dar. Durch eine Anpassung des Systems an die Arbeiter wird ein wichtiger Ansatz für die Integration in den Arbeitsalltag geschaffen.

In zwei Experimenten von Sanna et al. [SML+15] wurde diese Hypothese belegt. Schwerpunkt der Studie lag in der Analyse einer Unterstützung von Assembly Aufgaben mit einer AR-Anwendung für HHD. Die Aufgabe für 22 Studenten bestand im Wechseln einer Festplatte eines Laptops. Dies geschah für eine Gruppe unter Anleitung eines AR-Tools für HHD, für die andere per Papieranweisungen. Dabei wurden die benötigte Zeit und die Anzahl der Fehler notiert und ausgewertet. Abschließend erfolgte ein Feedback der Probanden. Im ersten Experiment beherrschten alle zehn Probanden den Vorgang bereits. Die Ergebnisse zeigten, dass die Gruppe unter Verwendung des AR-Tools mehr Zeit für die Absolvierung der Aufgabe benötigte. Das zweite Experiment stellte die gleiche Aufgabe zwölf Studenten, die noch keine Erfahrung bei dieser Tätigkeit vorweisen konnten. Die Messungen zeigten eine querschnittliche Zeit für die Absolvierung der Aufgabe von 630,5s bei Unterstützung mit HHD-Anwendung und 671s für die Absolvierung mittels Papieranleitung. In beiden Experimenten konnte die Anzahl der Fehler unter Verwendung der AR-Anleitung auf ca. ein Drittel reduziert werden. Dabei ist zu erkennen, dass AR-Anwendungen in Bezug auf die zeitliche Komponente für Experten hinderlich, jedoch für Laien von Vorteil sein können. Eine weitere Evaluierung dieser These soll in Zukunft erfolgen.

Ein Vergleich zu einer alternativen disruptiven Technologie, der Virtual Reality, wurde in einem Experiment von Gavish et al. [GGW+15] angestellt. Der Fokus dieser Studie lag in der Evaluierung eines Nutzens von AR- und VR-Training zur Unterstützung der Wartung eines Aktuators. Dazu wurden in einem Experiment 40 Experten in vier Gruppen unterteilt, die die gleichen Aufgaben nach einer unterschiedlichen Art des Trainings absolvierten. Die VR-Gruppe absolvierte zwei Trainingsdurchgänge in einer VR Plattform, während die Control-VR Gruppe zweimal die gefilmte Anleitung ansah. Die AR-Gruppe durchlief ein einmaliges Training am realen Objekt unter Zuhilfenahme einer AR-Plattform, die mithilfe des Programms IMA-AR erstellt wurde. Die Control-AR Gruppe probte am realen Objekt mit Unterstützung einer gefilmten Demonstration. Die tatsächliche Aufgabe wurde nach Beendigung des Trainings absolviert. Dabei wurde die Zeit zur Absolvierung gemessen sowie die entstandenen Fehler analysiert. Die Erkenntnisse der Studie zeigen, dass die AR- und VR-Gruppe aufgrund der Gewöhnung an die Steuerung, am längsten für das Training benötigten. Dies ist auf einen Mangel an Erfahrung mit dieser Art von Technologien zurückzuführen. Es ist zu erwarten, dass mit voranschreitender Verbreitung der Mixed Reality immer mehr Menschen Erfahrung damit sammeln werden. Es wurden keine signifikanten Unterschiede zwischen VR und VR-Control Gruppe festgestellt. Die AR- Gruppe verzeichnete, verglichen mit der Control-AR Gruppe, deutlich weniger ungelöste Fehler mit geringfügig niedriger Dauer zur Absolvierung. Dieses Ergebnis deckt sich mit den Erkenntnissen der Studie von Sanna et al (s. [SML+15]).

Zuletzt wurde die Studie der Autoren Masood und Egger ausgewertet [ME20]. Sie führten ein Experiment zur Ermittlung kritischer Erfolgsfaktoren und Herausforderungen einer Implementierung von Industrial Augmented Reality (IAR) Projekten durch. Dazu wurde eine AR-Anleitung zur Visualisierung der Montage einer Getriebebox mit drei Planetengetrieben von elf Werksarbeitern und elf Theoretikern getestet. Zu Beginn des Experiments wurde von den Probanden ein Fragebogen ausgefüllt, um bisherige Erfahrung mit AR zu ermitteln. Im Laufe des Tests wurde die Zeit für die Absolvierung gemessen. Zusätzlich erfolgte die Ermittlung der empfundenen Arbeitsbelastung mit dem NASA Task Load Index (TLX). Dieser misst die mentale, physische und zeitliche Belastung sowie Performance, Anstrengung und Frustration. Abschließend erfolgte eine Feedback Session, in der die Ansichten der Werksarbeiter zu IAR erfasst wurden. Anhand der Umfrage stellen die Punkte Akzeptanz der User, korrekte Systemkonfiguration und eine effektive organisatorische Implementierung wichtige Erfolgsfaktoren einer erfolgreichen Integration von IAR dar. Besonders hervorzuheben ist der kritische Aspekt der Akzeptanz der User. Eine erfolgreiche Einschulung und individuelle Anpassungsmöglichkeiten sind somit entscheidend für die Effizienz des Systems. Dies geht auch aus den Zeitmessungen hervor. Die Probanden, die bereits Erfahrungen mit AR sammeln konnten, absolvierten die Aufgabe wesentlich schneller. Entgegen der Erwartung bestanden jedoch keine signifikanten Unterschiede im TLX. Zur Erhöhung der Akzeptanz ist es deshalb ratsam, Facharbeiter in den Entwicklungsprozess mit einzubeziehen. Die Kompatibilität mit dem vorhandenen System und das Problem des Upscaling stellen, aufgrund der Vielzahl an verschiedenen IT-Systemen, weitere Herausforderungen dar. Dies ist unter anderem auf fehlende Standards und zeitaufwändige Methoden der AR-Erstellung zurückzuführen. Im Laufe der Zeit werden standardisierte User Interfaces zu einer höheren Verbreitung in der Bevölkerung und dadurch zu vermeintlich mehr Akzeptanz führen. Die Verwendung von geeigneter Hard- und Software ist zu Beginn zu evaluieren. Dabei sollten unter anderem Punkte wie Tragekomfort bei HMDs für eine lange Nutzdauer oder die Möglichkeit zur Nutzung von HHD nicht außer Acht gelassen werden.

Zusammenfassend werden wichtige Ergebnisse der ersten Studienauswertung beschrieben. Augmented Reality Anwendungen können bei einer effektiven Implementierung eine Reduktion der benötigten Zeit von Arbeitsschritten herbeiführen. Dieser Grad ist hierbei stark von der vorhergehenden Erfahrung des Nutzers abhängig. Es gilt, dass unerfahrene User stärker von der Anwendung profitieren, wobei eine Verringerung der Fehleranzahl bei allen Nutzern zu beobachten ist (vgl. [SML+15], [GGW+15], [HF11]). Durch eine individuelle Anpassung an den Anwender kann ein optimales Maß an Informationen eingeblendet werden (vgl. [MXZ19], [ME20]). Deswegen ist es für eine erfolgreiche Implementierung von IAR notwendig, die Betroffenen von Beginn an in die Entwicklung der Applikation zu integrieren. Zudem sind die Schnittstellen zu vorhandenen Systemen, die Nutzung von geeigneter Technologie und die erfolgreiche Implementierung wichtige Thematiken, die bei einer Integration beachtet werden sollten (s. [ME20]).

3.2.2. Forschungen zum Vergleich von Augmented Reality-Frameworks

Amin und Govilkar [AG 15] untersuchten sechs Software Development Kits (SDKs) in Bezug auf verschiedene Aspekte. Als SDKs werden Pakete zur Entwicklung von Software bezeichnet, die Tools wie Bibliotheken, Beispielcodes etc. beinhalten, um die Codierung verschiedener Funktionen, wie Tracking der Umgebung oder Rendering, zu ermöglichen (vgl. [San18], näheres siehe Seite 51). Zur Analyse verglichen Amin und Govilkar sechs Frameworks (siehe Anhang 1: Tabelle 36) miteinander. Es erfolgte eine Bewertung in Punkto Lizenztypen, Arten der Marker Generierung, Trackingmöglichkeiten und Darstellungsmöglichkeiten. Abschließend werden Vor- und Nachteile der verschiedenen Tools aufgezeigt. Laut Amin bietet zum Beispiel Vuforia gute Performance, wenn sich das Target weiter weg befindet, supportet jedoch keine Standardformate von 3D-Modellen. Die Arbeit stellt einen guten Überblick der verschiedenen Frameworks dar. Hierbei sei jedoch erwähnt, dass sich die diversen Tools stetig weiterentwickeln und angeführte Aussagen über die Frameworks bereits überholt sein könnten. So existieren zum Beispiel die zwei SDKs Metaio und D’Fusion in der damaligen Ausführung nicht mehr.

Die Evaluierung diverser Frameworks zur Erstellung einer AR-Applikation stand im Zentrum der Studie von Rautenbach, Coetzee und Jooste [RCJ16]. Grundlage für die Anforderungen stellten drei Use Cases zur Visualisierung von Wohnadressen in ländlichen Gebieten dar. Zerstörte Gebäude durch Naturkatastrophen, Umfragen in Gebieten ohne bekannte Adressen und der Abgleich der digital zugewiesenen Adressen mit den realen Hausnummernschildern sind mögliche Anwendungsfälle des geplanten Programms. Geokodierte Adressen stellten die grundlegenden Daten dar. Die Hausnummern waren den entsprechenden GPS-Daten zugewiesen, wodurch eine Visualisierung der Daten im Programm ermöglicht werden sollte. Deshalb stellen GPS- und IMU-Tracking essenzielle Funktionalitäten der Frameworks dar. Anhand der entstandenen Kriterien wurden sieben ausgewählte Frameworks (siehe Anhang 1: Tabelle 36) miteinander verglichen. Es erfolgte eine Evaluierung der unterschiedlichen Kriterien, welche in die Kategorien generell, funktional und nicht funktional unterteilt wurden. Dazu wurden Punkte vergeben, ob ein Framework die betrachteten Funktionalitäten supportet oder nicht. Die SDKs ARToolkit und Metaio erfüllten die meisten Kriterien, jedoch genügte kein Programm allen Anforderungen des Use Cases. Dies ist vor allem auf den geringen Support und die geringe Rate an Updates beider Frameworks zurückzuführen. Abschließend erfolgte die Überprüfung des Konzeptes anhand der Entwicklung eines entsprechenden Programms in Java mithilfe des Android SDK.

Die Analyse verschiedener Frameworks zur Erstellung von pädagogischen AR-Applikationen stellte den Forschungsschwerpunkt der Studie von Herpich et al. [HGT17] dar. Nach bestimmten Kriterien wurde eine Vorauswahl an elf Frameworks (siehe Anhang 1: Tabelle 36) getroffen. Zur Bewertung dieser wurde eine binäre Punktevergabe für neun verschiedene Aspekte des Trackings und der Erstellung des Contents verwendet, wobei sämtliche SDKs in Unity implementiert wurden. Dabei erwiesen sich die Plattformen Wikitude und Vuforia als die Frameworks mit der höchsten Gesamtbewertung. Die steile Lernkurve diverser Programme stellt jedoch ein großes Hindernis für die Erstellung von Applikationen von unerfahrenem Personal dar. Dies trifft unter anderem auch auf den pädagogischen Bereich zu, den diese Studie näher betrachtet. Für die Schaffung einer Applikation sind Tools notwendig, die kein selbstständiges Erstellen von Codes und Algorithmen erfordern, sondern lediglich eine Einspielung der gewünschten Ressourcen. In diesem Aspekt erwiesen sich die Softwaretools, die ein webbasiertes Erstellen ermöglichen, (Augment, Aurasma, BlippAR, CraftAR, LayAR, PixLive und Wikitude) als potenzielle Programme.

Die Schaffung eines Frameworks für Pädagogen war Kerninhalt der Arbeit von Mota et al. [MRD+18] Das Framework VEDILS soll der einfachen Erstellung von AR-Inhalten für Lernaktivitäten dienen. Dazu setzt VEDILS auf die Verwendung einer blockbasierten Programmierung, die eine einfache Erstellung von Codes ermöglicht. Zusätzliche Funktionalitäten stellen die Überwachung von Interaktionsdaten zwischen den Studenten und integrierten Feedbackoptionen dar. Diese ermöglichen eine konstante Weiterentwicklung der App. Mithilfe des Frameworks wurden zwei Applikationen in einem Workshop mit 47 Pädagogen erstellt. Im Rahmen dessen wurde ein Fragebogen zur Ermittlung der wahrgenommenen Nützlichkeit, Benutzerfreundlichkeit und Intention einer Wiederverwendung ausgefüllt. In allen Punkten konnte das Programm hohe Werte erzielen. Alle Teilnehmer waren nach dem Workshop in der Lage mit dem Programm AR-Lernanwendungen für Smartphones zu erstellen. Zwei dieser Applikationen wurden in Fallstudien getestet. Die erste Fallstudie behandelte eine Anleitung zur Einrichtung eines DMS-Testsystems im Labor, welche mit 33 Studenten durchgeführt wurde. In sieben Schritten wurden die Studenten mit Hilfe von 3D Modellen und zusätzlichen Texten durch den Prozess geleitet. In einer Online-Umfrage wurde abschließend die Zufriedenheit mit dem Programm ermittelt, in der die Mehrheit der Meinung war, dass solche AR-Apps den Lernprozess verbessern könnten. Die zweite Fallstudie wurde mit 41 Studenten durchgeführt, in der eine Variante des Spiels „Wer bin Ich?“ zur Erlernung von Deutschkenntnissen getestet wurde. Mit den integrierten Interaktionsdaten konnte wertvolles Feedback zu den Aufgaben und Lernerfolgen gesammelt werden, die der Pädagoge für eine Anpassung des Programms nutzen kann.

Nebeling und Speicher [NS18] klassifizierten verschiedene Programme zur Erstellung von AR und charakterisierten auftretende Problematiken. Anhand der Zuverlässigkeit und der benötigten Programmiererfahrung kann eine Unterteilung in fünf verschiedene Klassen erfolgen. Die erste Klasse an Programmen besitzen grundlegende Szenerie- und Interaktionsmöglichkeiten, bieten jedoch wenig Support für AR und VR Content. In der zweiten Klasse befinden sich Programme, die grundlegende AR/VR Funktionen zur Szenenerstellung und Interaktion bieten. 360°-Bilder ermöglichen das Erstellen von Szenen, worauf Interaktionen und Objekte auf bestimmten Punkten verankert werden können. Damit können bestimmte Menüpunkte oder das Laden neuer Szenen ermöglicht werden. Softwaretools in der dritten Klasse bieten eine Erstellung von kamerabasierten Interaktionen. Programme wie ComposeAR und Holobuilder ermöglichen Marker-basierte Funktionalitäten. Diese supporten das Einfügen gewisser Inhalte, Tracking von benutzerdefinierten Objekten und grundlegendes Erstellen einfacher Animationen, Logiken und Interaktionen. Umfangreiche Funktionen wie Menüs oder Szenen können damit nicht erzeugt werden. Programme in der vierten Klasse dienen der Erstellung von 3D-Content ohne explizite AR-Funktionalitäten. Diese bieten eine breite Palette zur Modellierung, Animation und Simulation von Objekten, bei größerem Schwierigkeitsgrad. Die Erstellung von 3D-Spielen und Applikationen sind die Kernfunktionalitäten der Programme in der fünften Klasse. Viele SDKs für AR-Applikationen werden in Editoren wie Unity und Unreal integriert. Diese ermöglichen eine Vielzahl an Interaktionen und Gestaltungsmöglichkeiten, benötigen aber vertieftes Wissen in 3D-Modellierung und Programmiersprachen. Dadurch sind sie für unerfahrene User nur sehr schwer zu beherrschen. Zudem benötigen sie 3D-Objekte, die in anderen Programmen erstellt werden müssen, wodurch Zeitaufwand und Kosten zur Erstellung der AR-Applikationen stark steigen. Zusammenfassend kann gesagt werden, dass bei allen Programmen für die Erstellung von interaktiven Funktionen ein gewisser Programmieraufwand benötigt wird. Bei Programmen in den unteren Klassen wird generell weniger Erfahrung benötigt, jedoch sind nur wenige Funktionalitäten im Vorhinein bereitgestellt. Aufgrund des begrenzten Supports an Dateiformaten, ist oft eine Vielzahl an Programmen nötig, um eine Portierung von Inhalten zu ermöglichen. Im Rahmen der Studie wurden zwei konzeptuelle Programme (PrntoAR und GestureWiz) vorgestellt und bewertet, die eine relativ schnelle und einfache Möglichkeit zur Erstellung von AR-Applikationen bietet. Jedoch werden weitere Tests mit diesen nötig sein, um den Funktionsumfang zu erweitern und diese für die breite Masse zugänglich zu machen.

In ihrer Arbeit analysierte Poth [Pot17] verschiedene AR-Frameworks mithilfe des OpenBRR-Modells. Die Auswahl erfolgte auf Basis der Anforderungen eines Use Cases zur Erstellung einer AR-Applikation, die Kunden Unterstützung bei Wartungsprozessen bietet. Nach einer Vorauswahl aus 40 Frameworks wurden die fünf ausgewählten SDKs (EasyAR, Kudan AR, MAXST AR, Pikkart AR und Vuforia) nach gewichteten Kriterien bewertet. Dabei wurden die Kategorien Trackingmöglichkeiten, Qualität des Trackings, Dokumentation, Community, Benutzerfreundlichkeit, Verbreitung und Support der Frameworks untersucht. Das SDK Vuforia erzielte die beste Bewertung, weshalb es für die Entwicklung der gewünschten Applikation in Unity herangezogen wurde. Insgesamt schnitten alle Applikationen gut ab.

3.3. Forschungslücke

Auf Basis der untersuchten Studien wurden wichtige Erkenntnisse über vorhandene Frameworks und Programme gewonnen. Allen Dingen voran ist eine Ermittlung der Funktionen, die für eine Umsetzung des Use-Cases notwendig sind, erforderlich. So benötigen Applikationen im Outdoor-Bereich (vgl. [RCJ16]) andere Funktionalitäten als Programme für Lernaktivitäten (vgl. [HGT17]). Durch die abgeleiteten Anforderungen kann so eine grundlegende Auswahl in Frage kommender Softwaretools erfolgen. Die SDKs Wikitude und Vuforia konnten in allen Studien gute Bewertungen erzielen (vgl. [AG15], [HGT17], [Pot17]). Ein Nachteil solcher SDKs ist jedoch, dass die Umsetzung ihrer Funktionalitäten in Programmen wie Unity oder Unreal erfolgt. Diese bieten eine umfangreiche Palette an Möglichkeiten, sind jedoch schwer erlernbar. Dadurch können ungeschulte Personen nur unter hohem Zeitaufwand produktionsrelevante Programme erstellen (vgl. [HGT17], [NS18]). Zur Erstellung von AR-Anwendungen von ungeübtem Personal sind daher Tools notwendig, die die Benutzerfreundlichkeit in den Vordergrund stellen. Frameworks wie VEDILS (s. [MRD+18]), ProtoAR und GestureWiz (s. [NS18]) stellen wichtige Projekte zur Verbreitung der AR-Technologie dar.

In den analysierten Studien wurden zur Erschaffung der benötigten Applikationen eigene Frameworks (s. [HF11], [MRD+18], [MXZ19], [GGW+15]) oder bereits existierende SDKs (s. [RCJ16], [Pot17], [SML+15], [ME20]) genutzt. Es wurden Vergleiche zwischen verschiedenen Frameworks und Tools angestellt sowie Betrachtungen zur Unterstützung von Prozessen mit AR-Anwendungen angestellt. Eine Übersicht der analysierten Frameworks der betrachteten Studien ist in Anhang 1: Tabelle 37 dargestellt. Poth [Pot17] evaluierte verschiedene Frameworks, jedoch lag der Schwerpunkt der Arbeit in der technischen Umsetzbarkeit des Projektes. Keine der zurzeit vorliegenden Arbeiten legte den Fokus auf die Erstellung von AR-Anwendungen für Prozesse in der Produktion unter dem Aspekt mangelnder Programmierkenntnisse, weshalb in der vorliegenden Arbeit folgende Forschungsfrage behandelt wird:

Wie können Augmented Reality Anwendungen ohne vertiefende Programmierkenntnisse erstellt und in einen bestehenden Produktionsprozess integriert werden?

Dieser Punkt ist insofern relevant, da vor allem KMUs sich Spezialisten in dem Bereich der AR-Erstellung oft nicht leisten können. Eine Implementierung solcher Technologien kann jedoch mit diversen Vorteilen, wie einer verringerten Rüstzeit oder einer geringerer Fehlerquote einher gehen. Für eine zunehmende Verbreitung von prozessunterstützenden AR-Inhalten ist es daher entscheidend, dass diese von dem bestehenden Personal erstellt und verwaltet werden können. Entstehen für das Unternehmen zu hohe Kosten und ein zu großer Aufwand, können diese den Mehrwert der Applikation eventuell nicht aufwiegen und eine Implementierung wird nicht in Betracht gezogen. Mithilfe einer in Rahmen der Evaluierung durchgeführten Marktanalyse sollen die folgenden Detailfragen behandelt werden:

1.Welche Tools zur einfachen Erstellung von AR-Applikationen existieren am Markt und können potenziell für den Use-Case eingesetzt werden?
2.Welche Vor- und Nachteile bieten die unterschiedlichen Programme?
3.Welches Programm eignet sich am besten für die Erstellung einer AR-Unterstützung des Rüstvorganges?

4. Integration von Augmented Reality in Rüstprozesse

Zur Ermittlung potenzieller Softwaretools zur Erstellung von AR-Anwendungen wird ein Umrüstvorgang auf einer CNC-Maschine als Use Case beschrieben. Es werden wichtige Aspekte des Rüstens der Arbeitssysteme aufgezeigt. Dazu zählen u.a. organisatorische Gesichtspunkte zur Optimierung des Rüstprozesses.

Anhand eines exemplarischen Rüstvorganges werden grundlegenden Arbeitsschritte des Rüstens aufgezeigt. Diese werden in externe und interne Rüsttätigkeiten unterteilt. Zudem werden essenzielle Aspekte aufgezeigt, die in die Erstellung des Programms miteinzubeziehen sind. Im Zuge der Betrachtung wird auf die Dokumente Arbeitseinweisung, Einrichteblatt und deren enthaltene Informationen näher eingegangen.

In dem beschriebenen Konzept wird der angestrebte Aufbau der Augmented Reality Applikation aufgezeigt. Darin werden die verschiedenen Methoden zur Unterstützung des Prozesses beschrieben. Anhand dieses Konzepts werden zur Erstellung benötigte Anforderungen abgeleitet. Um in der nachfolgenden Analyse einer näheren Betrachtung unterzogen zu werden, müssen die Programme die essenziellen Funktionalitäten aufweisen.

4.1. Optimierung des Umrüstprozesses

Die Bearbeitung von Rohteilen in CNC-Maschinen erfordert eine Vielzahl an Werkzeugen (WZ). Diese werden in einer vorgegebenen Reihenfolge eingesetzt, um das Rohteil in die gewünschte Form zu bringen. Um einen automatischen Arbeitsablauf zu ermöglichen, sind NC-Maschinen mit einem Werkzeugmagazin mit automatischem Werkzeugwechsel ausgestattet. Jedem Platz ist eine gewisse T-Nummer zugewiesen. Auf diese T-Nummer wird in jedem Arbeitsschritt des CNC-Programms referenziert. Dies ermöglicht eine eindeutige Definition des Werkzeugs für jeden Bearbeitungsvorgang. Ist ein Wechsel des Werkzeugs für den nächsten Bearbeitungsschritt erforderlich, so greift die Anlage auf das Werkzeug im Magazinslot mit der entsprechenden T-Nummer zu. Somit ist eine automatische Bearbeitung des gesamten Werkstücks möglich (vgl. [KRS17]).

Hierbei ist zu beachten, dass je nach Geometrie des Werkstücks eine andere Palette an Werkzeugen notwendig sein kann. Dadurch ist es notwendig, bei einem Wechsel des zu erzeugenden Produkts einen Rüstvorgang durchzuführen. Als Rüstvorgang wird die Summe der Tätigkeiten definiert, die nötig sind, um eine Maschine für den nächsten Fertigungsvorgang vorzubereiten. Dazu zählt die Entnahme der nicht benötigten Werkzeuge, die Bestückung mit benötigten Werkzeugen sowie eine Versorgung mit notwendigen Betriebsmitteln (vgl. [Ver84]). Wie aus Abbildung 14 zu entnehmen ist, wird der Rüstvorgang in die Bereiche Rüstvorbereitung, Werkzeugwechsel, Einstellen sowie Testen und Anpassen unterteilt. Die Zeit, die benötigt wird, um die Maschine auf die Ausführung eines Auftrags vorzubereiten, inklusive Herunter- und Anfahren, wird als Rüstzeit bezeichnet (s. [Pro18a]). Es ist zu beachten, dass die Zeit, die für das Testen benötigt wird, stark von den vorherigen Prozessen abhängig ist. Je genauer bei der Prozesskette der Konstruktion bis zum Einstellen der Maschine gearbeitet worden ist, desto kürzer wird die Zeit für das Anpassen der Parameter ausfallen. Da ausgedehnte Rüstzeiten zu einem langen Stillstand der Maschine führen, gilt es diese zu reduzieren. Somit kann die Auslastung der Fertigungsanlagen gesteigert werden. Infolgedessen ist eine flexiblere Fertigung mit kleineren Losgrößen und eine Stückkostenreduktion sowie eine Reduzierung der Durchlaufzeiten und der Lagerbestände denkbar (vgl. [Bec18]).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 14: Rüstvorgang in vier Schritten [Hol16, S. 4]

Bevor eine Implementierung von AR-Applikationen erfolgen kann, ist es zunächst notwendig, den Rüstvorgang der einzelnen Maschinen zu optimieren. Im ersten Schritt müssen grobe organisatorische und strukturelle Fehler beseitigt werden. Dadurch können nicht benötigte Tätigkeiten reduziert und eine grundlegende standardisierte Struktur für die Rüstvorgänge geschaffen werden. In Folge der Optimierung kann eine AR-Anwendung erstellt werden, um die festgelegten Standardabläufe zu unterstützen.

Ein Modell zur Optimierung der Rüstprozesse ist die Methode SM ED (Single Minute Exchange of Die). Ziel dieser Optimierung ist es, den Maschinenstillstand zwischen zwei Aufträgen zu minimieren. Dabei werden die einzelnen Abläufe durch organisatorische und technische Maßnahmen verkürzt (vgl. [SDB18]).

Grundlage der Optimierung bildet eine Analyse, in der eine Betrachtung des kompletten Rüstvorganges erfolgt. Die einzelnen Tätigkeiten werden gemustert und deren Dauer sowie benötigte Werkzeuge analysiert. Im Zuge dessen wird zwischen internen und externen Rüsttätigkeiten unterschieden. Externe Rüsttätigkeiten können bei laufenden Arbeitssystemen durchgeführt werden. Dazu zählen Tätigkeiten wie die Bereitstellung von Material oder Werkzeugen. Als interne Rüsttätigkeiten werden die Aufgaben bezeichnet, die einen Stillstand der Maschine erfordern und möglichst reduziert werden sollten (vgl. [SDB18]).

Des Weiteren ist es nötig, die internen Rüsttätigkeiten genauer zu analysieren und deren Aufgabe zu hinterfragen. Es wird evaluiert, ob diese Tätigkeiten extern durchführbar sind. Falls dies nicht der Fall ist, sollten Wege zur Bewerkstelligung in Betracht gezogen werden. Dies kann zum Beispiel durch externes Vorheizen von Werkzeugen oder der Verwendung von standardisierten Klemmen etc. erfolgen. Oft können kleine Veränderungen, wie definierte Plätze und Kennzeichnung der benötigten Utensilien, bereits einen starken Einfluss auf die Rüstzeiten haben (vgl. [SDB18]).

[...]

Ende der Leseprobe aus 122 Seiten

Details

Titel
Augmented Reality in der Produktion. Analyse von Frameworks zur Erstellung von Anwendungen ohne Programmierkenntnisse
Hochschule
FH Campus Wien
Note
1,0
Autor
Jahr
2020
Seiten
122
Katalognummer
V998786
ISBN (eBook)
9783346373137
Sprache
Deutsch
Schlagworte
Augmented Reality, Frameworks, OpenBRR-Evaluierung, Programmieren, Rüstprozess, Vuforia Studio, Wikitude, Magic Leap, MAXST AR, Microsoft Dynamics, 365 Guides, Software, AR-Brille, Vergleich, AR-Applikationen, Datenbrille, Tracking, Marktanalyse, Softwaretools, Virtual Reality, Rüstplan, Studienauswertung, Head Up Displays, Optical See-through Displays, Tablet, Smartphone, Visuelles Tracking, NFT, SLAM, Industrie, Industrie 4.0, Digitale Revolution, Industrielle Augmented Reality
Arbeit zitieren
Christoph Rother (Autor), 2020, Augmented Reality in der Produktion. Analyse von Frameworks zur Erstellung von Anwendungen ohne Programmierkenntnisse, München, GRIN Verlag, https://www.grin.com/document/998786

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Augmented Reality in der Produktion. Analyse von Frameworks zur Erstellung von Anwendungen ohne Programmierkenntnisse



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden