Real World Use Cases für Edge Intelligence Lösungen


Seminar Paper, 2020

39 Pages, Grade: 1,0


Excerpt


Inhaltsverzeichnis

Zusammenfassung

Abstract

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Grundlagen
2.1 Artificial Intelligence
2.2 Edge Computing
2.3 Edge Intelligence

3 Strukturierte Literaturanalyse
3.1 5 Schritte nach Vom Brocke et al. (2009)
3.2 Definition des Umfangs
3.3 Konzeptualisierung des Themas
3.3.1 Definition relevanter Terme
3.3.2 Aufstellen des Suchstrings
3.4 Literaturrecherche
3.4.1 Stichwort-Literatursuche
3.4.2 Reduktion der Funde
3.5 Analyse und Synthese
3.5.1 Kernkonzepte
3.6 Konzeptmatrix

4 Taxonomie nach Nickerson et al. (2017)
4.1 Konzept: Taxonomie-Entwicklung
4.2 Entwicklung und Ergebnis der Taxonomie
4.2.1 Bestimmung der Meta-Charakteristika und der Endbedingungen
4.2.2 Iterationen
4.3 Ergebnis der Taxonomie

5 Diskussion

6 Schlussfolgerung

Literaturverzeichnis

Anhang

Zusammenfassung

Von Jahr zu Jahr wächst die von Menschen, Maschinen und Dingen produzierte Datenmenge. Die Daten entstehen dabei, im industriellen, aber auch gesellschaftlichen Kontext. Um die Flut an Daten effektiv zu verarbeiten, wird immer mehr künstliche Intelligenz (KI) eingesetzt. Während KI-Services bislang vorwiegend in der Cloud bzw. von Rechenzentren ausgeführt werden, verschiebt sich die Anwendung von KI zunehmend in die Richtung des Netzwerk-rands – dem Einsatzgebiet der Edge Intelligence (EI).

EI ist in dem Bereich Informationstechnologie in den letzten Jahren in den Fokus der Forschung gerückt. In dieser Arbeit wird der aktuelle Forschungsstand von Anwendungsfällen für EI Lösungen in einer strukturierten Literaturanalyse nach Vom Brocke und Kollegen (2009) untersucht und im Anschluss in einer Taxonomie nach Nickerson und Team (2017) klassifiziert.

Gender-Erklärung

Aus Gründen der besseren Lesbarkeit wird in dieser wissenschaftlichen Arbeit die Sprachform des generischen Maskulinums angewandt. Es wird an dieser Stelle darauf hingewiesen, dass die ausschließliche Verwendung der männlichen Form geschlechtsunabhängig verstanden werden soll und soweit es für die Aussage erforderlich ist, weibliche oder anderweitige Geschlechteridentitäten dabei ausdrücklich mitgemeint werden.

Abstract

Year by year the amount of data produced by people, machines and things is growing. The data is created in an industrial, but also in a social context. To process the flood of data effectively, more and more artificial intelligence (AI) is being used. While AI services have so far been mainly carried out in the cloud or by data centers, the application of AI is increasingly shifting towards the network edge - the application area of Edge Intelligence (EI).

EI has become the focus of research in the field of information technology in recent years. In this thesis the current state of research of use cases for EI solutions is examined in a structured literature analysis according to Vom Brocke and colleagues (2009) and subsequently classified in a taxonomy according to Nickerson and Team (2017).

Abbildungsverzeichnis

Abbildung 1: Ausprägungen von EI (In Anlehnung an Zhou et al., 2019, S. 1744)

Abbildung 2: Recherche-Prozess (In Anlehnung an Vom Brocke et al., 2009, S. 9)

Abbildung 3: Konzept der systematischen Literaturrecherche

Abbildung 4: Übersicht über Such- und Filterungsprozess der Titelreduktion

Abbildung 5: Taxonomie-Entwicklung (In Anlehnung an Nickerson et al., 2017, S. 345)

Abbildung 6: Taxonomie

Tabellenverzeichnis

Tabelle 1: Untersuchungsumfang (In Anlehnung an Cooper, 1988, S. 109)

Tabelle 2: Kurzdefinitionen der relevanten Konzepte

Tabelle 3: Entwicklung des Suchstrings

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

In einer Studie prognostiziert das Telekommunikationsunternehmen Cisco (2019, S. 2), dass bis zum Jahr 2021 weltweit 850 Zettabyte1 (ZB2 ) Daten von Menschen, Maschinen und Geräten generiert werden. Dabei wird gerade einmal ein Viertel (21 ZB) des nutzbaren Daten-verkehrs, was etwa 10% der 850 ZB Daten entspricht, in Rechenzentren gespeichert und dort mithilfe von künstlicher Intelligenz verarbeitet (Cisco, 2019, S. 2).

Um die Informationen, die mit den generierten Datenmengen aufkommen, effizient und produktiv zu nutzen, sind innovative Ansätze gefragt. Eine Technik, der immer mehr Aufmerksamkeit geschenkt wird, ist Edge Intelligence. Hierbei wird die von KI-Algorithmen unterstütze Datenverarbeitung aus der Cloud näher an den Entstehungsort der Daten verschoben (Zhou et al., 2019, S. 1742). Diese Anwendung von KI am Netzwerkrand oder auf lokalen Endgeräten ermöglicht etwa eine schnellere Verarbeitung, erhöhte Reaktionszeit, Datenverfügbarkeit und Energieeffizienz, aber auch die Erfüllung der Forderung nach höheren Datensicherheitsstandards (Zhou et al., 2019, S. 1739).

Die Thematik EI ist in den letzten Jahren zunehmend in den Fokus der Forschung geraten. In der vorliegenden wissenschaftlichen Arbeit werden Anwendungsfälle von EI Lösungen untersucht und systematisiert, indem der Forschungstand in einer strukturierten Literaturanalyse aufbereitet und anschließend in einer Taxonomie weiterverarbeitet wird. Die Arbeit untersucht die folgenden Forschungsfragen:

Forschungsfrage 1: Wie kann der aktuelle Stand der Forschung von Edge Intelligence Anwendungsfällen dargestellt und systematisch geordnet werden?

Forschungsfrage 2: Können die in der vorhandenen Literatur gefundenen Use Cases von EI Lösungen in einer Taxonomie sinnvoll klassifiziert und strukturiert werden?

Zunächst werden in Kapitel 2 die grundlegenden Begrifflichkeiten erläutert. Anschließend werden in Kapitel 3 Anwendungsfälle von EI in einer strukturierten Literaturrecherche nach Vom Brocke und Kollegen (2009) gesammelt und in Kapitel 4 in einer Taxonomie nach Nickerson und Team (2017) eingeordnet. Die wissenschaftliche Arbeit endet mit einer Diskussion der Forschungsergebnisse und einer Schlussfolgerung.

2 Grundlagen

Im folgenden Kapitel werden die grundlegenden Begrifflichkeiten Artificial Intelligence und Edge Computing (EC) definiert. Insbesondere wird auf die Edge Intelligence, die aus der Kombination von AI und EC entsteht, eingegangen und ein Überblick geschaffen.

2.1 Artificial Intelligence

In den 1950er Jahren befassten sich die ersten Pioniere damit, bisher von Menschen ausgeführte, intellektuell anspruchsvolle Aufgaben und Prozesse mithilfe von Algorithmen und Computersystemen zu simulieren und automatisieren (Chollet, 2017, S. 4). Das war die Geburt des Forschungsgebiets der AI, im deutschen Sprachraum künstliche Intelligenz.

Dabei liegt der Fokus auf das Nachstellen von typischen Eigenschaften, die der menschlichen Intelligenz zugeschrieben werden. Hierunter fallen unter anderem die durch Zhou und Kollegen (2019, S. 1740) definierten Verhaltensweisen Planen, Lernen, logisches Denken, Problemlösung, Wissensrepräsentation, Wahrnehmung, Bewegung, Manipulation und, in geringerem Maße, soziale Intelligenz und Kreativität.

Eine Ausprägung der KI ist das maschinelle Lernen, das es einem System ermöglicht durch selbstständiges Lernen Aufgaben automatisiert zu lösen. Präziser formuliert findet eine autonome Verarbeitung vorgegebener Trainingsdaten statt, wodurch das System statistische Strukturen erkennt und daraus Regeln ableitet, mit derer die Aufgabenstellung automatisiert auf unbekannte Daten angewendet werden kann (Chollet, 2017, S. 4f.). Dieser Prozess wird allgemein als Training bezeichnet. Wird in einem nächsten Schritt das trainierte System zur Vorhersage verwendet und auf unbekannte Daten angewendet, spricht man von Inferenz (Ambert et al., o. D.). Das hintereinander schalten vieler maschineller Lernmodelle wird als Deep Learning (DL) bezeichnet (Chollet, 2017, S. 8). Das zu Deutsch tiefe Lernen, ist ein Teilbereich des maschinellen Lernens. Chollet (2017, S. 8) betont, dass sich das Adjektiv „tief“ auf die in aufeinanderfolgenden Schichten aufbauende Datenauswertung bezieht und nicht etwa auf ein tieferes Verständnis eines Systems über die vorliegenden Daten zurückzuführen ist. Ein Modell mit einer hohen Anzahl an Schichten hat somit eine tiefe Modell-struktur und kann dem DL zugeordnet werden.

2.2 Edge Computing

„We are now in an information-centric era in which computing is ubiquitous and computation services are overflowing from the cloud to the edge.” (X. Wang et al., 2020, S. 3)

Während beim Cloud Computing Rechenzentren im Mittelpunkt stehen, findet beim EC die Verarbeitung von Anwendungen, Diensten und Daten on the Edge, also an der Kante oder dem Rand des Netzwerks statt (Zhou et al., 2019, S. 1739). Diese Entwicklung ist insbesondere der Verlagerung der Datenentstehung zuzuschreiben. In den letzten Jahren hat die von Edge Devices und Edge Nodes generierte Datenmenge, die von herkömmlichen Rechenzentren überschritten (X. Wang et al., 2020, S. 18). Als Edge Device nennen Wang und sein Team (2020, S. 18) Smartphones, Internet-of-Things (IoT) Geräte oder intelligente Fahrzeuge, wohingegen Edge Nodes als Server definiert werden, die am Rande des Netzwerks agieren.

Die lokale Datenerzeugung und -verarbeitung fernab der Cloud bringt wesentliche Vorteile mit sich. Unter anderen sind der reduzierten Bandbreitenbedarf und die daraus resultierenden niedrigeren Kosten, auch die sinkenden Latenzzeiten und der geringere Energiebedarf bei gleichzeitig erhöhter Privatsphäre und Datenschutz zu nennen (Zhou et al., 2019, S. 1739).

2.3 Edge Intelligence

Die Verbindung von EC und KI hat in den letzten Jahren das Forschungsfeld Edge Intelligence erschlossen. In der Literatur ist bisher keine allgemein gültige Definition zu finden, weswegen für die vorliegende wissenschaftliche Arbeit die in dem Bereich populären Paper von Zhou (2019) und Xu (2020) in Zusammenarbeit mit ihren jeweiligen Teams herange-zogen werden.

Nach Xu und Kollegen (2020, S. 2) ist EI ein Paradigma, bei dem KI-Algorithmen in der Nähe des Ortes, an dem die Daten erfasst werden, ausgeführt werden. Ziele sind zum einen die Qualität und Geschwindigkeit der Datenverarbeitung zu verbessern, und zum anderen die Privatsphäre und Sicherheit der Daten zu schützen (D. L. Xu, Tong et al., 2020, S. 2). Zhou und Kollegen (2019, S. 1744) beschränken den Anwendungsbereich der EI nicht auf die reine lokale Ausführung von KI-Algorithmen auf Endgeräten und definieren sieben Stufen, die die verschiedenen Ausprägungen möglicher EI Applikationen beschreiben. Je nach Ressourcenverteilung zwischen Endgeräten, Edge-Knoten und Cloud-Rechenzentren wird eine andere Stufe betrachtet (Zhou et al., 2019, S. 1744). Abbildung 1 bildet diesen Prozess ab.

Den Ausgangspunkt bildet die reine Cloud Intelligence, bei der Deep Learning Modelle vollständig in der Cloud trainiert und ausgeführt werden. In den Leveln 1 bis 3 wird das DL Modell zwar in der Cloud trainiert, die Inferenz findet jedoch, je nach Stufe, entweder in einer Cloud-Edge Kooperation, am Netzwerkrand oder direkt auf dem Gerät statt. Im vierten Level wird das DL Modell nur noch teilweise in der Cloud trainiert und im fünften Level voll-kommen on the edge. Das Endlevel ist die 100%ige EI. Hier wird sowohl Training als auch Inferenz vollständig auf dem lokalen Gerät ausgeführt. Ein steigendes EI Niveau führt zum einen zu schnellerer Datenübertragung, mehr Sicherheit und geringerer Bandbreitenkosten, jedoch auch zu erhöhter Rechenlatenz und höherem Energieverbrauch auf dem lokalen Gerät (Zhou et al., 2019, S. 1744), was in Abbildung 1 durch die beiden Pfeile angedeutet wird. Das „optimale EI Design“ existiert nicht, da je nach Anwendungsfall differenziert entschieden werden sollte, welches Level gewählt, und bis zu welchen Grad die KI aus der Cloud an den Netzwerkrand verschoben wird (Zhou et al., 2019, S. 1744). Hierbei sind vielfältige Einflussfaktoren wie Netzwerk, Kommunikation, Rechenleistung und Energieverbrauch zu berücksichtigen (X. Wang et al., 2020, S. 149).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Ausprägungen von EI (In Anlehnung an Zhou et al., 2019, S. 1744)

Ein weiteres Abgrenzungskriterium ist der gewählte Architekturmodus, in dem das Training des DL-Modells stattfindet. Zhou und Kollegen (2019, S. 1745) unterscheiden drei Ausprägungen: zentralisiertes Training, dezentralisiertes Training und hybrides Training. Das zentralisierte Training erfolgt dabei vollständig in den Cloud-Rechenzentren (Zhou et al., 2019, S. 1745). In Abbildung 1 entspricht das der Cloud Intelligence, zuzüglich Level ein bis drei. Der dezentralisierte Ansatz ermöglicht ein lokales Training (Level 5), während bei einem hybriden Modell der zentrale und dezentrale Ansatz verschmelzen (Zhou et al., 2019, S. 1745).

Neben dem Training ist auch der Ort der Inferenz für eine vollständige Einordnung in Abbildung 1 notwendig. Hierbei differenzieren Zhou und Team (2019) vier mögliche Inferenz-Modi. Im edge-based Modus schicken Geräte Daten an Edge-Server, auf denen daraufhin eine Prognose erarbeitet und zurückgeschickt wird (Zhou et al., 2019, S. 1751). Im device-based Modus hingegen findet der Vorgang der Inferenz auf dem Gerät statt, wobei die Geschwindigkeit der Ausführung von den lokalen Ressourcen des Gerätes (CPU, GPU und RAM) abhängt (Zhou et al., 2019, S. 1751). Der edge-device Modus teilt die Arbeitsleistung der Inferenz, je nach anzutreffenden Systemumgebungsfaktoren auf den Edge-Server und dem lokalen Gerät auf (Zhou et al., 2019, S. 1751). Im vierten, dem edge-cloud Modus, findet die Prognose in der Synergie zwischen Cloud und Edge-Server statt, wodurch die Leistung dieses Modells stark von der Qualität der Netzwerkverbindung abhängt (Zhou et al., 2019, S. 1751).

3 Strukturierte Literaturanalyse

Nachdem die wichtigsten Begriffe erläutert wurden, folgt die Literaturrecherche. Das anwandte Verfahren der strukturierten Literaturanalyse orientiert sich an dem Vorgehen nach Vom Brocke und Kollegen (2009). Im Folgendem wird der Prozess zunächst theoretisch beschrieben und anschließend auf das Forschungsgebiet „Real World Use Cases für Edge Intelligence Lösungen“ angewendet.

3.1 5 Schritte nach Vom Brocke et al. (2009)

"A literature review seeks to uncover the sources relevant to a topic under study and, thus, makes a vital contribution to the relevance and rigour of research […]" (Vom Brocke et al., 2009, S. 4)

Um eine qualitativ hochwertige Literaturanalyse durchzuführen empfehlen Vom Brocke und Team (2009, S. 6) eine Vorgehensweiße, die sich in fünf Schritte gliedert (Abbildung 2).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Recherche-Prozess (In Anlehnung an Vom Brocke et al., 2009, S. 9)

Dem Modell folgend sind zunächst Ziel und Umfang der Auswertung zu bestimmen. Dieser Schritt ist die Basis der folgenden Literaturübersicht. Vom Brocke et al. (2009, S. 6) empfehlen die Anwendung einer Taxonomie nach Cooper (1988), die den Fokus der Recherche durch sechs Charakteristika definiert. Daraufhin folgt die Konzeptualisierung des Themas, wobei zentrale Begriffe definiert und ein geeigneter Suchstring für die anschließende Literaturrecherche erstellt wird. In der dritten Phase folgt der systematische Suchprozess. Den konzeptionellen Rahmen bildet eine schematische Stichwort-Literatursuche nach Vom Brocke und Kollegen (2009), wobei die Anwendung einer Vorwärts- und Rückwärtssuche kein Teil der hier angewandten Literaturrecherchestrategie darstellt, da die Durchführung keine relevanten Ergebnisse in Bezug auf die Forschungsfrage erwarten lässt. Anschließend wird die erarbeitete Literatur analysiert und synthetisiert. Hierfür wird eine Konzeptmatrix nach Webster und Watson (2002) aufgestellt. Diese hilft bei der Strukturierung, Einordnung und Diskussion der Literatur. In der abschließenden fünften Phase werden Forschungslücken, sowie potenziell interessante Fragen für zukünftige Forschungen dargelegt (Vom Brocke et al., 2009, S. 8). Dieser fünfte Schritt ist für die vorliegende Arbeit nicht relevant, da das Ziel ist, basierend auf den Ergebnisse der Literaturanalyse, eine Taxonomie zu erarbeiten.

Der Prozess ist nach Vom Brocke und Team (2009, S. 6) zirkular, da gerade in den wirtschaftsinformatischen Gebieten Wissen veralten kann. Besonders Trendthemen werden aktiv behandelt, wodurch ständig neues Wissen entsteht und publiziert wird. Somit ist ein wiederholender Prozess mit regelmäßiger Aktualisierung und Erweiterung des Literaturreviews angemessen (Vom Brocke et al., 2009, S. 8f.).

3.2 Definition des Umfangs

In der ersten Phase wird der Untersuchungsumfang bestimmt. Hierzu wird die Taxonomie nach Cooper (1988) in Tabelle 1 verwendet.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Untersuchungsumfang (In Anlehnung an Cooper, 1988, S. 109)

Der Fokus der vorliegenden Literaturrecherche liegt auf der Sammlung von aktuellen EI Use Cases und der anschließenden Darstellung der wesentlichen Anwendungsgebiete in einer Konzeptmatrix. Somit ist das Ziel, die existierende Literatur zu synthetisieren, daraus Generalisierungen abzuleiten und zentrale Aussagen über das Forschungsgebiet zu treffen (Cooper, 1988, S. 123). Die Untersuchungsperspektive wird möglichst neutral gehalten und findet in einem objektivem Rahmen statt. Der Abdeckungsgrad wird repräsentativ angesetzt, da mithilfe ausgewählter Datenbanken (DB) eine repräsentative Selektion der Gesamtlitertur wiedergegeben werden soll (Cooper, 1988, S. 111). Die EI Anwendungen werden in der vorliegenden Arbeit konzeptionell strukturiert. Nach Cooper (1988, S. 111f.) liegt eine konzeptionelle Organisation vor, wenn Werke mit denselben abstrakten Anwendungskonzepten gemeinsam betrachet werden. Zielgruppe sind Fachleute und Wissenschaftler, denen mithilfe der Literaturübersicht die Suche nach relevanter Literatur erleichtert wird.

3.3 Konzeptualisierung des Themas

Die Konzeptualisierung des Themas beinhaltet zum einen die Bereitstellung von Arbeitsdefinitionen und Schlüsselbegriffen und zum anderen die Erstellung eines geeigneten Suchstrings durch die Identifizierung relevanter Suchbegriffe (Vom Brocke et al., 2009, S. 10).

3.3.1 Definition relevanter Terme

In Kapitel 2 wurden bereits wichtige Arbeitsdefinitionen der vorliegenden Arbeit behandelt. Tabelle 2 liefert einen Überblick der einzelnen Schlüsselkonzepte und trägt zum wesentlichen Verständnis der vorliegenden wissenschaftlichen Arbeit bei.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Kurzdefinitionen der relevanten Konzepte

3.3.2 Aufstellen des Suchstrings

Zur Entwicklung eines geeigneten Suchstrings wird zunächst das Concept Mapping nach Rowley und Slack (2004) angewandt. Concept Maps unterstützen bei der Identifizierung von Schlüsselkonzepten von denen relevante Suchbegriffe, sowie Synonyme und Homonyme, abgeleitet werden können (Rowley, Slack, 2004, S. 36). Da das Forschungsfeld international beleuchtet wird, werden die Kernbegriffe in die englische Sprache übersetzt.

Für die Erstellung der Suchstrings werden gefundenen Begriffe aus der Concept Map (Anhang A) aufgegriffen, falls erforderlich pluralisiert und schließlich in eine valide Suchstring-Formatierung modelliert. Der daraus entstehende generische Suchstring (Tabelle 3) wird für die nachfolgende Stichwort-Literaturanalyse verwendet.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 3: Entwicklung des Suchstrings

3.4 Literaturrecherche

Abbildung 3 visualisiert die Literaturrecherchestrategie ab diesem Punkt. Das weitere Vorgehen wird in den drei angedeuteten Schritten erfolgen und endet in der in Kapitel 4 beschriebenen Taxonomie nach Nickerson und Kollegen (2017).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Konzept der systematischen Literaturrecherche

3.4.1 Stichwort-Literatursuche

Vom Brocke und Team (2009, S. 7f.) empfehlen DB zu nutzen, die Zugriff auf die wichtigsten Journale und Konferenzen geben. Die angewandte Stichwort-Literatursuche umfasst die DB EBSCO, ProQuest, ACM Digital Library und Google Scholar, da sie renommierte, international verfügbare, wirtschaftswissenschaftliche Verzeichnisse sind, die eine hohe Anzahl an Aufsätzen, Zeitschriftenartikeln, Fachzeitschriften, interdisziplinäre Bücher und Konferenzbeiträge beinhalten.

Bedingungen der Suche sind ein auswertbarer Inhalt, das bedeutet, dass lediglich in deutscher und englischer Sprache verfasste Beiträge berücksichtigt werden. Bei der DB-Recherche werden, neben dem in Tabelle 3 definierten Suchstring, keine weiteren Ausschlusskriterien angewendet.

Um die verschiedenen DB zu untersuchen, werden die Suchstrings an die jeweilige Syntax der DB angepasst und anschließend ausgeführt. Anhang B zeigt die DB-abhängigen Suchstrings und die Anzahl der gefundenen Literatur je DB. Insgesamt werden 656 Quellen exploriert und zur Weiterverarbeitung in MS Excel exportiert.

3.4.2 Reduktion der Funde

Im Anschluss an den Export der Treffer, findet der in Abbildung 3 aufgezeigte nächste Schritt, die Reduktion der Funde statt. Abbildung 4 visualisiert den Prozess und zeigt, dass aus 656 Anfangstreffern, am Ende 46 für diese Arbeit relevante Quellen erschlossen wurden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Übersicht über Such- und Filterungsprozess der Titelreduktion

Zunächst finden eine Vereinheitlichung und Vorsortierung der gefundenen Literatur statt. Hierbei werden die Ergebnisse aus den verschiedenen DB in eine homogene Struktur gebracht und Zitationen oder nicht-auswertbare Quellen aussortiert. Bei der Entfernung der Duplikate, werden die doppelten Titel aus der DB mit der höheren Anzahl an Ausgangsliteratur genommen. Eine qualitative Vorsortierung nach VHB-JOURQUAL-Ranking oder den SCImage Journal Factor wird nicht vorgenommen.

Daraufhin erfolgt die von Vom Brocke und Kollegen (2009, S. 8) empfohlene inhaltliche Evaluation der Artikel. Dabei wird zunächst eine Titel- und Abstraktanalyse, gefolgt von einer Volltextanalyse durchgeführt. Beiträge, die nach der inhaltlichen Evaluation verbleiben, thematisieren einen konkreten Use Case von EI und entsprechen den in Kapitel 3.3.1 festgelegten Definitionen. Somit werden nur Paper betrachtet, die einen Use Case von EI behandeln. Reine Auflistungen möglicher Anwendungsszenarien, ohne Evaluation oder weiteren Ausführungen im Text, werden aussortiert.

Die angefügte Tabelle im Anhang C zeigt zum einen auf, aus welchen DB, in den oben aufgeführten Schritten, Literatur herausgefiltert wurde und zum anderen die Anzahl der gefundenen relevanten Quellen in den jeweiligen DB.

3.5 Analyse und Synthese

Der vierte Schritt der strukturierten Literaturanalyse nach Vom Brocke und Kollegen (2009) ist die Literaturanalyse und -synthese. Hierbei wird eine Konzeptmatrix, die von Salipante und Team (1982) entwickelt und von Webster und Watson (2002, S. xvii) für IS-Literaturübersichten adaptiert wurde, verwendet. Durch das Einteilen themenbezogener Konzepte in verschiedene Analyseeinheiten, wird ein Ordnen, Diskutieren und Synthetisieren der Forschungsergebnisse ermöglicht (Vom Brocke et al., 2009, S. 9).

Zuerst werden die Kernkonzepte und Use Cases von EI Lösungen erläutert. Im Anschluss ist die Konzeptmatrix abgebildet.

3.5.1 Kernkonzepte

Nach Webster und Weber (2002, S. xvii) sind die Use Cases bei der Volltextanalyse auf ihre Kernkonzepte heruntergebrochen worden. Dabei sind 15 Bereiche identifiziert worden, die in insgesamt fünf Klassen eingeordnet werden. Im Folgenden werden die Bereiche erläutert und jeweils die zugrunde liegenden Anwendungsfälle genannt. Beim erstmaligen Nennen der Sektoren wird die Anzahl der ermittelten Use Cases in Klammern angehängt.

3.5.1.1 Smart Home

Die Kategorie Smart Home (7) befasst sich mit EI in Gebäuden oder Häusern. Weiter wird in die Teilbereiche Privat Home (4) und Public Building (3) untergliedert.

In ersterem Bereich werden EI Konzepte erfasst, die im privatem Leben Verwendung finden. Hier sind intelligente Stromzähler (Sirojan et al., 2017), intelligente Steckdosen (Xiang et al., 2020) oder die Erkennung und Vorhersage von menschlicher Aktivität (B. Huang et al., 2020; Zhang et al., 2018), zu nennen.

In öffentlichen Gebäuden wird EI beispielsweise für das automatische Zählen von Menschen eingesetzt. Die Ergebnisse werden dann verwendet, um Klimaanlagen zu steuern (Gamanayake et al., 2020) oder um Energieressourcen zu managen (Metwaly et al., 2019). EI trägt auch durch stündliche Vorhersagen des Energieverbrauchs zum effizienteren Energiemanagement in Gebäuden bei (Dalai et al., 2019).

3.5.1.2 Smart City

Der Block Smart City (3) umfasst den Einsatz von verschiedenen Sensoren zur elektronischen Datenerfassung in urbanen Gebieten, um eine effiziente Verwaltung von Ressourcen und Gütern zu gewährleisten (Huh, Seo, 2019, S. 7).

Der Sektor Power Grid (1) behandelt Themen der Stromversorgung einer Stadt. Hier unterstützt EI bei der effektiven Zusammenführung und Verteilung virtueller Kraftwerke von traditionellen und erneuerbaren Energiequellen (D. Fang et al., 2019). Die Anwendung eines intelligenten Paketzustelldienst in einer Smart City (Thar et al., 2019), ist unter dem Begriff Service (1) zu finden, während der Bereich Infrastructure (1) den Aufbau eines intelligenten Gewerbegebiets (Chen et al., 2019) umfasst.

3.5.1.3 Smart Industry

Die Sektoren Factory (2), Farming (5) und Healthcare (8) werden in dem Bereich Smart Industry (15) eingeordnet.

Nach Huh und Kollegen (2019, S. 6f.) ist eine Smart Factory, eine intelligente Fabrik, in der Sensoren in Anlagen und Maschinen implementiert und Daten in Echtzeit gesammelt und analysiert werden. Die industriellen Anwendungsfälle, die in dieser Literaturrecherche gefunden wurden, sind zum einen der Einsatz von EI zur Zustandsüberwachung von Verteilungstransformatoren (Thangiah et al., 2019) und zum anderen die Bearbeitung von Aufträgen in zufälliger Reihenfolge durch Roboter (Tang et al., 2020).

[...]


1 Im Vergleich dazu: bis 2016 gab es ein Datenaufkommen von etwa 220 ZB (Cisco, 2019, S. 2).

2 1 ZB ≈ 9,4*1013 GB

Excerpt out of 39 pages

Details

Title
Real World Use Cases für Edge Intelligence Lösungen
College
University of Würzburg
Course
E-Business Strategies
Grade
1,0
Author
Year
2020
Pages
39
Catalog Number
V992974
ISBN (eBook)
9783346360861
Language
German
Keywords
Edge Intelligence, Edge AI, Edge Artificial Intelligence, Intelligent Edge, Use Case, Application, Scenario
Quote paper
Steffen Nagel (Author), 2020, Real World Use Cases für Edge Intelligence Lösungen, Munich, GRIN Verlag, https://www.grin.com/document/992974

Comments

  • No comments yet.
Look inside the ebook
Title: Real World Use Cases für Edge Intelligence Lösungen



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free