Künstliche Intelligenz im Supply-Chain-Management. Chancen und Risiken der Digitalisierung


Textbook, 2020

144 Pages


Excerpt


Inhaltsverzeichnis

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Zielsetzung
1.3 Arbeitsmethodik
1.4 Gang der Arbeit

2 Theoretische Grundlagen
2.1 Supply-Chain-Management
2.2 Künstliche Intelligenz

3 Anwendungsgebiete und aktuelle Forschung zu künstlicher Intelligenz in der Supply-Chain
3.1 Prozessüberblick Supply-Chain
3.2 Beschaffung
3.3 Produktion
3.4 Intralogistik und Lagerhaltung
3.5 Distributionslogistik
3.6 Compliance, Zoll, Import und Export
3.7 Entsorgung und Recycling

4 Chancen und Risiken der künstlichen Intelligenz in der Supply-Chain
4.1 Chancen
4.2 Risiken
4.3 Resümee des Einsatzes künstlicher Intelligenz in der Supply-Chain

5 Fazit

Quellenverzeichnis

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Schematische Darstellung einer Supply-Chain aus der Sicht eines Produktionsunternehmens

Abbildung 2: Order-to-Payment-S.-Prozess

Abbildung 3: Bullwhip-Effekt

Abbildung 4: Ursachen und Lösungsmöglichkeiten des Bullwhip-Effektes

Abbildung 5: SCOR-Modell

Abbildung 6: Turing-Test

Abbildung 7: Schwache und starke künstliche Intelligenz

Abbildung 8: Beispiel Algorithmus

Abbildung 9: Der Weg vom Algorithmus zum Computerprogramm

Abbildung 10: Traditionelles Programmieren und Machine-Learning

Abbildung 11: Schematische Darstellung Big Data

Abbildung 12: Benötigte Hardware bei künstlicher Intelligenz

Abbildung 13: Schematische Darstellung der Arbeitsweise eines Sensors

Abbildung 14 Serviceroboter ‚Pepper‘ von Aldebaran (links im Bild) und Industrieroboter von KUKA (rechts im Bild)

Abbildung 15: Schematische Darstellung eines neuronalen Netzes

Abbildung 16: Schematische Darstellung Blockchain

Abbildung 17: Schematische Darstellung eines Agentensystems

Abbildung 18: Aufbau eines Expertensystems

Abbildung 19: Funktion maschinelles Sehen

Abbildung 20: Natural-Language-Processing for Messenger

Abbildung 21: Typischer Ablauf der Mustererkennung

Abbildung 22: Entwicklungsstufen der industriellen Revolution

Abbildung 23: Der Supply-Chain-Prozess und dessen Unterkategorien

Abbildung 24: Der Beschaffungsprozess, Aufgaben und Elemente

Abbildung 25: Supply-Chain-Plattform

Abbildung 26: Der Produktionsprozess, Aufgaben und Elemente

Abbildung 27: Metall-3D-Drucker

Abbildung 28: Der Lager- und Intralogistikprozess, Aufgaben und Elemente

Abbildung 29: Fahrerlose Transportsysteme

Abbildung 30: Selbstbedienungsterminal für LKW-Anmeldung

Abbildung 31: Intelligente Behältersysteme

Abbildung 32: Kommissionierroboter

Abbildung 33: Der Distributionsprozess, Aufgaben und Elemente

Abbildung 34: Chatbots

Abbildung 35: First Mile und Last Mile

Abbildung 36: Elemente der City-Logistik

Abbildung 37: Automatisierungsgrade des automatisierten Fahrens

Abbildung 38: Compliance, Zoll, Import- und Exportprozesse, Aufgaben und Elemente

Abbildung 39: Gliederung des HS-Codes in Deutschland

Abbildung 40: Abfallpyramide

Abbildung 41: Entsorgungs- und Recyclingprozess, Aufgaben und Elemente

Abbildung 42: Intelligente Medikamentenverpackung

Abbildung 43: intelligente Abfallentsorgung

Abbildung 44: Energiemanagement und -monitoring – ETA-Fabrik

Abbildung 45: Beispiel Smart Home

Tabellenverzeichnis

Tabelle 1: Erläuterung verschiedener Arten von Algorithmen

Tabelle 2: Eigenschaften von Big Data

Tabelle 3: Übersicht Roboterarten und Kurzbeschreibung

Tabelle 4: Drei grundlegende Ansätze in der Mustererkennung

Tabelle 5: Chancen der künstlichen Intelligenz

Tabelle 6: Risiken der künstlichen Intelligenz

Tabelle 7: Asimov’schen Gesetze und die Ethikrichtlinien der EU

1 Einleitung

1.1 Problemstellung

Mit dem Beginn der Industrialisierung hat sich das Leben der Menschen stark gewandelt und für viele Wohlstand und ein besseres Leben gebracht. Mit Beginn der ersten industriellen Revolution Ende des 18. Jahrhunderts (1784 erster mechanischer Webstuhl) hat sich die Arbeit von einer oftmals rein körperlichen Tätigkeit zu einer mehr kognitiven Tätigkeit verändert. Dies wurde möglich durch die Entwicklung mechanischer Webstühle sowie weitere Fortschritte im Bereich Wasser- und Dampfkraft.1

Die Automatisierung verstärkte sich durch die zweite industrielle Revolution zu Beginn des 20. Jahrhunderts mit der Einführung der ersten Fließbänder (1870 erstes Fließband) und die Einführung der arbeitsteiligen Massenproduktion mithilfe von elektrischer Energie.2

Die dritte industrielle Revolution, die 1969 mit der ersten speicherprogrammierbaren Steuerung (kurz: SPS) eingeleitet wurde, hat durch den Einsatz von Elektronik und Informationstechnologie zur weiteren Automatisierung der Produktion beigetragen.3

Die vierte industrielle Revolution, in der sich die Gesellschaft heute befinde, basiert auf Cyber-Physikalischen Systemen (CPS).4 Unter CPS wird einen Verbund informatischer, softwaretechnischer Komponenten mit mechanischen und elektronischen Teilen verstanden, die über eine Dateninfrastruktur, wie beispielsweise das Internet, kommunizieren.5

Durch die Entwicklung immer besserer künstlicher Systeme werden kognitive Tätigkeiten durch Maschinen ausgeführt und dies mittlerweile oft optimaler sowie zuverlässiger, als es jemals ein Mensch tun könnte.6

Stephan Hawking sorgte für Schlagzeilen, als er in einem Interview erklärte, dass „die Entwicklung einer umfassenden (starken) künstlichen Intelligenz das Ende der Menschheit bedeuten könnte“.7

Zahlreiche Institutionen, Unternehmen und Verbände beschäftigen sich mit der Weiterentwicklung der künstlichen Intelligenz. Zu den großen Erfolgen der Entwicklung zählen beispielsweise der Computer Deep Blue, der 1997 gegen den Schachweltmeister Garri Kasparow gewonnen hat, aber auch Watson von IBM, der 2011 die Quizsendung ‚ Jeopardy! ‘ gewonnen hat.8

In den letzten Jahren hat sich diese Entwicklung beschleunigt und bereits heute ist bei der Vertragsanalyse der Einsatz künstliche Intelligenz bereits viel effektiver als Top-Anwälte.9

Durch die fortschreitende Globalisierung und die weltweite Kollaboration zwischen Unternehmen auf allen Ebenen wird der Austausch von Gütern, Dienstleistungen, Daten und Informationen immer bedeutender. Der Grund hierfür liegt auch darin, dass künstliche Intelligenz beträchtliche auswertbare Datenmengen benötigt, um aus diesen zu lernen. Die Bereiche Logistik, Supply-Chain-Management und Informationstechnologie gewinnen immer mehr an Bedeutung und werden in einer vernetzten Welt als elementarer Wettbewerbsfaktor angesehen.10

Nach Kuhn und Hellingrath kann das Supply-Chain-Management definiert werden als integrierte prozessorientierte Planung und Steuerung der Waren-, Informations- und Geldflüsse entlang der gesamten Wertschöpfungskette vom Kunden bis zum Lieferanten mit den Zielen

- Verbesserung der Kundenorientierung,
- Synchronisation der Versorgung mit dem Bedarf,
- Flexibilisierung und bedarfsgerechte Produktion,
- Abbau der Bestände entlang der Wertschöpfungskette,
- Effizientes Materialmanagement inkl. Entsorgung und Recycling.11

Künstliche Intelligenz kann helfen, diese Ziele zu erfüllen. Jedoch sind die Möglichkeiten, Chancen und Risiken nicht klar. Diese zuvor skizzierten Entwicklungen führen zu der Fragestellung:

Welche Möglichkeiten bietet die künstliche Intelligenz in der Supply-Chain? Welche Chancen und Risiken sind damit verbunden?

1.2 Zielsetzung

Ziel der Arbeit ist es, ein umfassendes Bild über den Stand der aktuellen und zukünftigen Entwicklung sowie über Trends beim Einsatz der künstlichen Intelligenz zu geben. Des Weiteren soll aufgezeigt werden, welche Möglichkeiten, Auswirkungen, Chancen und Risiken die künstliche Intelligenz für das Supply-Chain-Management hat.

Um das vorgenannte Ziel zu erfüllen werden folgende Unterziele festgelegt:

- Schaffung eines grundsätzlichen Verständnisses von Supply-Chain-Management
- Schaffung eines grundsätzlichen Verständnisses für künstliche Intelligenz
- Erläuterung der Entwicklungen über die Zeit
- Aktuelle Nutzung von künstlicher Intelligenz entlang der Supply-Chain
- Darlegen der Chancen und Risiken der künstlichen Intelligenz

1.3 Arbeitsmethodik

Um ein umfassendes Bild über den aktuellen Stand der Entwicklung, zukünftige Entwicklungen und Trends der künstlichen Intelligenz darzulegen und aufzuzeigen, welche Möglichkeiten, Auswirkungen, Chancen und Risiken dies für das Supply-Chain-Management hat, wurde sowohl eine quantitative als auch eine qualitative Untersuchung durchgeführt.

Zur Beantwortung der Forschungsfrage wurde sowohl die qualitative Inhaltsanalyse vorgenommen als auch eine Literaturrecherche durchgeführt. Zu diesem Zweck wurden im Rahmen der Literaturrecherche Veröffentlichungen der letzten fünfzig Jahre zu den Schlagwörtern künstliche Intelligenz, Artificial Intelligence, Supply-Chain und Logistik untersucht. Anschließend wurden Veröffentlichungen in Fachzeitschriften, Blogs und Newslettern untersucht, um die aktuellen Entwicklungen, Chancen, Risiken sowie die zukünftigen Entwicklungen analysieren und klassifizieren zu können.

Um einen Überblick über die Literatur zum Thema künstliche Intelligenz und Supply‑Chain‑Management zu erhalten, wurden mithilfe des Bibliotheksportals der THM, Google Scholar und der Google-Suchmaschine relevante Bücher, Zeitschriftenartikel, Blogs und Experteninterviews eruiert.

Mit den oben genannten Instrumenten wurde durch Eingabe von Suchbegriffen 678 relevante Informationsquellen identifiziert. Die 678 Quellen umfassen Bücher, wissenschaftliche Journals, Zeitschriftenaufsätze, Zeitungsartikel, Magazine Hochschulschriften, Gesetze und Verordnungen, Interviews und Internetdokumente.

Die Literatur wurde anhand bestimmter Suchbegriffe analysiert, kodiert und ausgewertet. Die Quellen wurden mittels einer Software mit etwa 85.000 Kodes versehen und in 53 verschiedene Kategorien eingeordnet. Die Kodes wurden dann nach Relevanz, Aktualität und Bezug zur spezifischen Fragestellung sortiert und anschließend analysiert.

Beispielsweise wurden alle Texte, in denen in einem Absatz die Schlagworte Chancen in Verbindung mit künstlicher Intelligenz vorkommen, mit dem Kode Chancen versehen. Diese codierten Passagen wurden im Folgenden nach ihrer Relevanz sowie Aktualität geordnet und analysiert. Relevante Zusammenhänge wurden referenziert und in der Arbeit dargelegt.

Die in dieser Arbeit verwendete Literatur stellt das Destillat der Literaturanalyse dar; die Literatur wurde anhand der Aktualität und Relevanz für das Forschungsthema ausgewählt

1.4 Gang der Arbeit

In Kapitel 1 werden die Problemstellung, die Zielsetzung und die Arbeitsmethodik dieser Arbeit festgelegt.

In dem Kapitel 2.1 werden das Grundlagenwissen über Supply-Chain-Manage­ment, ihre Aufgaben und Ziele sowie die typischen Problemstellungen dargelegt. Darauffolgend werden in Kapitel 2.2 die künstliche Intelligenz und deren Teilbereiche erläutert. Von Bedeutung ist in diesem Zusammenhang auch die Erläuterung der Fachbegriffe wie Big Data, maschinelles Lernen, Robotik, neuronale Netze, Algorithmen und Programme, Kognitionswissenschaft und Industrie 4.0 sowie das Internet der Dinge beziehungsweise Internet of Things (IoT).

Im Kapitel 3 werden sowohl unternehmensinterne wie auch unternehmensexterne Anwendungsgebiete dargestellt, es soll jedoch auch auf weitere verschiedene Anwendungsgebiete der künstlichen Intelligenz sowohl im Business to Business (B2B) Segment wie auch Business to Customer (B2C) Segment eingegangen werden. Dies soll an aktuellen Beispielen erläutert werden.

Im Kapitel 4 werden die mit der künstlichen Intelligenz verbundenen Chancen, aber auch die Risiken dargelegt. Des Weiteren wird untersucht, wie Unternehmen die Transformation zur digitalen Fabrik (Smart Factory) bewältigen können und welche Risiken damit verbunden sind.

Abgeschlossen wird diese Arbeit im Kapitel 5 mit einem Fazit, in dem die Kernthemen kurz zusammengefasst werden.

2 Theoretische Grundlagen

In Kapitel 2 werden die theoretischen Grundlagen des Supply-Chain-Managements und der künstlichen Intelligenz dargestellt. Kapitel 2.1 befasst sich mit der Definition von Supply-Chain-Management sowie der Erklärung der Aufgaben und Ziele; zudem wird auf typische Problemstellungen eingegangen und es wird eine Erläuterung des Supply-Chain-Operations-Reference-Modells (SCOR-Modell) gegeben.

In Kapitel 2.2 geht es um die Definition, die Aufgaben und Ziele der künstlichen Intelligenz. Des Weiteren werden die Fachbegriffe und die Grundlagen der künstlichen Intelligenz näher erklärt.

2.1 Supply-Chain-Management

2.1.1 Definition Supply-Chain-Management

Unter einer Supply-Chain kann eine Lieferkette verstanden werden, die vom Rohstofflieferanten (Point of Source) bis zum Endverbraucher (Point of Consumption) reicht. Eine Supply-Chain beziehungsweise Lieferkette umfasst alle Material-, Informations- und Geldflüsse entlang der gesamtem Wertschöpfungskette – intern sowie extern.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Schematische Darstellung einer Supply-Chain aus der Sicht eines Produktionsunternehmens

Nach Quelle Vgl. Kuhn/Hellingrath (2002) und Vgl. Weetman (2016)

Grundsätzlich misst die Wertschöpfung die selbst erstellten Leistungen einer Unternehmung abzüglich erbrachter Vor- und/ oder Fremdleistungen. Bisher fungierten die einzelnen Unternehmensbereiche, wie zum Beispiel Vertrieb und Einkauf, meist unabhängig voneinander.12

In der Supply-Chain werden alle internen wie auch die externe Partner (Rohstofflieferanten, Zulieferer, Verteiler und Händler) in den Wertschöpfungsprozess einbezogen.13

Im Rahmen einer zunächst begrifflichen Klärung des Supply-Chain-Managements gehen die Meinungen verschiedener Autoren und Denkschulen zum Teil deutlich auseinander. Unabhängig von den unterschiedlichen Definitionen ist allgemein akzeptiert, dass das Supply-Chain-Management auf der Wertschöpfungskette von Porter basiert.14 Jedoch werden im Supply-Chain-Management auch die Schnittstellen zwischen den interagierenden Unternehmen einbezogen.

Für diese Arbeit wird die folgende Definition von Supply-Chain-Management verwendet:

Nach Kuhn und Hellingrath ist Supply-Chain-Management die integrierte prozessorientierte Planung und Steuerung der Waren-, Informations-, und Geldflüsse entlang der gesamten Wertschöpfungskette vom Endkunden bis zum Rohstofflieferanten mit den Zielen

- Verbesserung der Kundenorientierung
- Synchronisation der Versorgung mit dem Bedarf
- Flexibilisierung und bedarfsgerechte Produktion
- Abbau der Bestände entlang der Wertschöpfungskette
- Effizientes Materialmanagement inkl. Entsorgung und Recycling.15

Beim Supply-Chain-Management handelt es sich um eine Prozesswissenschaft, die prozessorientiert und integriert sein soll. Integriert bedeutet in diesem Zusammenhang, dass nicht mehr getrennt nach Funktionen und in starren Hierarchien gedacht wird. Es sollen interdisziplinäre Teams entstehen, die sowohl intern wie auch extern partnerschaftlich zusammenarbeiten, um die Wertschöpfung entlang des gesamten Prozesses zu optimieren.16

Beispielsweise werden bei der Entwicklung eines neuen Produktes neben den Entwicklern auch Mitarbeiter aus anderen Bereichen integriert. Es bietet sich an, Mitarbeiter aus dem Einkauf und der Logistik bereits bei der Produktentwicklung einzubinden, zusätzlich gegebenenfalls auch Mitarbeiter des Lieferanten beziehungsweise des Vorlieferanten. Bereits beim Produktentstehungsprozess können Einsparungspotenziale genutzt werden.

Merten definiert folgende Supply-Chain-Managementphilosophie:

Die Optimierung des Gesamtsystems ist besser als die Optimierung von Teilsystemen.17

Der Verlauf innerhalb des Supply-Chain-Managements kann in einem Order-to-Payment-S-Prozess dargestellt werden. Dieser Prozess bildet die Abfolge von Aktivitäten ab, die notwendig sind, um einen Kundenauftrag abzuwickeln.18 Der Prozess lässt sich in drei Bereiche gliedern.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Order-to-Payment-S.-Prozess

Nach Quelle. Vgl. Werner (2013), S. 9

Bereich 1: Flussaufwärts (von rechts nach links): Der Kunde erteilt einen Auftrag an das Unternehmen. (Pullorientierung). Über Lieferabrufe steuern die Disponenten die Aufträge, um daraus die zu fertigenden Teile abzuleiten. Die gewonnenen Informationen werden dem Einkauf zur Verfügung gestellt, um den Warennachschub zu gewährleisten.

Bereich 2: Flussabwärts (von links nach rechts): Hier steht die Erfüllung des Kundenauftrags im Mittelpunkt der Handlungen. Die Waren werden im Wareneingang angenommen, nach ihrer Lagerung be-, umge- oder verarbeitet und dann als Fertigware an den Kunden geliefert.

Bereich 3: Flussaufwärts (von rechts nach links): Schließlich wird die Ware vom Kunden bezahlt. Die Entsorgung oder das Recycling verlaufen ebenfalls in diese Richtung. Opportunitätskosten sollen vermieden werden.19

2.1.2 Aufgaben und Ziele des Supply-Chain-Managements

Die zentrale Aufgabe des Supply-Chain-Managements ist die effiziente und effektive Ausrichtung aller Aktivitäten und Prozesse entlang der gesamten Wertschöpfungskette auf den Kunden. Um die effiziente und effektive Ausrichtung am Kunden genauer zu definieren, kann man sich an den 7R beziehungsweise 8R+ der Logistik orientieren:

Abbildung in dieser Leseprobe nicht enthalten

In der heute von Digitalisierung geprägten Zeit,20 insbesondere aufgrund des Internets der Dinge (engl. Internet of Things), wird die richtige Information ein bedeutender Faktor, ebenso die richtige Verpackung, die mit RFID oder anderen Sensoren ausgestattet wird. Daher werden die klassischen 7R auf 8R+ erweitert. Das + bedeutet, dass weitere Komponenten wie die richtige Verpackung hinzukommen könnten.

Um die oben genannten Aufgaben zu erfüllen und den Kunden zufriedenzustellen, hat das Supply-Chain-Management zum Ziel, die Effektivität sowie Effizienz der Unternehmungsaktivitäten zu optimieren sowie die Wettbewerbsfaktoren Kosten, Zeit, Qualität und Flexibilität zu harmonisieren.21

Des Weiteren sollen nach Lenzen unternehmensübergreifende Erfolgspotenziale erschlossen werden. Dies ist nur möglich, wenn die Unternehmen in einer Supply-Chain kooperieren und gemeinsame Ziele festgelegt werden.22

Das Supply-Chain-Management grenzt sich nicht klar von der Logistik ab, aber auch nicht von anderen Bereichen wie Einkauf, Beschaffung und Materialwirtschaft. Die Grenzen sind fließend. In der Logistik steht vor allem der physische Materialfluss innerhalb und zwischen Unternehmen, Organisationen und Kunden im Vordergrund und damit die Raum- und Zeitüberbrückung.23

Beide Konzepte basieren auf der Fluss- und Prozessorientierung, das Supply-Chain-Management jedoch befasst sich mit der ganzheitlichen Betrachtung der Logistikkette inklusive aller Geld- und Informationsströme über die eigenen Unternehmensgrenzen hinweg.24

2.1.3 Typische Problemstellungen des Supply-Chain-Managements

Nach Werner ist das Supply-Chain-Management aufgrund folgender Phänomene entstanden:

- Peitschenschlageffekt (engl. Bullwhip-Effekt)
- Gesamte Anschaffungskosten (engl. Total-Cost-of-Ownership)
- Transaktionskosten
- Globalisierung25

2.1.3.1 Bullwhip-Effekt

Der Bullwhip-Effekt beziehungsweise im Deutschen der Peitschenschlageffekt geht auf die Untersuchungen Forresters aus dem Jahr 1958 zurück. Forrester stellte fest, dass bei einer Nachfragesteigerung die Akteure in einer Wertschöpfungskette (Rohstofflieferant, Hersteller, Distributor, Händler und Kunde) überreagieren.26 Es wurde nachgewiesen, dass bereits eine ungeplante Nachfragesteigerung um 10 % den Hersteller zu einer bis zu 40 % erhöhten Produktion veranlasst. Dies kann auch der Abbildung 3 entnommen werden.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Bullwhip-Effekt

Nach Quelle: Knolmayer/Mertens/Zeier (2000)

Beispielsweise kommt es beim Endverbraucher aufgrund eines Angebotes oder einer Engpasssituation (Rabattaktion, Engpass, Hamsterkäufe) durch den Einzelhändler zu einer kurzfristigen Nachfragesteigerung um 10 %. Der Einzelhändler bestellt beim Vorlieferanten eine erhöhte Menge. Über die Stufen hinweg erhöht sich die Bedarfsprognose, weil die einzelnen Marktpartner nur den Bedarf der jeweils vorgelagerten Stufe sehen können. Gründe dafür sind neben der fehlenden Bedarfstransparenz auch die Informationsverzerrung, Preisänderungen und Änderungen im Bestandsniveau.27

Um den Bullwhip-Effekt abzumildern beziehungsweise zu bekämpfen, gibt es bestimmte Werkzeuge. Vor allem wird ein verbesserter Informationsaustausch entlang der gesamten Supply-Chain benötigt, um die tatsächliche Nachfrage des Endkunden bestimmen zu können.28

In der Abbildung 4 werden – nach Schulte – die Ursachen des Bullwhip-Effektes erläutert und mögliche Lösungen dargelegt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Ursachen und Lösungsmöglichkeiten des Bullwhip-Effektes

Quelle: Schulte (2017), S. 20

Prognosegestützte Produktionspläne, Ansammlung von Bestellungen, Preisaktionen und Produktzuteilung sind nach Schulte die vier Ursachen des Bullwhip-Effektes.

Der Bullwhip-Effekt im Bereich prognosegestützter Produktionspläne kann durch Transparenz vom Point of Sale bis hin zum Rohstofflieferanten gelöst werden. Hierfür eignet sich vor allem die EDV-Vernetzung der einzelnen Stufen miteinander.

Um die Ansammlung von Bestellungen zu vermeiden, sollte eine gleichmäßige Bestellverteilung angestrebt werden. Durch Kommunikation entlang des gesamten Supply-Chain-Netzwerkes können Bestellungen besser konsolidiert und geplant werden.

Um Nachfrageschwankungen bezüglich Preisaktionen zu vermeiden, sollten Preisaktionen vorab kommuniziert und geplant werden. Etwaige Schwankungen sollten dabei mit betrachtet werden. Durch den Einsatz intelligenter Zuteilungsmechanismen können Engpässe und Phantombestellungen vermieden werden.

2.1.3.2 Total-Cost-of-Ownership-Betrachtung, Transaktionskosten und Globalisierung

Ein weiteres Motiv für die Entstehung von Supply-Chains liegt in den zunehmend komplexer werdenden Beschaffungs-, Produktions- und Distributionsvorgängen. Durch die wachsende globale Vernetzung (Globalisierung) können Waren weltweit zu jeder Zeit und an jedem Ort der Welt beschafft werden. Dies macht sowohl den Beschaffungsvorgang immens komplex als auch auf Kundenseite die Belieferung der weltweiten Kunden. Neben Faktoren, wie schnellere Belieferung, gute Qualität und weitere Punkte der 8 R+, spielen auch die Kosten eine Rolle.

Durch Abrechnungsverfahren wie das Total-Cost-of-Ownership (TCO, Gesamtkosten des Betriebes) werden nicht nur die Anschaffungskosten, sondern alle Kostenaspekte mit in die Kalkulation einbezogen.29

Beispielsweise werden bei einem Beschaffungsvorgang von Handelswaren neben dem Einkaufspreis die Frachtkosten, Zollkosten, Lagerkosten und die Kapitalkosten in die Berechnung einbezogen. Auch Faktoren wie die Lieferzeit spielen hierbei eine Rolle. Diese haben einen nicht unwesentlichen Anteil am Sicherheitsbestand.

Neben der wirtschaftlichen Liberalisierung stellen günstige und schnelle Transportwege sowie auch die Ausweitung der Kommunikationsmöglichkeiten Unternehmen vor immer neue Herausforderungen. Jedoch wird hierdurch auch der Wettbewerb zwischen den Unternehmen immer größer. Wenn der Kunde überall zu jeder Zeit einkaufen kann, muss das Unternehmen schnell, flexibel und effizient reagieren können.30

2.1.4 Das Supply-Chain-Operations-Reference-Modell (SCOR-Modell)

Um die Geschäftsprozesse über mehrere Stufen und Unternehmen hinweg optimieren zu können, wird ein allgemeiner Standardprozess beziehungsweise ein Standardablauf, benötigt. Diesen allgemeinen Standard bietet das Supply-Chain-Operations-Reference-Modell (SCOR), das vom Supply-Chain-Council entwickelt wurde.31

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: SCOR-Modell

Quelle: BearingPoint (2002)

Das SCOR-Modell beschreibt auf einer allgemeinen Ebene die Geschäftsprozesse, die in einer Supply-Chain ablaufen. Es enthält standardisierte Beschreibungen der Prozesse zur Gestaltung, Planung, Steuerung und Ausführung des Material- und Informationsflusses in der unternehmensübergreifenden Wertschöpfung. Sämtlichen Prozessen werden dabei standardisierte Kennzahlen und Best Practices zugeordnet.32

Das SCOR-Modell ist hierarchisch und branchenunabhängig aufgebaut. Auf der höchsten Ebene (Ebene 1) zeigt das SCOR-Modell die vier Hauptprozesse auf. Das Schema und eine kurze Beschreibung der einzelnen Ebenen sind in der Abbildung 5 dargestellt.

2.1.4.1 Ebene 1

Nach Ziegenbein lauten die fünf Hauptprozesse Planen, Beschaffen, Herstellen, Liefern und Return. Planen beinhaltet hierbei alle Prozesse und Aktivitäten, mit denen die erwarteten Ressourcen in der Beschaffung, der Produktion und im Vertrieb auf die erwartete Nachfrage abgestimmt werden. Beschaffen, Herstellen und Liefern umfasst alle Prozesse und Aktivitäten der Beschaffung von Dienstleistungen und Gütern, deren Be- und Verarbeitung sowie die Lieferung an den Kunden. Return beinhaltet alle Aktivitäten und Prozesse zur Rückführung von Gütern.33

2.1.4.2 Ebene 2

Auf der Konfigurationsebene werden die Hauptprozesse danach untergliedert, ob die Produkte auf Lager, auf Kundenauftrag oder nach Kundenspezifikation beschafft, produziert oder abgesetzt werden.34

2.1.4.3 Ebene 3 und 4

Auf den weiteren Ebenen, wobei Ebene 4 nicht im SCOR-Modell enthalten ist, werden die Ebene 2 noch detaillierter dargestellt und auch auf spezifische Branchen angewendet.

„Alle Prozesse im SCOR-Modell enthalten eine definierte Prozessbeschreibung mit Ein- und Ausgangsgrößen, Leistungskennzahlen und Best Practices.“35

Der große Vorteil dieses Modells besteht darin, dass für alle kollaborierenden Unternehmen in einer gemeinsamen Supply-Chain die gleichen Prozesse und Werkzeuge angewendet werden und somit eine Homogenisierung möglich ist. Dies hilft vor allem auch, wenn durch IT-Systeme die einzelnen Unternehmen miteinander vernetzt werden.

2.2 Künstliche Intelligenz

2.2.1 Definition der künstlichen Intelligenz

Künstliche Intelligenz oder KI (engl. Artificial Intelligence oder AI) kann vielfältig interpretiert und gedeutet werden. John McCarthy, einer der Pioniere der künstlichen Intelligenz, definierte die künstliche Intelligenz als Wissenschaft zur Konstruktion intelligenter Maschinen.36

Diese Definition reicht aus heutiger Sicht nicht aus, um dem Themengebiet gerecht zu werden. Eine allgemein anerkannte Definition liegt bisher noch nicht vor. Für diese Arbeit wird folgende Definition von Lackes und Siepermann für künstlicher Intelligenz verwendet, die besagt, dass künstliche Intelligenz sich mit Methoden beschäftigt, die es einem Computer ermöglichen, solche Aufgaben zu lösen, die, wenn sie vom Menschen gelöst werden, Intelligenz erfordern.37

2.2.2 Aufgaben und Ziele

Um festzustellen, ob ein Computer beziehungsweise eine Maschine künstliche Intelligenz besitzt, hat Alan Turing bereits Anfang 1950 einen Test entwickelt. Die Abbildung 6 zeigt die schematische Darstellung dieses Tests.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Turing-Test

Nach Quelle: Banfi (2018)

Der Fragesteller (A) soll durch gezieltes Fragen beziehungsweise durch Kommunikation feststellen, wer von den beiden Kommunikationspartnern der Mensch (B) ist und wer der Computer (C) ist. Die Schwierigkeit besteht darin, dass beide Kommunikationspartner B und C nicht zu sehen sind und der Fragesteller mittels schriftlicher Kommunikation mit den beiden kommuniziert. Sollte der Fragesteller keine eindeutige Unterscheidung vornehmen können beziehungsweise den Computer C als Mensch identifizieren, weist der Computer eine gewisse Intelligenz auf.

Seit Anfang 1990 ist der sogenannte Turing-Preis ausgeschrieben, bei dem das System, das den Turing-Test besteht, einen Preis gewinnt. Im Jahr 2014 wurde dieser Test erstmals bestanden. Durch die künstliche Intelligenz (Eugene Goostman) konnten 33 % der Prüfer davon überzeugt werden, dass mit einem 13-jährigen Kind kommuniziert wurde.38

Im Mai 2018 ging Google noch einen Schritt weiter und konnte mit dem System ‚Duplex‘ ein Programm vorstellen, das natürliche Sprache verwendet, um beispielsweise einen Friseurtermin zu buchen. Dabei ist nicht mehr erkennbar, dass es sich um einen Computer handelt.39 Mittlerweile gibt es weitere Tests wie den Lovelace-Test oder den Metzinger-Test.

Die künstliche Intelligenz kann in zwei Bereiche gegliedert werden, die starke und die schwache künstliche Intelligenz .40

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Schwache und starke künstliche Intelligenz

Nach Quelle: Vgl. Jaekel (2017), S. 16

2.2.2.1 Schwache künstliche Intelligenz

Unter schwacher künstlicher Intelligenz (engl.: weak AI oder narrow AI) versteht man Systeme, die sich auf die Lösung von konkreten Anwendungsproblemen fokussieren. Schwache künstliche Intelligenz beschäftigt sich somit mit einer klar definierten Aufgabe in einem klar abgegrenzten Gebiet. Die Herangehensweise an das Problem bleibt immer gleich und folgt dem gleichen Ablaufschema.41

Schwache KI-Systeme sind heute bereits in zahlreichen Bereichen im Einsatz. Einige Beispiele sind Navigationssysteme, Bild- und Spracherkennung, automatische Übersetzung, Expertensysteme, Chatbots sowie viele weitere Anwendungen.

2.2.2.2 Starke künstliche Intelligenz

Unter starker künstlicher Intelligenz (auch Superintelligenz, oder englisch strong AI oder general AI) verstehen Buxmann und Schmidt Systeme, die gleiche oder höhere intellektuelle Fähigkeiten aufweisen als ein Mensch.42

Nach der Universität Oldenburg sind die Eigenschaften einer starken künstlichen Intelligenz:

1. Logisches Denken
2. Treffen von Entscheidungen bei Unsicherheit
3. Planen
4. Lernen
5. Kommunikation in natürlicher Sprache
6. Einsatz alle dieser Fähigkeiten zum Erreichen eines gemeinsamen Ziels43

Bis heute ist es noch nicht gelungen, eine starke künstliche Intelligenz zu entwickeln; hierbei sind auch noch einige Fragen ungeklärt. Offen ist, ob eine starke KI ein eigenes Bewusstsein erlangen kann und welche Rolle Selbsterkenntnis, Empathie, Gedächtnis und Weisheit in Verbindung mit den vorgenannten Eigenschaften spielen. Eine weitere Frage ist, wie ein solches System unter ethischen Gesichtspunkten zu bewerten ist.

An dem Punkt, an dem eine umfassende und starke künstliche Intelligenz entwickelt wird, wird davon ausgegangen, dass es zu einer künstlichen Singularität kommt.

Nach Kurzweil wird unter künstlicher Singularität der Punkt verstanden, an dem sich künstliche Systeme rasant selbst verbessern und damit den technischen Fortschritt derart beschleunigen, dass die Zukunft der Menschheit hinter diesem Ereignis nicht mehr vorhersehbar ist. Auch soll dies die letzte Erfindung der Menschheit sein.44

2.2.3 Algorithmen und Programm

Um eine künstliche Intelligenz herzustellen, wird ein Computeralgorithmus benötigt. Ein Algorithmus findet in der Mathematik in zahlreichen Fällen Anwendung, beispielsweise bei der Lösung eines linearen Gleichungssystems.45

Für diese Arbeit wird folgende Definition eines Algorithmus verwendet:

Nach Dobler und Pomberger ist ein Algorithmus eine vollständige, präzise und in einer Notation oder Sprache mit exakter Definition abgefasste, endliche Beschreibung eines schrittweisen Problemlösungsverfahrens zur Ermittlung gesuchter Datenobjekte aus gegebenen Werten von Datenobjekten. In einem Algorithmus besteht jeder Schritt aus einer Anzahl ausführbarer, eindeutiger Aktionen und einer Angabe zum nächsten Schritt.46

Ein Algorithmus ist somit eine Handlungsanweisung beziehungsweise ein Problemlösungsverfahren, das aufzeigt, wie eine Aufgabe zu lösen ist. Um die Handlungsanweisung erfüllen zu können, sind bestimmte Eigenschaften notwendig. Der Algorithmus muss allgemein gültig, ausführbar, effizient, verständlich, eindeutig und korrekt sein. Des Weiteren muss er endlich sein.47

Rimscha definiert unter allgemein gültig, dass der Algorithmus nicht nur auf ein bestimmtes Problem, sondern zu allen gleichartigen Aufgabenstellungen passt. Beispielsweise geht es bei einem Algorithmus nicht um die Frage ‚Wie sortiert man mehrere Zahlen?‘, sondern allgemein ‚Wie sortiert man Zahlen?‘. Des Weiteren muss der Algorithmus ausführbar sein. Es müssen endlich viele Anweisungen eindeutig, in einer klaren Reihenfolge, verständlich und effektiv gegeben sein. Es darf keinen Interpretationsspielraum geben und der Algorithmus muss effizient sein. Beispielsweise muss eine Anweisung so aussehen: ‚Wenn der Eingabewert gerade ist, dann gehe nach rechts, ansonsten nach links.‘ Der Algorithmus muss zu einem Ergebnis kommen, also endlich sein.48

Der Algorithmus muss auch korrekt sein und zum richtigen Ergebnis führen. Das heißt, er muss für das bestimmte Problem immer ein richtiges Ergebnis liefern.

Ein Beispiel eines einfachen Algorithmus wird in Abbildung 8 dargestellt:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Beispiel Algorithmus

Nach Quelle: Scharwies/Kirst/Teufel (2019)

In dem in Abbildung 8 gezeigten Schema handelt es sich um einen einfachen Algorithmus. Es kann anhand eines Entscheidungsdiagramms bestimmt werden, welcher der beiden Smaragde, die man besitzt, ein Rubin und welcher ein Smaragd ist. Zu einem konkreten Problem liefert der Algorithmus eine Lösung. Dieser Prozess kann beliebig oft wiederholt werden.

Die folgende Tabelle enthält eine Zusammenfassung mehrerer Autoren; damit sollen einige Arten von Algorithmen dargestellt werden, die unterschiedliche Ausprägungen haben und verschiedene Ziele verfolgen:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Erläuterung verschiedener Arten von Algorithmen

Nach Quelle: Mayer-Lindenberg (1998), S. 40 ff., Springer Fachmedien Wiesbaden GmbH (2013), S. 60 , Bellman (1957), S. 12 ff., Richter/Sander/Stucky (1993), S. 63 f., Hromkovič (2004), S. 66 ff. , Pohlheim (2000), S. 7 ff., Cormen u. a. (2010), Mainzer (2019), S. 3 f., 28, 61, 92, 232

Nach Vöcking werden Algorithmen genutzt, um folgende Aufgaben zu lösen:

- Suchen und Sortieren Rechnen, Verschlüsseln und Codieren
- Planen, strategisches Handeln und Computersimulation
- Optimieren49

Der Weg eines Problems über den Algorithmus bis zur Lösung durch ein Computerprogramm ist in der Abbildung 9: Der Weg vom Algorithmus zum Computerprogramm dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 9: Der Weg vom Algorithmus zum Computerprogramm

Quelle: Rimscha (2014), S. 4

Wie Abbildung 9 zeigt, wird zunächst das allgemeine Problem beschrieben und hierfür eine Lösungsvorschrift entwickelt. Der daraus entstandene Algorithmus wird in eine problemorientierte Sprache übersetzt. Die Ausführbarkeit und die Darstellung sind genau, jedoch maschinenunabhängig, vorgegeben. Das problemorientierte Programm wird in ein Maschinenprogramm durch einen Übersetzungsalgorithmus (Compiler) selbstständig übersetzt. Dann ist es schließlich möglich, konkrete Aufgaben zu lösen und ein Ergebnis zu bekommen.50

Eine künstliche Intelligenz besteht aus komplexen Algorithmen, die trainiert werden, um selbstständig Entscheidungen treffen zu können.

2.2.4 Maschinelles Lernen und Big Data

Maschinelles Lernen kann bezeichnet werden als Forschungsgebiet, das sich mit der computergestützten Modellierung und Realisierung von Lernphänomenen beschäftigt.51

Abbildung 10 zeigt den Vergleich zwischen traditionellem Programmieren und maschinellem Lernen (engl. Machine-Learning).

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 10: Traditionelles Programmieren und Machine-Learning

Quelle: Gero Presser (2017)

Beim klassischen Programmieren werden die Daten sowie der Algorithmus bereitgestellt, durch deren Eingabe ein Ergebnis erzielt wird. Beim maschinellen Lernen werden die Daten und das Ergebnis zur Verfügung gestellt und das Ergebnis ist der Algorithmus. Der Algorithmus wird somit durch Eingabe und die Lösung trainiert, bis er zu den gewünschten Ergebnissen kommt und bei zukünftigen Eingaben automatisch die Lösung bieten kann. Dabei ist es entscheidend, auf den Begriff des Lernens genauer einzugehen.

Edelmann bezeichnet den Begriff des Lernens als eine allgemeine, umfassende Bezeichnung für Veränderungen des individuellen Verhaltens auf bestimmte Reize, Signale, Objekte oder Situationen. Die Veränderungen haben ihre Grundlage in (wiederholten) Erfahrungen, die automatisch registriert und/oder bewusst verarbeitet werden. Lernen ist aber nur dann gegeben, wenn die Veränderung des Verhaltens nicht auf angeborenen Reaktionstendenzen (zum Beispiel Reflexe), Reifungsprozesse oder vorübergehende Veränderungen des Zustandes eines Organismus (zum Beispiel Ermüdung) zurückgehen. Die vermittelnden Prozesse des Lernens beziehen sich auf Veränderungen der Verhaltensmöglichkeiten oder -bereitschaften und bilden die latente Grundlage für im Situationsbezug manifeste Verhaltens-, Auffassungs- und/oder Denkweisen.52

Knapper kann definiert werden, dass Lernen ein erfahrungsbasierter Prozess ist, der in einer dauernde Veränderung des Verhaltens oder des Verhaltenspotenzials resultiert.53

Daraus lässt sich schlussfolgern, dass maschinelles Lernen die Fähigkeit einer Maschine oder Software ist, bestimmte Aufgaben zu lernen, die auf Basis von Erfahrungen (Daten) trainiert wurden. Das Wissen muss somit nicht mehr durch den Softwareentwickler codiert und expliziert werden, sondern wird durch Lernen angeeignet.54

Nach Buxmann u. a. lässt sich maschinelles Lernen in mehrere Arten unterteilen:

- Überwachtes Lernen (Supervised Learning)
- Unüberwachtes Lernen (Unsupervised Learning)
- Teilüberwachtes Lernen (Partially-and-semi-supervised-Learning)
- Verstärkendes Lernen (Reinforcement-Learning)
- Aktives Lernen (Active Learning)

Im Folgenden werden die unterschiedlichen Lernarten ausführlich erläutert.

Beim überwachten Lernen (Supervised Learning) lernt der Algorithmus aus gegebenen Beispielen einen Zusammenhang zu erkennen zwischen den Eigenschaften der Beispiele und den Klassen, zu denen die Beispiele gehören. Beispielsweise werden dem System Tierbilder und die zugehörige Tierart präsentiert. Das System kann dann zwischen bestimmten Merkmalsausprägungen (zum Beispiel Nase, Beine, Kopf) und der Klassenzugehörigkeit Muster erkennen und diese auf neue Daten anwenden. Ausschlaggebend ist hierbei, dass das System den Algorithmus selbstständig ermittelt. Es handelt sich um ein dreischichtiges Verfahren. Dabei erfolgt eine Trennung von Lern-, Evaluations- und Anwendungsphase.55

Beim unüberwachten Lernen (Unsupervised Learning) werden zwei Aspekte unterschieden. Es gibt keine Trennung zwischen den verschiedenen Phasen (Lern-, Evaluations- und Anwendungsphase) und es werden keine Klassen vorgegeben. Das System erstellt somit selbst Klassifikationen, nach denen die Eingabemuster eingeteilt werden. Beispielsweise werden einem System eine große Anzahl von Tierbildern gezeigt und diese werden vom System zu Klassen zusammengefasst, die ähnliche Merkmale aufweisen.

Das teilüberwachte Lernen (Partially-and-semi-supervised-Learning) ist eine Mischung aus dem überwachten und unüberwachten Lernen. Hier wird nur ein Teil der Eingaben klassifiziert.56

Beim aktiven Lernen (Active Learning) geht es darum, in einem iterativen Prozess durch gezielte Fragen den Lernvorgang eines Systems zu verbessern. Das System hat somit die Möglichkeit, für einen Teil der Eingaben die korrekte Ausgabe zu erfragen.57

Beim verstärkenden Lernen (Reinforcment-Learning) lernt das System durch ‚Belohnung und Bestrafung‘. Das System testet selbstständig verschiedene Strategien und passt die vorgegebenen Variablen so an, dass die ‚Belohnung‘ maximiert wird. Aus der Umwelt erhält das System direkt Rückmeldung, ob die ausgeführte Aktion positiv oder negativ ist.58

2.2.5 Big Data

Nach Tenzer fungiert Big Data als Treiber und Grundvoraussetzung für maschinelles Lernen. Die jährliche Datenwachstumsrate liegt bei circa 30 %. Im Jahr 2016 waren es noch etwa 16 Zettabyte. Bis 2025 wird eine Datenmenge von etwa 163 Zettabyte pro Jahr prognostiziert. Zum Vergleich: 1 Zettabyte entspricht eine Milliarde Terabytes. Dabei werden die meisten Daten zukünftig nicht von Privatnutzern, sondern von Unternehmen generiert werden.59

Big Data kann definiert werden als Daten, die in ihrer Größe die klassische Datenhaltung, Verarbeitung und Analyse mit konventioneller Hardware übersteigen.60

Anhand von fünf charakteristischen Eigenschaften kann Big Data beschrieben werden:

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Eigenschaften von Big Data

Nach Quelle Vgl. Fasel/Meier (2016), S. 5 f.; Vgl. Gluchowski/Chamoni (2016), S. 57 f.; Vgl. Pettey (2011); Vgl. Meier/Kaufmann (2016)

Die Abbildung 11 veranschaulicht, wie Big Data verwendet werden kann, um daraus einen Nutzen für das System zu generieren.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 11: Schematische Darstellung Big Data

Quelle: Fost (2019)

Die großen Datenmengen (Big Data), die aus unterschiedlichen Quellen (Sensoren, interne und externe Datenbanken und verschiedene andere strukturierte sowie unstrukturierte Datenquellen) entstehen, werden analysiert und die Datenqualität wird erhöht. Dadurch wird das Datenvolumen auf das Wesentliche reduziert (Vgl. Abb. 11).

Im Daten-Analyse-Trichter werden zunächst die Daten verfeinert, dies bedeutet, dass genau analysiert wird, welche Daten in einem sinnvollen Kontext stehen, über ausreichend Aussagekraft verfügen und verwendbar sind. Dann werden diese Daten logisch strukturiert und verknüpft. Durch die Verknüpfung werden sie miteinander synchronisiert und angereichert, damit eine Aussage möglich ist. Die angereicherten Daten können schließlich als Grundlage für Verbesserungen und neue Services genutzt werden.

Ziel bei Big Data ist es, die Daten optimal zu nutzen, um den Kunden/Nutzern genau die Leistungen zur Verfügung zu stellen, die diese anfordern. Weitere Ziele von Big Data sind Kostenreduktion, Wettbewerbsvorteile, neue Produkte und Services sowie schnellere und bessere Entscheidungen. Beispielsweise hat Netflix für ihre Eigenproduktion ‚House of Cards‘ die Nutzerdaten ausgewertet, einerseits, um Fehlinvestitionen zu vermeiden, anderseits aber auch, um den Kunden das bestmögliche Programm präsentieren zu können.61

2.2.6 Kognitionswissenschaft

Die Kognitionswissenschaft bildet einen weiteren Teil in der KI-Forschung und wird daher genauer betrachtet. Schnittmengen ergeben sich vor allem bei Problemlösung, Planen, Wissensrepräsentation, Schlussfolgern, Lernen, Sprachverstehen und -produktion wie auch Bildverstehen.62 Zur Kognitionswissenschaft gehören verschiedene Wissenschaftsbereiche; sie wird auch von einzelnen Disziplinen unterschiedlich definiert.

Zimardo definiert Kognitionswissenschaft als einen umfassenden interdisziplinären Ansatz zur Untersuchung der Systeme und Prozesse der Informationsverarbeitung. Sie integrieren die Disziplinen der kognitiven Psychologie, der Computerwissenschaft, der künstlichen Intelligenz, der Linguistik, der Psychobiologie, der Anthropologie und der Philosophie.

Nach Zimardo umschreiben bestimmte Autoren das Ziel der kognitiven Wissenschaft als den neuerlichen Versuch der Lösung der klassischen Probleme westlichen Denkens, der Bestimmung der Natur des Wissens und der Art seiner mentalen Repräsentation . 63

Zu Beginn der Kognitionsforschung wurde davon ausgegangen, dass das Gehirn ähnlich wie ein Computer funktioniert und ein informationsverarbeitendes System ist. Aus diesen Überlegungen ging das Computermodell des Geistes hervor, bei dem das Gehirn als eine Art Computer gesehen werden kann; dabei ist der Geist die dazugehörige Software, das Betriebssystem und das Programm . 64

Die Unterscheidung zwischen Geist und Gehirn ist somit analog zur Unterscheidung zwischen Software und Hardware. So wie eine Software durch Algorithmen und Datenbanken bestimmt wird, ist der Geist durch mentale Repräsentationen und Rechenprozesse bestimmt.65

Nach Münch und weiteren Autoren kann heute davon ausgegangen werden, dass das bisher angewendete Computermodell nicht mehr zeitgemäß ist. Neue Ansätze wie der Konnektionismus und die kognitive Neurowissenschaft verdrängen die nicht mehr aktuellen Theorie.66

Nach Lenzen arbeitet das Gehirn massiv parallel und hat statt eines zentralen Prozessors zahlreiche vernetzte Verarbeitungsregionen und kennt nicht einmal die Unterscheidung von Software und Hardware . 67

Anstatt auf die bisher verwendete Von-Neumann-Architektur zurückzugreifen, bei dem ein zentraler Prozessor und eine serielle Architektur (Operationen werden nach der Reihe ausgeführt) eingesetzt werden, wird heute der Einsatz von künstlichen neuronalen Netzen forciert. Diese künstlichen neuronalen Netze, kurz KNN (engl. Artificial neural network, ANN), sind Netze aus künstlichen Neuronen, die untereinander agieren. Eine genaue Erläuterung erfolgt im Abschnitt 2.2.7.

2.2.7 Hardware

Um eine künstliche Intelligenz zu programmieren, bedarf es neben dem Algorithmus auch bestimmter Hardwarekomponenten.

[...]


1 Vgl. Kiesewetter (2004), S. 15 ff.

2 Vgl. ebd., S. 4

3 Vgl. ebd., S. 4

4 Vgl. Reinheimer (2017), S. 49 ff.

5 Vgl. Hompel/Bauernhansl (2017), S. 155

6 Vgl. Schleer (2014)

7 Vgl. Zeit Online (2016)

8 Vgl. IBM -Deep Blue (2012); vgl.IBM -Watson (2018)

9 Vgl. Mattke/online (2017)

10 Vgl. Council of Supply Chain Management Professionals (2013)

11 Vgl. Kuhn/Hellingrath (2002), S. 10

12 Vgl. Werner (2013), S. 5

13 Vgl. ebd., S. 6 ff.

14 Vgl. Porter (2008)

15 Vgl. Kuhn/Hellingrath (2002), S. 10 ff., Vgl. Werner (2013), S.6

16 Vgl. Kuhn/Hellingrath (2002), S. 10 ff.

17 Merten (2013)

18 Vgl. Klaus/Krieger (1998), S.14

19 Vgl. Werner (2013), S.8 f., Vgl. Klaus/Krieger/Krupp (2012), S. 4 f.

20 Vgl. die 6Rs der Logistik Koether (2018) erweitert auf 8Rs im Informationszeitalter. Vgl. Hausladen (2016), S. 4 und modifiziert durch den Autor auf 8R+

21 Vgl. Werner (2013), S. 25 f.

22 Vgl. Lenz (2008), S.31 f.

23 Vgl. Kuhn/Hellingrath (2002), S. 16

24 Vgl. Schulte (2017), S. 21 f.

25 Vgl. Werner (2013), S. 29 ff.

26 Vgl. Forrester (1958), S.37 ff.

27 Vgl. Werner (2013), S. 40 f.

28 Vgl. Simchi-Levi (2008), S.39 ff.

29 Vgl. Werner (2013), S. 29 ff.

30 Vgl. ebd., S. 43 f.

31 Vgl. APICS (2017) , Vgl. Bolstorff/Rosenbaum/Poluha (2007), S. 15 f.

32 Vgl. Ziegenbein (2007), S. 10 f.

33 Vgl. ebd., S. 10 f.

34 Vgl. ebd., S.11

35 ebd., S.12

36 Vgl. McCarthy (1996)

37 Vgl. Lackes/Siepermann (2018)

38.Vgl. Kremp (2014)

39 Vgl. Herbig (2018)

40 Vgl. Lenzen (2002), S. 16

41 Vgl. Jaekel (2017), S. 21

42 Vgl. Buxmann/Schmidt (2018), S. 6

43 Vgl. Universität Oldenburg (o. J.)

44 Vgl. Kurzweil (2015), S. 10 ff.

45 Vgl. Menzel (1997), S. 9

46 Vgl. Pomberger/Dobler (2008), S.33

47 Vgl. ebd., S. 33 f.

48 Vgl. Rimscha (2014), S. 3

49 Vgl. Vöcking u. a. (2008)

50 Vgl. Menzel (1997), S. 11

51 Vgl. Görz/Schmid/Schneeberger (2013), S. 406

52 Vgl. Edelmann (2012); Vgl. Fröhlich (2000), S. 282

53 Vgl. Gerrig/Zimbardo/Graf (2008), S. 738

54 Vgl. Buxmann/Schmidt (2018), S. 8 f.

55 Vgl. Jannidis u. a. (2017), S. 289 f.

56 Vgl. mindsquare GmbH (2019)

57 Vgl. Reitmaier (2015), S. 15 f.

58 Vgl. Gerlach (2011), S. 7

59 Vgl. F. Tenzer (2019)

60 Vgl. Teradata Magazine (Q1/2011), S. 40 f.

61 Vgl. Nievelstein (2018)

62 Vgl. Stephan, Achim (Hrsg.) / Walter, Sven (2013), S. 55

63 Vgl. Zimbardo (1995), S. 357 f.

64 Vgl. Lenzen (2002), S. 14 geprägt von Noam Chomsky, Allen Newell, Herbert Simon und George Miller auf dem 1956 veranstalteten Symposium on Information Theory

65 Vgl. Münch (1992), S.40 ff. ; Vgl. Stephan, Achim (Hrsg.) / Walter, Sven (2013), S. 156 The MathWorks (2013)

66. Vgl. Lenzen (2002), S. 26 f , Vgl. Stephan, Achim (Hrsg.) / Walter, Sven (2013), S. 156, Vgl. Mulzer (2007), S. 123 ff.

67 Vgl. Lenzen (2002), S. 74

Excerpt out of 144 pages

Details

Title
Künstliche Intelligenz im Supply-Chain-Management. Chancen und Risiken der Digitalisierung
Author
Year
2020
Pages
144
Catalog Number
V506060
ISBN (eBook)
9783960958161
ISBN (Book)
9783960958178
Language
German
Keywords
künstlichen Intelligenz, Supply Chain, KI, AI, Internet of Things, Logistik, Cyber-Physikalische Systeme
Quote paper
Johannes Hangl (Author), 2020, Künstliche Intelligenz im Supply-Chain-Management. Chancen und Risiken der Digitalisierung, Munich, GRIN Verlag, https://www.grin.com/document/506060

Comments

  • No comments yet.
Look inside the ebook
Title: Künstliche Intelligenz im Supply-Chain-Management. Chancen und Risiken der Digitalisierung



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free