Neuronale Netze. Einsatzmöglichkeiten künstlicher Intelligenz in der Kreislaufwirtschaft


Masterarbeit, 2017
108 Seiten, Note: 1,0

Leseprobe

Inhaltsverzeichnis

Zusammenfassung

Abstract

Abkürzungsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Danksagung

1 Einleitung
1.1 Relevanz des Themas
1.2 Zielsetzung
1.3 Aufbau der Arbeit

2 Neuronale Netze
2.1 Grundlagen
2.2 Anwendungsgebiete

3 Kreislaufwirtschaft
3.1 Grundsätze und Bedeutung
3.2 Ansatzpunkte

4 Einsatzmöglichkeiten neuronaler Netze in der Kreislaufwirtschaft
4.1 Technologische Innovationen und Nachhaltigkeit
4.2 Implementationsprozess von neuronalen Netzen
4.3 Überblick und Klassifizierung
4.4 Anwendungsfälle und -beispiele

5 Bewertung und Ausblick
5.1 Kritische Reflexion
5.2 Forschungsbedarf

6 Fazit

Literaturverzeichnis

Zusammenfassung

Die vorliegende Arbeit mit dem Titel „Neuronale Netze – Einsatzmöglichkeiten künstlicher Intelligenz in der Kreislaufwirtschaft” widmet sich dem Potenzial konnektionistischer Modelle zur Förderung einer kreislauforientierten Wirtschaft. Als Forschungsschwerpunkt eines Teilgebiets der Neuroinformatik simulieren neuronale Netze die biologische Informationsverarbeitung im menschlichen Gehirn anhand eines Computermodells. Durch Abstraktion des natürlichen Vorbilds sind sie in der Lage komplexe Informationen sowie eine große Datenmenge in kurzer Zeit zu verarbeiten. Aufgrund ihrer Eigenschaften und Vorteile eignen sich neuronale Netze daher im Besonderen für vielseitige Aufgabenstellungen aus dem Bereich der Datenanalyse, Prognose, Optimierung und Mustererkennung. Diese Anwendungsgebiete eröffnen neue Gestaltungsoptionen für die Ansatzpunkte der Kreislaufwirtschaft zur Verbesserung der Ressourceneffizienz, zur Verringerung der Schadstoffemissionen und zur Vermeidung sowie Verwertung von Abfällen.

Die vielseitigen Einsatzmöglichkeiten von neuronalen Netzen werden entlang der Handlungsfelder Produktion, Konsum, Abfallbewirtschaftung und Markt für sekundäre Rohstoffe anhand von konkreten Anwendungsbeispielen und potenziellen Anwendungsmöglichkeiten dargestellt. Das Potenzial von neuronalen Netzen wird sich im Rahmen der fortschreitenden Digitalisierung und der Fortschritte auf dem Gebiet der IuK-Technologien in den nächsten Jahren weiter ausdehnen und eine Vielzahl von Lösungsmöglichkeiten für Fragestellungen der Kreislaufwirtschaft bieten.

Abstract

The present study bearing the title, Neuronal Networks – The Possible Implementations of Artificial Intelligence in the Circular Economy, deals with the potential of connectionist models for the advancement of recycling-oriented management. This research, as a subfield of neuro-informatics, focusses on neuronal networks simulating biological information processing in the human brain using a computer model. The abstraction of the natural model enables the processing of complex information and a large amount of data in a short time. Due to the features and advantages they offer, neuronal networks are therefore particularly suited to a diversity of tasks in the field of data analysis, forecasting, optimisation and pattern recognition. These fields of application open up new configuration options for approaches in the circular economy aimed at improving resource efficiency, reducing pollutant emissions as well as avoiding and recovering waste.

The many different possible implementations of neuronal networks are delineated around the fields of production, consumption, waste management and the market for secondary resources using concrete examples of applications and potential applications. Within the framework of the advancing digitalisation and progress in the field of information and communication technology, the potential of neuronal networks will expand further in coming years and offer a large number of possible solutions to problems in the circular economy.

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Abbildungsverzeichnis

Abbildung 1: Schematischer Aufbau einer biologischen Nervenzelle

Abbildung 2: Grundstruktur eines (dreischichtigen) neuronalen Netzes

Abbildung 3: Informationsverarbeitungsprozess eines Neurons

Abbildung 4: Anwendungsfelder neuronaler Netze

Abbildung 5: Zusammenstellung ausgewählter Netzwerkarchitekturen

Abbildung 6: Zielbereiche der nachhaltigen Unternehmensführung

Abbildung 7: Zusammenhang zwischen Technosphäre und Ökosphäre

Abbildung 8: Modell der Kreislaufwirtschaft

Abbildung 9: Stufen der Abfallhierarchie

Abbildung 10: Innovationstypen und ökologisches Entlastungspotenzial

Abbildung 11: Phasenmodell des Entwicklungsprozesses neuronaler Netze

Abbildung 12: Ansatzpunkte für neuronale Netze in der Abfallbewirtschaftung

Tabellenverzeichnis

Tabelle 1: Einsatzmöglichkeiten der Datenanalyse mit neuronalen Netzen

Tabelle 2: Einsatzmöglichkeiten der Prognose mit neuronalen Netzen

Tabelle 3: Einsatzmöglichkeiten der Optimierung mit neuronalen Netzen

Tabelle 4: Einsatzmöglichkeiten der Mustererkennung mit neuronalen Netzen

Tabelle 5: Potenziale neuronaler Netze in der Kreislaufwirtschaft

Danksagung

Das Gelingen der vorliegenden Arbeit wäre ohne den Beitrag besonderer Menschen in dieser Form nicht denkbar gewesen. Ihnen fühle ich mich in tiefer Dankbarkeit verbunden.

Für seinen fachlichen Rat, seine menschliche Betreuung und Motivation möchte ich meinem Erstbetreuer Herrn Prof. Dr. Osburg danken. Er hat von Anfang an großes Vertrauen in mich und meine Arbeit gesetzt und stand mir stets mit vielen Anregungen und konstruktiver Kritik auch an Wochenenden zur Seite. Herrn Prof. Dr. Kreeb danke ich im Rahmen seiner herzlichen Betreuung als Studiendekan während des gesamten Masterstudiums und für die vielen anregenden Fachgespräche.

Ganz besonderen Dank möchte ich meinen Eltern aussprechen. Sie haben mir mein Studium ermöglicht und waren immer für mich da.

Ebenfalls möchte ich mich bei der Zeppelin GmbH und beim Bundesministerium für Bildung und Forschung für ihre Unterstützung und Förderung in Form des Deutschlandstipendiums bedanken.

1 Einleitung

„Die Güter dieser Welt gleiten uns durch die Finger

wie der Sand der Dünen.“[1]

Die Ressourcen unserer Welt und die Selbstreinigungskraft der Natur sind erschöpft. Die gegenwärtige Rohstoffausbeute, deren Verschwendung sowie die Umwelt-verschmutzung und anthropogene Veränderung des Klimas erhöhen den Druck auf unser Erdsystem und steigern die Gefahr einer irreversiblen Zerstörung von Lebensräumen.[2] Nach dem deutschen Geografen Eckart Ehlers befinden wir uns in der Anthropozoischen Ära, die den Menschen als wichtigsten Einflussfaktor auf alle biologischen, geologischen als auch atmosphärischen Erdprozesse und in der Verantwortung für die Natur-Mensch-Umwelt-Beziehung sieht.[3] In diesem neuen Zeitalter ist unsere unersättliche Konsumgesellschaft maßgebend für die Zunahme von Erosionen, den Anstieg der Treibhausgaskonzentration von Methan und Kohlendioxid, der Temperaturerhöhung von bodennahen Luftschichten und Ozeanen sowie der Freisetzung von großen Mengen an Stickstoff, Phosphor, Plastik wie auch Aluminium. Als Konsequenz unseres Handelns nehmen Wetterextreme wie beispielsweise Hitzewellen, Dürren oder Überflutungen zu und die genetische Vielfalt sowie Ökosysteme gehen verloren.[4]

Die Zukunft unseres Planeten ist daher von einem Umdenken bei der Produktionsweise von Gütern als auch von einer Veränderung des Konsumverhaltens der Weltbevölkerung abhängig. Gemäß dem Leitbild einer nachhaltigen Entwicklung besteht das Ziel dieses Umdenkens in der „Verbesserung der Lebenssituation der heutigen Generation ohne die Zukunftsperspektiven der kommenden Generation zu verschlechtern.“[5] In Anlehnung an den Brundtland-Bericht und den Umweltgipfel in Rio de Janeiro im Jahr 1992 sind für die Umsetzung dieses Leitgedankens das Verantwortungsprinzip, das Kooperations- und Partnerschaftsprinzip sowie das Kreislaufprinzip von grundlegender Bedeutung. Zum Schutz der ökonomischen, ökologischen als auch der sozialen Grundlagen der Menschen müssen alle Akteure durch die Nutzung vielfältiger Kooperationen verantwortungsvoll und ressourcenschonend nach dem Modell der Kreislaufwirtschaft agieren.[6] Neue technologische Entwicklungen können dabei helfen, die zwingend notwendige nachhaltige Entwicklung insgesamt voranzutreiben und sowohl die unternehmerische Tätigkeit als auch die Verhaltensweisen von Verbrauchern in allen drei Nachhaltigkeitsdimensionen zu optimieren. In dieser Hinsicht bieten vor allem der stetige Fortschritt im Bereich der Informations- und Kommunikationstechnik (IuK) sowie die Flut an verfügbaren Daten eine enorme Chance.[7] Künstliche Intelligenzen (KIs) stellen diesbezüglich einen Ansatzpunkt dar, die großen, vom Menschen alleine nicht zu bewältigenden Datenmengen auszuwerten und diese für weitere Verarbeitungsschritte nutzbar zu machen. Im Bereich der Informationsverarbeitung haben sich insbesondere künstliche neuronale Netze (KNN) bewährt, da sie in der Lage sind Muster zu erkennen und Verarbeitungsprozesse durch selbstständiges Lernen zu optimieren.[8]

1.1 Relevanz des Themas

Erste wissenschaftliche Untersuchungen zum Themenfeld neuronaler Netze gehen bereits auf die Formalmodelle des Neurons von Warren McCulloch und Walter Pitts aus dem Jahr 1943 zurück. Die Forschungstätigkeit in diesem Bereich beginnt in etwa zeitgleich mit dem Einsatz programmierbarer Rechenmaschinen in der angewandten Mathematik und nimmt mit der Weiterentwicklung dieser ersten Computer Fahrt auf.[9] Dank der kontinuierlichen Fortschritte des Leistungsvermögens der Informationstechnik nehmen auch die Anwendungsgebiete und folglich die Publikationen neuronaler Netze ab 1986 stetig zu. Während sich anfängliche Studien vorrangig mit der Mustererkennung, wie beispielsweise der Texterkennung, Bilderkennung und Gesichtserkennung beschäftigten, scheinen die Einsatzmöglichkeiten neuronaler Netze aufgrund der zunehmenden Digitalisierung heute unbegrenzt.[10] In der wissenschaftlichen Literatur lassen sich zahlreiche Veröffentlichungen zur Grundlagenforschung und zum anwendungsbezogenen Einsatz von neuronalen Netzen finden. Die betriebswirtschaftlichen Publikationen aus diesem Bereich sind jedoch größtenteils maßgeblich auf die ökonomischen Aspekte von neuronalen Netzen fokussiert, ungeachtet ihres Leistungsvermögens für die Ressourcenschonung und die Verwirklichung einer nachhaltigen Entwicklung. Es besteht daher Forschungsbedarf, inwieweit neuronale Netze für Fragestellungen der Kreislaufwirtschaft im Rahmen der Nachhaltigkeitsdiskussion eine Chance darstellen.

1.2 Zielsetzung

In Hinblick auf das große Nutzungspotenzial von künstlichen Intelligenzen und das offensichtliche Defizit bei der Betrachtung ihres Beitrags für die Kreislaufwirtschaft, sollen in dieser Arbeit die Einsatzmöglichkeiten neuronaler Netze in der Kreislaufwirtschaft untersucht werden. Vor diesem Hintergrund werden die grundlegenden Anwendungsbereiche von NN zur Prognose, Datenanalyse, Optimierung und Mustererkennung nach ihren Potenzialen für die – entsprechend der von der Europäischen Kommission im Aktionsplan der Europäischen Union (EU) zur Kreislaufwirtschaft genannten – zentralen Ansatzpunkte Produktion, Konsum, Abfallbewirtschaftung und Markt für sekundäre Rohstoffe[11] analysiert. Die Zielsetzung der vorliegenden Arbeit ist es, einen anwendungsbezogenen Querschnitt von neuronalen Netzen für die Kreislaufwirtschaft darzustellen.

1.3 Aufbau der Arbeit

Der Aufbau der Arbeit gliedert sich insgesamt in vier systematisch aufeinander aufbauende Kapitel, eine kritische Bewertung mit Forschungsausblick sowie ein abschließendes Fazit.

Im ersten, einleitenden Kapitel werden zunächst die Relevanz des Themas neuronale Netze für die Kreislaufwirtschaft sowie die Zielsetzung der Arbeit erläutert. Im Anschluss folgen zwei Kapitel, in denen die theoretischen Grundlagen von neuronalen Netzen und die Grundprinzipien der Kreislaufwirtschaft dargestellt werden. Nach einer kurzen Einführung in historische und biologische Aspekte als auch in die Funktionsweise und Eigenschaften von neuronalen Netzen fokussiert Kapitel 2 deren wesentliche Anwendungsfelder. Das nachfolgende Kapitel 3 befasst sich mit den Grundsätzen sowie der Bedeutung der Kreislaufwirtschaft und veranschaulicht zentrale Ansatzpunkte ihrer Umsetzung.

Auf dieses theoretische Fundament aufbauend erarbeitet Kapitel 4 die Einsatzmöglichkeiten von neuronalen Netzen in der Kreislaufwirtschaft. Hierzu wird zunächst ein Integrationsprozess zur anwendungsbezogenen Implementierung von neuronalen Netzen vorgestellt und ein Überblick potenzieller Anwendungsfälle illustriert. Danach werden konkrete Anwendungsbeispiele entlang der Aktionsbereiche Produktion, Konsum, Abfallwirtschaft und Markt für sekundäre Rohstoffe aufgeführt.

Kapitel 5 diskutiert die Ergebnisdarstellung im Rahmen einer kritischen Reflexion mit einer angrenzenden Empfehlung für den zukünftigen Forschungsbedarf. Die Arbeit schließt mit einem zusammenfassenden Fazit.

2 Neuronale Netze

Die allumfassende Digitalisierung von Informationen in unserer Welt schafft ein bis dato unvorstellbares Vernetzungs- und Automatisierungspotenzial. Die Auswirkungen dieser digitalen Transformation lassen die global verfügbare Datenmenge exponentiell steigen.[12] Schätzungen nach wird der mobile Datenverkehr in Deutschland im Jahr 2019 ein monatliches Volumen von 259,8 Petabyte erreichen. Die weltweit erstellte, konsumierte und vervielfältigte Datenmenge soll im Jahr 2020 sogar 40 Zettabytes betragen. Im Vergleich zum Speichervolumen des menschlichen Gehirns von rund 2,5 Petabyte[13] und dessen bewusste Wahrnehmungskapazität von maximal 40 bis 50 Bit pro Sekunde werden die Grenzen des menschlichen Datenfassungsvermögens schnell sichtbar.[14] Die Herausforderungen dieser Datenexplosion liegen daher in der logischen und inhaltlichen Organisation von Daten sowie ihrer sinnvollen Bereitstellung für den Menschen. Bei der Verarbeitung von Informationen werden daher zunehmend Systeme mit künstlicher Intelligenz (KI) eingesetzt. Im Vergleich zu den Anfängen erster KI-Anwendungen verfügen wir heute allerdings über die entsprechenden technischen Voraussetzungen zur Umsetzung von KI-Szenarien. Ausreichende Rechnerleistung, Speicherressourcen und Breitbandtechnologien in Verbindung mit Cloud-Computing ebnen die nächste große Welle automatisierter und intelligenter Datensysteme.[15]

Wenngleich diese modernen Computersysteme komplizierte numerische und symbolische Berechnungen aus einem für den Menschen nicht erfassbar großen Datenpool in kürzester Zeit durchführen können, sind sie dem Gehirn und insbesondere dessen sprachlichen und visuellen Verarbeitungsprozessen noch weitestgehend unterlegen. Während das menschliche Gehirn Informationen dezentral und parallel verarbeitet, benötigen Computer einen präzisen Input den sie sequenziell verwerten.[16] Auf Grund dieser Begebenheit versucht man mit speziellen KI-Anwendungen nach dem Prinzip der Bionik allgemeine Methoden der Wissensdarstellung, der Wissensverknüpfung und der Lösungssuche biologischer Gehirnprozesse zu imitieren. Auf diese Weise sollen die natürlichen neuronalen Strukturen mit so genannten künstlichen neuronalen Netzen simuliert und die computerbasierte Informationsverarbeitung perfektioniert werden.[17]

2.1 Grundlagen

Zur Veranschaulichung ihrer Beschaffenheit und ihres Wirkprinzips liefert folgendes Kapitel eine Einführung in die wissenschaftlichen Grundlagen und Anwendungsgebiete neuronaler Netze. Nach Abgrenzung und Definition des Forschungsgegenstands sowie der Einordnung seines historischen und biologischen Kontexts werden grundlegende Funktionsweisen und zentrale Eigenschaften von neuronalen Netzen erläutert.

2.1.1 Definition und Abgrenzung

Neuronale Netze, die auch als konnektionistische Modelle bezeichnet werden, sind ein Forschungsschwerpunkt der künstlichen Intelligenz der Neuroinformatik, eines Teilgebiets der Informatik sowie der angrenzenden Disziplinen Neurobiologie und Kognitionswissenschaften. Nach dem Modell der biologischen Informations-verarbeitung im menschlichen Gehirn mittels neuronaler Netze werden künstliche neuronale Netze am Computer simuliert. Im Folgenden sind unter neuronalen Netzen daher keine biologischen, sondern künstlich geschaffene Netzstrukturen gemeint. Durch Abstraktion des natürlichen Vorbilds können neuronale Netze Informationen erhalten, verarbeiten und ausgeben. Dies geschieht in Form von Zahlenbündeln bzw. Matrizen, wobei eine selbstständige Umstrukturierung des Netzes während der Verarbeitung vorgenommen werden kann. Eine Veränderung und Modifikation des Zahlengebildes erfolgt mit Hilfe der aufgenommenen Informationen in einer Lernphase in Kombination mit Lernregeln. Neuronale Netze sind dadurch in der Lage ihren Output eigenständig durch Anpassung der Aktivierungsfunktion zu optimieren.[18]

Als Oberbegriff dieser Art der künstlichen Wissensgenerierung werden in der wissenschaftlichen Literatur auch die Begriffe maschinelles Lernen und Deep Learning verwendet. Maschinelles Lernen bedient sich zur Verarbeitung von Datenbeständen mathematischer und statistischer Modelle unter Anwendung symbolischer und subsymbolischer Ansätze. Symbolische Verfahren sind aussagenlogische Systeme, in denen das Wissen explizit repräsentiert ist. Demgegenüber ist für subsymbolische Systeme wie neuronale Netze die implizite Wissensrepräsentation charakteristisch. Nach aktuellen Forschungsstand stellt Deep Learning – tiefgehendes Lernen – die derzeitig erfolgreichste Form der Implementierung eines neuronalen Netzes dar. Aufgrund seines Einsatzes von den weltweit größten IT-Konzernen wie Google Inc., Apple Inc. und Facebook Inc. ist Deep Learning zugleich auch das am weitesten etablierte maschinelle Lernverfahren.[19]

2.1.2 Historische Aspekte

Das Forschungsgebiet neuronaler Netze ist annähernd so alt wie die ersten programmierbaren Computer auf elektronischer Basis und somit sogar älter als die Geschichte der symbolischen KI. Vom Interesse an den neurophysiologischen Grundlagen des menschlichen Gehirns beflügelt begann die Erforschung neuronaler Netze bereits um 1940. Doch ihr anwendungsbezogener Durchbruch innerhalb des letzten Jahrzehnts ist auf den technischen Fortschritt bei der Rechenleistung von Computern und die infolge der Digitalisierung heute verfügbaren Datenmengen zurückzuführen.[20]

Pioniere wie Warren McCulloch und Walter Pitts fanden schon 1943 erste Strukturen, die den heutigen neuronalen Netzen ähneln. In späteren Arbeiten beschrieben sie durch ihren Ansatz für lageinvariante Erkennung räumlicher Muster erste praktische Anwendungen. Im Jahr 1949 erstellte Donald O. Hebb eine lokale Trainingsstrategie für Neuronen, die heute noch als Hebb’sche Lernregel eine der wichtigsten Voraussetzung für viele Lernverfahren bildet. Der Neuropsychologe Karl Lashley stellte 1950 die These auf, dass der Prozess der Informationsverarbeitung und -speicherung im menschlichen Gehirn verteilt auf mehrere kleinere Einheiten realisiert wird.[21]

Auf diese Erkenntnisse erfolgte ab 1955 die erste Blütezeit der Forschung, in der es Frank Rosenblatt und Charles Wightman zwischen 1957 und 1958 am Massachusetts Institute of Technology (MIT) gelang den ersten Neurocomputer Mark I Perceptron zu entwickeln. Dieser konnte bereits mit seinem 20x20-Pixel großen Bildsensor einfache Ziffern erkennen und wurde mit Hilfe von 512 Potentiometern betrieben. In den folgenden Jahren wurden von Rosenblatt das Perceptron-Konvergenz-Theorem formuliert, von Bernard Widrow und Marcian E. Hoff das ADALINE (Adaptive Linear Neuron) vorgestellt und von Karl Steinbuch Techniken der assoziativen Speicherung veranschaulicht. Aufgrund der genauen mathematischen Analyse des Perzeptrons durch Marvin Minsky und Seymour Papert wurde allerdings 1969 erkannt, dass wichtige Probleme mit diesem Modell nicht gelöst werden konnten. Als Konsequenz strichen die Forschungsinstitute die Gelder und die Forschungstätigkeiten auf dem Gebiet der neuronalen Netze nahmen ein vorläufiges Ende.[22]

Dank des von John Hopfield 1985 veröffentlichten Artikels über Hopfield-Netze zur Lösung von schwierigen Optimierungsproblemen erfuhr die Forschung neuronaler Netze in den achtziger Jahren neuen Aufschwung. Ferner konnte die von Minsky und Papert beschriebene Beschränkung einschichtiger Perzeptronen durch die Entdeckung des Lernalgorithmus Backpropagation im Jahr 1986 überwunden werden. Der von der Parallel-Distributed-Processing-Gruppe (PDP-Gruppe) entwickelte Algorithmus ebnete den Weg für die allgemeinere Programmierung von neuronalen Netzen.[23] Infolgedessen weitetet sich die wissenschaftliche Tätigkeit ab 1986 explosiv aus, wodurch zahlreiche Veröffentlichungen zu neuartigen neuronalen Ansätzen und Einsatzmöglichkeiten entstanden. Zeitgleich stieg das Interesse von Firmen wie beispielsweise der Siemens AG und der International Business Machines Corporation (IBM) an neuronalen Netzen, so dass die Forschungs- und Entwicklungsgelder auf dem Gebiet der Neurocomputer aufgestockt wurden.[24]

Aufgrund der Möglichkeit, Daten nicht wie bisher in klassischen zentralen Verarbeitungseinheiten (CPUs), sondern in Grafikprozessoren (GPUs) mit Hilfe von tausenden von Recheneinheiten parallel und deutlich schneller zu verarbeiten, erlebten neuronale Netze Anfang 2000 einen weiteren Durchbruch. Multi-Core-Architekturen, verbesserte Algorithmen und extremschnelle In-Memory-Datenbanken machten den Einsatz von neuronalen Netzen in den Folgejahren auch für Unternehmen attraktiv. Der heutige Siegeszug künstlicher Intelligenzen ist schließlich zudem in der steigenden Verfügbarkeit großer unstrukturierter und strukturierter Datenmengen wie zum Beispiel Sensoren, digitaler Dokumente oder Bilder, die für das Trainieren der Lernalgorithmen benötigt werden, begründet.[25]

2.1.3 Biologisches Vorbild

Neuronale Netze wurden in Analogie zum biologischen Nervensystem und dem Prozess menschlichen Lernens entwickelt. Es bestehen daher funktionale Zusammenhänge zwischen dem natürlichen Vorbild und grundlegender Rechenoperationen der künstlichen Nachbildung. Zum Verständnis der Logik von neuronalen Netzen ist ein Basiswissen über die wesentlichen Organisationsprinzipien und Mechanismen bei der Verarbeitung von Informationen in biologischen Systemen notwendig. Hierzu ist vor allem die Betrachtung der Anatomie und Physiologie von Nervenzellen als Bausteine des Nervensystems bedeutsam.[26]

Die Übertragung von Signalen geschieht beim Menschen über eine Vielzahl von Nervenzellen, die auch als Ganglienzellen bzw. Neuronen bezeichnet werden. Abb. 1 zeigt eine vereinfachte Darstellung des Aufbaus einer einzelnen menschlichen Nervenzelle. Sie besteht aus dem Zellkörper, auch Soma genannt, sowie aus den weiteren charakteristischen Bestandteilen Zellkern, Axon und Dendriten.[27] Über ihre Dendriten empfängt eine Nervenzelle von mehreren sendenden Neuronen erregende bzw. hemmende Signale, die sich in ihr zu einem Gesamtsignal verdichten und in ihrem Zellkern weiterverarbeitet sowie ausgewertet werden. Im Anschluss daran gibt die Nervenzelle die Signale durch den Ausgangskanal Axon an Folgezellen weiter. Die Synapse stellt keinen unmittelbaren Bestandteil der Nervenzelle dar, sondern dient durch einen Spalt zwischen dem sendenden Axon und den empfangenden Dendriten nur als Bindeglied zu anderen Nervenzellen. Die Übertragung von Signalen verläuft im Nervensystem durch die Weitergabe von Erregungen zwischen einzelnen Neuronen. Die Aktivierung eines Zellkerns über einen gewissen Schwellenwert hinaus lässt die Nervenzelle einen kurzzeitigen elektrischen Impuls generieren, der über das Axon geleitet in den Synapsen eine Ausschüttung von Neurotransmittern auslöst. Dies erzeugt bei den empfangenden Nervenzellen ebenfalls elektrische Impulse, die ihrerseits entweder anregend oder hemmend wirken können. Werden Verbindungen häufiger bzw. seltener genutzt, wachsen bzw. degenerieren Synapsen, wodurch die Signalauswirkung auf nachgeschaltete Neuronen folglich stärker bzw. schwächer ausfällt. Die Verbindungsanpassung zwischen Nervenzellen vollzieht sich im Rahmen von Lernprozessen im Gehirn.[28] Insgesamt erfolgt die Verarbeitungsweise des Nervensystems gemäß dem Stimulus-Organismus-Response-Modell (SOR-Modell) durch Reaktionen des Organismus auf Signale aus der Umgebung.[29]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Schematischer Aufbau einer biologischen Nervenzelle

(Quelle: eigene Darstellung in Anlehnung an Kandel/ Schwartz/ Jessel, [1996] S.23)

2.1.4 Funktionsweisen und Eigenschaften

In Anlehnung an den biologischen Aufbau des Nervensystems und seinem biochemischen Informationsverarbeitungsprozess sollen künstliche neuronale Netze die Funktionsweise dieses natürlichen Prinzips in mathematische Rechenoperationen übertragen. Die zentralen Analogien bestehen hierbei in der Verarbeitung von systemexternen Informationen durch Reizeinwirkung von außen mittels einer Vielzahl von vernetzten Elementen, die in beiden Fällen als Neuronen bezeichnet werden. Sowohl natürliche als auch künstliche neuronale Netze erwerben Wissen durch Lernprozesse in einem parallelen Informationsverarbeitungsprozess bei dem der aktuelle Wissensstand durch die Stärke der Verbindungen zwischen den einzelnen Neuronen repräsentiert wird.[30]

Die Grundstruktur eines mathematischen neuronalen Netzes besteht, wie in Abb.2 illustriert, aus drei Schichten. In dem dargestellten dreischichtigen Netzmodell sind die Eingabeschicht (Input-Layer), die verdeckte Schicht (Hidden-Layer) und die Ausgabeschicht (Output-Layer) klar zu erkennen. Die visualisierte Netzstruktur entspricht der eines Feedforward-Netzes, dem es, im Gegensatz zu rückwärtsgerichteten neuronalen Netzen, nicht möglich ist, auf ein bereits berechnetes Ergebnis zurückzugreifen. Feedback-Netze können durch Rückkopplung auch alte Zustände in ihre Berechnungen miteinfließen lassen, so dass sie dazu in der Lage sind Verbindungen zwischen den Neuronen bestehender Schichten zu entwickeln.[31]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Grundstruktur eines (dreischichtigen) neuronalen Netzes

(Quelle: eigene Darstellung in Anlehnung an Backhaus/ Erichson/ Weiber, [2015] S. 299)

Während die in Abb. 2 gezeigte Eingabeschicht des vereinfachten Feedforward-Netzes aus vier Neuronen, auch Units genannt, besteht, beinhaltet die erste verdeckte Schicht drei, die zweite verdeckte Schicht zwei und die Ausgabeschicht drei Neuronen. Die Eingabeschicht nimmt Signale ausschließlich auf und leitet diese unverändert an die Units der nächsten Schicht weiter. In der ersten und zweiten Zwischenschicht werden die Ausgabewerte der vorherigen Neuronen gebündelt und nichtlineare Transformationen zum Zweck der Abbildung von Zusammenhängen zwischen Eingabe- und Ausgabeparametern getätigt. In der Ausgabeschicht werden die unabhängigen Variablen letztlich abgebildet und die Signale werden wieder an die Außenwelt abgeben. Charakteristisch für neuronale Netze ist, dass keine Vorgaben bzw. festgelegten Beziehungen für den Verarbeitungsprozess der Eingangsvariablen bestehen. Die Ergebnisgrößen werden vom Netz selbstständig durch ein Lernverfahren im Rahmen der Berechnung der Aktivierungsgrade der einzelnen Neuronen exakt bestimmt und abgebildet.[32]

Neuronale Netze können durch Lernen erworbene Verhaltensweisen auf bisher unbekannte Situationen anwenden. Diese Generalisierungsfähigkeit und Problemlösungskompetenz ist auf das in den Gewichten der Verbindungen und Schwellenwerten der Units gespeicherte implizite Wissen zurückzuführen.[33] Demnach gleicht der Lernprozesses einer Gewichtsveränderung zwischen den einzelnen Neuronen und vollzieht sich in Abhängigkeit von der verwendeten Lernregel durch positive, negative und neutrale Gewichtsimpulse mit exzitatorischer, inhibitorischer und neutraler Wirkung. Analog zum biologischen Vorbild kommt es erst zu einer Ausgabe bei einem Neuron, wenn die Summe der Eingangssignale einen relativen Schwellenwert übersteigt.[34] Zusätzlich zur Gewichtsveränderung existieren noch weitere Möglichkeiten für das Lernen neuronaler Netze. So können beispielweise auch neue Verbindungen zwischen Units entwickelt oder vorhandene Verbindungen beseitigt werden. Eine Modifikation des Schwellenwertes eines Neurons sowie die Veränderung der Propagierungsfunktion, der Aktivitätsfunktion oder der Ausgabefunktion stellen alternative Methoden dar. Schließlich können ebenfalls neue Units aufgenommen oder bereits vorhandene Units eliminiert werden.[35]

Der Informationsverarbeitungsprozess eines einzelnen Neurons ist schematisch in Abb. 3 verdeutlicht. Die Aktivierungsgrade bzw. Gewichte werden innerhalb der einzelnen Neuronen durch mathematische Formeln bestimmt. Mittels Propagierungsfunktion wird zunächst die Summe der gewichteten Eingabewerte (Netzinput) gebildet. Die Aktivierungsfunktion ist die statische Kennlinie eines Neurons; sie stellt einen Zusammenhang zwischen den Parametern her indem sie den Netzinput einem Aktivitätslevel zuordnet. Die Aktivierungsfunktion kann linear, sprunghaft, binär oder sigmoide sein und in Einzelfällen einer Normalverteilung gleichkommen. Der Output des Neurons wird aus dem Aktivitätslevel und einer Ausgabefunktion erzeugt.[36]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Informationsverarbeitungsprozess eines Neurons

(Quelle: eigene Darstellung in Anlehnung an Backhaus/ Erichson/ Weiber, [2015] S. 299 und Tawil [1999] S. 70)

Da sich der Verarbeitungsprozess jedes einzelnen Neurons auf diese sehr einfache Rechenoperation stützt, können neuronale Netze in der Gesamtheit ihrer Units Informationen äußerst schnell auswerten.[37] Die Beschaffenheit und die Struktur von neuronalen Netzen weißt darüber hinaus weitere Eigenschaften auf. Als besonderes Merkmal sind zum einen die Parallelverarbeitung und die verteilte Speicherung zu nennen. Aufgrund des technischen Fortschritts auf dem Gebiet der Multicore-Prozessoren ist es computerbasierten neuronalen Netzen heute möglich, wie ihre biologischen Vorbilder Berechnungen parallel, also gleichzeitig durchzuführen; zuvor musste dies seriell geschehen. Auch der Informationsspeicherungsprozess ist dem des menschlichen Gehirns angepasst, wonach Wissen verteilt über das gesamte Netz gelagert bzw. in verschiedenen Gewichten gleichzeitig abgespeichert wird. Im Zusammenhang mit diesen Qualitäten spricht man auch von biologischer (Teil-) Plausibilität. Daraus lässt sich eine Toleranz gegenüber internen Schäden, wie beispielweise fehlerhaften Verbindungen, sowie externen Fehlern, wie zum Beispiel verrauschten Inputwerten, bei denen es dem neuronalen Netz häufig gelingt, trotzdem den richtigen Output herzustellen, ableiten. Ferner werden durch Generalisierung und Kategorienbildung ähnliche Reize zur selben Reizgruppe zusammengefasst. So werden auch bei mehreren gelernten Inputvektoren gemeinsame Outputvektoren, die man auch als Prototyp der Kategorie bezeichnet, geformt. Des Weiteren werden Informationen in neuronalen Netzen nicht adressbezogen, sondern assoziativ, d.h. inhaltsbezogen, gespeichert. Beim Inhaltsabruf reicht es daher aus, eine beliebige Teilinformation zu aktivieren. Eine weitere wichtige Eigenschaft von neuronalen Netzen ist ihre gute Erfassungsmöglichkeit von nichtlinearen Zusammenhängen und komplexen Interaktionseffekten zwischen mehreren Variablen. Die Vielzahl der beeinflussbaren Parameter bedingt die hohe Flexibilität und Lernfähigkeit des Netzes.[38]

Der Wissenserwerb bzw. die Gewichtsanpassung wird in einem neuronalen Netz entweder durch überwachtes oder durch unüberwachtes Lernen in einer Trainingsphase vorgenommen. Das Lernmaterial repräsentiert als Ausschnitt der Realität zum Beispiel Bilder, Texte, Sprache, Musik oder erhobene Messwerte, die dem neuronalen Netz als Input dienen. Beim überwachten Lernen erfolgt die Gewichtsanpassung der einzelnen Neuronen anhand des Systemvergleichs zwischen den externen Eingabedaten (Problemsituationen) und den vorgegebenen Ausgabewerten (Ergebnissen). Das System lernt folglich aus seinen Fehlern und modifiziert die Gewichte bei Nichtübereinstimmung der Eingabe- und Ausgabeparameter. Demgegenüber bestehen die Trainingsdaten beim unüberwachten Lernen lediglich aus Inputwerten. Das neuronale Netz kennt in diesem Fall nicht die richtige Antwort und muss aus den vorhandenen Inputmustern ein konsistentes Outputmuster generieren. Dies erfolgt durch Gruppierung der Eingabe- und Ausgabewerte anhand ihrer Ähnlichkeit. Die zu verwendende Lernregel wird nach dem Anwendungsfall und dem dafür vorgesehenen Netztyp ausgewählt. Nach der erfolgreich abgeschlossenen Testphase ist ein trainiertes Netz einsatzbereit und kann sich der Lösung eines konkreten Anwendungsproblems widmen.[39]

2.2 Anwendungsgebiete

Die in Kapitel 2.1.4 beschriebenen funktionsspezifischen Eigenschaften neuronaler Netze eröffnen zahlreiche Einsatzgebiete. Mit der rasanten Weiterentwicklung der Hard- und Software von Rechnern dehnt sich dazu auch die Realisierbarkeit und somit die praktische Anwendungsbreite von KI-Systemen aus. Das Spektrum erstreckt sich u.a. auf diverse Bereiche der Industrie, der Finanz- und Betriebswirtschaft, der Telekommunikation, der Robotik und der Medizin. So lassen sich einerseits beispielsweise durch die Analyse von Medizindaten mittels neuronaler Netze Krankheitssymptome besser bzw. schneller erkennen.[40] Andererseits können mit Hilfe der heute zur Verfügung stehenden Kundendaten Kundenbedürfnisse genauer erkannt, Werbemaßnahmen personalisiert sowie Kundenabwanderungen verhindert werden. Weitere Anwendungsbeispiele stellen automatisierte Diagnoseverfahren, die Steuerung autonomer Fahrzeuge und kollaborativer Roboter oder die Erkennung von Kreditkartenbetrug und die Aktienmarktanalyse dar.[41]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 4: Anwendungsfelder neuronaler Netze

(Quelle: eigene Darstellung in Anlehnung an Strecker/ Schickert, [1997] S. 16)

Hinsichtlich der Vielschichtigkeit der Anwendungsfelder von neuronalen Netzen wird im folgenden Abschnitt eine Unterteilung dieser entsprechend ihrer wesentlichen Merkmale und ihres Wirkprinzips in vier Hauptkategorien vorgenommen. Demnach sind die wichtigsten Basisanwendungen die Datenanalyse, die Prognose, die Optimierung sowie die Mustererkennung (Vgl. Abb. 4). Da je nach Art der Verwendung unterschiedliche Netzarchitekturen zum Einsatz kommen, ist eine Darstellung der grundlegenden anwendungsrelevanten Netztypen zunächst sinnvoll. Mit Rücksicht auf den im Vordergrund stehenden Anwendungsbezug wird auf eine tiefergehende Betrachtung mathematischer und statistischer Konzepte verzichtet.

2.2.1 Anwendungsrelevante Netzwerkarchitekturen

Die langjährige Forschungstätigkeit auf dem Gebiet der neuronalen Netze hat eine Vielzahl an Netzwerkarchitekturen hervorgebracht, die sich hinsichtlich ihrer Neuronenanordnung, ihrer Lernregeln und ihrer Einsatzmöglichkeiten unterscheiden. Zu den bekanntesten und im Kontext dieser Arbeit wichtigsten zählen Backpropagation-Netze, Kohonen-Netze, Hopfield-Netze und die Boltzmann-Maschine

Backpropagation-Netze sind eine Klasse von neuronalen Netzen auf Basis von mehrschichtigen Feedforward-Netzen mit einem Input-Layer, einem Output-Layer und mindestens einem Hidden-Layer. Für Anzahl und Größen der verborgenen Schichten gibt es keine Berechnungsformeln; vielmehr bedarf es beim Finden einer guten Netzwerktopologie der Strategie des systematischen Ausprobierens. Die Besonderheit von Backpropagation-Netzen stellt ihr Lernalgorithmus, das Backpropagation-Verfahren dar. Nach dem Prinzip des überwachten Lernens entspricht dieser Algorithmus einer Erweiterung der Delta-Regel und bezeichnet die „rückwärtige Ausbreitung eines Fehlersignals durch das Netzwerk.“[42] Nach der Darbietung einer Eingabe und deren vorwärts gerichteter Weiterleitung durch das Netz wird die Ausgabe jeder Einheit bestimmt. Nach Ermittlung der Fehlersignale werden diese im Anschluss rückwärtig propagiert und es wird eine Gewichtsveränderung der fehlerhaften Schichten vorgenommen.[43]

Kohonen-Netze gehören zur Klasse der selbstorganisierten Netze bzw. der selbstorganisierenden Karten (SOM), die nicht überwachte Lernverfahren anwenden. Im Vergleich zum zuvor beschriebenen Backpropagation-Algorithmus operieren sie ohne Fehlerfunktionen und modifizieren ihre Gewichte durch Clusterbildung der Inputwerte. Diese Art von Netzen setzt sich daher nur aus zwei Schichten zusammen: der Input-Schicht und der Kohonen-Schicht bzw. der topologischen Karte. Beim Lernen werden die Werte der Eingabeschicht entsprechend ähnlicher Werte in der Kohonen-Karte abgebildet. Dieses Vorgehen kongruiert einen iterativen Prozess, bei dem die Gewichtsveränderung nach der Hebb’schen Lernregel vorgenommen wird.[44]

Hopfield-Netze sind einschichtige rekursive neuronale Netze mit symmetrischen Gewichten. Jedes Neuron eines solchen Netzwerkes ist mit jedem anderen jedoch nicht mit sich selbst verbunden, so dass keine direkte Rückkoppelung möglich ist. Sie verarbeiten binäre Eingabedaten mit Werten aus {-1,1} wobei die Eingabeschicht zugleich als Ausgabeschicht fungiert. Die Verarbeitung eines Inputs nimmt das Netz in drei Schritten vor. Als erstes werden alle Gewichte innerhalb der Netzwerkinitialisierung für eine gegebene Trainingsmenge berechnet. Darauf wird eine neue Eingabe angelegt und es wird im Anschluss durch die Berechnung von Folgezuständen mittels einer Iterationsvorschrift ein stabiler Endzustand erreicht. Aufgrund ihrer Struktur und Arbeitsweise können Hopfield-Netz als Autoassoziativ- speicher eingesetzt werden.[45]

Die Boltzmann-Maschine ist eine Fortentwicklung der Hopfield-Netze durch deren Erweiterung um ein stochastisches Element. Die Architektur dieses Netzes setzt sich aus Eingangsneuronen, Ausgangsneuronen und verdeckten bzw. inneren Neuronen zusammen. Innerhalb der Netzstruktur können die Neuronen analog zum Hopfield-Netz nur binäre Zustände annehmen, wohingegen die Gewichte zwischen den Units auch Werte aus dem Bereich der reellen Zahlen repräsentieren können. Die Aktivierungsfunktion und das Lernverfahren ist ebenfalls abweichend. Letzeres besteht aus einer Inkrementierungs- und einer Dekrementierungsphase, die solange durchgeführt werden, bis sich ein Gleichgewicht innerhalb des Netzes eingestellt hat.[46]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Zusammenstellung ausgewählter Netzwerkarchitekturen

(Quelle: eigene Darstellung in Anlehnung an Patterson [1997], S. 142; Scherer [1999], S. 94; Zell [2000], S. 98)

Diese strukturellen Eigenschaften der unterschiedlichen Netzwerkarchitekturen (vgl. Abb. 5) und ihr zugrundeliegender Informationsverarbeitungsprozess sind für spezifische Anwendungsfelder von Vorteil. Während sich Hopfield-Netze aufgrund ihres Autoassoziativspeichers besonders für die Mustererkennung eignen, kommen Kohonen-Netze vor allem bei der Datenanalyse und der Prognose zum Einsatz. Die Boltzmann-Maschine und Backpropagation-Netze sind hingegen für Optimierungsaufgaben besonders dienlich. Die Auswahl des infrage kommenden Netztyps ist jedoch stets den vorgegebenen Anforderungen anzupassen, so dass keine allgemeingültige Zuordnung der Architekturen zu den einzelnen Anwendungsfällen vorgenommen werden kann.

2.2.2 Datenanalyse

Das enorme Wachstum der Datenmenge macht es für den Menschen unmöglich die Gesamtheit der verfügbaren Informationen wahrzunehmen. Mit Hilfe mathematischer und statistischer Datenanalysen kann der Datenstrom sowohl logisch als auch inhaltlich organisiert werden. Zur Aufdeckung von Strukturen innerhalb der Datensätze und zur Interpretation der Untersuchungsergebnisse werden hierzu die Einzeldaten innerhalb des Analyseverfahrens verdichtet. Die Datenanalyse hat folglich zum Ziel Datenmengen zu klassifizieren und die Entscheidungsfindung zu unterstützen.[47]

Die Verfahren der Datenanalyse untergliedern sich hinsichtlich der Anzahl der zu verarbeitenden Merkmale in univariate, bivaraite und multivariate Analysemethoden. Während bei der univariaten Datenanalyse jede Variable einzeln analysiert wird, stehen bei der multivariaten Datenanalyse mehrdimensionale Merkmale im Vordergrund. Gemäß ihrem Anwendungsbezug lassen sich multivariate Analysemethoden weiter in strukturen-prüfende und strukturen-entdeckende Verfahren einteilen. Bei strukturen-prüfende Analysemethoden steht die Überprüfung von Zusammenhängen zwischen Variablen im Vordergrund. Zu dieser Kategorie gehören die lineare und nicht lineare Regressionsanalyse, die Zeitreihenanalyse, die Varianzanalyse, die Diskriminanzanalyse, die Kontingenzanalyse sowie die Logistische Regression. Demgegenüber haben struktur-entdeckende Verfahren das Ziel Zusammenhänge zwischen Variablen bzw. Objekten zu erkennen, selbst wenn zu Beginn der Analyse noch keine Vorstellungen über deren Verbindungen bestehen. Für das Aufdecken von Beziehungszusammenhängen in Datensätzen eignen sich die Faktorenanalyse, die Clusteranalyse, die Multidimensionale-Skalierung, die Korrespondenzanalyse und insbesondere neuronale Netze. Letztere kommen in der heutigen Praxis vor allem als Ergänzung zu den klassischen Methoden oder als Ersatz bei deren Versagen in Betracht.[48] Bei neuronalen Netzen besteht bezüglich ihrer Aufgabenstellung im Bereich der Datenanalyse Ähnlichkeit zur Interdependenzanalyse sowie bei der Gruppe der selbstorganisierten Netze zur Clusteranalyse. Mehrschichtige Feedforward-Netze können auch so aufgebaut werden, dass der mittlere Hidden-Layer als Hauptkomponentenanalyse verwendet werden kann. Nachdem ein neuronales Netz ein Modell zur Erklärung eines Zusammenhangs geformt hat, können Informationen mittels der aggregierten Auswertung der Netzfunktion abgeleitet werden.[49]

In der Literatur lässt sich eine Vielzahl von Untersuchungen zu den Einsatzmöglichkeiten von neuronalen Netzen als Analyseinstrument auf unterschiedlichen Gebieten finden. Ein Großteil der dort repräsentierten Forschungsergebnisse stammt aus dem Bereich der Analyse betrieblicher und betriebswirtschaftlicher Daten. Ein Überblick über ausgewählte Einsatzmöglichkeiten im unternehmerischen Kontext ist in Tab. 1 nach Funktionsbereichen dargestellt. Aufgrund der verschiedenartigen Problemstellungen und Datensituationen lassen sich die Ergebnisse nicht unmittelbar vergleichen. Es kann allerdings festgestellt werden, dass für fast alle Anwendungsfälle Backpropagation-Netze verwendet wurden.[50]

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Einsatzmöglichkeiten der Datenanalyse mit neuronalen Netzen

(Quelle: Björn [1998], S. 180-181; Schneider [1993], S. 31; Scherer [1997], S. 223-233)

Neuronale Netze haben sich auf dem Bereich der mathematischen Methoden für Fragestellungen aus der Finanzwirtschaft schon früh etabliert. Sie werden darüber hinaus auch für Probleme aus der Produktions- und der Absatzwirtschaft eingesetzt. Da hier nicht die gesamte Bandbreite der Anwendungsmöglichkeiten aufgeführt werden kann, sollen im Folgenden die Kreditwürdigkeitsanalyse, die Konstruktions-unterstützung und die Marktsegmentierung beispielhaft kurz dargestellt werden.

2.2.3 Kreditwürdigkeitsanalyse

Computergestützte Entscheidungssysteme sollen bei der Vergabe von Krediten zu einer Objektivierung der Entscheidung und zur Minimierung von Fehlentscheidungen beitragen. Neuronale Netze eignen sich hierfür, da sie in der Lage sind auch mit fehlenden oder nicht eindeutigen Daten umgehen und komplexe Merkmalszusammenhänge erkennen zu können.[51] Die Struktur der Inputwerte ist ein wesentliches Kriterium für die Objektivität und Zuverlässigkeit der erzielten Ergebnisse. In der Lernphase wird das neuronale Netz mit Daten aus alten Kreditverträgen wie zum Beispiel kundenspezifischen Merkmalen und Fakten zu Kapitalrückflüssen trainiert. Nach abgeschlossenem Training kann das neuronale Netz gute von schlechten Kreditnehmern unterscheiden und diese in kreditwürdig bzw. nicht kreditwürdig oder in abgestufte Risikoklassen einteilen. Wird die Kodierung des neuronalen Netzes durch Output-Neuronen vorgenommen, so bietet sich in diesem Fall die Verwendung eines Backpropagation-Netzes an, wohingegen sich bei der Kodierung mit Input-Neuronen eher ein Kohonen-Netze empfiehlt.[52]

2.2.4 Konstruktionsunterstützung

Eine von Becker und Prismann entwickelte Anwendung zur Konstruktionsunterstützung ordnet Produktdimensionen wie Größe oder Funktionalität den Faktoren Kosten und Zeit zu. Die Zuordnung wird innerhalb einer konstruktionsbegleitenden Kostenrechnung durch ein Backpropagation-Netz realisiert. Aufgrund des Umfangs und der Struktur der zu verarbeitenden Informationen ist für jede Stufe des Konstruktionsprozesses ein eigenes Netz erforderlich. Dieses muss mit den für die entsprechende Stufe vorhandenen Produkteigenschaften trainiert werden. So ist es möglich dem Konstrukteur Vorschläge bei der Auswahl der Konstruktionsteile für jede Konstruktionsstufe gemäß den in der Vergangenheit bereits verwendeten Teilen zu machen. Folglich kann in jeder Konstruktionsphase eine vollständige Produktbeschreibung inklusive einer Kosten- und Zeitabschätzung abgerufen werden.[53]

Marktsegmentierung

Die Segmentierung eines Marktes unterstützt die segmentspezifische Bearbeitung eines Gesamtmarktes, indem sie diesen bezüglich der Marktreaktion in homogene und untereinander heterogene Marktsegmente aufteilt. Mit Hilfe der Marktsegmentierung sollen Informationen über die Struktur und die Gesetzmäßigkeit eines Marktes gewonnen werden. Die Einteilung des Marktes wird mittels verhaltensorientierten, psychografischen, soziodemografischen und geografischen Kriterien vorgenommen. Zur Analyse der verhaltenswissenschaftlichen Zusammenhänge bedient sich die Marktsegmentierung mathematisch-statistischer Analyseverfahren wie zum Beispiel der Cluster- oder Faktorenanalyse.[54] Die Zuordnung von beispielsweise psychografischen oder soziodemografischen Variablen zu entsprechenden Marktsegmenten kann auch mit neuronalen Netzen im Rahmen der multivariaten Analyse vorgenommen werden.

2.2.5 Prognose

Die Datenanalyse und die Prognose stehen in unmittelbaren Zusammenhang. Während die Datenanalyse einen Datenausschnitt nach Merkmalen untersucht und so eine Empfehlung ermittelt, wird bei der Prognose eine zukünftige Entwicklung mit Hilfe von Vergangenheitswerten vorhergesagt. Die Prognose bezeichnet demnach ein Erklärungsmodell, welches die zeitliche Entwicklung einer Variable in der Zukunft durch Annäherung bzw. Schätzung derer Werte für zukünftige Zeitpunkte beschreibt. Die Möglichkeit der Vorhersage ist für die Unterstützung von sämtlichen Entscheidungsproblemen von großer Bedeutung.[55]

In der Wissenschaft werden Prognoseverfahren grob in qualitative und quantitative Methoden eingeteilt. Qualitative Verfahren zeichnen sich durch die subjektive Beurteilung von künftigen Entwicklungen durch das Sammeln von Expertenmeinungen mit Hilfe des Brainstormings, der Delphie-Methode, des Panel-Konsensus-Verfahrens oder experimenteller Feldversuche sowie historischer Analogien aus. Demgegenüber stellen quantitative Verfahren mathematische und statistische Rechenverfahren dar, die sich weiter in Verfahren der Wirkungsprognose und der Entwicklungsprognose gliedern lassen. Die Wirkungsprognose analysiert kausale Effekte von beeinflussbaren Variablen, wie zum Beispiel die Beschreibung der Wirkung von Preis und Werbeausgaben auf den Absatz. Hierbei werden die multivariate Regressionsanalyse oder die Gap-Analyse eingesetzt. Bei Entwicklungsprognosen hängen die zu prognostizierenden Werte von Variablen, wie zum Beispiel der Zeit ab, die nicht direkt beeinflussbar sind. Man spricht in diesem Zusammenhang auch von Zeitreihenanalyse mittels Trend- sowie Saisonextrapolation, Glättungsverfahren, autoregressiver Verfahren und neuronaler Netze.[56]

Vor allem für komplexe Prognoseaufgaben reichen die einfacheren quantitativen Methoden oft nicht mehr aus. Neuronale Netze können durch induktive Lernverfahren aus quantitativen Beobachtungen ein Strukturverständnis ableiten und ein Modell der Wirklichkeit erstellen, mit dem sich Entwicklungen der Vergangenheit auf die Gegenwart oder Zukunft übertragen lassen. Diese Kompetenz lernt das neuronale Netz in der Trainingsphase aus einer ausreichenden und repräsentativen Menge von Gegenwarts- und Vergangenheitsdaten. Eine Prognose ist umso zuverlässiger, je genauer der Trainingsdatensatz erfasst bzw. gemessen wurde. Daher sollte der Datenerhebung neben der Entwicklung des Prognoseverfahrens besondere Aufmerksamkeit gewidmet werden. Ob eine Prognose überhaupt in Betracht kommt, ist fallspezifisch und in Abhängigkeit von der Verfügbarkeit aller relevanten Informationen zu eruieren. Im Falle ungenauer Vergangenheitswerte besteht in einem neuronalen Netz dennoch die Möglichkeit durch gezieltes Raten zu einem Ergebnis zu kommen.[57]

In Tab. 2 ist ein kleiner Ausschnitt der Einsatzmöglichkeiten von neuronalen Netzen zur Prognose ökonomischer Größen nach Funktionsbereichen dargestellt. Es lässt sich feststellen, dass vorwiegend Backpropagation-Netze und in Einzelfällen die Boltzmann-Maschine zur Umsetzung der Prognoseverfahren verwendet wurden. In der Finanzwirtschaft eignen sich neuronale Netze insbesondere zur Prognose von Aktien-, Devisen- und Wechselkursen sowie zur Prognose diverser volkswirtschaftlicher Kennzahlen. Beispielhaft sind allerdings auch die Prognose von Lagerbeständen und der Auftragserwartung in der Produktwirtschaft oder die Vorhersage der Umsatzerwartung und der Preisentwicklung in der Absatzwirtschaft.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Einsatzmöglichkeiten der Prognose mit neuronalen Netzen

(Quelle: Björn [1998], S. 211-212; Schneider [1993], S. 31; Scherer [1997], S. 223-233)

Aktienkursprognose

Aktienkurse können sowohl langfristig auf Jahresfrist als auch kurzfristig, also tagesweise, prognostiziert werden. Kurzfristige Aktienkursprognosen bringen die Schwierigkeit zu Tage, dass der Kursverlauf der Vergangenheit „[...] von Störungen durch politische oder wirtschaftliche Einflüsse geglättet werden“[58] muss. Die Identifikation von störungsabhängigen Schwankungen und solchen, die zum Verlauf selbst gehören, ist äußert schwierig. Im Gegensatz zu einer langfristigen wirken sich Fehler bei einer kurzfristigen Vorhersage deutlich stärker aus. Als Eingabewerte für das neuronale Netz dienen grundsätzliche Faktoren wie zum Beispiel der Gewinn pro Aktie, das Verhältnis von Preis zu Gewinn und die jährliche Wachstumsrate sowie technische Faktoren wie zum Beispiel der Schlusspreis, das Volumen und das Momentum.[59]

[...]


[1] Antoine Saint-Exupéry [1939], o. S., französischer Schriftsteller und Pilot (1900-1944).

[2] Vgl. Rockström et al. [2009], o. S.

[3] Vgl. Ehlers [2008], S. 7-21.

[4] Vgl. Titz [2016], o. S.

[5] Kenning [2014], S. 7-9.

[6] Vgl. Griese [2015], S. 8-10.

[7] Vgl. Kollmann [2013], S. 7-9.

[8] Vgl. Mallot/ Hübner [2014], S. 357-365.

[9] Vgl. Rey/ Wender [2011], S.14.

[10] Vgl. Mallot/ Hübner [2014], S. 357-365.

[11] Vgl. Europäische Kommission [2015], S. 2-3.

[12] Vgl. Kollmann [2013], S. 3-9.

[13] Vgl. Wittphal [2017], S. 15.

[14] Vgl. Schneider/ Held [2012], S. 51-53.

[15] Vgl. Vaske [2017], o. S.

[16] Vgl. Zou/ Han/ So [2008], S. 15.

[17] Vgl. Lämmel [2003], S. 305-322.

[18] Vgl. Rey/ Wender [2011], S. 13-19.

[19] Vgl. Manhart [2017], o. S.

[20] Vgl. Nauck/ Klawonn/ Kruse [1996], S. 11-18.

[21] Vgl. Scherer [1997], S. 7-11.

[22] Vgl. Zell [2000], S. 28-34.

[23] Vgl. Patterson [1997], S. 22-26.

[24] Vgl. Zell [2000], S. 22-26.

[25] Vgl. Manhart [2017], o. S.

[26] Vgl. Backhaus/ Erichson/ Weiber [2015], S. 296-299.

[27] Vgl. Kandel/ Schwartz/ Jessel [1996], S. 22-23.

[28] Vgl. Bear/ Connors/ Paradiso [2009], S. 33-45.

[29] Vgl. Kandel/ Schwartz/ Jessel [1996], S. 24.

[30] Vgl. Backhaus/ Erichson/ Weiber [2015], S. 299-300.

[31] Vgl. Backhaus/ Erichson/ Weiber [2015], S. 299-300.

[32] Vgl. Backhaus et al. [2011], S. 534-536.

[33] Vgl. Disterer/ Fels/ Hausotter [2003], S. 319-322.

[34] Vgl. Rey/ Wender [2011], S. 14-16.

[35] Vgl. Rey/ Wender [2011], S. 33-36.

[36] Vgl. Backhaus et al. [2011], S. 534-538.

[37] Vgl. Twail [1999], S. 69-72.

[38] Vgl. Rey/ Wender [2011], S. 95-98.

[39] Vgl. Backhaus/ Erichson/ Weiber [2015], S. 299-300.

[40] Vgl. Merkert [2017], S. 62.

[41] Vgl. Manhart [2017], o. S.

[42] Nauck/ Klawonn/ Kruse [1996], S. 74.

[43] Vgl. Nauck/ Klawonn/ Kruse [1996], S. 74-81.

[44] Vgl. Scherer [1997], S. 93-107.

[45] Vgl. Scherer [1997], S. 125-134.

[46] Vgl. Zell [2000], S. 161-168.

[47] Vgl. Wiedmann/ Buckler [2003], S. 76-77.

[48] Vgl. Backhaus/ Erichson/ Weiber [2015], S. 8-15.

[49] Vgl. Wiedmann/ Buckler [2003], S. 76-77.

[50] Vgl. Björn [1998], S. 175-181.

[51] Vgl. Wilbert [1991], S. 1377-1393.

[52] Vgl. Schneider [1993], S. 14-15.

[53] Vgl. Becker/ Prischmann [1993], S. 79-95.

[54] Vgl. Meffert/ Burmann/ Kirchgeorg [2012], S. 186-195.

[55] Vgl. Wiedmann/ Buckler [2001], S. 78-85.

[56] Vgl. Vogel [2015], S. 11-13.

[57] Vgl. Schneider [1993], S. 5-7.

[58] Vgl. Schneider [1993], S. 11-13.

[59] Vgl. Patterson [1997], S. 245-248.

Ende der Leseprobe aus 108 Seiten

Details

Titel
Neuronale Netze. Einsatzmöglichkeiten künstlicher Intelligenz in der Kreislaufwirtschaft
Hochschule
Hochschule Fresenius München
Note
1,0
Autor
Jahr
2017
Seiten
108
Katalognummer
V386669
ISBN (eBook)
9783956873058
ISBN (Buch)
9783956873034
Dateigröße
9910 KB
Sprache
Deutsch
Schlagworte
Künstliche Intelligenz, Neuronale Netze, Kreislaufwirtschaft, Digitalisierung, Nachhaltigkeit, Ressourceneffizienz
Arbeit zitieren
Maximilian Pinegger (Autor), 2017, Neuronale Netze. Einsatzmöglichkeiten künstlicher Intelligenz in der Kreislaufwirtschaft, München, GRIN Verlag, https://www.grin.com/document/386669

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Neuronale Netze. Einsatzmöglichkeiten künstlicher Intelligenz in der Kreislaufwirtschaft


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden