Frühwarnung durch Bilanzanalyse mittels neuronaler Netze


Trabajo Escrito, 2002

24 Páginas, Calificación: 2.3


Extracto


Inhaltsverzeichnis

Abbildungsverzeichnis

1. Einleitung

2. Neuronale Netze
2.1 Das biologische Vorbild
2.2 Künstliche neuronale Netze (KNN)
2.3 Aufbau und Funktionsweise von KNN
2.4 Topologie
2.5 Lernvorgang in KNN
2.6 Beispiel zum Lernprozess des KNN
2.7 Probleme lernender KNN

3. Bilanzanalyse
3.1 Bilanz und Bilanzanalyse
3.2 Objektivierungs-, Neutralisierungs- und Ganzheitlichkeitsprinzipien
3.3 Vorgehensweise bei der Bilanzanalyse
3.4 Kritik
3.5 Traditionelle Verfahren
3.5.1 Lineare multivariate und univariate Diskriminanzanalysen
3.5.2 Diskriminanzfunktion
3.5.3 Fehler bei der Anwendung der Diskriminanzfunktion
3.5.4 Optimierung

4. Moderne KNN-basierte Verfahren
4.1 Künstliche Neuronale Netze in der Bilanzanalyse
4.2 Vorteile der KNN gegenüber einer linearen Diskriminanzanalyse
4.3 Betriebswirtschaftliche Einsatzgebiete der KNN
4.4 Bilanzanalyse im Sinne der Frühwarnung durch KNN
4.5 Beispiel für ein funktionierendes KNN
4.5.1 Das System zur Bilanz­boni­täts­beurteilung BP-14
4.5.2 Entwicklung
4.5.3 Kennzahlen des BP-14
4.5.4 Anwendung: Interpretation der mit dem BP-14 erzielten Klassifikationsergebnisse

5. Ergebnis und weiterführende Gedanken
5.1 Ergebnis
5.2 Bewertung von Verfahren
5.3 Thesenförmige Zusammenfassung

6. Anhang
A.1
A.2
A.3
A.4

Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1: Ausgewählte Aktivierungsfunktionen

Abbildung 2: Einige Beispiele von Topologien Neuronaler Netze

Abbildung 3: Fehlerfunktion des Backpropagation-Algorithmus

1. Einleitung

In den letzten Jahren ist das Interesse an neuen betriebswirtschaftlichen Problemlösungsverfahren enorm gestiegen. Herkömmliche Verfahren aus dem Operations Research und der Statistik bieten angesichts hochkomplexer Probleme oft nur unbefriedigende Ergebnisse. Verfahren aus dem Forschungsgebiet der Künstlichen Intelligenz dringen zunehmend in betriebswirtschaftliche Problemstellungen vor. Künstliche Neuronale Netze (KNN) stellen „intelligente“ Problemlösungsverfahren dar, die sich besonders für nicht-konservative Aufgabenstellungen eignen, bei denen kein exaktes Modell der Ursache-Wirkungszusammenhänge vorliegt. Die Verfahren zeichnen sich durch eine breite Anwendbarkeit in betrieblichen Aufgabengebieten aus.

Die vorliegende Arbeit beschäftigt sich mit dem Einsatz von KNN in der Bilanzanalyse. Zunächst werden der Aufbau und die Funktionsweise von Neuronalen und Künstlichen Neuronalen Netzen erläutert. Folglich wird auf die Bilanzanalyse mit traditionellen und KNN-basierten Methoden eingegangen.

2. Neuronale Netze

2.1 Das biologische Vorbild

Biologische neuronale Netze, wie die Gehirne von höherentwickelten Wesen, bestehen aus einzelnen Zellen, den Neuronen. Das menschliche Gehirn enthält ca. Abbildung in dieser Leseprobe nicht enthaltenNeuronen. Ein Neuron besteht aus dem Soma (Zellkörper), dem Axon (Nervenfaser) und den Dendriten (Eingänge des Neurons). Über die Dendriten kann ein Neuron mit bis zu 200000 anderen Neuronen verbunden werden.[1] Alle Neuronen arbeiten nach einem Prinzip: Im Ruhezustand besitzt ein Neuron ein elektrisches Ruhepotential (ca. –70mV), d.h. es ist seiner Umgebung gegenüber negativ geladen. Wenn es durch chemische und/oder elektrische Reize über seine Dendriten von anderen Neuronen angeregt wird, depolarisiert sich seine Zellmembran. Ist diese Depolarisation stark genug, d.h. überschreitet die Reizung einen Schwellenwert, schlägt die Ladung im Zellkörper des Neurons schlagartig um. Das Neuron ist für kurze Zeit positiv geladen – es entsteht ein elektrisches Aktionspotential. Dieses Aktionspotential pflanzt sich über das noch negativ geladene Axon fort und reizt seinerseits andere Neuronen. Ist das Axon direkt mit den Dendriten eines anderen Neurons verbunden, geschieht dies auf elektrischem Wege und ansonsten – dies ist der Regelfall – über die Synapsen. Diese sind chemische Schnittstellen zwischen Neuronen, bei denen die Reize durch Transmittersubstanzen übertragen werden. Diese Reizung regt bei anderen Neuronen jedoch nicht zwingend die Depolarisation an, es kann sie auch hemmen.

Diese Art der Informationsübertragung ist sehr langsam (100 m/s) und niederfrequent (1000 Impulsen pro Sekunde). Durch die hochgradige Vernetzung der Neuronen (ein Neuron hat bis zu 1000 Eingänge) und die dadurch bewirkte massenweise parallele Verarbeitung, erreichen biologische Neuronale Netze eine sehr hohe Verarbeitungskapazität und ‑geschwindigkeit.[2]

Die Datenverarbeitung innerhalb der einzelnen Neuronen beschränkt sich auf eine einfache Summation der Eingangswerte und eine Transformation mit Hilfe einer Schwellenwertfunktion.[3]

Biologische Netze lernen durch die Veränderung von Synapsen und der Art der Vernetzung. Eine grundlegende Regel dazu hat Hebb bereits 1949 aufgestellt. Sie besagt, dass die synaptische Verbindung zwischen zwei Neuronen verstärkt wird bzw. neue Verbindungen zwischen diesen geschaffen werden, wenn beide Neuronen gleichzeitig aktiv sind. Auf diese Weise wird die Verbindung zwischen ihnen effektiver. Nicht oder nur selten genutzte Verbindungen werden dagegen wieder abgeschwächt bzw. abgebaut. Das Netz vergisst. Diese Regel bedeutet nicht, dass ein biologisches Netz permanent umgebaut würde. Durch die neuronalen Aktivitäten wird lediglich die Feinstruktur bestimmt. Die grundlegende Architektur ist durch einen globalen, genetisch codierten „Bauplan“ festgelegt.

Man weiß heute, dass sensorische Systeme hierarchisch aufgebaut sind. Die Basis dieser Systeme wird durch eine große Zahl von Neuronen gebildet, die die Reize aus der Umwelt entgegennehmen. Diese Informationen werden an eine geringere Anzahl von Neuronen weitergegeben, die diese Informationen verdichten, die verdichteten Informationen ihrerseits wieder an andere Neuronen weitergeben und so fort. Je höher ein Neuron in dieser Hierarchie angesiedelt ist, auf desto abstraktere Aspekte eines komplexen Reizes kann es reagieren. Auf diese Weise werden parallel aufgenommene Informationen zusammengefasst und es wird von unwichtigen Informationen abstrahiert.[4]

2.2 Künstliche Neuronale Netze

Die Künstliche Intelligenz (KI) umfasst Methoden und Techniken der Informatik, mit denen bestimmte abstrakte Aspekte intelligenter menschlicher Erkenntnis-, Lern-, Sprach- und Denkprozesse auf Computern nachgebildet werden können. Ziel ist es mit Hilfe von Computern Probleme zu lösen, die Intelligenzleistungen voraussetzen. Zu diesem Bereich der Informatik gehören die KNN.

KNN sind ein Abbild von biologischen neuronalen Netzen. Sie bilden ein System zur Informationsverarbeitung. Ähnlich wie ein menschliches Gehirn besteht es aus Zellen (Neuronen), die miteinander verbunden sind und Informationen in Form von Signalen senden und empfangen.[5] Je nach Aufgabe und Funktionsweise unterscheidet man Inputneuronen (enthalten konstante Werte oder empfangen Werte aus der Systemumwelt), Berechnungsneuronen (erhalten Werte von anderen Neuronen und verarbeiten diese) und Outputneuronen (geben die Ergebnisse aus dem KNN an die Systemumwelt). Als Verbindungen untereinander und zur Systemumwelt dienen ihnen dabei die „Synapsen“. Diese sind grundsätzlich gerichtet (führen eindeutig von einem Neuron A zu einem Neuron B) und gewichtet (transportierte Informationen werden mit einem Gewichtungsfaktor versehen). Neuronen und Synapsen sind die einzigen

Bestandteile KNN. Durch geeignete Kombination dieser Bausteine sind prinzipiell alle logischen Zusammenhänge und Regeln darstellbar.

Ein KNN stellt eine Struktur dar, die Informationen parallel und verteilt verarbeitet. Die Neuronen sind als einfache Rechenschritte zu verstehen, die mit einem lokalen Speicher ausgestattet sein können.[6]

Die Aktivierungsfunktion bestimmt, inwieweit ein Neuron Signale an nachgelagerte Neuronen weitergibt und in welcher Höhe dies geschieht. Daher kommt der Bedeutung der Aktivierungsfunktion große Bedeutung zu. Im Folgenden werden die gebräuchlichsten Aktivierungsfunktionen dargestellt, wobei üblicherweise die Sigmoidfunktion verwendet wird.[7]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Ausgewählte Aktivierungsfunktionen

Quelle: Alex (1998) S.88.

2.3 Aufbau und Funktionsweise von KNN

Wie schon oben erwähnt, sind die meisten KNN hierarchisch aufgebaut: Sie bestehen aus mehreren miteinander verbundenen Schichten. Die eingehenden Informationen werden, ausgehend von der Eingabeschicht, von Schicht zu Schicht bis hin zur Ausgabeschicht immer weiter auf das Wesentliche reduziert bzw. verdichtet. Die zwischen Eingabe- und Ausgabeschicht liegenden Schichten haben keine Verbindung zur Umwelt und werden daher als verdeckte Schichten bezeichnet.

2.4 Topologie

Die Funktionalität und Eignung KNN zur Problemlösung hängt wesentlich von der Netztopologie ab. Unter dem Begriff Netztopologie wird die durch die Menge der Neuronen und durch die Menge der Verbindungen zwischen den Neuronen festgelegte physikalische Struktur eines neuronalen Netzes verstanden.

In Abbildung sind einige Topologien dargestellt. In bestimmten Topologien geben die Neuronen ihre Ausgabe nur in eine Richtung weiter (so genannte vorwärtsgerichtete Netze, siehe Abbildung a). Das Netz in der Abbildung b) besitzt eine Rückkopplung. c) stellt eine Vollvernetzung dar und d) ist ein Netzwerk mit bidirektionalen Verbindungen.[8]

a) b) c) d)

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Einige Beispiele von Topologien Neuronaler Netze

Quelle: Alex (1998) S.83.

2.5 Lernvorgang in KNN

Das Wissen eines neuronalen Netzes ist durch die Gewichte der zwischen den Neuronen bestehenden Verbindungen repräsentiert. Das KNN soll befähigt werden, eingegebene Daten nach vorgegebenen Mustern zu klassifizieren. Dafür werden dem Netz Trainingsdaten vorgelegt, die neben den Eingabedaten auch jeweils die gewünschten, vom Netz zu erlernenden Soll-Ausgaben enthalten. Der Lernprozess verfolgt das Ziel, die Verbindungsgewichte so zu verändern, dass die Differenz zwischen den Ist-Ausgabewerten der Transferfunktion (Abbildung in dieser Leseprobe nicht enthalten) und den zu erreichenden Soll-Ausgabewerten (Abbildung in dieser Leseprobe nicht enthalten) minimiert wird. Am Anfang wird die zwischen den Neuronen bestehende Verbindungsstärke zufällig festgelegt. Deswegen ist die Differenz zwischen Soll und Ist sehr groß. Diese Differenz wird durch die Fehlerfunktion dargestellt. Diese muss folglich minimiert werden.

Der Lernprozess soll mit Hilfe des Prinzips der Rückwärtsausbreitung (backpropagation) erläutert werden. Der Backpropagation-Algorithmus basiert auf folgendem Prinzip. Im Falle eines Regressionsproblems wird die Differenz zwischen Soll- und Istwerten quadriert und über alle Neuronen aufaddiert. Damit erhält man ein Fehlermaß (die Höhe der Funktion in der Abbildung), welches es zu minimieren gilt. Dieses Fehlermaß ist von den Gewichten abhängig. Eine Fehlerfunktion im Fall von nur zwei Gewichten ist in Abbildung dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Fehlerfunktion des Backpropagation-Algorithmus

Quelle: Wiedmann/Buckler (1999) S. 26.

Nun ist es die Strategie des Backpropagation-Algorithmus, beginnend von einem beliebigen Punkt auf dem „Fehlergebirge“ so lange bergab zu gehen, bis das „Tal“ als Minimum der Fehlerfunktion erreicht ist. Dies ist möglich, da die Fehlerfunktion an jedem Punkt ableitbar ist. Die Ableitung nach Gewichten, der so genannte Gradient, gibt die Richtung des stärksten Fehleranstieges an. Folgt man nun iterativ in kleinen Schritten der negativen Ableitung, so verringert sich das Fehlermaß. Bei diesem Schritt werden verbesserte Werte für die Gewichte ermittelt und danach der Wert der Fehlerfunktion neu ausgerechnet. Jetzt wird erneut die Abstiegsrichtung bestimmt und die Gewichte weiter optimiert. Genau dieser iterative Prozess ist das so genannte „Training“.[9]

2.6 Beispiel zum Lernprozess des KNN

Der Lernprozess soll anhand eines Beispiels aus der Investitionsrechnung betrachtet werden. Es werden zwei einperiodige Zahlungsreihen zugrunde gelegt und zu einem Zahlenwert (Kapitalwert) verdichtet. Übertragen auf das Modell von KNN ergibt sich somit ein Netz mit zwei Eingabeknoten (Zahlungen gAbbildung in dieser Leseprobe nicht enthaltenund gAbbildung in dieser Leseprobe nicht enthalten) und einem Ausgabeknoten. Dieses Netz ohne Zwischenschicht entspricht der elementarsten Form eines neuronalen Netzes. Die eingegebene Zahlungsreihe ist auch das Eingabesignal des Ausgangsknotens.

Nach der Festlegung der Netztopologie wird das Netz mit geeigneten Datensätzen trainiert. Das Ziel des Trainings ist, dem Netz Fähigkeiten zu vermitteln, aus vorgegebenen Zahlungsreihen die Vorteilhaftigkeit einer Investition bzw. Finanzierung zu ermitteln, ohne dabei die Berechnungsformel des Kapitalwertes zu kennen. Mit Abschluss des Trainings müssen die Gewichte der beiden Eingangsknoten so gelernt worden sein, dass mit der Vorgabe einer beliebigen Zahlungsreihe exakt auf ihre Vorteilhaftigkeit geschlossen werden kann. Als vorteilhaft sind von dem „Lehrer“ die Investitionen deklariert, deren Kapitalwert größer als Null ist. Da die Transferfunktion nur Werte zwischen Null und Eins annimmt, gelten folgende Entsprechungen:

Kapitalwert: Sollwert des Ausgabeknotens:

[...]


[1] Vgl. Alex (1998) S. 79.

[2] Vgl. Fischbach (1993) S. 6-13.

[3] Vgl. Alex (1998) S. 80.

[4] Vgl. Köhle (1990) S. 59.

[5] Vgl. Baetge (1998) S. 573.

[6] Vgl. Alex (1998) S. 80.

[7] Vgl. Alex (1998) S. 87.

[8] Vgl. Alex (1998) S. 83.

[9] Vgl. Wiedmann/Buckler (1999) S. 25.

Final del extracto de 24 páginas

Detalles

Título
Frühwarnung durch Bilanzanalyse mittels neuronaler Netze
Universidad
University of Cologne  (Seminar für Allgemeine BWL und für Wirtschaftsprüfung)
Curso
Unternehmenspublizität und Jahresabschlussanalyse
Calificación
2.3
Autor
Año
2002
Páginas
24
No. de catálogo
V9972
ISBN (Ebook)
9783638165464
ISBN (Libro)
9783638787291
Tamaño de fichero
889 KB
Idioma
Alemán
Notas
Sehr dichte Arbeit - einzeiliger Zeilenabstand.
Palabras clave
Frühwarnung durch Bilanzanalyse mittels neuronaler Netze
Citar trabajo
Alexei Galert (Autor), 2002, Frühwarnung durch Bilanzanalyse mittels neuronaler Netze, Múnich, GRIN Verlag, https://www.grin.com/document/9972

Comentarios

  • No hay comentarios todavía.
Leer eBook
Título: Frühwarnung durch Bilanzanalyse mittels neuronaler Netze



Cargar textos

Sus trabajos académicos / tesis:

- Publicación como eBook y libro impreso
- Honorarios altos para las ventas
- Totalmente gratuito y con ISBN
- Le llevará solo 5 minutos
- Cada trabajo encuentra lectores

Así es como funciona