Der Einsatz von Machine Learning (ML) gewinnt seit Jahren an Bedeutung. Auch im Financial Accounting & Auditing bietet ML vielfache Einsatzmöglichkeiten, wie z. B. die Vorhersage von Insolvenzen oder das Aufdecken von Bilanzbetrug. Ein bislang recht unerforschter, derzeit aber mehr in den Fokus rückender Anwendungsbereich im Financial Accounting, ist die Prognose von finanziellen Kennzahlen und ihrer zukünftigen Entwicklung.
Grundsätzlich basiert eine Vielzahl der finanziellen Kennzahlen in der Berichterstattung auf Schätzungen, die durch das Management erfolgen. Vorangegangene Untersuchungen stellen allerdings signifikante Abweichungen zwischen Managementschätzung und dem tatsächlich eingetretenen Wert fest. Aus diesem Grund stehen derartige Kennzahlprognosen im Fokus der vorliegenden Masterarbeit. Das Ziel der Arbeit ist, die Prognosefähigkeit von ML-Verfahren für die zukünftige Entwicklung von finanziellen Kennzahlen mit der von Managementschätzungen zu vergleichen. Über die Prognose hinaus werden die Ursachen für mögliche Unterschiede in der Prognosefähigkeit der Verfahren mithilfe von ML analysiert.
Die Umsetzung der ML-Prognosen erfolgt in Matlab. Es werden mit den ML-Verfahren Random Forest (RF) und Neuronale Netze (NN) die Prognosen der Kennzahlen für das jeweils nächste Jahr erstellt. Nach einem Vergleich der Prognosegüte der ML-Modelle untereinander erfolgt anschließend eine Gegenüberstellung dieser mit der Managementschätzung. Anknüpfend an diese Ergebnisse erfolgt eine Interpretation der unterschiedlichen Prognosefähigkeit der Verfahren. Hierzu wird zum einen untersucht, wie sich durch die Hinzunahme der Managementschätzung als Attribut in den Kennzahlprognosen der ML-Verfahren die Prognosefähigkeit dieser verändert. Ferner wird analysiert, welche Informationen für die einzelnen ML-Modelle in der Prognose der zukünftigen Kennzahlen relevant sind (Feature Importance) und ob das Management bei seinen Schätzungen die gleichen Informationen berücksichtigt. Durch dieses Vorgehen werden Ursachen der Unterschiede in der Prognosefähigkeit der Verfahren erörtert. Zum Abschluss der Arbeit erfolgt ein Fazit mit kritischer Würdigung der Ergebnisse sowie einem Ausblick über mögliche anknüpfende Forschungsfelder.
Inhaltsverzeichnis
Abkürzungsverzeichnis
Tabellenverzeichnis
Abbildungsverzeichnis
1 Einleitung
2 Theoretischer Hintergrund
2.1 Finanzielle Kennzahlen und Kennzahlprognose
2.2 Literaturüberblick
2.3 Ausgewählte Machine Learning-Verfahren
2.3.1 Einführung Machine Learning
2.3.2 Lineare Regression
2.3.3 Random Forest
2.3.4 Neuronale Netze
3 Daten
3.1 Datenexploration
3.1.1 Managementschätzung
3.1.2 Kennzahlprognose mit Machine Learning
3.2 Datenaufbereitung
3.2.1 Managementschätzung
3.2.2 Kennzahlprognose mit Machine Learning
4 Methodisches Vorgehen
4.1 Modellvalidierung
4.2 Modellerstellung
4.2.1 Managementschätzung
4.2.2 Kennzahlprognose mit Machine Learning
4.2.3 Analyse des Schätzfehlers
5 Modellergebnisse und Interpretation
5.1 Prognosefähigkeit der Managementschätzung
5.2 Prognosefahigkeit der Machine Leaming-Modelle
5.2.1 Lineare Regression
5.2.2 Lineare Regression mit Regularisierung
5.2.3 Random Forest
5.2.4 Neuronale Netze
5.3 Vergleich der Prognosefahigkeit
5.4 Analyse des Schätzfehlers
6 Schlussbetrachtung
6.1 Fazit
6.2 Kritische Würdigung und Ausblick
Literaturverzeichnis
Anhang
Abkürzungsverzeichnis
Abbildung in dieser Leseprobe nicht enthalten
T abellenverzeichnis
Tabelle 1 : Vergleich der Schätzungen und wahren Werte je Kennzahl
Tabelle 2: Ergebnisse der Managementschätzung
Tabelle 3: Ergebnisse der Linearen Regression
Tabelle 4: Ergebnisse der Linearen Regression mit Regularisierung
Tabelle 5: Ergebnisse des Random Forests
Tabelle 6: Ergebnisse des Neuronalen Netzes
Tabelle 7: Rangfolge der ML-Verfahren gemessen am MAE
Tabelle 8: Ergebnisse der Prognosefahigkeit von ML und Managementschätzung
Tabelle 9: Rangfolge der Prognosefahigkeit von ML und Managementschätzung
Tabelle 10: Gegenüberstellung der Fehlermaße mit und ohne Managementschätzung
Tabelle 11 : Attribute für die Kennzahlprognose
Tabelle 12: Varianz-Kovarianz-Matrix der Attribute
Tabelle 13: Übersicht der unterschiedlichen Datensätze je Kennzahl
Tabelle 14: Attribute nach Skalierung
Tabelle 15: Ergebnisse der Prognosefahigkeit der ML-Verfahren
Tabelle 16: Rangfolge der ML-Verfahren gemessen am RMSE
Tabelle 17: Vergleich des RMSE von ML und Managementschätzung
Abbildungsverzeichnis
Abbildung 1: Klassifikation unterschiedlicher Prognoseverfahren
Abbildung 2: Klassifikation von Machine Learning-Verfahren
Abbildung 3: Problem des Overfittings am Beispiel des DT
Abbildung 4: Aufbau eines einfachen Feed-Forward-NN
Abbildung 5: Boxplot der Attribute vor Datenaufbereitung
Abbildung 6: Histogramm der jährlichen Schätzungen in USD je Kennzahl
Abbildung 7: Boxplot der Attribute nach Datenaufbereitung
Abbildung 8: Vorgehen der rollierenden Validierung
Abbildung 9: Feature Importance des Umsatzes durch RF und NN
Abbildung 10: Feature Importance der DPS durch NN
Abbildung 11 : Feature Importance der Managementschätzung der CAPX
Abbildung 12: Feature Importance des ML-Modells der CAPX mit Managementschätzung
Abbildung 13: Histogramm der Schätzungen je Kennzahl (IBES gesamt)
1 Einleitung
Der Einsatz von Machine Learning (ML) gewinnt seit Jahren an Bedeutung. In vielen Bereichen wird die Technologie bereits angewandt, um die immer größer werdenden Datenmengen zu verarbeiten, die vom Menschen selbst nicht auswertbar sind.1 Dies ist auf die Vielzahl der Daten, aber auch auf die Diversität und Schnelllebigkeit hinsichtlich Entstehung und Verfügbarkeit dieser (Big Data)2 zurückzuführen. Auch im Financial Accounting & Auditing bietet ML vielfache Einsatzmöglichkeiten, wie z. B. die Vorhersage von Insolvenzen oder das Aufdecken von Bilanzbetrug.3 Ein bislang recht unerforschter, derzeit aber mehr in den Fokus rückender Anwendungsbereich im Financial Accounting ist die Prognose von finanziellen Kennzahlen und ihrer zukünftigen Entwicklung.4 Jene werden im Rahmen der Untemehmensberichterstat- tung, z. B. in Geschäftsberichten, auf der Website oder auf Veranstaltungen des Unternehmens an dessen Stakeholder veröffentlicht.5
Grundsätzlich basiert eine Vielzahl der finanziellen Kennzahlen in der Berichterstattung auf Schätzungen, die durch das Management erfolgen, wie z. B. Rückstellungen oder die Abschreibung von Anlagevermögen im Rahmen der International Financial Reporting Standards (IFRS).6 Allerdings ist die Qualität derartiger Schätzungen umstritten.7 Untersuchungen, wie z. B. von Petroni/Beasley (1996), stellen signifikante Abweichungen zwischen Managementschätzung und dem tatsächlich eingetretenen Wert fest.8 Einige Autoren führen diese Schätzfehler auf das bewusste Verzerren der Schätzungen durch die Manager als Reaktion auf Anreize insbesondere finanzieller Art zurück.9 Andere wiederum sehen die Ursache in intuitiven Fehleinschätzungen und mangelnder Qualifikation der Manager.10 Zudem stellt die Überprüfung der Managementschätzungen in Geschäftsberichten für Wirtschaftsprüfer eine Herausforderung dar.11 Es mangelt somit an Objektivität im Rahmen der Schätzungen und der Möglichkeit ihrer Überprüfbarkeit.12 Daher liegen in der Literatur eine Vielzahl von Untersuchungen zur
Prognosegüte von einfachen, regressionsbasierten Modellen vor, welche zur Vorhersage der Kennzahl die objektiv beobachtbaren Vergangenheitswerte jener verwenden. Diese Zeitreihenanalysen (Time-Series-Models) besitzen laut Studien z. B. von Ruland(1978) allerdings eine schlechtere Prognosefähigkeit als Managementschätzungen.13 Es besteht somit ein Bedarf an Schätzmethoden, die unabhängige und gleichzeitig genaue Prognosen erzielen, den ML-Al- gorithmen aufgrund ihrer Erfolge in vorangegangen Prognoseuntersuchungen aus anderen Bereichen des Financial Accounting & Auditing decken könnten.14
In wenigen neuen Untersuchungen werden die finanziellen Kennzahlen deshalb mittels ML15 prognostiziert und in einem weiteren Schritt mit Managementschätzungen verglichen.16 Ding et al. (2020) fuhren beispielsweise ein solches Untersuchungsmodell im Rahmen der Prognose von Rückstellungen für zukünftige Schäden in der Versicherungsbranche durch. Das Ergebnis ihrer Analyse zeigt, dass ML im Vergleich zu den Managern Prognosen mit einer höheren Genauigkeit generiert.17 Ferner stellen sie heraus, dass durch die Hinzunahme der Managementschätzung als Attribut in der ML-Prognose eine weitere Verbesserung der Prognosefahigkeit der ML-Verfahren erzielt wird.18 Als Konsequenz sprechen sich die Autoren für die Anwendung von ML-Verfahren in Kombination mit Managementschätzungen für die Prognose von Kennzahlen aus.19
Neben Rückstellungen werden im Rahmen der Untemehmensberichterstattung vielfach Prognosen über die zukünftige Entwicklung von finanziellen Kennzahlen, wie z. B. dem Umsatz oder dem Gewinn, veröffentlicht.20 Durch die steigende Relevanz der Investor Relations und der Einführung der verpflichtenden Management's Discussion and Analysis (MD&A) börsennotierter amerikanischer Unternehmen hat die Veröffentlichung solcher Prognosen stark zugenommen.21 Auch diese Vorhersagen basieren auf Managementschätzungen und bilden die Basis für Untemehmensbewertungen und Allokationsentscheidungen von Investoren und weiteren Stakeholdem.22 Fehlerhafte Prognosen über die Entwicklung von Kennzahlen haben somit nicht nur Einfluss auf das Unternehmen selbst, sondern können weitreichende Folgen besitzen, weshalb ihre Genauigkeit von besonderer Bedeutung ist.23 Aus diesem Grund stehen derartige Kennzahlprognosen im Fokus der vorliegenden Masterarbeit. Das Ziel der Arbeit ist, die Prognosefähigkeit von ML-Verfahren für die zukünftige Entwicklung von finanziellen Kennzahlen mit der von Managementschätzungen zu vergleichen. Über die Prognose hinaus werden die Ursachen für mögliche Unterschiede in der Prognosefahigkeit der Verfahren mithilfe von ML analysiert.
Im Anschluss an die Einleitung erfolgt eine theoretische Einführung in finanzielle Kennzahlen und deren Prognose. Hierbei werden insbesondere ihre Funktionen erläutert und qualitative und quantitative Prognosemethoden voneinander abgegrenzt. Ferner werden die Kennzahlen, die im Rahmen dieser Arbeit prognostiziert werden und anhand derer die Prognosefähigkeit von ML und Management verglichen wird, vorgestellt und erläutert. Darauf aufbauend steht ein Literaturüberblick über bereits vorliegende Untersuchungen zu finanziellen Kennzahlen und deren Vorhersage mittels Managementschätzung und ML im Fokus. Eine Einführung in ML sowie eine Erläuterung der ML-Verfahren, die im Rahmen der Masterarbeit verwendet werden, schließen den theoretischen Teil ab. Die Arbeit setzt mit der Erläuterung der angewandten Datensätze und deren Aufbereitung für die Modellerstellung fort. Hierbei wird jeweils zuerst der zur Verfügung stehende Datensatz vom Institutional Brokers' Estimate System (IBES) bzw. die Managementschätzung und anschließend ein Compustat-Datensatz, der zur ML-Prognose der Kennzahlen angewandt wird, betrachtet. Daran anknüpfend wird eine Erläuterung des methodischen Vorgehens dieser Arbeit, bestehend aus Modellvalidierung und -erstellung vorgenommen. Die Umsetzung der ML-Prognosen erfolgt in Matlab.
Es werden mit den ML-Verfahren Random Forest (RF) und Neuronale Netze (NN) die Prognosen der Kennzahlen für das jeweils nächste Jahr erstellt. Die Auswahl der ML-Verfahren basiert auf bereits vorliegenden Untersuchungen zu Kennzahlprognosen, in denen sich die ML- Verfahren als besonders erfolgreich erweisen.24 Ferner ist insbesondere der RF für die Analyse der Feature Importance geeignet, die für die Interpretation dieser Arbeit von besonderer Relevanz ist.25 Decision Trees (DT) sind zwar für eine darüber hinausgehende Interpretierbarkeit bekannt26, Ergebnisse bereits vorhandener Untersuchungen im Financial Accounting zeigen allerdings, dass sie grundsätzlich eine geringere Prognosegüte aufweisen als der RF.27 Aus diesem Grund wird der DT in dieser Arbeit nicht betrachtet. Die lineare Regression (LR) dient als Benchmark-Verfahren in der vorliegenden Arbeit.28 Zudem wird sie in einem weiteren Modell um eine Regularisierung ergänzt, um eine interne Variabienselektion innerhalb der LR vorzunehmen.29
Aufbauend auf der methodischen Umsetzung stehen die Ergebnisse der Managementschätzung und der unterschiedlichen ML-Modelle einzeln im Fokus. Nach einem Vergleich der Prognosegüte der ML-Modelle untereinander erfolgt anschließend eine Gegenüberstellung dieser mit der der Managementschätzung. Anknüpfend an diese Ergebnisse erfolgt eine Interpretation der unterschiedlichen Prognosefahigkeit der Verfahren.30 Hierzu wird zum einen untersucht, wie sich durch die Hinzunahme der Managementschätzung als Attribut in den Kennzahlprognosen der ML-Verfahren die Prognosefahigkeit dieser verändert.31 Ferner wird analysiert, welche Informationen für die einzelnen ML-Modelle in der Prognose der zukünftigen Kennzahlen relevant sind (Feature Importance) und, ob das Management bei seinen Schätzungen die gleichen Informationen berücksichtigt.32 Durch dieses Vorgehen werden Ursachen der Unterschiede in der Prognosefahigkeit der Verfahren erörtert.33 Zum Abschluss der Arbeit erfolgt ein Fazit mit kritischer Würdigung der Ergebnisse sowie einem Ausblick über mögliche anknüpfende Forschungsfelder.
2 Theoretischer Hintergrund
2.1 Finanzielle Kennzahlen und Kennzahlprognose
Finanzielle Kennzahlen stellen quantitative Größen dar, die es ermöglichen, den Erfolg eines Unternehmens zu messen, zu bewerten und zu vergleichen.34 Sie aggregieren Sachverhalte und Zusammenhänge eines Unternehmens in vereinfachter Form (Lean Information)35 und können sowohl in absoluter als auch relativer Form dargestellt werden.36 Bei der relativen Variante wird eine Größe ins Verhältnis zu einer anderen gesetzt, wodurch Kennzahlen z. B. unterschiedlicher Unternehmen besser vergleichbar sind.37 Grundsätzlich finden Kennzahlen in allen Bereichen eines Unternehmens Anwendung und sind somit nicht zwingend finanzieller Art.38 Da sich die vorliegende Arbeit aber auf finanzielle Untemehmenskennzahlen im Bereich des Financial Accountings beschränkt, werden andere Kennzahlen und deren Zweck nicht weiter beleuchtet. Die Veröffentlichung finanzieller Kennzahlen z. B. durch Geschäftsberichte bietet Stakeholdem eines Unternehmens die Möglichkeit zum internen als auch zum externen Vergleich. Im internen Kontext helfen Kennzahlen dabei, zu beurteilen, wie sich ein Unternehmen im Zeitverlauf entwickelt (Zeittrendanalyse).39 Im externen Zusammenhang dienen sie hingegen zum Vergleich ähnlicher Unternehmen (Wettbewerberanalyse).40 Darüber hinaus leiten Stakeholder aus den Angaben zur zukünftigen Entwicklung finanzieller Kennzahlen eines Unternehmens, wie z. B. zu dem Umsatz oder dem Gewinn, Erwartungen über die zukünftige Ertragslage und den Aktienkurs des Unternehmens ab und nutzen diese als Basis für eigene Investitionsentscheidungen.41
Bei der Kennzahlprognose bzw. -Schätzung handelt es sich um ein Regressionsproblem, bei dem die jeweilige Kennzahl die stetige Ziel variable y darstellt, deren Erwartungswert E in Abhängigkeit der unabhängigen Attribute x geschätzt bzw. prognostiziert wird:
[Abbildung in dieser Leseprobe nicht enthalten].42
Im Rahmen der Prognosetechniken von Kennzahlen wird, wie in Abbildung 1 dargestellt, in qualitative und quantitative Methoden unterschieden.43 Quantitative Methoden basieren auf bereits vorhandenen Daten.44 Bekannte Techniken der quantitativen Methoden sind Zeitreihen- und Kausal verfahren.45 Bei den Zeitreihenverfahren werden zur Prognose der jeweiligen Kennzahl als Attribute ihre historischen Werte angewandt.46 Hierbei kommen unterschiedliche Methoden, wie z. B. die Fortführung des Verlaufs der historischen Werte (Trendextrapolation), naive Verfahren47 oder aber auch autoregressive Verfahren, wie das Box-Jenkins-Verfahren, zum Einsatz.48 Die Kausal verfahren berücksichtigen darüber hinaus weitere Faktoren in Form von einfacher oder multipler Regression, die den Wert einer Kennzahl beeinflussen können.49
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Klassifikation unterschiedlicher Prognoseverfahren
(Quelle: eigene Darstellung in Anlehnung an Makridakis/Reschke/Wheelwright (1980), S. 42-43)
Qualitative Methoden basieren hingegen auf subjektivem Empfinden.50 Zu den qualitativen Methoden zählt die Managementschätzung, bei der ein Manager m ein Set an ihm zur Verfügung stehenden Informationen xt verwendet, um einen Schätzer gm für eine Kennzahl y zu ermitteln:
gm(xr> = E(y£|xtm)·51
Die zur Verfügung stehenden bzw. genutzten Informationen können unterschiedlicher Art sein. Während einige Manager lediglich ihre Intuition verwenden, ziehen andere die Ergebnisse qualitativer, statistischer Modelle heran und passen diese an.52 Eine besondere Ausprägung der Managementschätzung stellt das Delphi-Verfahren dar, bei dem mehrere Experten und mindestens ein Moderator teilnehmen. Die Methode umfasst ein mehrstufiges Beffagungsverfahren, bei dem Experten unabhängig voneinander in jeder Runde ihre Schätzungen inklusive Erläuterung abgeben und danach in anonymisierter Form die Einschätzungen der anderen erhalten, um im Nachgang ihre eigene Schätzung erneut anpassen zu können.53 Die letztendlich getroffene Prognose bildet der Mittelwert aller Schätzungen der letzten Runde.54 Ein Vorteil der qualitativen Methoden ist, dass Manager im Gegensatz zu quantitativen Methoden Insider- und Fachwissen besitzen und zudem auch auf neue Unternehmen angewandt werden können, für die noch keine oder nur wenige Vergangenheitswerte vorliegen.55 Ein häufig genannter Kritikpunkt von Managementschätzungen ist hingegen, dass diese nicht frei von subjektiven Einschätzungen und persönlichen Intuitionen und Absichten V56 des Managers sind, wodurch die Schätzungen sowohl bewusst als auch unbewusst verzerrt werden.57 Auch eine fehlende Expertise des Managers gehört zu den Ursachen, die zu unbewussten Fehlem in der Schätzung führen können.58 Die obenstehende Definition zur Managementschätzung ist dementsprechend folgendermaßen zu ergänzen:
Abbildung in dieser Leseprobe nicht enthalten59
Darüber hinaus weisen Aufsichtsbehörden und Standardsetzer, wie das Public Company Accounting Oversight Board (PCAOB), das Financial Accounting Standard Board (FASB) und die Securities and Exchange Commission (SEC) auf die Unsicherheit der Managementschätzungen hin, da die angemessene Höhe derartiger Schätzungen im Vergleich zu faktischen Kennzahlen, wie z. B. dem Umsatz des vergangenen Geschäftsjahres, von Prüfungsinstanzen nur schwer überprüfbar seien.60 Objektive und genaue Schätzmethoden könnten somit auch Wirtschaftsprüfern und anderen Prüfungsinstanzen helfen, eine bessere Beurteilung der Angemessenheit der Schätzungen in Geschäftsberichten vorzunehmen.61 Durch eine derart mögliche Kontrolle wäre auch die noch nicht erfolgende Überprüfung der Prognosen in der MD&A möglich, wodurch sich die Qualität der gesamten Untemehmensberichterstattung erhöhen und die Gefahr falscher Investitionsentscheidungen aufgrund von verzerrten Schätzungen minimieren würde.62
In der vorliegenden Masterarbeit steht aufgrund dessen die Prognose der zukünftigen Entwicklung der finanziellen Kennzahlen Umsatz, Earnings per Share (EPS), Dividends per Share (DPS) und Capital Expenditures (CAPX) im Fokus, weshalb im Folgenden eine kurze Erläuterung dieser Kennzahlen erfolgt. Die Auswahl der zu prognostizierenden Kennzahlen basiert auf einer Analyse der bereits vorhandenen Literatur zu Kennzahlprognosen. In einer Vielzahl der Untersuchungen sind die genannten Kennzahlen Analyseobjekt.63 Insbesondere die Prognose der Kennzahl EPS steht im Fokus der gängigen Literatur.64 Das Ergebnis der Literaturanalyse deckt sich ferner mit der Anzahl der vorliegenden Managementschätzungen aus dem zur Verfügung stehenden IBES-Datensatz. Die Kennzahlen Umsatz, EPS, DPS und CAPX gehören zu den fünf Kennzahlen mit den meisten vorliegenden Managementschätzungen.65 Auch diese Beobachtung unterstreicht die Relevanz der ausgewählten Kennzahlen. Darüber hinaus erweist sich die Auswahl der Kennzahlen mit einer hohen Anzahl an Managementschätzungen auch für die Erstellung der ML-Modelle als vorteilhaft.66
Der Umsatz stellt die Leistung eines Unternehmens in Form der Verkaufserlöse dar und dient als absolute Größe zur Bewertung des Erfolgs eines Unternehmens. Er ergibt sich aus der Multiplikation der Menge der verkauften Produkte bzw. Dienstleistungen nLeistung und dem jeweiligen Netto-Verkaufspreis Pnett0 für einen gewissen Zeitraum:
Umsatz — O,i,eistung * ^netto-67
Einflussfaktoren des Umsatzes sind somit der Verkaufspreis und die abgesetzte Menge der Leistung. Der Umsatz ist allerdings unabhängig von den Aufwendungen eines Unternehmens.68 Folglich kann er lediglich positive Werte annehmen. Ist aber z. B. der Wert der Retouren in einem Zeitraum größer als der Wert der verkauften Leistungen, so kann der Umsatz in Ausnahmefallen auch negativ sein. Umsatzprognosen spiegeln den Stakeholdem wieder, welche kurzfristige Nachfrage und Verkaufszahlen ein Unternehmen erwartet.69 Prognosen zum Umsatz geben somit mehr Informationen preis als beispielsweise Prognosen zum EPS, da der EPS von mehr Faktoren als der Umsatz beeinflusst wird.70
Die relative Kennzahl EPS steht für den erwirtschafteten Gewinn je Aktie und stellt eine der zentralen Größen zur Beurteilung der Ertragskraft eines Unternehmens dar.71 Im Vergleich mit dem aktuellen Aktienkurs lässt die Kennzahl EPS eine erste Analyse zu, ob eine Aktie Überoder unterbewertet ist.72 Sie berücksichtigt dabei sowohl den Nettogewinn G eines Unternehmens als auch die Anzahl der sich im Umlauf befindlichen Aktien nAktien und existiert somit lediglich bei börsennotierten Unternehmen:
Abbildung in dieser Leseprobe nicht enthalten73
Bei einem negativen Jahresüberschuss (Verlust) sind somit auch die EPS negativ. Nach Einschätzung der gängigen Literatur stellen die EPS und ihre Prognose für zukünftige Perioden die wichtigste Größe für Investoren im Rahmen von Vermögensallokationsentscheidungen dar.74 Durch die alleinige Veröffentlichung von EPS-Prognosen ist aber nicht erkennbar, ob der Wert der EPS auf Veränderungen der Erlöse oder der Aufwendungen zurückzuführen ist, da beide Einflussfaktoren des Jahresüberschusses sind.75 Eine Kombination aus EPS- und Umsatzprognosen eines Unternehmens kann hingegen Einblick in die möglichen Strategien eines Unternehmens geben. Steigt die Prognose des Umsatzes, aber die Prognose der EPS sinkt, so kann dies auf eine geplante Preissenkung hindeuten, die das Ziel verfolgt, die Nachfrage und somit den Umsatz zu steigern.76
Die Kennzahl DPS knüpft an den EPS an, denn sie setzt statt des gesamten Gewinns nur einen Teil dessen in Relation zu den sich im Umlauf befindlichen Aktien und zwar den, der an die Aktionäre in Form von Dividenden ausgeschüttet wird.77 Wie die EPS ist diese Kennzahl nur für börsennotierte Unternehmen ermittelbar. Die Dividende ist somit abhängig von der Höhe des Gewinns, den ein Unternehmen innerhalb des Geschäftsjahres erwirtschaftet, und kann minimal einen Wert von null annehmen, wenn keine Dividende ausgezahlt wird.78 Eine steigende Entwicklung der DPS wird häufig mit einer guten Entwicklung des Unternehmens gleichgesetzt.79 Die Höhe der Dividende wird in der einmal im Jahr stattfindenden Hauptversammlung des Unternehmens beschlossen, bei der alle Aktionäre des Unternehmens teilnehmen dürfen.80
Abbildung in dieser Leseprobe nicht enthalten
Die absolute Kennzahl CAPX umfasst die jährlichen Investitionsausgaben in das Anlagevermögen.81 Hierzu zählt die Beschaffung, Erweiterung oder Reparatur von Vermögenswerten, die langfristig82 einem Unternehmen dienen, wie z. B. Maschinen, Gebäude und Geschäftsausstattung.83 Investitionsausgaben haben einen positiven Einfluss auf die Aktivseite der Bilanz (Vermögensseite), denn durch Anschaffung oder Erweiterung von Vermögenswerten erhöht sich ihr Wert.84 CAPX sind somit ein Indikator für die Untemehmensentwicklung und dessen Fortbestand.85 Das Minimum der CAPX entspricht null, wenn keine Investitionen in das Anlagevermögen getätigt werden.
2.2 Literaturüberblick
Die ersten Untersuchungen zu Kennzahlen und deren Prognose fur Geschäftsberichte liegen in der einschlägigen Literatur über 50 Jahre zurück. Zunächst stand die Relevanz von Kennzahlen bzw. von gesamten Jahresabschlüssen im Fokus.86 Bekannte Untersuchungen aus diesem Bereich sind auf Ball/Brown (1968) und Beaver (1968) zurückzuführen, die die Wertrelevanz anhand der Stärke der Veränderungen der Aktienkurse nach Jahresabschlussveröffentlichung erforschen.87 Später erlangt auch die Analyse von Managementschätzungen in diesen Geschäftsberichten Interesse. Copeland/Marioni (1972) analysieren beispielsweise die Genauigkeit von Managementschätzungen zum EPS aus dem Jahr 1968, indem sie deren Prognosegüte mit der von sechs unterschiedlichen Zeitreihenanalysen vergleichen.88 Ihre Ergebnisse zeigen, dass die Managementschätzungen in allen Fällen eine bessere Prognosefahigkeit aufweisen als die Zeitreihenanalysen.89 Derartige Ergebnisse aus dieser und ähnlichen Untersuchungen sprechen für den Einsatz von Managementschätzungen als geeignetes Prognoseinstrument für Kennzahlen und deren Entwicklung in Geschäftsberichten.90
Spätere Untersuchungen zeigen hingegen die Nachteile von Managementschätzungen auf, da diese oft Verzerrungen aufweisen.91 Viele Autoren führen die Verzerrungen auf das Erreichen eigener Anreize und Ziele, auch als Earnings Management bekannt, zurück.92 Mögliche Anreize seien z. B. Bonuszahlungen, die an ein bestimmtes Kursziel gekoppelt sind oder aktienbasierte Vergütungsmodelle.93 Eine derartige Manipulation der Prognosen sei aufgrund fehlender geeigneter Überprüfungsmechanismen der Managementschätzungen möglich.94 Andere schließen aber auch eine fehlende Expertise der Manager oder eine hohe wirtschaftliche Unsicherheit als Ursache der Schätzfehler nicht aus.95 Franses/Legerstee (2010) beweisen, dass Schätzfehler auch dann auftreten, wenn die Manager als Basis ihrer Schätzung eine Prognose einer statistischen Software erhalten, die sie anschließend anpassen dürfen.96 Als Basis der Untersuchung dienen monatliche Umsatzschätzungen von 55 Managern in der Pharmaindustrie von 2004 bis 2006.97 Die Manager tendieren gemäß der Autoren dazu, ihr eigenes Urteilsvermögen über das der statistischen Prognosemodelle zu stellen.98 Ferner analysieren weitere Untersuchungen die Auswirkungen der verzerrten Schätzungen auf die Relevanz und Verlässlichkeit von Geschäftsberichten und den daraus resultierenden Folgen für Investoren.99
Aufgrund der fehlenden Objektivität der Managementschätzungen und ihrer schweren Überprüfbarkeit rückt in der jüngeren Literatur vermehrt der Einsatz von ML als Prognoseinstrument von Kennzahlen in den Vordergrund.100 Chen et al. (2022) prognostizieren z. B. mithilfe von RF und Gradient Boosted Trees (GBT)101 die Richtung der zukünftigen EPS-Entwicklung und vergleichen deren Prognosefähigkeit mit der von Analystenschätzungen.102 Aus den Ergebnissen resultiert, dass die Prognosefahigkeit der ML-Modelle sowohl über der der Analysten als auch über der einer logistischen Regression, die als Benchmark-Verfahren angewandt wird, liegt.103 Zhang/Cao/Schniederjans (2004) fuhren ferner einen Vergleich der Prognosefahigkeit des zukünftigen Wertes von EPS zwischen NN104, einer Zeitreihenanalyse105 und LR durch.106 Als Attribute für die multivariaten Analysen (LR und NN) verwenden sie grundlegende Rechnungslegungsvariablen, wie u. a. Forderungen, Vorräte und CAPX.107 Sie stellen heraus, dass sowohl die Prognosefahigkeit des univariaten als auch die des multivariaten NN über der der restlichen Modelle liegt, wobei das multivariate NN insgesamt die beste Prognosegüte aufweist.108
Weitergehend wird die Kombination aus Managementschätzung und ML in wenigen neuen Forschungen zu Kennzahlprognosen analysiert. Ding et al. (2020) untersuchen beispielsweise, ob Kombinationen aus ML-Modellen und Managementschätzungen genauere Prognosen über Schadenrückstellungen in der Versicherungsbranche liefern als die ML-Modelle und die Managementschätzung alleinstehend.109 Versicherungsuntemehmen sind für den Ansatz derartiger Rückstellungen in der Bilanz verpflichtet, jedoch unterliegen sie, wie auch andere Rückstellungsarten, diversen Unsicherheiten, weshalb deren Höhe durch Prognose bzw. Schätzung zu ermitteln ist.110 Ding et al. (2020) erstellen für ihre Untersuchung Prognosen zu Schadenrückstellungen für unterschiedliche Versicherungsarten111 mit den ML-Verfahren LR, GBT, RF und NN mithilfe einer five-fold cross-validation.112 Als Grundlage dient ein Datensatz mit 32.939 Beobachtungen von US-Untemehmen über einen Zeitraum von 1996-2017.113 Die Güte der Modelle wird durch den Vergleich der Prognosewerte mit dem tatsächlich eingetretenen Schadenswert anhand der Gütemaße Mean Absolute Error (MAE) und Root Mean Squared Error (RMSE) ermittelt.114
Die Autoren kommen zu dem Ergebnis, dass bei vier von fünf untersuchten Versicherungstypen die ML-Prognose genauere Ergebnisse erzeugt als die Managementschätzung.115 Ferner erfassen sie eine Verbesserung der Ergebnisse durch eine Kombination aus ML-Modellen und Managementschätzung.116 Über den Vergleich der Prognosefahigkeit der ML-Modelle und der Managementschätzung hinaus analysieren die Autoren den Einfluss der einzelnen Attribute (Feature Importance) in der ML-Prognose und der Managementschätzung, um Einblicke in die Ursachen der Schätzfehler der Manager zu erhalten.117 In ihrem Fazit führen die Autoren an, dass ihre Untersuchung lediglich auf den Bereich der Schadenrückstellungen und somit auf einen kleinen Teilbereich der finanziellen Berichterstattung begrenzt ist. Es bestehe somit weiterer Forschungsbedarf für andere Schätzungen aus Geschäftsberichten.118 Aus diesem Grund wird in der vorliegenden Arbeit ein ähnliches Untersuchungsdesign wie bei Ding et al. (2020) vorgenommen und auf die Prognose der zukünftigen Entwicklung des Umsatzes, der EPS, der DPS und der CAPX übertragen. Die dazu angewandten ML-Verfahren werden im folgenden Kapitel naher erläutert.
2.3 Ausgewählte Machine Learning- Verfahren
2.3.1 Einführung Machine Learning
ML ist ein Teilbereich der Künstlichen Intelligenz (KI), bei dem Computer durch das Training mit zur Verfügung gestellten Informationen (Daten) selbstständig lernen, indem sie Muster und Zusammenhänge in diesen erkennen.119 Sie sammeln mit jedem Trainingsdurchlauf Erfahrung und nutzen diese, um Entscheidungen zu treffen und Vorhersagen vorzunehmen.120 ML wird weitergehend, wie Abbildung 2 verdeutlicht, in die grundlegenden Teilbereiche des überwachten Lernens (supervised learnings) und des unüberwachten Lernens (unsupervised learnings) unterteilt.121
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 2: Klassifikation von Machine Learning-Verfahren
(Quelle: eigene Darstellung in Anlehnung an MathWorks (2022a), S. 9)
Überwachtes Lernen bedeutet, dass der wahre Wert der Zielgröße (Output) bei Modellerstellung bereits bekannt ist.122 Beim unüberwachten Lernen liegen hingegen keine Output-Daten
vor, sodass die Erkennung von Mustern und Strukturen in den Input-Daten im Fokus steht.123 Dabei wird die Methode des Clusterings verwendet, während überwachtes Lernen auf die Regression und Klassifikation zurückgreift.124 Ziel des überwachten Lernens ist, dass die im Rahmen des Trainings erstellten Modelle auf gänzlich unbekannten Daten gute Prognosen erzielen.125 Die in dieser Arbeit angewandten ML-Verfahren gehören, wie in Abbildung 2 zu sehen, dem Teilbereich des überwachten Lernens an.126 Somit kann die Prognosefähigkeit der ML- Modelle durch Berechnung des Abstands zwischen den prognostizierten und den eingetretenen (wahren) Werten mithilfe von Gütemaßen beurteilt werden.127 Bekannte Gütemaße im Rahmen von Regressionsproblemen sind z. B. der MAE und der RMSE.128
2.3.2 Lineare Regression
Die lineare Regression dient als klassisches statistisches Verfahren in der vorliegenden Arbeit als Benchmark-Methode zu den ML-Verfahren. Sie gehört neben der logistischen Regression zu den Basiskonzepten im Rahmen von überwachtem ML.129 Bei der Regression wird eine Zielvariable (abhängige Variable) anhand der unabhängigen Attribute vorhergesagt.130 131 Im Rahmen der linearen Regressionsanalyse wird hierbei ein linearer Zusammenhang zwischen der Zielvariable y und den Attributen Xt als Annahme zugrunde gelegt:
Abbildung in dieser Leseprobe nicht enthalten
Es gilt, die Regressionskoeffizienten ßi im Rahmen des Modelltrainings je Attribut zu ermitteln. Damit die Schätzftinktion y möglichst genau die wahren Werte der Zielvariable y abbildet, wird grundsätzlich die Methode der kleinsten Quadrate als Verlustftmktion angewandt, bei der die Regressionskoeffizienten so zu bestimmen sind, dass die Summe der quadrierten Residuen[Abbildung in dieser Leseprobe nicht enthalten] (RRS) aus den wahren Werten yn und den prognostizierten Werten yn minimiert wird:[Abbildung in dieser Leseprobe nicht enthalten]
Abbildung in dieser Leseprobe nicht enthalten132
Der Parameter ß0 stellt den durchschnittlichen Wert der Zielvariablen dar (Achsenabschnitt), der durch die Attribute nicht beschrieben werden kann.133 Die Störgröße ε steht für eine nicht zu beobachtende Zufallsgröße, die einen möglichen Messfehler abbildet.134 Grundsätzlich hat die Störgröße einen Erwartungswert von null.135
Die Prognosefahigkeit der LR verschlechtert sich durch Multikollinearitäten zwischen den Attributen, wenn mehr Attribute zur Erklärung der Zielvariable eingesetzt werden als notwendig (Überparametrisierung).136 Zudem ist bei der LR, anders als z. B. bei dem RF, keine Variabienselektion (Feature Selection) integriert.137 Um die LR trotz dieser Nachteile mit anderen ML-Modellen in ihrer Prognosefahigkeit zu vergleichen, kann eine Regularisierung eingesetzt werden.138 Durch diese wird eine Schrumpfung kleiner Regressionskoeffizienten /?¿ gegen null bewirkt, indem die Verlustfunktion durch einen zusätzlichen Strafterm ergänzt wird.139 Die Stärke der Regularisierung wird über den positiven Regularisierungsparameter λ gesteuert, der als Hyperparameter dem Modell vorgegeben wird.140 Bekannte Formen der Regularisierung sind die Least Absolute Shrinkage and Selection Operator (Lasso)-Regression, die auch Level 1 (Ll)-Regularisierung genannt wird, und die Ridge-Regression, die auch als Level 2 (L2)-Re- gularisierung bekannt ist.141 Beide Regularisierungsmethoden verfolgen das gleiche Ziel, aber unterscheiden sich in der Herangehensweise der Bestrafung der Attribute.142 Im Rahmen der Lasso-Regression werden im Strafterm die absoluten Werte der Regressionskoeffizienten ß herangezogen:
Abbildung in dieser Leseprobe nicht enthalten 143 144
Die Ridge-Regression quadriert hingegen die Werte von ß im Strafterm:
Abbildung in dieser Leseprobe nicht enthalten
Dies hat zur Folge, dass bei der Lasso-Regression die Koeffizienten den Wert null annehmen können und somit Attribute aus dem Modell entfernt werden, wodurch eine Variabienselektion ausgefiihrt wird.145 Durch die Quadrierung bei der L2-Regularisierung können die Koeffizienten sich dem Wert null lediglich annähem, ihn aber nicht annehmen.146 Über die durch die Regularisierung entstandenen Koeffizienten kann ferner die Feature Importance der einzelnen Attribute analysiert werden.147 Allerdings besitzen alle Modelle der LR, auch die mit Regularisierung, den Nachteil, dass sie lineare Zusammenhänge in den Daten voraussetzen und somit keine Nichtlinearitäten darstellen können.148
2.3.3 Random Forest
Der RF ist eine Weiterentwicklung des DT, der sowohl Klassifikations- als auch Regressionsprobleme lösen kann.149 Aufgrund des vorliegenden Regressionsproblems wird sich die Beschreibung des RF und auch der NN in dieser Arbeit auf Regressionsprobleme beschränken. Der DT stellt ein gerichtetes Regelwerk dar, das durch rekursives Zuordnen einer Beobachtung entsprechend der Attributsausprägung den Wert der Zielvariable bestimmt.150 Hierbei wird der gesamte Datensatz mithilfe lokaler Minimierung151 der Impurity (Verunreinigung) entlang des DT (von oben nach unten) durch Splits in kleinere disjunkte Teilmengen getrennt.152 Dieses Vorgehen wird auch als Hunt’s Algorithmus bezeichnet.153 Die Splits anhand von Attributtestung finden in den Knoten (Nodes) eines DT statt.154 Neben den Knoten besitzt ein DT Blätter (Leaves) und Äste (Branches).155 In den Blättern wird die finale Ermittlung des Wertes der Zielvariable vorgenommen, während die Äste als Bindeglied zwischen den Blättern und Knoten dienen.156 157 Da der DT selbst in dieser Arbeit als ML-Verfahren keine Anwendung findet, wird fur eine weitere Ausführung zum DT auf Breiman et al. (1984) und James et al. (2013) verwie- Ein RF besteht aus einer Vielzahl zufällig konstruierter DT, die nach dem Bootstrapping-Ver- fahren unabhängig voneinander (parallel) generiert werden.158 Beim Bootstrapping wird jeweils eine Teilmenge des gesamten Datensatzes zur Konstruktion des DT (schwacher Lerner) herangezogen.159 Somit basieren die Splits in den Knoten auf einer Teilmenge aller Attribute, aus denen jeweils das gewählt wird, welches am meisten zur Minimierung der Impurity beiträgt.160 Durch dieses Vorgehen entsteht automatisch eine Variabienselektion.161 Im Rahmen eines Regressionsproblems ermittelt jeder DT im RF den Wert der Zielvariable. Der Mittelwert dieser Einzelergebnisse bildet das Ergebnis des RF.162 Das Vorgehen im RF mit der Kombination aus Bootstrapping und Aggregation wird als Bagging bezeichnet.163 Dabei knüpft das Bagging bei Modellen mit einer hohen Varianz an und reduziert diese durch Reduktion der Modellkomplexität mithilfe des Bootstrapping.164 Das Vorgehen beim Bagging fuhrt dazu, dass die DT untereinander eine geringe Korrelation aufweisen, weshalb ein RF trotz redundanter Attribute gute Ergebnisse liefert und das Problem des Overfittings minimiert wird.165
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 3: Problem des Overfittings am Beispiel des DT
(Quelle: entnommen aus Rockach/Maimon (2015), S. 57)
Beim RF kann dennoch, wenn auch mit geringerer Anfälligkeit als bei anderen ML-Verfahren, mit zunehmender Größe der DT Overfitting entstehen.166 Overfitting ist eine Überspezialisierung des Modells an die Trainingsdaten, d. h., dass sich das Modell zu stark den (zufälligen) Schwankungen der Trainingsmenge (Varianz)167 anpasst und sich somit die Prognosegüte auf unbekannten Daten verschlechtert, da das Modell nicht mehr generalisierbar ist.168 Die Abbildung 3 zeigt das Problem des Overfittings, indem sie den Prognosefehler in Abhängigkeit der Größe des DT darstellt. Im Trainingsdatensatz verringert sich der Prognosefehler (Trainingsfehler) aufgrund der Überanpassung konstant mit zunehmender Größe des DT (s. durchgezogene Kurve in Abbildung 3). In der Validierungsmenge besitzt der Prognosefehler (Generalisierungsfehler) hingegen ein Minimum, d. h., dass dieser zuerst ebenso mit zunehmender Größe des DT abnimmt. Diese Minimierung dauert allerdings lediglich bis zu einer bestimmten Größe des DT an, ab der sich der Generalisierungsfehler aufgrund der Überspezialisierung wieder erhöht (s. gestrichelte Kurve in Abbildung 3).169 Das Problem des Overfittings tritt auch bei anderen ML-Verfahren mit steigender Trainingsintensität auf, weshalb Methoden zur Begrenzung des Overfittings notwendig sind.170
Beim DT und seinen Weiterentwicklungen dient zur Vermeidung von Overfitting das Pruning als eine mögliche Maßnahme. Pruning ist in der Form des Pre- und des Post-Prunings anwendbar.171 Post-Pruning setzt im Anschluss an die vollständige Modellerstellung ein, indem überspezialisierte Äste des DT entfernt werden, um die Generalisierbarkeit des Modells zu gewährleisten.172 Das Pre-Pruning beginnt bereits während der Modellerstellung, indem dem Modell Restriktionen in Form von Hyperparametem gesetzt werden, die dazu führen, dass die Schwankungen der Trainingsdaten nicht berücksichtigt werden.173 Als Hyperparameter kommen z. B. die minimale Anzahl an Beobachtungen je Blatt, auch genannt Minimum Support, oder die maximale Anzahl an Splits in Frage.174 Bei der Auswahl der Hyperparameter von ML-Modellen ist zu beachten, dass durch die Restriktionen zwar Overfitting vermieden und die Generalisierbarkeit erhöht wird, jedoch zu starke Restriktionen einen Bias und Underfitting175 erzeugen, die ebenso in einer Minimierung der Prognosegüte resultieren wie Overfitting und eine hohe Varianz.176 Als Bias wird die systematische Verzerrung durch Modellvorgaben bezeichnet.177 Es liegt somit ein Trade-Off zwischen Generalisierbarkeit und Genauigkeit des Modells bzw. zwischen Bias und Varianz vor.178 Daher sind bei der Wahl der Hyperparameter Optimierungsmethoden, wie die Bayesian Optimization oder Faustregeln, sogenannte Rule of Thumbs, zu berücksichtigen.179
Ein Vorteil des RF ist die Möglichkeit der Ermittlung der globalen Feature Importance des gesamten Modells über die sogenannten out-of-bag (OOB)-Schätzer, die in jedem Bootstrap- Sample erzeugt werden.180 Der Teil des Datensatzes, der in einem Bootstrapping-Vorgang nicht zum Training eines DT verwendet wird, wird als OOB-Sample bezeichnet und dient zur Validierung des jeweiligen Bootstrap-Samples.181 Im Anschluss werden mehrfach die Werte eines Attributes zufällig ausgetauscht (permutted) und die Validierung wiederholt.182 Die Änderung der Fehlerrate durch die Wertänderung des Attributes wird berechnet und abgespeichert als OOB-Score.183 Dieser Vorgang wird für jedes Attribut im OOB-Sample wiederholt.184 Der Mittelwert der OOB-Scores eines Attributs dividiert durch die jeweilige Standardabweichung stellt das Maß für die Feature Importance (Permutation Importance) des Attributs dar.185 Je größer der Wert ist, desto höher ist der Einfluss des Attributs bei der Vorhersage der Kennzahl.186
2.3.4 Neuronale Netze
NN sind adaptive Systeme, die ähnlich der Funktionsweise des menschlichen Gehirns mithilfe von Neuronen lernen und sich konstant verbessern können.187 Sie werden mithilfe von Daten trainiert, um z. B. Muster zu erkennen oder Ereignisse vorherzusagen. Somit können sie sowohl für Klassifikations- und Regressionsprobleme als auch fur Clustering (unüberwachtes Lernen) verwendet werden.188 Das Ziel eines NN ist, die Input-Daten über lineare und nichtlineare Funktionen bestmöglich auf die Output-Daten zu approximieren.189 Die Leistungsfähigkeit von NN hat sich in vielen Anwendungsfällen bewiesen, dennoch besitzen sie den Nachteil, dass ihre Ergebnisse schlecht interpretierbar sind, da das genaue Vorgehen der NN als Black-Box gilt.190
Abbildung in dieser Leseprobe nicht enthalten
Die Abbildung 4 zeigt den klassischen Aufbau eines Feed-Forward NN.191 Neben dem Feed- Forward NN gibt es weitere Formen, wie z. B. das Recurrent NN oder das Convolutional NN.192 Auf diese wird im weiteren Verlauf nicht näher eingegangen, da in der vorliegenden Arbeit ein Feed-Forward NN erstellt wird.193 Ein NN besteht, wie in Abbildung 4 dargestellt, aus Neuronen, die in Schichten angeordnet sind.194 Die Neuronen sind über Kanten miteinander verbunden. Es ist erforderlich, dass jedes Neuron mit einem weiteren aus der darauffolgenden Schicht verknüpft ist, um die Verbindung der Schichten zu gewährleisten.195 Die erste Schicht stellt die Eingabe-Schicht (Input Layer) dar, in der die Informationen aus der Umwelt von den in ihr enthaltenen Neuronen aufgenommen werden.196 Die letzte Schicht dient der Ausgabe der Ergebnisse und wird dementsprechend als Ausgabe-Schicht (Output Layer) bezeichnet.197 Zwischen den beiden Schichten befindet sich mindestens eine dazwischenliegende, verborgene Schicht (Hidden Layer), deren Output nicht sichtbar ist.198 Der Informationsfluss läuft von der Eingabe-Schicht zur Ausgabe-Schicht, d. h., der Output der Eingabe-Schicht ist der Input der ersten verborgenen Schicht (und so weiter).199
Die Neuronen in der Eingabe-Schicht verarbeiten die Signale aus der Umgebung und bestimmen für diese zufällig initiale Gewichtungsfaktoren w (Random Initialization).200 Diese Gewichte stehen für die Signalstärke.201 202 Ein Neuron q setzt sich somit zusammen aus der gewichteten Summe der empfangenen Signale z, die um einen konstanten Bias b zu ergänzen ist:
Abbildung in dieser Leseprobe nicht enthalten
Die Signale stammen in der Eingabeschicht aus der Umgebung. In den darauffolgenden Schichten stellen die Neuronen der vorangegangen Schicht bzw. deren Output die Signale z dar.203 Ein Neuron bildet somit eine lineare Funktion.204 Über die Kanten wird dessen Output mithilfe einer nichtlinearen Aktivierungsfunktion transformiert und an die Neuronen der nächsten Schicht weitergegeben.205 Die Nichtlinearität der Aktivierungsfunktion ist entscheidend für das NN, da es sonst lediglich eine Kombination linearer Funktionen darstellen würde.206 Als Aktivierungsfunktion können z. B. die lineare Rectifier-Funktion (ReLU), die Funktion des hyperbolischen Tangens oder die Sigmoid-Funktion dienen.207 Bei der Sigmoid-Funktion werden die Ausgabewerte der einzelnen Schichten zwischen null und eins skaliert, beim hyperbolischen Tangens erfolgt ebenso eine Skalierung, die Werte können aber auch negativer Art sein.208 Durch die ReLU-Funktion bleiben positive Werte unverändert, negative werden allerdings gleich null gesetzt.209 Die Aktivierungsfunktion ist ein Hyperparameter des NN.210 Die Übertragung mithilfe der Aktivierungsfunktion kann durch einen Schwellenwert reguliert werden, sodass die Übertragung eines Neurons an das Neuron der nächsten Schicht lediglich erfolgt, wenn der transformierte Ausgabewert diesen Schwellenwert erreicht.211 Umgangssprachlich wird die Übertragung auch als „Feuern“ des Neurons bezeichnet.212
Während des Trainings in den verborgenen Schichten werden die initial gesetzten Gewichte anhand des entstandenen Fehlers mithilfe des Backpropagation-Algorithmus213 modifiziert sowie der Bias optimiert.214 Hierzu werden die prognostizierten Werte in jeder Iteration mit den wahren Werten anhand einer Verlustfunktion, z. B. dem Mean Squared Error (MSE) oder MAE, verglichen (Forward Propagation).215 Durch Berechnung des ersten Gradienten dieser Verlustfunktion je Schicht des NN wird die Anpassung der Gewichte der Neuronen ermittelt (Fehler- rückfuhrung bzw. Backpropagation).216 Dabei wird das Ziel verfolgt, dass der Gradient mit jeder Iteration minimiert wird (Abfall des Gradienten) bis das Minimum der Verlustfunktion erreicht ist.217 Ein weiterer Hyperparameter im Trainingsprozess ist die Lemrate. Sie gibt an, wie stark die Parameter in jeder Iteration in Bezug auf die Minimierung der Verlustfunktion angepasst werden.218 Je kleiner die Lemrate gewählt wird, desto länger bzw. kleinschrittiger ist die Dauer des Trainingsprozesses und desto höher ist die Gefahr von Overfitting.219 Wird sie zu groß gewählt, so können lokale Minima der Verlustfunktion übersprungen werden.220 Regula- risierung stellt eine etablierte Lösung zur Vermeidung von Overfitting im Rahmen von NN dar.221 Die Regularisierung wird, wie in Kapitel 2.3.2 auf S. 16-17 beschrieben, mithilfe eines Strafterms R vorgenommen, der die Verlustfunktion der NN ergänzt und folglich Signale mit geringerem Gewicht w¡ bestraft.222 Bei der Ridge-Regression (L2- Regularisierung) entspricht dies:
Abbildung in dieser Leseprobe nicht enthalten223
Im Rahmen der Lasso-Regression (LI-Regularisierung) werden mittels des Strafterms die ab
Abbildung in dieser Leseprobe nicht enthalten224
Für eine weitere Erläuterung der Regularisierungsmethoden wird verwiesen auf das Kapitel 2.3.2 auf S. 16-17. Der folgende Abschnitt beschreibt die Datensätze, die für die Untersuchungen dieser Arbeit angewandt werden, und erläutert das Vorgehen in der Datenaufbereitung, die vor Anwendung der in diesem Kapitel beschriebenen ML-Verfahren vorgenommen wird.
3 Daten
3.1 Datenexploration
3.1.1 Managementschätzung
Um einen Vergleich der Prognosefahigkeit von ML-Verfahren und Managementschätzungen durchführen zu können, werden je Beobachtung der wahre bzw. eingetretene Wert, der Wert der Managementschätzung und der durch die ML-Verfahren prognostizierte Wert der jeweiligen Kennzahl benötigt.225 Letzterer wird durch die in dieser Arbeit erstellten Modelle ermittelt. Der wahre Wert je Beobachtung kann aus dem jeweiligen Geschäftsbericht gewonnen werden und wird durch einen Compustat-Datensatz zur Verfügung gestellt.226 Die Managementschätzungen werden hingegen aus einem Datensatz der IBES-Datenbank entnommen. IBES wurde im Jahr 1976 von dem Börsenmakler Lynch, Jones & Ryan gegründet und gehört seit dem Jahr 2000 der Finanzsparte Refmitiv des Medienkonzems Thomson Reuters an. Die Datenbank beinhaltet quantitative Schätzungen von Unternehmen und Analysten zu einer Vielzahl von Kennzahlen von über 23.000 aktiven Unternehmen aus über 90 Ländern.227
Der vorliegende IBES-Guidance-Datensatz enthält insgesamt 1.475.224 Schätzungen zu 47 unterschiedlichen Kennzahlen, die von den Unternehmen selbst veröffentlicht werden (Managementschätzungen). Zur Identifikation der unterschiedlichen Unternehmen dient ein von IBES erstellter Ticker (IBES-Ticker), der die Schätzungen den Unternehmen eindeutig zuordnet.228 Es liegen insgesamt Schätzungen von 16.426 Unternehmen aus unterschiedlichen Ländern fur einen Schätzzeitraum von 1990 bis 2031229 vor, die aus Untemehmensveröffentlichungen und Mitschriften von Untemehmensveranstaltungen stammen.230 Über die Art der Prognoseverfahren, die die Manager bei Erstellung der Schätzungen anwenden, liegen keine Informationen vor.231 Je Beobachtung wird die Schätzung als Spanne oder als Einzelwert angegeben.232 Darüber hinaus wird der Mittelwert aller abgegebenen Analystenschätzungen zum Zeitpunkt der Prognose angegeben sowie die Information, ob die Managementschätzung des Unternehmens mit den Einschätzungen der Analysten übereinstimmt oder darüber bzw. darunter liegt.233 Die Angaben werden in 46 unterschiedlichen Währungen getätigt, davon liegen 586.112 Schätzungen in US-Dollar (USD) vor. Es sind sowohl jährliche, halbjährliche als auch quartalsweise Schätzwerte im Datensatz enthalten. Die jährlichen Schätzungen bilden hierbei mit einer Anzahl von 1.038.168 den Großteil der Beobachtungen.
Das Histogramm in Abbildung 13 im Anhang auf S. 83 zeigt eine erste Analyse des Datensatzes und gibt Aufschluss über die Häufigkeit der vorliegenden Schätzungen je Kennzahl. Es ist zu erkennen, dass zu den in dieser Arbeit betrachteten Kennzahlen sowie zur Kennzahl Net Income (Nettogewinn) die meisten Beobachtungen vorliegen. Für eine genaue Anzahl der Schätzungen je Kennzahl wird verwiesen auf die Tabelle 1 im digitalen Anhang auf S. I.234 Der Fakt, dass für den Umsatz weniger Schätzungen vorliegen als für die Kennzahl EPS, ist konsistent mit den Beobachtungen von Acito/Folsom/Zhao (2021), die in einer Untersuchung herausstellen, dass Unternehmen eher Prognosen zum EPS statt zum Umsatz veröffentlichen, da jene weitreichendere Informationen über die geplanten Untemehmensstrategien preisgeben würden.235 Um sai-
sonale Schwankungen innerhalb eines Jahres in der Modellerstellung der ML-Modelle auszugleichen, wird der Fokus der vorliegenden Arbeit auf der Prognose von jährlichen Kennzahlprognosen liegen.236 Zudem enthält der IBES-Guidance-Datensatz mehr Schätzungen zu Jahreswerten als zu Quartals- oder Halbjahreswerten, sodass die Auswahl auch aus datentechnischer Sicht Vorteile bietet.237
3.1.2 Kennzahlprognose mit Machine Learning
Zur Prognose der Kennzahlen mithilfe von Matlab wird ein Datensatz aus der Compustat-Da- tenbank verwendet. Compustat wurde im Jahr 1962 gegründet und ist eine Datenbank des Anbieters Standard and Poor's, die Bilanz- und Marktdaten börsennotierter Unternehmen weltweit ab dem Jahr 1950 umfasst.238 Da in der vorliegenden Arbeit der Fokus auf jährlichen Kennzahlprognosen liegt, wird ein Datensatz mit entsprechend jährlichen Beobachtungen aus der Compustat-Datenbank ausgewählt. Der vorliegende Datensatz umfasst 588.361 jährliche Beobachtungen über einen Zeitraum von 1950-2021. Der Datensatz beinhaltet Informationen zu insgesamt 982 Variablen von 41.646 Unternehmen aus Nordamerika.239 Die Angabe von monetären Werten wird in Mio. USD getätigt.
Zur Modellerstellung wird das folgende Variabienset an finanziellen Kennzahlen aus dem Compustat-Datensatz extrahiert. Die Tabelle 11 im Anhang auf S. 84 fasst die Attribute zusammen, zu denen die Vermögenswerte, der Buchwert je Aktie, die Herstellungskosten der verkauften Güter, die Dividenden, das Ergebnis vor Steuern und Zinsen (EBIT), das Ergebnis vor Steuern, Zinsen und Abschreibungen (EBITDA), der Bruttogewinn, die Vorräte, die Schulden, der Marktwert, der höchste Aktienpreis des jeweiligen Jahres und die Forderungen aus Lieferung und Leistung (FoaLL) gehören. Darüber hinaus werden die Werte der jeweils anderen Zielvariablen (Umsatz, EPS, DPS und CAPX) und die Voijahreswerte der Zielvariable selbst als Attribute (lagged variable) ergänzt.240 Diese Arbeit orientiert sich an einer breiten Auswahl an finanziellen Kennzahlen als Attribute, die sich in vielen vorangegangenen Untersuchungen als fundamentale Einflussfaktoren für die betrachteten Kennzahlen erweisen.241 Darüber hinaus werden der Global Company Key (GVKEY) als Untemehmensidentifikationsnummer und das Jahr, dem die jeweilige Beobachtung zuzuordnen ist, dem Compustat-Datensatz entnommen. Da die Identifikationsnummer und das Jahr keinen Einfluss auf die Höhe der Kennzahlen besitzen, werden sie in separate Vektoren geschrieben und werden nicht als Attribute in der Modellerstellung verwendet. Die einzelnen Vektoren dienen im weiteren Verlauf aber dazu, einzelne Beobachtungen dem betreffenden Jahr und dem Unternehmen zuordnen zu können. Das trifft sowohl für die Nachverfolgung einzelner Beobachtungen als auch für das Abrufen von Beobachtungen in Schleifen zu.242
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 5: Boxplot der Attribute vor Datenaufbereitung
(Quelle: eigene Darstellung)
Die Abbildung 5 demonstriert die Verteilung der Attribute in Form von Boxplots.243 Da das Attribut Buchwert pro Aktie im Vergleich zu den restlichen Attributen deutlich größere, absolute Ausprägungen aufweist (s. oberer Boxplot in Abbildung 5), werden in der unteren Abbildung die Boxplots der Attribute ohne den Buchwert pro Aktie dargestellt, sodass auch eine Analyse der Spannweiten der restlichen Attribute möglich ist. Die Verteilungen der Attribute weisen im Vergleich zu dem Interquartilsabstand (zwischen dem 25 %- und dem 75 %-Quantil) jeweils erhebliche Spannweiten auf. Die Ausreißer sind folglich weit vom Median entfernt. Gleichermaßen liegt aber auch eine hohe Konzentration der Beobachtungen nahe des Medians vor.244 Darüber hinaus werden im Rahmen der Datenexploration die Korrelationen der Attribute untereinander analysiert. Die Tabelle 12 im Anhang auf S. 85 stellt die Korrelationsmatrix der Attribute dar. Diese zeigt, dass einige Attribute hohe Korrelationen zueinander aufweisen.245 Die beiden Attribute EBIT und EBITDA besitzen z. B. einen hohen Korrelationskoeffizienten von 0,96, was darauf zurückzufuhren ist, dass sich die Kennzahl EBIT aus dem EBITDA ableitet. Gleiches gilt für den Bruttogewinn, der ebenfalls eine hohe Korrelation zum EBIT und dem EBITDA aufweist. Darüber hinaus unterliegen auch die Attribute Vermögenswerte und Schulden einer hohen Korrelation von 0,997.246 Dies deutet daraufhin, dass viele Vermögenswerte der Unternehmen mithilfe eines Kredits angeschafft werden, weshalb mit höherem Vermögenswert auch die Höhe der Schulden zunimmt. Die letzte Korrelation zweier Attribute mit einem Korrelationskoeffizienten über 0,9 ist zwischen dem Umsatz und den Herstellungskosten der verkauften Güter vorzufinden. Auch diese Korrelation erscheint plausibel, da grundsätzlich eine höhere Produktion notwendig ist, um einen höheren Umsatz zu erzielen, wodurch ebenso die Herstellungskosten ansteigen.247
3.2 Datenaufbereitung
3.2.1 Managementschätzung
Da der Fokus auf den jährlichen Schätzungen liegt, werden zunächst die quartalsweisen und halbjährlichen Managementschätzungen aus dem IBES-Guidance-Datensatz entfernt. Ebenso werden alle Beobachtungen aussortiert, die nicht in der Währung USD vorliegen, um eine Vergleichbarkeit zu den wahren Werten aus dem Compustat-Datensatz zu gewährleisten. Im Anschluss erfolgt eine Filterung auf die Schätzungen der relevanten Kennzahlen Umsatz, EPS, DPS und CAPX. Die Abbildung 6 verdeutlicht, wie sich die Anzahl der Schätzungen je Kennzahl nach diesen ersten Anpassungen verändert. Zu dem Umsatz liegen noch 90.545, zu den EPS 104.971, zu den DPS 5.377 und zu den CAPX 77.076 Schätzungen vor. Da die Managementschätzung in einer Vielzahl von Beobachtungen als Spanne statt als Einzelwert dargestellt wird, wird von diesen der Mittelwert berechnet und nachfolgend als Schätzung betrachtet.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 6: Histogramm der jährlichen Schätzungen in USD je Kennzahl (Quelle: eigene Darstellung)
Um die Güte der Managementschätzungen je Beobachtung bestimmen zu können, wird der wahre Wert des jeweiligen Jahres benötigt.248 Da diese Information im IBES-Guidance-Daten- satz nicht Vorhemden ist, ist ein Zusammenfuhren (Mergen) des Datensatzes mit dem von Com- pustat notwendig. Zum Mergen der beiden Datensätze ist eine gemeinsame Untemehmensiden- tifikationsnummer und das jeweilige Jahr erforderlich, damit die einzelnen Beobachtungen der beiden Datensätze korrekt zusammengefiihrt werden. Der IBES-Guidance-Datensatz enthält lediglich den IBES-Ticker als Untemehmensidentifikationsnummer, während Compustat u. a. die CUSIP und den GVKEY verwendet.249 Über einen weiteren IBES-Datensatz, dem IBES- Guidance-Identifier-Datensatz, der ebenfalls den IBES-Ticker enthält, wird durch Mergen zunächst die CUSIP für jede Beobachtung im IBES-Guidance-Datensatz ermittelt.250 Über die CUSIP und das Jahr erfolgt im Anschluss das Zusammenfuhren mit dem Compustat-Datensatz, der den wahren Wert, wenn verfügbar, je Beobachtung ergänzt. Nach dem Mergen wird sich weitergehend am GVKEY aus dem Compustat-Datensatz als Untemehmensidentifikations- nummer orientiert, da dieser beständiger ist als die CUSIP.251
Nach der Zusammenführung der Datensätze ist ersichtlich, dass nicht für alle Schätzungen aus dem IBES-Guidance-Datensatz ein wahrer Wert aus dem Compustat-Datensatz vorliegt. Insbesondere sind davon die Beobachtungen betroffen, die Schätzungen für die Jahre ab 2022 zur Verfügung stellen, da hierfür noch keine wahren Werte vorliegen können. Die Schätzungen, bei denen der zugehörige wahre Wert nicht vorhanden ist252, werden entfernt. Somit verändert sich die Anzahl der Beobachtungen, für die die Güte der Managementschätzung ausgewertet werden kann, bei dem Umsatz auf 18.040, bei den EPS auf 21.161, bei den DPS auf 625 und bei den CAPX auf 10.086 Beobachtungen.
Abbildung in dieser Leseprobe nicht enthalten
Tabelle 1: Vergleich der Schätzungen und wahren Werte je Kennzahl (Quelle: eigene Darstellung)
Abschließend werden mithilfe von Boxplots die verbleibenden Beobachtungen je Kennzahl für die Schätzungen und für die wahren Werte miteinander verglichen, um mögliche Ausreißer durch fehlerhafte Angaben, die die Güte verzerren würden, aufzudecken.253 Die Boxplots zeigen, dass die Schätzungen und wahren Werte aller Kennzahlen annähernd die gleichen Verteilungen hinsichtlich ihrer Spannweite aufweisen. Die Tabelle 1 vergleicht darüber hinaus die Mediane und Mittelwerte der Kennzahlen im Rahmen der Schätzungen und der wahren Werte.
Es ist ersichtlich, dass die Mediane und Mittelwerte der Schätzungen und wahren Werte nur geringfügig voneinander abweichen. Der Umsatz besitzt beispielsweise für die Schätzungen einen Median von 427 Mio. USD und für die eingetretenen Werte einen Median von 424 Mio. USD. Bei der Kennzahl EPS sind allerdings im Boxplot zwei starke Ausreißer ersichtlich, die näher untersucht werden. Der Wert der Schätzung der ersten Ausreißer-Beobachtung liegt bei 89 Mio. USD, der dazugehörige wahre Wert bei 0,82 Mio. USD. Die zweite Ausreißer-Beobachtung weist eine ebenso starke Differenz auf. Diese starken Abweichungen zwischen Schätzung und wahrem Wert deuten auf eine unterschiedliche Einheit im Rahmen der Schätzung und des wahren Wertes hin, sodass die beiden Beobachtungen im Rahmen der EPS entfernt werden.254 Ebenso werden die Spannweiten der Kennzahlen auf Plausibilität überprüft.255 Hierbei sticht heraus, dass bei den CAPX negative Beobachtungen vorliegen. Da das Minimum der CAPX allerdings bei null liegt, werden die fünf negativen Beobachtungen ebenfalls entfernt. Bei den restlichen Beobachtungen werden keine Änderungen vorgenommen.
3.2.2 Kennzahlprognose mit Machine Learning
Um die Vergleichbarkeit der Prognosegüte der ML-Modelle und der Managementschätzung zu gewährleisten, werden bei der Erstellung der Prognosemodelle mittels ML lediglich die Beobachtungen verwendet, für die im Rahmen der Managementschätzung eine Prognosegüte ermittelt werden kann.256 Dies entspricht den Beobachtungen aus dem Compustat-Datensatz, für die eine Managementschätzung im IBES-Datensatz und der wahre Wert der jeweiligen Kennzahl vorliegt. Aus diesem Grund werden die zusammengeführten Datensätze je Kennzahl aus der Datenaufbereitung für die Managementschätzung erneut herangezogen und die dazugehörigen, für die ML-Prognose benötigten Attribute257 aus dem Compustat-Datensatz extrahiert und ergänzt. Je Kennzahlprognose mithilfe von ML erhält somit ein anderer Datensatz Eingang in die Modellerstellung und -Validierung. Bei der Datenexploration der einzelnen Datensätze je Kennzahl258 ist ersichtlich, dass diese hinsichtlich der Korrelationen und Ausreißer der Attribute eine hohe Ähnlichkeit untereinander und auch zu dem gesamten Ausgangsdatensatz aus Compustat aufweisen.259 Aus diesem Grund erfolgt eine identische Datenaufbereitung der Datensätze je Kennzahl, die im Folgenden erläutert wird.
Wie bereits in Kapitel 3.1.2 auf S. 28 erarbeitet, weisen einige Attribute starke Korrelationen zueinander auf. Dennoch werden keine Attribute aufgrund zu hoher Korrelationen entfernt, da die angewandten ML-Verfahren mit Multikollinearitäten umgehen können und diese im Rahmen der Modellerstellung verarbeiten.260 Eine Ausnahme stellt lediglich die LR dar, weshalb im weiteren Verlauf ebenso ein regularisiertes LR-Modell erstellt wird. Darüber hinaus hat sich im Rahmen der allgemeinen Datenexploration ergeben, dass die Attribute im Vergleich zu dem Interquartilsabstand eine erhebliche Spannweite aufweisen. Auch innerhalb der einzelnen Datensätze je Kennzahlprognose sind diese Spannweiten und weit vom Median entfernte Ausreißer weiterhin vorzufinden.261 Es wird daher ein Winsorizing auf den Datensätzen vorgenommen, das dazu fuhrt, dass alle Attribute, deren Wert unter dem 5. sowie über dem 95. Perzentil liegen, durch den Wert des jeweiligen Perzentils ersetzt werden.262 Die Anzahl der Beobachtungen wird durch das Winsorizing nicht verändert, jedoch werden die Ergebnisse weniger stark durch die Ausreißer verzerrt.
Die vorliegenden Datensätze je Kennzahl besitzen zudem einige Beobachtungen, die für einzelne Attribute keinen Wert aufweisen.263 Im Umgang mit diesen Not a Number-Werten (NaNs) werden zwei unterschiedliche Varianten der Datensätze je Kennzahlprognose erstellt und anschließend in den ML-Modellen getestet.264 Für die erste Alternative werden die Beobachtungen mit NaNs gänzlich aus den Datensätzen entfernt.265 Durch dieses Vorgehen wird allerdings auch die Anzahl der Beobachtungen verringert, was insbesondere bei der Prognose der DPS zu einer weiteren Minimierung des bereits kleinen Datensatzes führt. Im Rahmen der zweiten Methode werden die NaNs durch die Mittelwerte des jeweiligen Attributs ersetzt, wodurch die Anzahl der Beobachtungen zu denen aus den Ausgangsdatensätzen konstant bleibt.266 Da der RF im Gegensatz zu den restlichen ML-Verfahren eine spezielle Funktion im Umgang mit NaNs, die sogenannten Surrogate Splits, besitzt, wird der Ausgangsdatensatz je Kennzahl mit den NaNs ebenso beibehalten.267 Bei den Surrogate Splits wird im Rahmen der Modellerstellung je Attribut eine Liste mit Ersatzvariablen erstellt. Aus dieser wird bei Auftreten von NaNs diejenige ausgewählt, die den ursprünglichen Split möglichst ähnlich vornimmt.268
Die Tabelle 13 im Anhang auf S. 86 zeigt, wie viele Beobachtungen je Kennzahl in den erzeugten Datensätzen vorliegen. Darüber hinaus gibt sie einen Überblick zu weiteren Merkmalen der unterschiedlichen Datensätze, die im Folgenden für die entsprechenden Kennzahlprognosen genutzt werden. Die dargestellten Merkmale der Datensätze mit NaN-Ersatz durch Mittelwert sind identisch zu denen der Datensätze mit NaNs. Dies ist darauf zurückzuführen, dass durch den Ersatz der NaNs lediglich innerhalb der Attribute Veränderungen vorgenommen werden, da keine NaNs innerhalb der Zielvariablen vorliegen. Die DPS stellen mit nur 625 bzw. 351 Beobachtungen den kleinsten Datensatz dar, während die meisten Beobachtungen (21.159 bzw. 18.552) im Datensatz zu den EPS vorliegen. Gleichermaßen bildet der Datensatz zu den EPS die größte Zeitspanne von 1993-2020 ab, während die Beobachtungen im Datensatz der DPS aus den Jahren 2004 bis 2019 stammen.
Im Vergleich der Datensätze mit und ohne NaNs ist auffällig, dass sich die Spannweite der Zielvariable durch das Entfernen der Beobachtungen mit NaNs lediglich bei der Kennzahl CAPX verändert. Hieraus kann konkludiert werden, dass die Beobachtungen zur jeweils größten bzw. kleinsten Zielvariable bei den restlichen Kennzahlen keine NaNs aufweisen. Die Mittelwerte der Zielvariablen verändern sich ebenfalls nur geringfügig durch das Entfernen der NaNs. Den größten Mittelwert aller Kennzahlen besitzt der Umsatz. Dies ist plausibel, da lediglich der Umsatz und die CAPX absolute Kennzahlen darstellen und die CAPX als Aufwand grundsätzlich kleiner als der Umsatz eines Unternehmens sein sollten. An den Zielvariablen werden über die bereits in Kapitel 3.2.1 auf S. 31 beschriebenen Maßnahmen zur Beseitigung von fehlerhaften Daten keine weiteren Veränderungen vorgenommen, da die verbleibenden „Ausreißer“ in den Zielvariablen plausible Werte darstellen, die aufgrund unterschiedlicher Größenordnungen und Branchen der Unternehmen auftreten.
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 7: Boxplot der Attribute nach Datenaufbereitung
(Quelle: eigene Darstellung)
Die Abbildung 7 stellt abschließend die Verteilung der Attribute nach dem Winsorizing und der Erstellung der drei alternativen Datensätze im Umgang mit NaNs exemplarisch fur den gesamten Ausgangsdatensatz aus Compustat dar. Es ist zu erkennen, dass sich die Spannweiten der einzelnen Attribute deutlich minimiert haben im Vergleich zum Ausgangsdatensatz.269 Dieser Effekt tritt gleichermaßen bei den einzelnen Kennzahldatensätzen auf. Neben der bereits in Kapitel 3.1.2 auf S. 26 erläuterten Vorauswahl der Attribute anhand von Plausibilitätsüberlegungen, Literaturrecherche und Erfahrungswissen270 wird keine weitere Variabienselektion271 in der Datenaufbereitung vorgenommen, da die ML-Verfahren automatisch in der Modellerstellung die für das Modell relevanten Attribute extrahieren. Im Rahmen der LR wird hierfür die Regularisierung mittels Lasso-Regression angewandt.272 Untersuchungen wie z. B. von Chen et al. (2022) zeigen zudem, dass ein größeres Set an Attributen insbesondere beim RF zu einer besseren Prognosefähigkeit fuhrt, soweit Pruning angewandt wird.273
Als abschließende Modifikation wird je Kennzahl ein Datensatz erstellt, bei dem Ratios der Kennzahlen durch Skalierung gebildet werden.274 Hierzu werden die Attribute Buchwert pro Anteil, EBIT, EBITDA, Bruttogewinn, Vorräte, Schulden, Marktwert, Umsatz und EPS an den Vermögenswerten skaliert und die Attribute Vermögenswerte, Herstellungskosten der verkauften Güter, Dividende, Aktienpreis, FoaLL, DPS und CAPX durch das EBIT geteilt.275 Diese Einteilung der Skalierung erfolgt anhand inhaltlicher Aspekte sowie in Anlehnung an Chen et al. (2022).276 Die Modelle mit den Hyperparametereinstellungen, die die höchste Prognosegüte je Kennzahl aufweisen, werden mit dem skalierten Datensatz erneut trainiert und validiert.
4 Methodisches Vorgehen
4.1 Modellvalidierung
Die Modellvalidierung beschreibt die Aufteilung des gesamten Datensatzes zur Modellerstellung in eine Trainings- und Validierungsmenge.277 Im Rahmen der vorliegenden Datensätze ist die zeitliche Struktur der Beobachtungen aufgrund der Entwicklung der Kennzahlen und Attribute von besonderer Relevanz.278 Wird eine solche Zeitreihe wie ein reiner Querschnittsdatensatz aufgeteilt, wie es z. B. eine k-fold cross-validation279 vorsieht, wird ein Look-Ahead Bias erzeugt, da die zeitliche Abfolge der Daten nicht berücksichtigt wird.280 Es werden somit z. B. Attribute, die zeitlich weiter in der Zukunft liegen, verwendet, um vorherige Kennzahlen zu prognostizieren.281 Ein derart erzeugtes Modell weist in der Praxis auf gänzlich unbekannten Daten eine geringere Prognosegüte auf.282 Um dies auszuschließen, wird in der vorliegenden Arbeit eine rollierende Validierung vorgenommen.283
Eine rollierende Validierung kann mit einem fixen oder einem expandierenden Zeitfenster erstellt werden. Bei einem expandierenden Fenster wird mit jedem Validierungsdurchlauf eine zunehmende Anzahl an Beobachtungen im Training berücksichtigt, da sich der Zeitraum der betrachteten Trainingsdaten je Durchlauf um ein Jahr erhöht. Dies bietet den Vorteil, dass mehr
Abbildung in dieser Leseprobe nicht enthalten
Daten je Durchlauf fur die Modellerstellung vorliegen, jedoch können dadurch auch Verzerrungen entstehen.284 Der vorliegende Datensatz fur die Kennzahlprognose der EPS deckt beispielsweise eine Zeitspanne von 1993 bis 2021 ab. Da weit entfernte Ereignisse bei einem expandierendem Fenster in der Trainingsmenge in jedem Validierungsdurchlauf berücksichtigt werden, würde beispielsweise die Weltfinanzkrise ab 2007 immer wieder Beachtung in der Modellerstellung finden. In der Realität besitzt sie aber wenig Einfluss z. B. auf die Kennzahlen im Jahr 2022.285 Aus diesem Grund wird sich für ein fixes statt für ein expandierendes Zeitfenster in der vorliegenden Arbeit entschieden.286 Bei Anwendung eines fixen Zeitfensters werden lediglich Beobachtungen einer konstanten Anzahl an Jahren je Durchlauf zum Trainieren des Modells herangezogen.287
In-Sample-Daten
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 8: Vorgehen der rollierenden Validierung
(Quelle: eigene Darstellung)
Die Abbildung 8 verdeutlicht exemplarisch das Vorgehen der rollierenden Validierung mit einem fixen Zeitfenster von fünf Jahren anhand des Zeitraums von 1993-2002. Zur Prognose der Kennzahl im Jahr 1998 werden die Beobachtungen der Jahre 1993-1997 für die Modellschätzung und Hyperparameteroptimierung genutzt. Daraufhin wird das Zeitfenster zur Prognose der Kennzahl im Jahr 1999 um ein Jahr verschoben und das Modell sowie dessen Hyperparameter mit den Beobachtungen der Jahre 1994-1998 neu geschätzt. Das Jahr 1993 erhält in diesem Modelldurchlauf keine Berücksichtigung mehr. Das fixe Zeitfenster wird in der vorliegenden Arbeit zunächst auf einen Zeitraum von fünf Jahren festgelegt, um Konjunkturschwankungen und Finanzkrisen zu berücksichtigen, aber um gleichermaßen auszuschließen, dass lediglich von Krisen betroffene Jahre in eine Modellerstellung eingehen. In einem kleineren Zeitfenster würden finanzielle Schocks, wie z. B. durch die Corona-Krise oder durch die Weltfinanzkrise eine starke Gewichtung erhalten und somit das Modell verzerren. Bei einem Zeitfenster von drei Jahren würden beispielsweise für die Prognose des Jahres 2010 ausschließlich Beobachtungen, die stark von der Finanzkrise betroffen waren, in die Modellerstellung eingehen. Darüber hinaus werden weitere fixe Zeitfenster in der vorliegenden Arbeit getestet. Die Einstellung erfolgt im Rahmen jedes Modells mithilfe des Skalars iFenster.
Neben dem Zeitfensters der rollierenden Validierung kann in jedem Modell die Anzahl der Vergangenheitswerte der Zielvariable (lagged-variables), die zur Modellerstellung genutzt werden, bestimmt werden. Auch dies geschieht über einen Skalar (¿Lag). Wird der Skalar auf zwei gesetzt, so erhalten lediglich die Vergangenheitswerte der jeweiligen Kennzahl der letzten zwei Jahre im gewählten Zeitfenster Eingang in die Modellerstellung. Das Lag kann maximal so groß gewählt werden, wie das fixe Zeitfenster der rollierenden Validierung eingestellt ist. Ebenso ist es möglich, über den Parameter ILagged die Anwendung der Vergangenheitswerte der jeweiligen Kennzahl gänzlich zu unterbinden.288 Es wird die Prognosegüte unterschiedlicher Lags in den jeweiligen Modellen erprobt.
Die durch die Modelle prognostizierten Werte werden zur Beurteilung der Prognosefähigkeit anhand von Fehlermaßen mit dem wahren Wert der jeweiligen Kennzahl verglichen.289 Es wird somit zunächst je Validierungsdurchlauf die durchschnittliche Güte aller darin enthaltenen Beobachtungen ermittelt.290 Diese Fehlermaße werden weitergehend über alle Validierungsdurchläufe aggregiert und bewertet. Es ist somit zu beachten, dass durch Anwendung der rollierenden Validierung nicht die Güte eines einzelnen Modells mit fixen (Hyper-)Parametem bewertet wird, sondern der gesamte Prozess über alle Validierungsdurchläufe hinweg.291
[...]
1 Vgl. Cheriyan et al. (2018), S. 53; Lee (2017), S. 293-294; Zhou (2021), S. 15.
2 Vgl. Lee (2017), S. 294.
3 Vgl. Sellhorn (2020), S. 49; Bertomeu (2020), S. 1135; Fieberg/Hesse/Loy/Metko (2022), S. 1, 9-10.
4 Vgl. u. a. Ding et al. (2020), S. 1098-1099; Sellhorn (2020), S. 55; Fieberg/Hesse/Loy/Metko (2022), S. 1.
5 Erwartungen werden insbesondere in der Management's Discussion and Analysis (MD&A) veröffentlicht.
6 Vgl. Selling/Nordlund (2015), S. 503; Ding et al. (2020), S. 1099; Sellhorn (2020), S. 55.
7 Vgl. Ding et al. (2020), S. 1100; Sellhorn (2020), S. 55.
8 Vgl. Petroni/Beasley (1996), S. 152.
9 Vgl. Beaver/McNichols/Nelson (2003), S. 347; Bergstresser/Philippon (2006), S. 527-528; Lev/Li/Sougian- nis (2010), S. 779; Grace/Leverty (2012), S. 376.
10 Vgl. McNichols (2002), S. 61-62; Legerstee/Franses (2014), S. 78.
11 Hiermit ist die direkte Überprüfung bei Abgabe der Schätzung gemeint und nicht die nachträgliche wie z. B. bei Petroni/Beasley (1996). Zustimmend Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099.
12 Zustimmend Kaplan/Reckers (1995), S. 27; Petroni/Beasley (1996), S. 169; Ding et al. (2020), S. 1098-1099; Sellhorn (2020), S. 55.
13 Vgl. Ruland (1978), S. 439, 444. Zustimmend Copeland/Marioni (1972), S. 507-508. Kritisch Green/Segall (1967), S. 54.
14 Zustimmend Ding et al. (2020), S. 1099; Sellhorn (2020), S. 85. ML weist bereits Erfolge in der Prognose von Insolvenzen und Bilanzbetrug auf. Hierfür wird u. a. verwiesen auf Perols et al. (2017), S. 221-245; Barboza/Kimura/Altman (2017), S. 405-417.
15 Vgl. u. a. Callen et al. (1996), S. 475-482; Zhang/Cao/Schniederjans (2004), S. 205-207; Bajaj et al. (2020), S. 3619-3625; Chen et al. (2022), S. 467-515.
16 Siehe beispielhaft Ding et al. (2020), S. 1099. Van Binsbergen/Han/Lopez-Lira (2021), S. 1-2 fuhren darüber hinaus einen Vergleich zu Analystenschätzungen durch.
17 Vgl. Ding et al. (2020), S. 1105-1121, 1128.
18 Vgl. Ding et al. (2020), S. 1121.
19 Vgl. Ding et al. (2020), S. 1128.
20 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56. Beispielhaft Geschäftsbericht Target (2021), S. 26.
21 Vgl. Frankel/McNichols/Wilson (1995), S. 135; Lev/Gu (2016) , S. 5-6.
22 Vgl. Tsai/Chiou (2009), S. 7183; Cao/Parry (2009), S. 32; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Lev/Gu (2016), S. 16-18.
23 Zustimmend Tsai/Chiou (2009), S. 7183; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Selling/Nord- lund(2015), S. 501-503.
24 Vgl. u. a. Cao/Parry (2009), S. 41; Pavlyshenko (2019), S. 24; Ding et al. (2020), S. 1116; Chen et al. (2022), S. 510.
25 Vgl. Rogers/Gunn (2006), S. 175-176; Archer/Kimes (2008), S. 2259; Hunt/Myers/Myers (2022), S. 132.
26 Vgl. Kumar/Ravi (2007), S. 24; Géron (2019), S. 181; Lanquillon (2019), S. 127; Knuth (2021), S. 364-365.
27 Vgl. u. a. Cheriyan et al. (2018), S. 57; Ding et al. (2020), S. 1116; Kubat (2021), S. 93. Zustimmend Boha- nec/Borstnar/Robnik-Sikonja(2017), S. 416.
28 Vgl. Zhang/Cao/Schniederjans (2004), S. 213-214; Ding et al. (2020), S. 1101.
29 Für eine weitere Begründung der regularisierten Methode wird auf das Kapitel 2.3.2 auf S. 16-17 verwiesen.
30 Die Relevanz einer solchen Analyse verdeutlichen Bohanec/Borstnar/Robnik-Sikonja (2017), S. 416-417.
31 Vgl. Ding et al. (2020), S. 1116-1117; Bertomeu (2020), S. 1137. Sowie Azevedo/Bielstein/Gerhart (2021), S. 545-579, die eine Kombination aus Analystenschätzung und multipler LR durchführen.
32 Vgl. Ding et al. (2020), S. 1118; Chen et al. (2022), S. 503-504.
33 Vgl. Ding et al. (2020), S. 1121-1123; Bertomeu (2020), S. 1136-1142.
34 Vgl. Staehle (1969), S. 50; Groll (2004), S. 13; Stephan (2006), S. 7; Schuster/Rüdt von Collenberg (2015), S. 70.
35 Vgl. Groll (2004), S. 5; Stephan (2006), S. 7; Schuster/Rüdt von Collenberg (2015), S. 70.
36 Vgl. u. a. Staehle (1969), S. 52; Kem (1971), S. 702; Stephan (2006), S. 8-9.
37 Vgl. Staehle (1969), S. 52; Stephan (2006), S. 9.
38 Vgl. Staehle (1969), S. 56, Stephan (2006), 16-17. Beispiele für nicht-finanzielle Kennzahlen in Geschäftsberichten sind z. B. das Mitarbeiterwachstum, die Fluktuationsquote oder Kennzahlen zum Umweltbewusst- sein, wie beispielsweise der CO2-Verbrauch.
39 Ähnlich Schuster/Rüdt von Collenberg (2015), S. 99,103.
40 Ähnlich Schuster/Rüdt von Collenberg (2015), S. 100-101, 103.
41 Vgl. Cao/Parry (2009), S. 32; Etemadi/Ahmadpour/Moshashaei (2014), S. 55; Ding et al. (2020), S. 1099.
42 Vgl. Shmueli (2010), S. 291; Bertomeu (2020), S. 1136; Azevedo/Bielstein/Gerhart (2021), S. 549-550.
43 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43; Kühnapfel (2015), S. 142.
44 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43.
45 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42; Wacker/Lummus (2002), S. 1015-1016. Auch die ML- Verfahren zählen zu den quantitativen Methoden.
46 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43.
47 Bei den naiven Verfahren wird der letzte beobachtete Wert der Kennzahl mit einem Faktor (prozentualer Auf- oder Abschlag) erweitert. Das Ergebnis stellt den Prognosewert fur die kommende Periode dar. Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43.
48 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43. Für eine weitere Erläuterung der Verfahren wird verwiesen auf Makridakis/Reschke/Wheelwright (1980), S. 115-159; Kühnapfel (2015), S. 166-216.
49 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43; Kühnapfel (2015), S. 143.
50 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42.
51 Vgl. Bertomeu (2020), S. 1136.
52 Vgl. Franses/Legerstee (2010), S. 331; Kühnapfel (2015), S. 137-138.
53 Vgl. Kauko/Palmroos (2014), S. 313; Kühnapfel (2015), S. 258.
54 Vgl. Kauko/Palmroos (2014), S. 313; Kühnapfel (2015), S. 261. Für eine weitere Erläuterung der Delphi- Methode wird auf Rowe/Wright (1999), S. 353-375; Kauko/Palmroos (2014), S. 313-327; Kühnapfel (2015), S. 258-262 verwiesen.
55 Vgl. u. a. Makridakis/Reschke/Wheelwright (1980), S. 207; Kühnapfel (2015), S. 139; Pavlyshenko (2019), S. 15; Bertomeu (2020), S. 1137; Ding et al. (2020), S. 1128.
56 Wie beispielsweise die eigene Gewinnmaximierung. Vgl. Bergstresser/Philippon (2006), S. 527-528.
57 Vgl. u. a. Bergstresser/Philippon (2006), S. 527-528; Kühnapfel (2015), S. 249-252; Ding et al. (2020), S. 1098; Bertomeu (2020), S. 1137.
58 Vgl. McNichols (2002), S. 61-62.
59 Vgl. u. a. Bertomeu (2020), S. 1137.
60 Vgl. SEC (2002), https://www.sec.gov/rules/proposed/33-8098.htm; FASB (2010), S. 14; PCAOB (2022), AS 2501.02. Zustimmend Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099.
61 Vgl. Ding et al. (2020), S. 1099.
62 Vgl. Zhang/Cao/Schniederjans (2004), S. 205-206; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Ding et al. (2020), S. 1099, 1128.
63 Vgl. Levine (1960), S. 351-352; Copeland/Marioni (1972), S. 497-512; Kodde/Schreuder (1984), S. 381-395; Bajaj et al. (2020), S. 3619-3625.
64 Vgl. u. a. Cao/Parry (2009), S. 32-41; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-63.
65 Für eine vollständige Übersicht der Anzahl der Beobachtungen je Kennzahl wird verwiesen auf Abbildung 13 im Anhang auf S. 83.
66 Für die rollierende Validierung sind größere Datenmengen von Vorteil. Vgl. Poddig/Varmaz/Fieberg (2019), S. 353; Bertomeu (2020), S. 1145-1146.
67 Vgl. Schuster/Rüdt von Collenberg (2015), S. 3.
68 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.
69 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.
70 Zustimmend Acito/Folsom/Zhao (2021), S. 278-279.
71 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Schuster/Rüdt von Collenberg (2015), S. 96; Na- gendra/Kumar/Venoor (2018), S. 188, 191.
72 Vgl. Schuster/Rüdt von Collenberg (2015), S. 96.
73 Vgl. Schuster/Rüdt von Collenberg (2015), S. 96; Nagendra/Kumar/Venoor (2018), S. 191.
74 Vgl. Beaver et al. (1989), S. 172-175; Zhang/Cao/Schniederjans (2004), S. 205-206; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56, Chen et al. (2022), S. 468.
75 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.
76 Zustimmend Acito/Folsom/Zhao (2021), S. 278-279.
77 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.
78 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.
79 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.
80 Vgl. Emst (2005), S. 215.
81 Vgl. Schuster/Rüdt von Collenberg (2015), S. 77, 80.
82 Langfristig bedeutet länger als ein Jahr. Vgl. u. a. Schuster/Rüdt von Collenberg (2015), S. 77.
83 Vgl. Schuster/Rüdt von Collenberg (2015), S. 80.
84 Vgl. Schuster/Rüdt von Collenberg (2015), S. TI.
85 Vgl. Schuster/Rüdt von Collenberg (2015), S. 79-80.
86 Vgl. Bradshaw et al. (2012), S. 945. Zustimmend Hunt/Myers/Myers (2022), S. 133. Der Jahresabschluss ist Teil des Geschäftsberichts.
87 Vgl. Ball/Brown (1968), S. 159-178; Beaver (1968), S. 67-92.
88 Vgl. Copeland/Marioni (1972), S. 497-512. Ähnlich Kodde/Schreuder (1984), S. 381-395.
89 Vgl. Copeland/Marioni (1972), S. 506-508. Sie nutzen sowohl naive Verfahren als auch Trendextrapolationen als Zeitreihenverfahren.
90 Vgl. Copeland/Marioni (1972), S. 506-508; Ruland (1978), S. 439,444. Kritisch Green/Segall (1967), S. 54.
91 Vgl. Petroni/Beasley (1996), S. 152; Gaver/Paterson (2004), S. 396-398; Grace/Leverty (2012), S. 357-359; Bertomeu (2020), S. 1137.
92 Vgl. Petroni (1992), S. 503-503; Warfield/Wild/Wild (1995), S. 85; Christensen/Hoyt/Paterson (1999), S. 828; Bergstresser/Philippon (2006), S. 524. Zustimmend Ding et al. (2020), S. 1123.
93 Vgl. Bergstresser/Philippon (2006), S. 511-512. Für weitere mögliche Anreize wird verwiesen auf De- chow/Skinner (2000), S. 235-250.
94 Vgl. Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099, 1123.
95 Vgl. McNichols (2002), S. 61-62; Legerstee/Franses (2014), S. 78.
96 Die statistischen Programme verwenden Zeitreihenanalysen basierend auf der Box-Jenkins-Methode und dem Holt-Winters-Verfahren. Vgl. Franses/Legerstee (2010), S. 334.
97 Vgl. Franses/Legerstee (2010), S. 334.
98 Vgl. Franses/Legerstee (2010), S. 337-339. Zustimmend Fildes/Goodwin (2007), S. 10.
99 Vgl. u. a. Fischer/Verrecchia (2000), S. 229-245; Selling/Nordlund (2015), S. 501-508.
100 Zustimmend Ding et al. (2020), S. 1099; Sellhorn (2020), S. 85. Vgl. fur Beispiele von ML-Prognosen Bajaj et al. (2020), S. 3619-3625; Chen et al. (2022), S. 467-515; Zhang/Cao/Schniederjans (2004), S. 205-236.
101 GBT sind eine andere Weiterentwicklung von DT neben dem RF. GBT benutzen statt des Baggings das Boosting. Für eine weitere Erläuterung des Boostings wird verwiesen auf Freund (1995), S. 256-285 und Freund/Schapire (1997), S. 119-139.
102 Vgl. Chen et al. (2022), S. 468-469.
103 Vgl. Chen et al. (2022), S. 468-469.
104 Sie erstellen sowohl ein univariates als auch ein multivariates NN. Das univariate enthält lediglich Vergangenheitswerte der EPS als Attribute. Vgl. Zhang/Cao/Schniederjans (2004), S. 216.
105 In Form einer einfachen LR. Vgl. Zhang/Cao/Schniedeijans (2004), S. 213-214.
106 Vgl. Zhang/Cao/Schniederjans (2004), S. 213-216.
107 Vgl. Zhang/Cao/Schniedeijans (2004), S. 206-207,214.
108 Vgl. Zhang/Cao/Schniedeijans (2004), S. 232. Zustimmend Cao/Parry (2009), S. 39-40. Kritisch Callen et al. (1996), S. 480-481 bei deren Untersuchung die Prognosegüte einer Zeitreihenanalyse die der NN übertrifft. Allerdings werden lediglich Vergangenheitswerte der EPS zur Prognose verwendet.
109 Vgl. Ding et al. (2020), S.1101,1116.
110 Vgl. Ding et al. (2020), S. 1100.
111 Sie untersuchen die folgenden fünf Versicherungen: private Kfz-Haftpflicht, gewerbliche Kfz-Haftpflicht, Berufsunfahigkeitsversicherung, Mehrgefahrenversicherung, Gebäudeversicherung.
112 Vgl. Ding et al. (2020), S. 1101-1105.
113 Vgl. Ding et al. (2020), S. 1110.
114 Vgl. Ding et al. (2020), S. 1109. Für eine Erläuterung der Gütemaße wird verwiesen auf den Anhang auf S. 88.
115 Vgl. Ding et al. (2020), S. 1116.
116 Vgl. Ding et al. (2020), S. 1116-1117.
117 Vgl. Ding et al. (2020), S. 1121-1128.
118 Vgl. Ding et al. (2020), S. 1128.
119 Vgl. Samuel (1959), S. 211; Lanquillon (2019), S. 90; Géron (2019), S. 4; MathWorks (2022a), S. 3.
120 Vgl. Mitchell (1997), S. 2; Zhou (2021), S. 1; MathWorks (2022a), S. 2-3.
121 Vgl. MathWorks (2022a), S. 4; Lanquillon (2019), S. 95-96. Im Rahmen weiterer Literatur werden neben den beiden genannten Grundformen auch Mischformen, wie das halbüberwachte und das bestärkende Lernen aufgezählt. Für eine Erläuterung dieser wird verwiesen auf Lanquillon (2019), S. 97-99.
122 Vgl. Bittencourt/Clarke (2003), S. 3751; Bankhofer/Vogel (2008), S. 257; Hastie/Tibshirani/Fried- man (2017), S. 2; Lanquillon (2019), S. 96.
123 Vgl. MathWorks (2022a), S. 6; Lanquillon (2019), S. 97.
124 Vgl. Choo et al. (2020), S. 13; MathWorks (2022a), S. 6.
125 Vgl. Lanquillon (2019), S. 96; Zhou (2021), S. 26.
126 Vgl. Géron (2019), S. 10; Lanquillon (2019), S. 126-128.
127 Vgl. Hastie/Tibshirani/Friedman (2017), S. 29; Richter (2019), S. 3; Choo et al. (2020), S. 14.
128 Vgl. Choo et al. (2020), S. 15; Ding et al. (2020), S. 1109; Zhou (2021), S. 59. Für eine Erläuterung der Gütemaße wird verwiesen auf den Anhang, S. 88.
129 Vgl. Zhou (2021), S. 58.
130 Vgl. James et al. (2013), S. 203; Richter (2019), S. 26; Lanquillon (2019), S. 126.
131 Vgl. James et al. (2013), S. 203; Hastie/Tibshirani/Friedman (2017), S. 11; Richter (2019), S. 26; Choo et al. (2020), S. 14.
132 Vgl. Hastie/Tibshirani/Friedman (2017), S. 12.
133 Vgl. Hastie/Tibshirani/Friedman (2017), S. 11; Richter (2019), S. 26.
134 Vgl. Richter (2019), S. 26; Choo et al. (2020), S. 14.
135 Vgl. Choo et al. (2020), S. 15.
136 Vgl. Richter (2019), S. 28-29,41-42.
137 Vgl. James et al. (2013), S. 204; Hastie/Tibshirani/Friedman (2017), S. 57; Zhou (2021), S. 271.
138 Vgl. Hastie/Tibshirani/Friedman (2017), S. 61; Richter (2019), S. 28-29, 41-42; Molnar (2022), S. 49.
139 Vgl. James et al. (2013), S. 204, 215; Richter (2019), S. 41.
140 Vgl. Hastie/Tibshirani/Friedman (2017), S. 63; Choo et al. (2020), S. 19; Zhou (2021), S. 272.
141 Vgl. James et al. (2013), S. 215; Hastie/Tibshirani/Friedman (2017), S. 61-62.
142 Vgl. Hastie/Tibshirani/Friedman (2017), S. 68.
143 Vgl. Richter (2019), S. 52; Choo et al. (2020), S. 22.
144 Vgl. James et al. (2013), S. 215; Choo et al. (2020), S. 19.
145 Vgl. Richter (2019), S. 52; Géron (2019), S. 140; Choo et al. (2020), S. 22; Molnar (2022), S. 49-50.
146 Vgl. James et al. (2013), S. 215; Choo et al. (2020), S. 22.
147 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/interpret-classification-and-regression-mo- dels.html; Molnar (2022), S. 49-50.
148 Vgl. Molnar (2022), S. S. 49-50.
149 Vgl. Bankhofer/Vogel (2008), S. 273; Russel/Norvig (2012), S. 824; James et al. (2013), S. 303.
150 Vgl. Breiman et al. (1984), S. 21-22; James et al. (2013), S. 306; Richter (2019), S. 164.
151 Dieses Vorgehen wird auch als Greedy-Algorithmus bezeichnet. Zur weiteren Erläuterung des Greedy-Al- gorithmus wird verwiesen auf Hastie/Tibshirani/Friedman (2017), S. 292, 307, Richter (2019), S. 174-175.
152 Vgl. Breiman et al. (1984), S. 20-24; Quinlan (1986), S. 83; Kotsiantis (2013), S. 262; Knuth (2021), S. 365; Zhou (2021), S. 81.
153 Vgl. Breiman et al. (1984), S. 24, 32-33.
154 Vgl. Breiman et al. (1984), S. 22; Quinlan (1986), S. 86; Zhou (2021), S. 80.
155 Vgl. Breiman et al. (1984), S. 23; James et al. (2013), S. 305, Zhou (2021), S. 80.
156 Vgl. Breiman et al. (1984), S. 22; Quinlan (1993), S. 5; Bankhofer/Vogel (2008), S. 273.
157 Vgl. Breiman et al. (1984); James et al. (2013), S. 304-311.
158 Vgl. Breiman (1996), S. 123; Breiman (2001), S. 5, 25, Zhou (2021), S. 190.
159 Vgl. Breiman (2001), S. 5, 11; Richter (2019), S. 218-219.
160 Vgl. Breiman (2001), S. 11; Hastie/Tibshirani/Friedman (2017), S. 588.
161 Vgl. Breiman (2001), S. 11; Hastie/Tibshirani/Friedman (2017), S. 588.
162 Vgl. Breiman (1996), S. 123; Breiman (2001), S. 25-26; Richter (2019), S. 186, 188; Géron (2019), S. 195.
163 Vgl. Breiman (1996), S. 123; Bauer/Kohavi (1999), S. 108-109; Breiman (2001), S. 5.
164 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-588; Zhou (2021), S. 190-191.
165 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-589.
166 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-589, 596.
167 Vgl. James et al. (2013), S. 19; Zhou (2021), S. 51.
168 Vgl. Breiman et al. (1984), S. 60-62; Kotsiantis (2013), S. 266; Rokach/Maimon (2015), S. 57-58; Lanquil- lon (2019), S. 96, Richter (2019), S. 12, Zhou (2021), S. 4.
169 Vgl. Rokach/Maimon (2015), S. 57; Zhou (2021), S. 26.
170 Vgl. Zhou (2021), S. 51.
171 Vgl. Quinlan (1993), S. 35; Kotsiantis (2013), S. 266; Cleve/Lämmel (2014), S. 108-109; Rokach/Maimon (2015), S. 58.
172 Vgl. Breiman et al. (1984), S. 63-66; Kotsiantis (2013), S. 266; Rokach/Maimon (2015), S. 58.
173 Vgl. Han/Kamber/Pei (2012), S. 344; Kotsiantis (2013), S. 262; Cleve/Lämmel (2014), S. 108-109.
174 Vgl. Géron (2019), S. 184-185; MathWorks (2022b), https://de.mathworks.com/help/stats/fitctree.htmL
175 Für eine weitere Erläuterung von Underfitting wird verwiesen auf Rokach/Maimon (2015), S. 69; Lanquil- lon(2019), S. 118-120.
176 Vgl. James et al. (2013), S. 35-36; Richter (2019), S. 12.
177 Vgl. James et al. (2013), S. 34-35, Richter (2019), S. 12.
178 Vgl. James et al. (2013), S. 35-36, 307; Zhou (2021), S. 51.
179 Vgl. James et al. (2013), S. 358; Bertomeu (2020), S. 1146-1147.
180 Vgl. Breiman (2001), S. 23-24; Rogers/Gunn (2006), S. 175-176; Archer/Kimes (2008), S. 2259; Hastie/Tibshirani/Friedman (2017), S. 592-593; Géron (2019), S. 200; Mathworks (2022b), https://de.mathworks.com/help/stats/interpret-classification-and-regression-models.html.
181 Vgl. Hastie/Tibshirani/Friedman (2017), S. 593; Géron (2019), S. 195: MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermutedpredictorimportance.html.
182 Vgl. Breiman (2001), S. 23; Hastie/Tibshirani/Friedman (2017), S. 593; MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermutedpredictorimportance.html.
183 Vgl. Breiman (2001), S. 24.
184 Vgl. Breiman (2001), S. 23.
185 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermuted- predictorimportance.html.
186 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermuted- predictorimportance.html.
187 Vgl. Kohonen (1988), S. 4; Géron (2019), S. 277; Richter (2019), S. 221; Choo et al. (2020), S. 25.
188 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Géron (2019), S. 277; Richter (2019), S. 221.
189 Vgl. Goodfellow/Bengio/Courville (2016), S. 164; Hastie/Tibshirani/Friedman (2017), S. 389; Choo et al. (2020), S. 26; Ranjan (2020), S. 40.
190 Vgl. Andrews/Diederich (1995), S. 373-374; Bologna (2004), S. 325-326; Géron (2019), S. 181.
191 Vgl. Géron (2019), S. 286; Choo et al. (2020), S. 25.
192 Vgl. Géron (2019), S. 321; Ranjan (2020), S. 39; Zhou (2021), S. 119.
193 Wie bei Ding et al. (2020), S. 1104. Für eine Ausführung der weiteren Formen wird verwiesen auf Ranjan (2020), S. 205-214; Choo et al. (2020), S. 38-45; Zhou (2021), S. 115-121 und Kubat (2021), S. 403-404.
194 Vgl. Géron (2019), S. 286; Choo et al. (2020), S. 25; Kubat (2021), S. 119.
195 Vgl. Choo et al. (2020), S. 25; Kubat (2021), S. 119.
196 Vgl. Choo et al. (2020), S. 28-29; Zhou (2021), S. 107.
197 Vgl. Goodfellow/Bengio/Courville (2016), S. 165; Choo et al. (2020), S. 28-29; Zhou (2021), S. 107.
198 Vgl. Hastie/Tibshirani/Friedman (2017), S. 393; Choo et al. (2020), S. 29.
199 Vgl. Goodfellow/Bengio/Courville (2016), S. 164; Lanquillon (2019), S. 128; Géron (2019), S. 286; Choo et al. (2020), S. 30.
200 Vgl. Choo et al. (2020), S. 30; Ranjan (2020), S. 45-46; Kubat (2021), S. 123.
201 Vgl. Kohonen (1988), S. 9; Richter (2019), S. 226; Choo et al. (2020), S. 26; Kubat (2021), S. 117-119.
202 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Lanquillon (2019), S. 128; Zhou (2021), S. 104.
203 Vgl. Géron (2019), S. 282; Choo et al. (2020), S. 26; Kubat (2021), S. 117.
204 Vgl. Richter (2019), S. 227; Ranjan (2020), S. 40.
205 Vgl. Goodfellow/Bengio/Courville (2016), S. 165-166; Choo et al. (2020), S. 26; Ranjan (2020), S. 40, 76; Kubat (2021), S. 117-118.
206 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Richter (2019), S. 227; Choo et al. (2020), S. 27; Ranjan (2020), S. 45, 76.
207 Vgl. Choo et al. (2020), S. 27; MathWorks (2022b), https://de.mathworks.com/help/stats/fitr- net.html#mw_0d008c5f-4640-448a-8f2a-bcll59e863al.
208 Vgl. Ranjan (2020), S. 83; Choo et al. (2020), S. 27; Kubat (2021), S. 117.
209 Vgl. Ranjan (2020), S. 83; Choo et al. (2020), S. 27; Kubat (2021), S. 117.
210 Vgl. Choo et al. (2020), S. 27.
211 Vgl. Hastie/Tibshirani/Friedman (2017), S. 394; Choo et al. (2020), S. 27.
212 Vgl. Hastie/Tibshirani/Friedman (2017), S. 394; Choo et al. (2020), S. 27.
213 Dieser Algorithmus wurde erstmals von Werbos im Jahr 1982 auf NN übertragen und wird seitdem angewandt. Für eine weitere Erläuterung wird verwiesen auf Werbos (1982), S. 762-765; Goodfellow/Ben- gio/Courville (2016), S. 172-175; Choo et al. (2020), S. 30-34.
214 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Lanquillon (2019), S. 128; Géron (2019), S. 282; Choo et al. (2020), S. 30; Kubat (2021), S. 123.
215 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Lanquillon (2019), S. 128; Choo et al. (2020), S. 30-31; Kubat (2021), S. 122.
216 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395-396; Choo et al. (2020), S. 31-32.
217 Im Minimum der Verlustfunktion nimmt der Gradient den Wert null an. Vgl. Goodfellow/Bengio/Cour- ville (2016), S. 172-173; Richter (2019), S. 230; Choo et al. (2020), S. 31-32.
218 Vgl. Richter (2019), S. 231; Choo et al. (2020), S. 32.
219 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Richter (2019), S. 231.
220 Vgl. Richter (2019), S. 231; Choo et al. (2020), S. 32.
221 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395, 398; Choo et al. (2020), S. 36.
222Vgl. Choo et al. (2020), S. 37-38.
223Vgl. Choo et al. (2020), S. 37-38.
224Vgl. Choo et al. (2020), S. 37-38.
225Ähnlich Ding et al. (2020), S. 1106.
226Für die Datenexploration des Compustat-Datensatzes wird verwiesen auf Kapitel 3.1.2 auf S. 26-28.
227Vgl. Refmitiv (2022), https://www.refmitiv.eom/en/fmancial-data/company-data/ibes-estimates#how.
228 Vgl. Thomson Reuters (2009), S. 8.
229 Die Schätzungen für die Jahre ab 2022 sind für die vorliegende Untersuchung nicht von Interesse, da sie nicht mit dem tatsächlich eingetretenen (wahren) Wert verglichen werden können. Eine Selektion erfolgt im späteren Verlauf.
230 Vgl. Thomson Reuters (2009), S. 4.
231 Für eine Erläuterung möglicher Prognoseverfahren wird verwiesen auf Kapitel 2.1 auf S. 5-7.
232 Je nachdem, in welcher Form sie von dem Unternehmen veröffentlicht werden.
233 Vgl. Thomson Reuters (2009), S. 4. Dieser Mittelwert wird im weiteren Verlauf allerdings nicht betrachtet, da die Managementschätzungen im Fokus stehen.
234 In der vorliegenden Arbeit wird wie bei Chen et al. (2022) ein digitaler Anhang verwendet, um die Druckversion kürzer zu halten.
235 Vgl. Acito/Folsom/Zhao (2021), S. 279. Hierzu wird verwiesen auf Kapitel 2.1 auf S. 8-10 verwiesen.
236 Wie auch bei Ding et al. (2020), S. 1105; Chen et al. (2022), S. 468.
237 Für die rollierende Validierung sind größere Datenmengen von Vorteil. Vgl. Poddig/Vannaz/Fieberg (2019), S. 353; Bertomeu (2020), S. 1145-1146.
238 Vgl. Refmitiv (2022), https://www.refmitiv.com/en/financial-data/company-data/fundanientals-data/stan- dardized-fundamentals/sp-compustat-database.
239 Vgl. The McGraw-Hill Companies (2003), S. 1.
240 Vgl. Callen et al. (1996), S. 477; Zhang/Cao/Schniederjans (2004), S. 216.
241 Vgl. Zhang/Cao/Schniederjans (2004), S. 206-207; Azevedo/Bielstein/Gerhart (2021), S. 554; Van Binsber- gen/Han/Lopez-Lira (2021), S. 13-14; Chen et al. (2022), S. 510. Für die Analyse fundamentaler Einflussfaktoren wird verwiesen auf Penman (1992), S. 465-483; Lev/Thiagarajan (1993), S. 200-202; Abarba- nell/Bushee (1997), S. 4-7.
242 Beispielsweise für den Aufbau der rollierenden Validierung, die in dieser Arbeit angewandt wird. Hierfür wird verwiesen auf Kapitel 4.1 auf S. 35-37.
243 Die Verteilung der Zielvariablen wird aufgrund weiterer Anpassung des Datensatzes in Kapitel 3.2.1 auf S. 30-31 analysiert. Zur weiteren Erläuterung von Boxplots und deren Anwendung wird verwiesen auf Pod- dig/Varmaz/Fieberg (2019), S. 61-62; Rao/McMahan (2019), S. 69-70.
244 Der Umgang mit Ausreißern wird im Rahmen der Datenaufbereitung und Modellerstellung in Kapitel 3.2.2 auf S. 32 erläutert.
245 In der Tabelle 12 auf S. 85 sind die Korrelationskoeffizienten über 0,9 hellrot gekennzeichnet.
246 Der Umgang mit diesen Korrelationen in der vorliegenden Untersuchung wird im Kapitel 3.2.2 auf S. 32 erläutert.
247 Eine weitere Möglichkeit einen höheren Umsatz zu erzielen ohne Produktionsanstieg wäre eine Preissteigerung.
248 Ähnlich Ding et al. (2020), S. 1106.
249 Vgl. Thomson Reuters (2009), S. 7.
250 Den GVKEY nutzt IBES nicht. Vgl. Thomson Reuters (2009), S. 7.
251 Vgl. Stanford Business Graduate School (2022), https://libguides.stan- ford.edu/c.php?g=559845&p=6686228.
252 Der Wert entspricht in Matlab somit Not a Number (NaN).
253 Vgl. Rao/McMahan (2019), S. 69-70. Für die Boxplots wird verwiesen auf den digitalen Anhang auf S. 2-4.
254 Hierzu wird verwiesen auf Abbildung 5 im digitalen Anhang auf S. 4.
255 Vgl. Ding et al. (2020), S. 1110. Der Umsatz, die DPS und die CAPX können beispielsweise keine negativen Werte annehmen. Für eine Erläuterung wird verwiesen auf Kapitel 2.1 auf S. 8-10.
256 Wie bei Ding et al. (2020), S. 1106; Chen et al. (2022), S. 479.
257 Für die Attribute der ML-Prognose wird verwiesen auf Tabelle 11 im Anhang auf S. 84.
258 Für die Boxplots der einzelnen Kennzahldatensätze wird verwiesen auf den digitalen Anhang auf S. 5-8.
259 Hierfür wird verwiesen auf Abbildung 5 in Kapitel 3.1.2 auf S. 27.
260 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 57; Hunt/Myers/Myers (2022), S. 137.
261 Hierfür wird verwiesen auf die Boxplots der Attribute je Kennzahldatensatz im digitalen Anhang auf S. 5-8.
262 Wie bei Azevedo/Bielstein/Gerhart (2021), S. 550; Hunt/Myers/Myers (2022), S. 137. Vgl. MathWorks (2022b), https://de.mathworks.com/help/matlab/ref7filloutliers.html.
263 Für die Anzahl der Beobachtungen, die NaNs enthalten, je Datensatz wird verwiesen auf Tabelle 13 auf S. 86. Die Differenz der Anzahl an Beobachtungen der Datensätze mit und ohne NaN je Kennzahl stellt die Anzahl der Beobachtungen mit NaNs dar.
264 Die Zielvariablen enthalten aufgrund der bereits vorgenommenen Aufbereitung des Datensatzes für die Managementschätzungen keine NaNs mehr.
265 Wie auch bei Ding et al. (2020), S. 1110.
266 Vgl. Rao/McMahan (2019), S. 78-79; Chen et al. (2022), S. 482.
267 Vgl. Hunt/Myers/Myers (2022), S. 137.
268 Für eine Erläuterung des Vorgehens der Surrogate Splits wird verwiesen auf Breiman et al. (1984), S. 130, 140-143; Hastie/Tibshirani/Friedman (2017), S. 311.
269 Für den Boxplot des Ausgangsdatensatz wird verwiesen auf Abbildung 5 auf S. 27.
270 Vgl. Poddig/Varmaz/Fieberg (2019), S. 333.
271 Für eine weitere Ausführung von möglichen Variabienselektionsalgorithmen wird verwiesen auf Poddig/Varmaz/Fieberg (2019), S. 342-344.
272 Für eine weitere Erläuterung wird verwiesen auf Kapitel 2.3.2 auf S. 16-17.
273 Vgl. Chen et al. (2022), S. 510. Zustimmend Hunt/Myers/Myers (2022), S. 137.
274 Wie bei Hunt/Myers/Myers (2022), S. 148.
275 Für eine Übersicht der Kennzahlen nach Skalierung wird verwiesen auf Tabelle 14 im Anhang auf S. 87.
276 Vgl. Chen et al. (2022), S. 483. Ähnlich Barboza/Kimura/Altman (2017), S. 410.
277 Dies dient insbesondere zur Bestimmung der optimalen Hyperparameter. Die Prognosegüte wird letztendlich an der Out-of-Sample-Menge ermittelt. Vgl. Kuhlmann (2007), S. 408; Chen et al. (2022), S. 489.
278 Zustimmend Pavlyshenko (2019), S. 15; Chen et al. (2022), S. 489.
279 Wie beispielsweise bei Ding et al. (2020), S. 1104-1105. Für eine Erläuterung wird verwiesen auf Ding et al. (2020), S. 1104-1105.
280 Vgl. Pavlyshenko (2019), S. 23; Bertomeu (2020), S. 1145; Chen et al. (2022), S. 489-490.
281 Zustimmend Bao et al. (2019), S. 215; Bertomeu (2020), S. 1145; Chen et al. (2022), S. 489-490.
282 Vgl. Bao et al. (2020), S. 215; Bertomeu (2020), S. 1145.
283 Wie auch bei Van Binsbergen/Han/Lopez-Lira (2021), S. 8-9; Chen et al. (2022), S. 489-490. Für eine Er-
klärung der rollierenden Validierung wird verwiesen auf Poddig/Varmaz/Fieberg (2019), S. 350-353.
284 Vgl. Poddig/Varmaz/Fieberg (2019), S. 351-353.
285 Ein weiteres Beispiel stellt die Corona-Pandemie dar, die aktuell zwar große Auswirkungen auf die Kenn-
zahlen der Unternehmen besitzt, aber beispielsweise in 2035 nur noch geringen Einfluss auf diese hat.
286 Wie auch bei Zhang/Cao/Schniederjans (2004), S. 216-217; Chen et al. (2022), S. 489-490.
287 Vgl. Chen et al. (2022), S. 490.
288 Dadurch besitzen die Datensätze ein Attribut weniger.
289 Ähnlich Cheriyan et al. (2018), S. 57; Ding et al. (2020), S. 1116.
290 Ähnlich Azevedo/Bielstein/Gerhart (2021), S. 550.
291 Vgl. Poddig/Varmaz/Fieberg (2019), S. 353.
- Arbeit zitieren
- Anonym (Autor:in), 2022, Die Prognosefähigkeit von Machine Learning-Verfahren und Managementschätzungen im Rahmen von finanziellen Unternehmenskennzahlen. Ein Vergleich, München, GRIN Verlag, https://www.grin.com/document/1368399