Grin logo
en de es fr
Shop
GRIN Website
Texte veröffentlichen, Rundum-Service genießen
Zur Shop-Startseite › BWL - Controlling

Die Prognosefähigkeit von Machine Learning-Verfahren und Managementschätzungen im Rahmen von finanziellen Unternehmenskennzahlen. Ein Vergleich

Titel: Die Prognosefähigkeit von Machine Learning-Verfahren und Managementschätzungen im Rahmen von finanziellen Unternehmenskennzahlen. Ein Vergleich

Masterarbeit , 2022 , 137 Seiten , Note: 1,3

Autor:in: Anonym (Autor:in)

BWL - Controlling
Leseprobe & Details   Blick ins Buch
Zusammenfassung Leseprobe Details

Der Einsatz von Machine Learning (ML) gewinnt seit Jahren an Bedeutung. Auch im Financial Accounting & Auditing bietet ML vielfache Einsatzmöglichkeiten, wie z. B. die Vorhersage von Insolvenzen oder das Aufdecken von Bilanzbetrug. Ein bislang recht unerforschter, derzeit aber mehr in den Fokus rückender Anwendungsbereich im Financial Accounting, ist die Prognose von finanziellen Kennzahlen und ihrer zukünftigen Entwicklung.

Grundsätzlich basiert eine Vielzahl der finanziellen Kennzahlen in der Berichterstattung auf Schätzungen, die durch das Management erfolgen. Vorangegangene Untersuchungen stellen allerdings signifikante Abweichungen zwischen Managementschätzung und dem tatsächlich eingetretenen Wert fest. Aus diesem Grund stehen derartige Kennzahlprognosen im Fokus der vorliegenden Masterarbeit. Das Ziel der Arbeit ist, die Prognosefähigkeit von ML-Verfahren für die zukünftige Entwicklung von finanziellen Kennzahlen mit der von Managementschätzungen zu vergleichen. Über die Prognose hinaus werden die Ursachen für mögliche Unterschiede in der Prognosefähigkeit der Verfahren mithilfe von ML analysiert.

Die Umsetzung der ML-Prognosen erfolgt in Matlab. Es werden mit den ML-Verfahren Random Forest (RF) und Neuronale Netze (NN) die Prognosen der Kennzahlen für das jeweils nächste Jahr erstellt. Nach einem Vergleich der Prognosegüte der ML-Modelle untereinander erfolgt anschließend eine Gegenüberstellung dieser mit der Managementschätzung. Anknüpfend an diese Ergebnisse erfolgt eine Interpretation der unterschiedlichen Prognosefähigkeit der Verfahren. Hierzu wird zum einen untersucht, wie sich durch die Hinzunahme der Managementschätzung als Attribut in den Kennzahlprognosen der ML-Verfahren die Prognosefähigkeit dieser verändert. Ferner wird analysiert, welche Informationen für die einzelnen ML-Modelle in der Prognose der zukünftigen Kennzahlen relevant sind (Feature Importance) und ob das Management bei seinen Schätzungen die gleichen Informationen berücksichtigt. Durch dieses Vorgehen werden Ursachen der Unterschiede in der Prognosefähigkeit der Verfahren erörtert. Zum Abschluss der Arbeit erfolgt ein Fazit mit kritischer Würdigung der Ergebnisse sowie einem Ausblick über mögliche anknüpfende Forschungsfelder.

Leseprobe


Inhaltsverzeichnis

Abkürzungsverzeichnis

Tabellenverzeichnis

Abbildungsverzeichnis

1 Einleitung

2 Theoretischer Hintergrund
2.1 Finanzielle Kennzahlen und Kennzahlprognose
2.2 Literaturüberblick
2.3 Ausgewählte Machine Learning-Verfahren
2.3.1 Einführung Machine Learning
2.3.2 Lineare Regression
2.3.3 Random Forest
2.3.4 Neuronale Netze

3 Daten
3.1 Datenexploration
3.1.1 Managementschätzung
3.1.2 Kennzahlprognose mit Machine Learning
3.2 Datenaufbereitung
3.2.1 Managementschätzung
3.2.2 Kennzahlprognose mit Machine Learning

4 Methodisches Vorgehen
4.1 Modellvalidierung
4.2 Modellerstellung
4.2.1 Managementschätzung
4.2.2 Kennzahlprognose mit Machine Learning
4.2.3 Analyse des Schätzfehlers

5 Modellergebnisse und Interpretation
5.1 Prognosefähigkeit der Managementschätzung
5.2 Prognosefahigkeit der Machine Leaming-Modelle
5.2.1 Lineare Regression
5.2.2 Lineare Regression mit Regularisierung
5.2.3 Random Forest
5.2.4 Neuronale Netze
5.3 Vergleich der Prognosefahigkeit
5.4 Analyse des Schätzfehlers

6 Schlussbetrachtung
6.1 Fazit
6.2 Kritische Würdigung und Ausblick

Literaturverzeichnis

Anhang

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

T abellenverzeichnis

Tabelle 1 : Vergleich der Schätzungen und wahren Werte je Kennzahl

Tabelle 2: Ergebnisse der Managementschätzung

Tabelle 3: Ergebnisse der Linearen Regression

Tabelle 4: Ergebnisse der Linearen Regression mit Regularisierung

Tabelle 5: Ergebnisse des Random Forests

Tabelle 6: Ergebnisse des Neuronalen Netzes

Tabelle 7: Rangfolge der ML-Verfahren gemessen am MAE

Tabelle 8: Ergebnisse der Prognosefahigkeit von ML und Managementschätzung

Tabelle 9: Rangfolge der Prognosefahigkeit von ML und Managementschätzung

Tabelle 10: Gegenüberstellung der Fehlermaße mit und ohne Managementschätzung

Tabelle 11 : Attribute für die Kennzahlprognose

Tabelle 12: Varianz-Kovarianz-Matrix der Attribute

Tabelle 13: Übersicht der unterschiedlichen Datensätze je Kennzahl

Tabelle 14: Attribute nach Skalierung

Tabelle 15: Ergebnisse der Prognosefahigkeit der ML-Verfahren

Tabelle 16: Rangfolge der ML-Verfahren gemessen am RMSE

Tabelle 17: Vergleich des RMSE von ML und Managementschätzung

Abbildungsverzeichnis

Abbildung 1: Klassifikation unterschiedlicher Prognoseverfahren

Abbildung 2: Klassifikation von Machine Learning-Verfahren

Abbildung 3: Problem des Overfittings am Beispiel des DT

Abbildung 4: Aufbau eines einfachen Feed-Forward-NN

Abbildung 5: Boxplot der Attribute vor Datenaufbereitung

Abbildung 6: Histogramm der jährlichen Schätzungen in USD je Kennzahl

Abbildung 7: Boxplot der Attribute nach Datenaufbereitung

Abbildung 8: Vorgehen der rollierenden Validierung

Abbildung 9: Feature Importance des Umsatzes durch RF und NN

Abbildung 10: Feature Importance der DPS durch NN

Abbildung 11 : Feature Importance der Managementschätzung der CAPX

Abbildung 12: Feature Importance des ML-Modells der CAPX mit Managementschätzung

Abbildung 13: Histogramm der Schätzungen je Kennzahl (IBES gesamt)

1 Einleitung

Der Einsatz von Machine Learning (ML) gewinnt seit Jahren an Bedeutung. In vielen Bereichen wird die Technologie bereits angewandt, um die immer größer werdenden Datenmengen zu verarbeiten, die vom Menschen selbst nicht auswertbar sind.1 Dies ist auf die Vielzahl der Da­ten, aber auch auf die Diversität und Schnelllebigkeit hinsichtlich Entstehung und Verfügbar­keit dieser (Big Data)2 zurückzuführen. Auch im Financial Accounting & Auditing bietet ML vielfache Einsatzmöglichkeiten, wie z. B. die Vorhersage von Insolvenzen oder das Aufdecken von Bilanzbetrug.3 Ein bislang recht unerforschter, derzeit aber mehr in den Fokus rückender Anwendungsbereich im Financial Accounting ist die Prognose von finanziellen Kennzahlen und ihrer zukünftigen Entwicklung.4 Jene werden im Rahmen der Untemehmensberichterstat- tung, z. B. in Geschäftsberichten, auf der Website oder auf Veranstaltungen des Unternehmens an dessen Stakeholder veröffentlicht.5

Grundsätzlich basiert eine Vielzahl der finanziellen Kennzahlen in der Berichterstattung auf Schätzungen, die durch das Management erfolgen, wie z. B. Rückstellungen oder die Abschrei­bung von Anlagevermögen im Rahmen der International Financial Reporting Standards (IFRS).6 Allerdings ist die Qualität derartiger Schätzungen umstritten.7 Untersuchungen, wie z. B. von Petroni/Beasley (1996), stellen signifikante Abweichungen zwischen Management­schätzung und dem tatsächlich eingetretenen Wert fest.8 Einige Autoren führen diese Schätz­fehler auf das bewusste Verzerren der Schätzungen durch die Manager als Reaktion auf Anreize insbesondere finanzieller Art zurück.9 Andere wiederum sehen die Ursache in intuitiven Fehl­einschätzungen und mangelnder Qualifikation der Manager.10 Zudem stellt die Überprüfung der Managementschätzungen in Geschäftsberichten für Wirtschaftsprüfer eine Herausforde­rung dar.11 Es mangelt somit an Objektivität im Rahmen der Schätzungen und der Möglichkeit ihrer Überprüfbarkeit.12 Daher liegen in der Literatur eine Vielzahl von Untersuchungen zur

Prognosegüte von einfachen, regressionsbasierten Modellen vor, welche zur Vorhersage der Kennzahl die objektiv beobachtbaren Vergangenheitswerte jener verwenden. Diese Zeitrei­henanalysen (Time-Series-Models) besitzen laut Studien z. B. von Ruland(1978) allerdings eine schlechtere Prognosefähigkeit als Managementschätzungen.13 Es besteht somit ein Bedarf an Schätzmethoden, die unabhängige und gleichzeitig genaue Prognosen erzielen, den ML-Al- gorithmen aufgrund ihrer Erfolge in vorangegangen Prognoseuntersuchungen aus anderen Be­reichen des Financial Accounting & Auditing decken könnten.14

In wenigen neuen Untersuchungen werden die finanziellen Kennzahlen deshalb mittels ML15 prognostiziert und in einem weiteren Schritt mit Managementschätzungen verglichen.16 Ding et al. (2020) fuhren beispielsweise ein solches Untersuchungsmodell im Rahmen der Prognose von Rückstellungen für zukünftige Schäden in der Versicherungsbranche durch. Das Ergebnis ihrer Analyse zeigt, dass ML im Vergleich zu den Managern Prognosen mit einer höheren Ge­nauigkeit generiert.17 Ferner stellen sie heraus, dass durch die Hinzunahme der Management­schätzung als Attribut in der ML-Prognose eine weitere Verbesserung der Prognosefahigkeit der ML-Verfahren erzielt wird.18 Als Konsequenz sprechen sich die Autoren für die Anwen­dung von ML-Verfahren in Kombination mit Managementschätzungen für die Prognose von Kennzahlen aus.19

Neben Rückstellungen werden im Rahmen der Untemehmensberichterstattung vielfach Prog­nosen über die zukünftige Entwicklung von finanziellen Kennzahlen, wie z. B. dem Umsatz oder dem Gewinn, veröffentlicht.20 Durch die steigende Relevanz der Investor Relations und der Einführung der verpflichtenden Management's Discussion and Analysis (MD&A) börsen­notierter amerikanischer Unternehmen hat die Veröffentlichung solcher Prognosen stark zuge­nommen.21 Auch diese Vorhersagen basieren auf Managementschätzungen und bilden die Ba­sis für Untemehmensbewertungen und Allokationsentscheidungen von Investoren und weiteren Stakeholdem.22 Fehlerhafte Prognosen über die Entwicklung von Kennzahlen haben somit nicht nur Einfluss auf das Unternehmen selbst, sondern können weitreichende Folgen besitzen, weshalb ihre Genauigkeit von besonderer Bedeutung ist.23 Aus diesem Grund stehen derartige Kennzahlprognosen im Fokus der vorliegenden Masterarbeit. Das Ziel der Arbeit ist, die Prog­nosefähigkeit von ML-Verfahren für die zukünftige Entwicklung von finanziellen Kennzahlen mit der von Managementschätzungen zu vergleichen. Über die Prognose hinaus werden die Ursachen für mögliche Unterschiede in der Prognosefahigkeit der Verfahren mithilfe von ML analysiert.

Im Anschluss an die Einleitung erfolgt eine theoretische Einführung in finanzielle Kennzahlen und deren Prognose. Hierbei werden insbesondere ihre Funktionen erläutert und qualitative und quantitative Prognosemethoden voneinander abgegrenzt. Ferner werden die Kennzahlen, die im Rahmen dieser Arbeit prognostiziert werden und anhand derer die Prognosefähigkeit von ML und Management verglichen wird, vorgestellt und erläutert. Darauf aufbauend steht ein Literaturüberblick über bereits vorliegende Untersuchungen zu finanziellen Kennzahlen und deren Vorhersage mittels Managementschätzung und ML im Fokus. Eine Einführung in ML sowie eine Erläuterung der ML-Verfahren, die im Rahmen der Masterarbeit verwendet werden, schließen den theoretischen Teil ab. Die Arbeit setzt mit der Erläuterung der angewandten Da­tensätze und deren Aufbereitung für die Modellerstellung fort. Hierbei wird jeweils zuerst der zur Verfügung stehende Datensatz vom Institutional Brokers' Estimate System (IBES) bzw. die Managementschätzung und anschließend ein Compustat-Datensatz, der zur ML-Prognose der Kennzahlen angewandt wird, betrachtet. Daran anknüpfend wird eine Erläuterung des metho­dischen Vorgehens dieser Arbeit, bestehend aus Modellvalidierung und -erstellung vorgenom­men. Die Umsetzung der ML-Prognosen erfolgt in Matlab.

Es werden mit den ML-Verfahren Random Forest (RF) und Neuronale Netze (NN) die Prog­nosen der Kennzahlen für das jeweils nächste Jahr erstellt. Die Auswahl der ML-Verfahren basiert auf bereits vorliegenden Untersuchungen zu Kennzahlprognosen, in denen sich die ML- Verfahren als besonders erfolgreich erweisen.24 Ferner ist insbesondere der RF für die Analyse der Feature Importance geeignet, die für die Interpretation dieser Arbeit von besonderer Rele­vanz ist.25 Decision Trees (DT) sind zwar für eine darüber hinausgehende Interpretierbarkeit bekannt26, Ergebnisse bereits vorhandener Untersuchungen im Financial Accounting zeigen al­lerdings, dass sie grundsätzlich eine geringere Prognosegüte aufweisen als der RF.27 Aus die­sem Grund wird der DT in dieser Arbeit nicht betrachtet. Die lineare Regression (LR) dient als Benchmark-Verfahren in der vorliegenden Arbeit.28 Zudem wird sie in einem weiteren Modell um eine Regularisierung ergänzt, um eine interne Variabienselektion innerhalb der LR vorzu­nehmen.29

Aufbauend auf der methodischen Umsetzung stehen die Ergebnisse der Managementschätzung und der unterschiedlichen ML-Modelle einzeln im Fokus. Nach einem Vergleich der Progno­següte der ML-Modelle untereinander erfolgt anschließend eine Gegenüberstellung dieser mit der der Managementschätzung. Anknüpfend an diese Ergebnisse erfolgt eine Interpretation der unterschiedlichen Prognosefahigkeit der Verfahren.30 Hierzu wird zum einen untersucht, wie sich durch die Hinzunahme der Managementschätzung als Attribut in den Kennzahlprognosen der ML-Verfahren die Prognosefahigkeit dieser verändert.31 Ferner wird analysiert, welche In­formationen für die einzelnen ML-Modelle in der Prognose der zukünftigen Kennzahlen rele­vant sind (Feature Importance) und, ob das Management bei seinen Schätzungen die gleichen Informationen berücksichtigt.32 Durch dieses Vorgehen werden Ursachen der Unterschiede in der Prognosefahigkeit der Verfahren erörtert.33 Zum Abschluss der Arbeit erfolgt ein Fazit mit kritischer Würdigung der Ergebnisse sowie einem Ausblick über mögliche anknüpfende For­schungsfelder.

2 Theoretischer Hintergrund

2.1 Finanzielle Kennzahlen und Kennzahlprognose

Finanzielle Kennzahlen stellen quantitative Größen dar, die es ermöglichen, den Erfolg eines Unternehmens zu messen, zu bewerten und zu vergleichen.34 Sie aggregieren Sachverhalte und Zusammenhänge eines Unternehmens in vereinfachter Form (Lean Information)35 und können sowohl in absoluter als auch relativer Form dargestellt werden.36 Bei der relativen Variante wird eine Größe ins Verhältnis zu einer anderen gesetzt, wodurch Kennzahlen z. B. unterschied­licher Unternehmen besser vergleichbar sind.37 Grundsätzlich finden Kennzahlen in allen Be­reichen eines Unternehmens Anwendung und sind somit nicht zwingend finanzieller Art.38 Da sich die vorliegende Arbeit aber auf finanzielle Untemehmenskennzahlen im Bereich des Fi­nancial Accountings beschränkt, werden andere Kennzahlen und deren Zweck nicht weiter be­leuchtet. Die Veröffentlichung finanzieller Kennzahlen z. B. durch Geschäftsberichte bietet Stakeholdem eines Unternehmens die Möglichkeit zum internen als auch zum externen Ver­gleich. Im internen Kontext helfen Kennzahlen dabei, zu beurteilen, wie sich ein Unternehmen im Zeitverlauf entwickelt (Zeittrendanalyse).39 Im externen Zusammenhang dienen sie hinge­gen zum Vergleich ähnlicher Unternehmen (Wettbewerberanalyse).40 Darüber hinaus leiten Stakeholder aus den Angaben zur zukünftigen Entwicklung finanzieller Kennzahlen eines Un­ternehmens, wie z. B. zu dem Umsatz oder dem Gewinn, Erwartungen über die zukünftige Ertragslage und den Aktienkurs des Unternehmens ab und nutzen diese als Basis für eigene Investitionsentscheidungen.41

Bei der Kennzahlprognose bzw. -Schätzung handelt es sich um ein Regressionsproblem, bei dem die jeweilige Kennzahl die stetige Ziel variable y darstellt, deren Erwartungswert E in Ab­hängigkeit der unabhängigen Attribute x geschätzt bzw. prognostiziert wird:

[Abbildung in dieser Leseprobe nicht enthalten].42

Im Rahmen der Prognosetechniken von Kennzahlen wird, wie in Abbildung 1 dargestellt, in qualitative und quantitative Methoden unterschieden.43 Quantitative Methoden basieren auf be­reits vorhandenen Daten.44 Bekannte Techniken der quantitativen Methoden sind Zeitreihen- und Kausal verfahren.45 Bei den Zeitreihenverfahren werden zur Prognose der jeweiligen Kenn­zahl als Attribute ihre historischen Werte angewandt.46 Hierbei kommen unterschiedliche Me­thoden, wie z. B. die Fortführung des Verlaufs der historischen Werte (Trendextrapolation), naive Verfahren47 oder aber auch autoregressive Verfahren, wie das Box-Jenkins-Verfahren, zum Einsatz.48 Die Kausal verfahren berücksichtigen darüber hinaus weitere Faktoren in Form von einfacher oder multipler Regression, die den Wert einer Kennzahl beeinflussen können.49

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Klassifikation unterschiedlicher Prognoseverfahren

(Quelle: eigene Darstellung in Anlehnung an Makridakis/Reschke/Wheelwright (1980), S. 42-43)

Qualitative Methoden basieren hingegen auf subjektivem Empfinden.50 Zu den qualitativen Methoden zählt die Managementschätzung, bei der ein Manager m ein Set an ihm zur Verfü­gung stehenden Informationen xt verwendet, um einen Schätzer gm für eine Kennzahl y zu ermitteln:

gm(xr> = E(y£|xtm)·51

Die zur Verfügung stehenden bzw. genutzten Informationen können unterschiedlicher Art sein. Während einige Manager lediglich ihre Intuition verwenden, ziehen andere die Ergebnisse qua­litativer, statistischer Modelle heran und passen diese an.52 Eine besondere Ausprägung der Managementschätzung stellt das Delphi-Verfahren dar, bei dem mehrere Experten und mindes­tens ein Moderator teilnehmen. Die Methode umfasst ein mehrstufiges Beffagungsverfahren, bei dem Experten unabhängig voneinander in jeder Runde ihre Schätzungen inklusive Erläute­rung abgeben und danach in anonymisierter Form die Einschätzungen der anderen erhalten, um im Nachgang ihre eigene Schätzung erneut anpassen zu können.53 Die letztendlich getroffene Prognose bildet der Mittelwert aller Schätzungen der letzten Runde.54 Ein Vorteil der qualitati­ven Methoden ist, dass Manager im Gegensatz zu quantitativen Methoden Insider- und Fach­wissen besitzen und zudem auch auf neue Unternehmen angewandt werden können, für die noch keine oder nur wenige Vergangenheitswerte vorliegen.55 Ein häufig genannter Kritikpunkt von Managementschätzungen ist hingegen, dass diese nicht frei von subjektiven Einschätzun­gen und persönlichen Intuitionen und Absichten V56 des Managers sind, wodurch die Schätzun­gen sowohl bewusst als auch unbewusst verzerrt werden.57 Auch eine fehlende Expertise des Managers gehört zu den Ursachen, die zu unbewussten Fehlem in der Schätzung führen kön­nen.58 Die obenstehende Definition zur Managementschätzung ist dementsprechend folgender­maßen zu ergänzen:

Abbildung in dieser Leseprobe nicht enthalten59

Darüber hinaus weisen Aufsichtsbehörden und Standardsetzer, wie das Public Company Ac­counting Oversight Board (PCAOB), das Financial Accounting Standard Board (FASB) und die Securities and Exchange Commission (SEC) auf die Unsicherheit der Managementschät­zungen hin, da die angemessene Höhe derartiger Schätzungen im Vergleich zu faktischen Kennzahlen, wie z. B. dem Umsatz des vergangenen Geschäftsjahres, von Prüfungsinstanzen nur schwer überprüfbar seien.60 Objektive und genaue Schätzmethoden könnten somit auch Wirtschaftsprüfern und anderen Prüfungsinstanzen helfen, eine bessere Beurteilung der Ange­messenheit der Schätzungen in Geschäftsberichten vorzunehmen.61 Durch eine derart mögliche Kontrolle wäre auch die noch nicht erfolgende Überprüfung der Prognosen in der MD&A mög­lich, wodurch sich die Qualität der gesamten Untemehmensberichterstattung erhöhen und die Gefahr falscher Investitionsentscheidungen aufgrund von verzerrten Schätzungen minimieren würde.62

In der vorliegenden Masterarbeit steht aufgrund dessen die Prognose der zukünftigen Entwick­lung der finanziellen Kennzahlen Umsatz, Earnings per Share (EPS), Dividends per Share (DPS) und Capital Expenditures (CAPX) im Fokus, weshalb im Folgenden eine kurze Erläute­rung dieser Kennzahlen erfolgt. Die Auswahl der zu prognostizierenden Kennzahlen basiert auf einer Analyse der bereits vorhandenen Literatur zu Kennzahlprognosen. In einer Vielzahl der Untersuchungen sind die genannten Kennzahlen Analyseobjekt.63 Insbesondere die Prognose der Kennzahl EPS steht im Fokus der gängigen Literatur.64 Das Ergebnis der Literaturanalyse deckt sich ferner mit der Anzahl der vorliegenden Managementschätzungen aus dem zur Ver­fügung stehenden IBES-Datensatz. Die Kennzahlen Umsatz, EPS, DPS und CAPX gehören zu den fünf Kennzahlen mit den meisten vorliegenden Managementschätzungen.65 Auch diese Be­obachtung unterstreicht die Relevanz der ausgewählten Kennzahlen. Darüber hinaus erweist sich die Auswahl der Kennzahlen mit einer hohen Anzahl an Managementschätzungen auch für die Erstellung der ML-Modelle als vorteilhaft.66

Der Umsatz stellt die Leistung eines Unternehmens in Form der Verkaufserlöse dar und dient als absolute Größe zur Bewertung des Erfolgs eines Unternehmens. Er ergibt sich aus der Mul­tiplikation der Menge der verkauften Produkte bzw. Dienstleistungen nLeistung und dem jewei­ligen Netto-Verkaufspreis Pnett0 für einen gewissen Zeitraum:

Umsatz — O,i,eistung * ^netto-67

Einflussfaktoren des Umsatzes sind somit der Verkaufspreis und die abgesetzte Menge der Leistung. Der Umsatz ist allerdings unabhängig von den Aufwendungen eines Unternehmens.68 Folglich kann er lediglich positive Werte annehmen. Ist aber z. B. der Wert der Retouren in einem Zeitraum größer als der Wert der verkauften Leistungen, so kann der Umsatz in Ausnah­mefallen auch negativ sein. Umsatzprognosen spiegeln den Stakeholdem wieder, welche kurz­fristige Nachfrage und Verkaufszahlen ein Unternehmen erwartet.69 Prognosen zum Umsatz geben somit mehr Informationen preis als beispielsweise Prognosen zum EPS, da der EPS von mehr Faktoren als der Umsatz beeinflusst wird.70

Die relative Kennzahl EPS steht für den erwirtschafteten Gewinn je Aktie und stellt eine der zentralen Größen zur Beurteilung der Ertragskraft eines Unternehmens dar.71 Im Vergleich mit dem aktuellen Aktienkurs lässt die Kennzahl EPS eine erste Analyse zu, ob eine Aktie Über­oder unterbewertet ist.72 Sie berücksichtigt dabei sowohl den Nettogewinn G eines Unterneh­mens als auch die Anzahl der sich im Umlauf befindlichen Aktien nAktien und existiert somit lediglich bei börsennotierten Unternehmen:

Abbildung in dieser Leseprobe nicht enthalten73

Bei einem negativen Jahresüberschuss (Verlust) sind somit auch die EPS negativ. Nach Ein­schätzung der gängigen Literatur stellen die EPS und ihre Prognose für zukünftige Perioden die wichtigste Größe für Investoren im Rahmen von Vermögensallokationsentscheidungen dar.74 Durch die alleinige Veröffentlichung von EPS-Prognosen ist aber nicht erkennbar, ob der Wert der EPS auf Veränderungen der Erlöse oder der Aufwendungen zurückzuführen ist, da beide Einflussfaktoren des Jahresüberschusses sind.75 Eine Kombination aus EPS- und Umsatzprog­nosen eines Unternehmens kann hingegen Einblick in die möglichen Strategien eines Unter­nehmens geben. Steigt die Prognose des Umsatzes, aber die Prognose der EPS sinkt, so kann dies auf eine geplante Preissenkung hindeuten, die das Ziel verfolgt, die Nachfrage und somit den Umsatz zu steigern.76

Die Kennzahl DPS knüpft an den EPS an, denn sie setzt statt des gesamten Gewinns nur einen Teil dessen in Relation zu den sich im Umlauf befindlichen Aktien und zwar den, der an die Aktionäre in Form von Dividenden ausgeschüttet wird.77 Wie die EPS ist diese Kennzahl nur für börsennotierte Unternehmen ermittelbar. Die Dividende ist somit abhängig von der Höhe des Gewinns, den ein Unternehmen innerhalb des Geschäftsjahres erwirtschaftet, und kann mi­nimal einen Wert von null annehmen, wenn keine Dividende ausgezahlt wird.78 Eine steigende Entwicklung der DPS wird häufig mit einer guten Entwicklung des Unternehmens gleichge­setzt.79 Die Höhe der Dividende wird in der einmal im Jahr stattfindenden Hauptversammlung des Unternehmens beschlossen, bei der alle Aktionäre des Unternehmens teilnehmen dürfen.80

Abbildung in dieser Leseprobe nicht enthalten

Die absolute Kennzahl CAPX umfasst die jährlichen Investitionsausgaben in das Anlagever­mögen.81 Hierzu zählt die Beschaffung, Erweiterung oder Reparatur von Vermögenswerten, die langfristig82 einem Unternehmen dienen, wie z. B. Maschinen, Gebäude und Geschäftsausstat­tung.83 Investitionsausgaben haben einen positiven Einfluss auf die Aktivseite der Bilanz (Ver­mögensseite), denn durch Anschaffung oder Erweiterung von Vermögenswerten erhöht sich ihr Wert.84 CAPX sind somit ein Indikator für die Untemehmensentwicklung und dessen Fortbe­stand.85 Das Minimum der CAPX entspricht null, wenn keine Investitionen in das Anlagever­mögen getätigt werden.

2.2 Literaturüberblick

Die ersten Untersuchungen zu Kennzahlen und deren Prognose fur Geschäftsberichte liegen in der einschlägigen Literatur über 50 Jahre zurück. Zunächst stand die Relevanz von Kennzahlen bzw. von gesamten Jahresabschlüssen im Fokus.86 Bekannte Untersuchungen aus diesem Be­reich sind auf Ball/Brown (1968) und Beaver (1968) zurückzuführen, die die Wertrelevanz an­hand der Stärke der Veränderungen der Aktienkurse nach Jahresabschlussveröffentlichung er­forschen.87 Später erlangt auch die Analyse von Managementschätzungen in diesen Geschäfts­berichten Interesse. Copeland/Marioni (1972) analysieren beispielsweise die Genauigkeit von Managementschätzungen zum EPS aus dem Jahr 1968, indem sie deren Prognosegüte mit der von sechs unterschiedlichen Zeitreihenanalysen vergleichen.88 Ihre Ergebnisse zeigen, dass die Managementschätzungen in allen Fällen eine bessere Prognosefahigkeit aufweisen als die Zeit­reihenanalysen.89 Derartige Ergebnisse aus dieser und ähnlichen Untersuchungen sprechen für den Einsatz von Managementschätzungen als geeignetes Prognoseinstrument für Kennzahlen und deren Entwicklung in Geschäftsberichten.90

Spätere Untersuchungen zeigen hingegen die Nachteile von Managementschätzungen auf, da diese oft Verzerrungen aufweisen.91 Viele Autoren führen die Verzerrungen auf das Erreichen eigener Anreize und Ziele, auch als Earnings Management bekannt, zurück.92 Mögliche An­reize seien z. B. Bonuszahlungen, die an ein bestimmtes Kursziel gekoppelt sind oder aktien­basierte Vergütungsmodelle.93 Eine derartige Manipulation der Prognosen sei aufgrund fehlen­der geeigneter Überprüfungsmechanismen der Managementschätzungen möglich.94 Andere schließen aber auch eine fehlende Expertise der Manager oder eine hohe wirtschaftliche Unsi­cherheit als Ursache der Schätzfehler nicht aus.95 Franses/Legerstee (2010) beweisen, dass Schätzfehler auch dann auftreten, wenn die Manager als Basis ihrer Schätzung eine Prognose einer statistischen Software erhalten, die sie anschließend anpassen dürfen.96 Als Basis der Un­tersuchung dienen monatliche Umsatzschätzungen von 55 Managern in der Pharmaindustrie von 2004 bis 2006.97 Die Manager tendieren gemäß der Autoren dazu, ihr eigenes Urteilsver­mögen über das der statistischen Prognosemodelle zu stellen.98 Ferner analysieren weitere Un­tersuchungen die Auswirkungen der verzerrten Schätzungen auf die Relevanz und Verlässlich­keit von Geschäftsberichten und den daraus resultierenden Folgen für Investoren.99

Aufgrund der fehlenden Objektivität der Managementschätzungen und ihrer schweren Über­prüfbarkeit rückt in der jüngeren Literatur vermehrt der Einsatz von ML als Prognoseinstrument von Kennzahlen in den Vordergrund.100 Chen et al. (2022) prognostizieren z. B. mithilfe von RF und Gradient Boosted Trees (GBT)101 die Richtung der zukünftigen EPS-Entwicklung und vergleichen deren Prognosefähigkeit mit der von Analystenschätzungen.102 Aus den Ergebnis­sen resultiert, dass die Prognosefahigkeit der ML-Modelle sowohl über der der Analysten als auch über der einer logistischen Regression, die als Benchmark-Verfahren angewandt wird, liegt.103 Zhang/Cao/Schniederjans (2004) fuhren ferner einen Vergleich der Prognosefahigkeit des zukünftigen Wertes von EPS zwischen NN104, einer Zeitreihenanalyse105 und LR durch.106 Als Attribute für die multivariaten Analysen (LR und NN) verwenden sie grundlegende Rech­nungslegungsvariablen, wie u. a. Forderungen, Vorräte und CAPX.107 Sie stellen heraus, dass sowohl die Prognosefahigkeit des univariaten als auch die des multivariaten NN über der der restlichen Modelle liegt, wobei das multivariate NN insgesamt die beste Prognosegüte auf­weist.108

Weitergehend wird die Kombination aus Managementschätzung und ML in wenigen neuen Forschungen zu Kennzahlprognosen analysiert. Ding et al. (2020) untersuchen beispielsweise, ob Kombinationen aus ML-Modellen und Managementschätzungen genauere Prognosen über Schadenrückstellungen in der Versicherungsbranche liefern als die ML-Modelle und die Ma­nagementschätzung alleinstehend.109 Versicherungsuntemehmen sind für den Ansatz derartiger Rückstellungen in der Bilanz verpflichtet, jedoch unterliegen sie, wie auch andere Rückstel­lungsarten, diversen Unsicherheiten, weshalb deren Höhe durch Prognose bzw. Schätzung zu ermitteln ist.110 Ding et al. (2020) erstellen für ihre Untersuchung Prognosen zu Schadenrück­stellungen für unterschiedliche Versicherungsarten111 mit den ML-Verfahren LR, GBT, RF und NN mithilfe einer five-fold cross-validation.112 Als Grundlage dient ein Datensatz mit 32.939 Beobachtungen von US-Untemehmen über einen Zeitraum von 1996-2017.113 Die Güte der Modelle wird durch den Vergleich der Prognosewerte mit dem tatsächlich eingetretenen Scha­denswert anhand der Gütemaße Mean Absolute Error (MAE) und Root Mean Squared Error (RMSE) ermittelt.114

Die Autoren kommen zu dem Ergebnis, dass bei vier von fünf untersuchten Versicherungstypen die ML-Prognose genauere Ergebnisse erzeugt als die Managementschätzung.115 Ferner erfas­sen sie eine Verbesserung der Ergebnisse durch eine Kombination aus ML-Modellen und Ma­nagementschätzung.116 Über den Vergleich der Prognosefahigkeit der ML-Modelle und der Managementschätzung hinaus analysieren die Autoren den Einfluss der einzelnen Attribute (Feature Importance) in der ML-Prognose und der Managementschätzung, um Einblicke in die Ursachen der Schätzfehler der Manager zu erhalten.117 In ihrem Fazit führen die Autoren an, dass ihre Untersuchung lediglich auf den Bereich der Schadenrückstellungen und somit auf einen kleinen Teilbereich der finanziellen Berichterstattung begrenzt ist. Es bestehe somit wei­terer Forschungsbedarf für andere Schätzungen aus Geschäftsberichten.118 Aus diesem Grund wird in der vorliegenden Arbeit ein ähnliches Untersuchungsdesign wie bei Ding et al. (2020) vorgenommen und auf die Prognose der zukünftigen Entwicklung des Umsatzes, der EPS, der DPS und der CAPX übertragen. Die dazu angewandten ML-Verfahren werden im folgenden Kapitel naher erläutert.

2.3 Ausgewählte Machine Learning- Verfahren

2.3.1 Einführung Machine Learning

ML ist ein Teilbereich der Künstlichen Intelligenz (KI), bei dem Computer durch das Training mit zur Verfügung gestellten Informationen (Daten) selbstständig lernen, indem sie Muster und Zusammenhänge in diesen erkennen.119 Sie sammeln mit jedem Trainingsdurchlauf Erfahrung und nutzen diese, um Entscheidungen zu treffen und Vorhersagen vorzunehmen.120 ML wird weitergehend, wie Abbildung 2 verdeutlicht, in die grundlegenden Teilbereiche des überwach­ten Lernens (supervised learnings) und des unüberwachten Lernens (unsupervised learnings) unterteilt.121

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Klassifikation von Machine Learning-Verfahren
(Quelle: eigene Darstellung in Anlehnung an MathWorks (2022a), S. 9)

Überwachtes Lernen bedeutet, dass der wahre Wert der Zielgröße (Output) bei Modellerstel­lung bereits bekannt ist.122 Beim unüberwachten Lernen liegen hingegen keine Output-Daten
vor, sodass die Erkennung von Mustern und Strukturen in den Input-Daten im Fokus steht.123 Dabei wird die Methode des Clusterings verwendet, während überwachtes Lernen auf die Re­gression und Klassifikation zurückgreift.124 Ziel des überwachten Lernens ist, dass die im Rah­men des Trainings erstellten Modelle auf gänzlich unbekannten Daten gute Prognosen erzie­len.125 Die in dieser Arbeit angewandten ML-Verfahren gehören, wie in Abbildung 2 zu sehen, dem Teilbereich des überwachten Lernens an.126 Somit kann die Prognosefähigkeit der ML- Modelle durch Berechnung des Abstands zwischen den prognostizierten und den eingetretenen (wahren) Werten mithilfe von Gütemaßen beurteilt werden.127 Bekannte Gütemaße im Rahmen von Regressionsproblemen sind z. B. der MAE und der RMSE.128

2.3.2 Lineare Regression

Die lineare Regression dient als klassisches statistisches Verfahren in der vorliegenden Arbeit als Benchmark-Methode zu den ML-Verfahren. Sie gehört neben der logistischen Regression zu den Basiskonzepten im Rahmen von überwachtem ML.129 Bei der Regression wird eine Zielvariable (abhängige Variable) anhand der unabhängigen Attribute vorhergesagt.130 131 Im Rah­men der linearen Regressionsanalyse wird hierbei ein linearer Zusammenhang zwischen der Zielvariable y und den Attributen Xt als Annahme zugrunde gelegt:

Abbildung in dieser Leseprobe nicht enthalten

Es gilt, die Regressionskoeffizienten ßi im Rahmen des Modelltrainings je Attribut zu ermit­teln. Damit die Schätzftinktion y möglichst genau die wahren Werte der Zielvariable y abbildet, wird grundsätzlich die Methode der kleinsten Quadrate als Verlustftmktion angewandt, bei der die Regressionskoeffizienten so zu bestimmen sind, dass die Summe der quadrierten Residuen[Abbildung in dieser Leseprobe nicht enthalten] (RRS) aus den wahren Werten yn und den prognostizierten Werten yn minimiert wird:[Abbildung in dieser Leseprobe nicht enthalten]

Abbildung in dieser Leseprobe nicht enthalten132

Der Parameter ß0 stellt den durchschnittlichen Wert der Zielvariablen dar (Achsenabschnitt), der durch die Attribute nicht beschrieben werden kann.133 Die Störgröße ε steht für eine nicht zu beobachtende Zufallsgröße, die einen möglichen Messfehler abbildet.134 Grundsätzlich hat die Störgröße einen Erwartungswert von null.135

Die Prognosefahigkeit der LR verschlechtert sich durch Multikollinearitäten zwischen den At­tributen, wenn mehr Attribute zur Erklärung der Zielvariable eingesetzt werden als notwendig (Überparametrisierung).136 Zudem ist bei der LR, anders als z. B. bei dem RF, keine Variab­ienselektion (Feature Selection) integriert.137 Um die LR trotz dieser Nachteile mit anderen ML-Modellen in ihrer Prognosefahigkeit zu vergleichen, kann eine Regularisierung eingesetzt werden.138 Durch diese wird eine Schrumpfung kleiner Regressionskoeffizienten /?¿ gegen null bewirkt, indem die Verlustfunktion durch einen zusätzlichen Strafterm ergänzt wird.139 Die Stärke der Regularisierung wird über den positiven Regularisierungsparameter λ gesteuert, der als Hyperparameter dem Modell vorgegeben wird.140 Bekannte Formen der Regularisierung sind die Least Absolute Shrinkage and Selection Operator (Lasso)-Regression, die auch Level 1 (Ll)-Regularisierung genannt wird, und die Ridge-Regression, die auch als Level 2 (L2)-Re- gularisierung bekannt ist.141 Beide Regularisierungsmethoden verfolgen das gleiche Ziel, aber unterscheiden sich in der Herangehensweise der Bestrafung der Attribute.142 Im Rahmen der Lasso-Regression werden im Strafterm die absoluten Werte der Regressionskoeffizienten ß herangezogen:

Abbildung in dieser Leseprobe nicht enthalten 143 144

Die Ridge-Regression quadriert hingegen die Werte von ß im Strafterm:

Abbildung in dieser Leseprobe nicht enthalten

Dies hat zur Folge, dass bei der Lasso-Regression die Koeffizienten den Wert null annehmen können und somit Attribute aus dem Modell entfernt werden, wodurch eine Variabienselektion ausgefiihrt wird.145 Durch die Quadrierung bei der L2-Regularisierung können die Koeffizien­ten sich dem Wert null lediglich annähem, ihn aber nicht annehmen.146 Über die durch die Regularisierung entstandenen Koeffizienten kann ferner die Feature Importance der einzelnen Attribute analysiert werden.147 Allerdings besitzen alle Modelle der LR, auch die mit Regulari­sierung, den Nachteil, dass sie lineare Zusammenhänge in den Daten voraussetzen und somit keine Nichtlinearitäten darstellen können.148

2.3.3 Random Forest

Der RF ist eine Weiterentwicklung des DT, der sowohl Klassifikations- als auch Regressions­probleme lösen kann.149 Aufgrund des vorliegenden Regressionsproblems wird sich die Be­schreibung des RF und auch der NN in dieser Arbeit auf Regressionsprobleme beschränken. Der DT stellt ein gerichtetes Regelwerk dar, das durch rekursives Zuordnen einer Beobachtung entsprechend der Attributsausprägung den Wert der Zielvariable bestimmt.150 Hierbei wird der gesamte Datensatz mithilfe lokaler Minimierung151 der Impurity (Verunreinigung) entlang des DT (von oben nach unten) durch Splits in kleinere disjunkte Teilmengen getrennt.152 Dieses Vorgehen wird auch als Hunt’s Algorithmus bezeichnet.153 Die Splits anhand von Attributtes­tung finden in den Knoten (Nodes) eines DT statt.154 Neben den Knoten besitzt ein DT Blätter (Leaves) und Äste (Branches).155 In den Blättern wird die finale Ermittlung des Wertes der Zielvariable vorgenommen, während die Äste als Bindeglied zwischen den Blättern und Knoten dienen.156 157 Da der DT selbst in dieser Arbeit als ML-Verfahren keine Anwendung findet, wird fur eine weitere Ausführung zum DT auf Breiman et al. (1984) und James et al. (2013) verwie- Ein RF besteht aus einer Vielzahl zufällig konstruierter DT, die nach dem Bootstrapping-Ver- fahren unabhängig voneinander (parallel) generiert werden.158 Beim Bootstrapping wird jeweils eine Teilmenge des gesamten Datensatzes zur Konstruktion des DT (schwacher Lerner) heran­gezogen.159 Somit basieren die Splits in den Knoten auf einer Teilmenge aller Attribute, aus denen jeweils das gewählt wird, welches am meisten zur Minimierung der Impurity beiträgt.160 Durch dieses Vorgehen entsteht automatisch eine Variabienselektion.161 Im Rahmen eines Re­gressionsproblems ermittelt jeder DT im RF den Wert der Zielvariable. Der Mittelwert dieser Einzelergebnisse bildet das Ergebnis des RF.162 Das Vorgehen im RF mit der Kombination aus Bootstrapping und Aggregation wird als Bagging bezeichnet.163 Dabei knüpft das Bagging bei Modellen mit einer hohen Varianz an und reduziert diese durch Reduktion der Modellkomple­xität mithilfe des Bootstrapping.164 Das Vorgehen beim Bagging fuhrt dazu, dass die DT unter­einander eine geringe Korrelation aufweisen, weshalb ein RF trotz redundanter Attribute gute Ergebnisse liefert und das Problem des Overfittings minimiert wird.165

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Problem des Overfittings am Beispiel des DT

(Quelle: entnommen aus Rockach/Maimon (2015), S. 57)

Beim RF kann dennoch, wenn auch mit geringerer Anfälligkeit als bei anderen ML-Verfahren, mit zunehmender Größe der DT Overfitting entstehen.166 Overfitting ist eine Überspezialisie­rung des Modells an die Trainingsdaten, d. h., dass sich das Modell zu stark den (zufälligen) Schwankungen der Trainingsmenge (Varianz)167 anpasst und sich somit die Prognosegüte auf unbekannten Daten verschlechtert, da das Modell nicht mehr generalisierbar ist.168 Die Abbil­dung 3 zeigt das Problem des Overfittings, indem sie den Prognosefehler in Abhängigkeit der Größe des DT darstellt. Im Trainingsdatensatz verringert sich der Prognosefehler (Trainings­fehler) aufgrund der Überanpassung konstant mit zunehmender Größe des DT (s. durchgezo­gene Kurve in Abbildung 3). In der Validierungsmenge besitzt der Prognosefehler (Generali­sierungsfehler) hingegen ein Minimum, d. h., dass dieser zuerst ebenso mit zunehmender Größe des DT abnimmt. Diese Minimierung dauert allerdings lediglich bis zu einer bestimmten Größe des DT an, ab der sich der Generalisierungsfehler aufgrund der Überspezialisierung wieder er­höht (s. gestrichelte Kurve in Abbildung 3).169 Das Problem des Overfittings tritt auch bei an­deren ML-Verfahren mit steigender Trainingsintensität auf, weshalb Methoden zur Begrenzung des Overfittings notwendig sind.170

Beim DT und seinen Weiterentwicklungen dient zur Vermeidung von Overfitting das Pruning als eine mögliche Maßnahme. Pruning ist in der Form des Pre- und des Post-Prunings anwend­bar.171 Post-Pruning setzt im Anschluss an die vollständige Modellerstellung ein, indem über­spezialisierte Äste des DT entfernt werden, um die Generalisierbarkeit des Modells zu gewähr­leisten.172 Das Pre-Pruning beginnt bereits während der Modellerstellung, indem dem Modell Restriktionen in Form von Hyperparametem gesetzt werden, die dazu führen, dass die Schwan­kungen der Trainingsdaten nicht berücksichtigt werden.173 Als Hyperparameter kommen z. B. die minimale Anzahl an Beobachtungen je Blatt, auch genannt Minimum Support, oder die maximale Anzahl an Splits in Frage.174 Bei der Auswahl der Hyperparameter von ML-Modellen ist zu beachten, dass durch die Restriktionen zwar Overfitting vermieden und die Generalisier­barkeit erhöht wird, jedoch zu starke Restriktionen einen Bias und Underfitting175 erzeugen, die ebenso in einer Minimierung der Prognosegüte resultieren wie Overfitting und eine hohe Vari­anz.176 Als Bias wird die systematische Verzerrung durch Modellvorgaben bezeichnet.177 Es liegt somit ein Trade-Off zwischen Generalisierbarkeit und Genauigkeit des Modells bzw. zwi­schen Bias und Varianz vor.178 Daher sind bei der Wahl der Hyperparameter Optimierungsme­thoden, wie die Bayesian Optimization oder Faustregeln, sogenannte Rule of Thumbs, zu be­rücksichtigen.179

Ein Vorteil des RF ist die Möglichkeit der Ermittlung der globalen Feature Importance des gesamten Modells über die sogenannten out-of-bag (OOB)-Schätzer, die in jedem Bootstrap- Sample erzeugt werden.180 Der Teil des Datensatzes, der in einem Bootstrapping-Vorgang nicht zum Training eines DT verwendet wird, wird als OOB-Sample bezeichnet und dient zur Vali­dierung des jeweiligen Bootstrap-Samples.181 Im Anschluss werden mehrfach die Werte eines Attributes zufällig ausgetauscht (permutted) und die Validierung wiederholt.182 Die Änderung der Fehlerrate durch die Wertänderung des Attributes wird berechnet und abgespeichert als OOB-Score.183 Dieser Vorgang wird für jedes Attribut im OOB-Sample wiederholt.184 Der Mit­telwert der OOB-Scores eines Attributs dividiert durch die jeweilige Standardabweichung stellt das Maß für die Feature Importance (Permutation Importance) des Attributs dar.185 Je größer der Wert ist, desto höher ist der Einfluss des Attributs bei der Vorhersage der Kennzahl.186

2.3.4 Neuronale Netze

NN sind adaptive Systeme, die ähnlich der Funktionsweise des menschlichen Gehirns mithilfe von Neuronen lernen und sich konstant verbessern können.187 Sie werden mithilfe von Daten trainiert, um z. B. Muster zu erkennen oder Ereignisse vorherzusagen. Somit können sie sowohl für Klassifikations- und Regressionsprobleme als auch fur Clustering (unüberwachtes Lernen) verwendet werden.188 Das Ziel eines NN ist, die Input-Daten über lineare und nichtlineare Funktionen bestmöglich auf die Output-Daten zu approximieren.189 Die Leistungsfähigkeit von NN hat sich in vielen Anwendungsfällen bewiesen, dennoch besitzen sie den Nachteil, dass ihre Ergebnisse schlecht interpretierbar sind, da das genaue Vorgehen der NN als Black-Box gilt.190

Abbildung in dieser Leseprobe nicht enthalten

Die Abbildung 4 zeigt den klassischen Aufbau eines Feed-Forward NN.191 Neben dem Feed- Forward NN gibt es weitere Formen, wie z. B. das Recurrent NN oder das Convolutional NN.192 Auf diese wird im weiteren Verlauf nicht näher eingegangen, da in der vorliegenden Arbeit ein Feed-Forward NN erstellt wird.193 Ein NN besteht, wie in Abbildung 4 dargestellt, aus Neuro­nen, die in Schichten angeordnet sind.194 Die Neuronen sind über Kanten miteinander verbun­den. Es ist erforderlich, dass jedes Neuron mit einem weiteren aus der darauffolgenden Schicht verknüpft ist, um die Verbindung der Schichten zu gewährleisten.195 Die erste Schicht stellt die Eingabe-Schicht (Input Layer) dar, in der die Informationen aus der Umwelt von den in ihr enthaltenen Neuronen aufgenommen werden.196 Die letzte Schicht dient der Ausgabe der Er­gebnisse und wird dementsprechend als Ausgabe-Schicht (Output Layer) bezeichnet.197 Zwi­schen den beiden Schichten befindet sich mindestens eine dazwischenliegende, verborgene Schicht (Hidden Layer), deren Output nicht sichtbar ist.198 Der Informationsfluss läuft von der Eingabe-Schicht zur Ausgabe-Schicht, d. h., der Output der Eingabe-Schicht ist der Input der ersten verborgenen Schicht (und so weiter).199

Die Neuronen in der Eingabe-Schicht verarbeiten die Signale aus der Umgebung und bestim­men für diese zufällig initiale Gewichtungsfaktoren w (Random Initialization).200 Diese Ge­wichte stehen für die Signalstärke.201 202 Ein Neuron q setzt sich somit zusammen aus der gewich­teten Summe der empfangenen Signale z, die um einen konstanten Bias b zu ergänzen ist:

Abbildung in dieser Leseprobe nicht enthalten

Die Signale stammen in der Eingabeschicht aus der Umgebung. In den darauffolgenden Schich­ten stellen die Neuronen der vorangegangen Schicht bzw. deren Output die Signale z dar.203 Ein Neuron bildet somit eine lineare Funktion.204 Über die Kanten wird dessen Output mithilfe einer nichtlinearen Aktivierungsfunktion transformiert und an die Neuronen der nächsten Schicht weitergegeben.205 Die Nichtlinearität der Aktivierungsfunktion ist entscheidend für das NN, da es sonst lediglich eine Kombination linearer Funktionen darstellen würde.206 Als Akti­vierungsfunktion können z. B. die lineare Rectifier-Funktion (ReLU), die Funktion des hyper­bolischen Tangens oder die Sigmoid-Funktion dienen.207 Bei der Sigmoid-Funktion werden die Ausgabewerte der einzelnen Schichten zwischen null und eins skaliert, beim hyperbolischen Tangens erfolgt ebenso eine Skalierung, die Werte können aber auch negativer Art sein.208 Durch die ReLU-Funktion bleiben positive Werte unverändert, negative werden allerdings gleich null gesetzt.209 Die Aktivierungsfunktion ist ein Hyperparameter des NN.210 Die Über­tragung mithilfe der Aktivierungsfunktion kann durch einen Schwellenwert reguliert werden, sodass die Übertragung eines Neurons an das Neuron der nächsten Schicht lediglich erfolgt, wenn der transformierte Ausgabewert diesen Schwellenwert erreicht.211 Umgangssprachlich wird die Übertragung auch als „Feuern“ des Neurons bezeichnet.212

Während des Trainings in den verborgenen Schichten werden die initial gesetzten Gewichte anhand des entstandenen Fehlers mithilfe des Backpropagation-Algorithmus213 modifiziert so­wie der Bias optimiert.214 Hierzu werden die prognostizierten Werte in jeder Iteration mit den wahren Werten anhand einer Verlustfunktion, z. B. dem Mean Squared Error (MSE) oder MAE, verglichen (Forward Propagation).215 Durch Berechnung des ersten Gradienten dieser Verlust­funktion je Schicht des NN wird die Anpassung der Gewichte der Neuronen ermittelt (Fehler- rückfuhrung bzw. Backpropagation).216 Dabei wird das Ziel verfolgt, dass der Gradient mit je­der Iteration minimiert wird (Abfall des Gradienten) bis das Minimum der Verlustfunktion er­reicht ist.217 Ein weiterer Hyperparameter im Trainingsprozess ist die Lemrate. Sie gibt an, wie stark die Parameter in jeder Iteration in Bezug auf die Minimierung der Verlustfunktion ange­passt werden.218 Je kleiner die Lemrate gewählt wird, desto länger bzw. kleinschrittiger ist die Dauer des Trainingsprozesses und desto höher ist die Gefahr von Overfitting.219 Wird sie zu groß gewählt, so können lokale Minima der Verlustfunktion übersprungen werden.220 Regula- risierung stellt eine etablierte Lösung zur Vermeidung von Overfitting im Rahmen von NN dar.221 Die Regularisierung wird, wie in Kapitel 2.3.2 auf S. 16-17 beschrieben, mithilfe eines Strafterms R vorgenommen, der die Verlustfunktion der NN ergänzt und folglich Signale mit geringerem Gewicht w¡ bestraft.222 Bei der Ridge-Regression (L2- Regularisierung) entspricht dies:

Abbildung in dieser Leseprobe nicht enthalten223

Im Rahmen der Lasso-Regression (LI-Regularisierung) werden mittels des Strafterms die ab­

Abbildung in dieser Leseprobe nicht enthalten224

Für eine weitere Erläuterung der Regularisierungsmethoden wird verwiesen auf das Kapitel 2.3.2 auf S. 16-17. Der folgende Abschnitt beschreibt die Datensätze, die für die Untersuchun­gen dieser Arbeit angewandt werden, und erläutert das Vorgehen in der Datenaufbereitung, die vor Anwendung der in diesem Kapitel beschriebenen ML-Verfahren vorgenommen wird.

3 Daten

3.1 Datenexploration

3.1.1 Managementschätzung

Um einen Vergleich der Prognosefahigkeit von ML-Verfahren und Managementschätzungen durchführen zu können, werden je Beobachtung der wahre bzw. eingetretene Wert, der Wert der Managementschätzung und der durch die ML-Verfahren prognostizierte Wert der jeweili­gen Kennzahl benötigt.225 Letzterer wird durch die in dieser Arbeit erstellten Modelle ermittelt. Der wahre Wert je Beobachtung kann aus dem jeweiligen Geschäftsbericht gewonnen werden und wird durch einen Compustat-Datensatz zur Verfügung gestellt.226 Die Managementschät­zungen werden hingegen aus einem Datensatz der IBES-Datenbank entnommen. IBES wurde im Jahr 1976 von dem Börsenmakler Lynch, Jones & Ryan gegründet und gehört seit dem Jahr 2000 der Finanzsparte Refmitiv des Medienkonzems Thomson Reuters an. Die Datenbank be­inhaltet quantitative Schätzungen von Unternehmen und Analysten zu einer Vielzahl von Kenn­zahlen von über 23.000 aktiven Unternehmen aus über 90 Ländern.227

Der vorliegende IBES-Guidance-Datensatz enthält insgesamt 1.475.224 Schätzungen zu 47 un­terschiedlichen Kennzahlen, die von den Unternehmen selbst veröffentlicht werden (Manage­mentschätzungen). Zur Identifikation der unterschiedlichen Unternehmen dient ein von IBES erstellter Ticker (IBES-Ticker), der die Schätzungen den Unternehmen eindeutig zuordnet.228 Es liegen insgesamt Schätzungen von 16.426 Unternehmen aus unterschiedlichen Ländern fur einen Schätzzeitraum von 1990 bis 2031229 vor, die aus Untemehmensveröffentlichungen und Mitschriften von Untemehmensveranstaltungen stammen.230 Über die Art der Prognoseverfah­ren, die die Manager bei Erstellung der Schätzungen anwenden, liegen keine Informationen vor.231 Je Beobachtung wird die Schätzung als Spanne oder als Einzelwert angegeben.232 Dar­über hinaus wird der Mittelwert aller abgegebenen Analystenschätzungen zum Zeitpunkt der Prognose angegeben sowie die Information, ob die Managementschätzung des Unternehmens mit den Einschätzungen der Analysten übereinstimmt oder darüber bzw. darunter liegt.233 Die Angaben werden in 46 unterschiedlichen Währungen getätigt, davon liegen 586.112 Schätzun­gen in US-Dollar (USD) vor. Es sind sowohl jährliche, halbjährliche als auch quartalsweise Schätzwerte im Datensatz enthalten. Die jährlichen Schätzungen bilden hierbei mit einer An­zahl von 1.038.168 den Großteil der Beobachtungen.

Das Histogramm in Abbildung 13 im Anhang auf S. 83 zeigt eine erste Analyse des Datensatzes und gibt Aufschluss über die Häufigkeit der vorliegenden Schätzungen je Kennzahl. Es ist zu erkennen, dass zu den in dieser Arbeit betrachteten Kennzahlen sowie zur Kennzahl Net Income (Nettogewinn) die meisten Beobachtungen vorliegen. Für eine genaue Anzahl der Schätzungen je Kennzahl wird verwiesen auf die Tabelle 1 im digitalen Anhang auf S. I.234 Der Fakt, dass für den Umsatz weniger Schätzungen vorliegen als für die Kennzahl EPS, ist konsistent mit den Beobachtungen von Acito/Folsom/Zhao (2021), die in einer Untersuchung herausstellen, dass Unternehmen eher Prognosen zum EPS statt zum Umsatz veröffentlichen, da jene weitreichen­dere Informationen über die geplanten Untemehmensstrategien preisgeben würden.235 Um sai-

sonale Schwankungen innerhalb eines Jahres in der Modellerstellung der ML-Modelle auszu­gleichen, wird der Fokus der vorliegenden Arbeit auf der Prognose von jährlichen Kennzahl­prognosen liegen.236 Zudem enthält der IBES-Guidance-Datensatz mehr Schätzungen zu Jah­reswerten als zu Quartals- oder Halbjahreswerten, sodass die Auswahl auch aus datentechni­scher Sicht Vorteile bietet.237

3.1.2 Kennzahlprognose mit Machine Learning

Zur Prognose der Kennzahlen mithilfe von Matlab wird ein Datensatz aus der Compustat-Da- tenbank verwendet. Compustat wurde im Jahr 1962 gegründet und ist eine Datenbank des An­bieters Standard and Poor's, die Bilanz- und Marktdaten börsennotierter Unternehmen weltweit ab dem Jahr 1950 umfasst.238 Da in der vorliegenden Arbeit der Fokus auf jährlichen Kenn­zahlprognosen liegt, wird ein Datensatz mit entsprechend jährlichen Beobachtungen aus der Compustat-Datenbank ausgewählt. Der vorliegende Datensatz umfasst 588.361 jährliche Be­obachtungen über einen Zeitraum von 1950-2021. Der Datensatz beinhaltet Informationen zu insgesamt 982 Variablen von 41.646 Unternehmen aus Nordamerika.239 Die Angabe von mo­netären Werten wird in Mio. USD getätigt.

Zur Modellerstellung wird das folgende Variabienset an finanziellen Kennzahlen aus dem Compustat-Datensatz extrahiert. Die Tabelle 11 im Anhang auf S. 84 fasst die Attribute zusam­men, zu denen die Vermögenswerte, der Buchwert je Aktie, die Herstellungskosten der ver­kauften Güter, die Dividenden, das Ergebnis vor Steuern und Zinsen (EBIT), das Ergebnis vor Steuern, Zinsen und Abschreibungen (EBITDA), der Bruttogewinn, die Vorräte, die Schulden, der Marktwert, der höchste Aktienpreis des jeweiligen Jahres und die Forderungen aus Liefe­rung und Leistung (FoaLL) gehören. Darüber hinaus werden die Werte der jeweils anderen Zielvariablen (Umsatz, EPS, DPS und CAPX) und die Voijahreswerte der Zielvariable selbst als Attribute (lagged variable) ergänzt.240 Diese Arbeit orientiert sich an einer breiten Auswahl an finanziellen Kennzahlen als Attribute, die sich in vielen vorangegangenen Untersuchungen als fundamentale Einflussfaktoren für die betrachteten Kennzahlen erweisen.241 Darüber hinaus werden der Global Company Key (GVKEY) als Untemehmensidentifikationsnummer und das Jahr, dem die jeweilige Beobachtung zuzuordnen ist, dem Compustat-Datensatz entnommen. Da die Identifikationsnummer und das Jahr keinen Einfluss auf die Höhe der Kennzahlen be­sitzen, werden sie in separate Vektoren geschrieben und werden nicht als Attribute in der Mo­dellerstellung verwendet. Die einzelnen Vektoren dienen im weiteren Verlauf aber dazu, ein­zelne Beobachtungen dem betreffenden Jahr und dem Unternehmen zuordnen zu können. Das trifft sowohl für die Nachverfolgung einzelner Beobachtungen als auch für das Abrufen von Beobachtungen in Schleifen zu.242

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 5: Boxplot der Attribute vor Datenaufbereitung

(Quelle: eigene Darstellung)

Die Abbildung 5 demonstriert die Verteilung der Attribute in Form von Boxplots.243 Da das Attribut Buchwert pro Aktie im Vergleich zu den restlichen Attributen deutlich größere, abso­lute Ausprägungen aufweist (s. oberer Boxplot in Abbildung 5), werden in der unteren Abbil­dung die Boxplots der Attribute ohne den Buchwert pro Aktie dargestellt, sodass auch eine Analyse der Spannweiten der restlichen Attribute möglich ist. Die Verteilungen der Attribute weisen im Vergleich zu dem Interquartilsabstand (zwischen dem 25 %- und dem 75 %-Quantil) jeweils erhebliche Spannweiten auf. Die Ausreißer sind folglich weit vom Median entfernt. Gleichermaßen liegt aber auch eine hohe Konzentration der Beobachtungen nahe des Medians vor.244 Darüber hinaus werden im Rahmen der Datenexploration die Korrelationen der Attribute untereinander analysiert. Die Tabelle 12 im Anhang auf S. 85 stellt die Korrelationsmatrix der Attribute dar. Diese zeigt, dass einige Attribute hohe Korrelationen zueinander aufweisen.245 Die beiden Attribute EBIT und EBITDA besitzen z. B. einen hohen Korrelationskoeffizienten von 0,96, was darauf zurückzufuhren ist, dass sich die Kennzahl EBIT aus dem EBITDA ab­leitet. Gleiches gilt für den Bruttogewinn, der ebenfalls eine hohe Korrelation zum EBIT und dem EBITDA aufweist. Darüber hinaus unterliegen auch die Attribute Vermögenswerte und Schulden einer hohen Korrelation von 0,997.246 Dies deutet daraufhin, dass viele Vermögens­werte der Unternehmen mithilfe eines Kredits angeschafft werden, weshalb mit höherem Ver­mögenswert auch die Höhe der Schulden zunimmt. Die letzte Korrelation zweier Attribute mit einem Korrelationskoeffizienten über 0,9 ist zwischen dem Umsatz und den Herstellungskosten der verkauften Güter vorzufinden. Auch diese Korrelation erscheint plausibel, da grundsätzlich eine höhere Produktion notwendig ist, um einen höheren Umsatz zu erzielen, wodurch ebenso die Herstellungskosten ansteigen.247

3.2 Datenaufbereitung

3.2.1 Managementschätzung

Da der Fokus auf den jährlichen Schätzungen liegt, werden zunächst die quartalsweisen und halbjährlichen Managementschätzungen aus dem IBES-Guidance-Datensatz entfernt. Ebenso werden alle Beobachtungen aussortiert, die nicht in der Währung USD vorliegen, um eine Ver­gleichbarkeit zu den wahren Werten aus dem Compustat-Datensatz zu gewährleisten. Im An­schluss erfolgt eine Filterung auf die Schätzungen der relevanten Kennzahlen Umsatz, EPS, DPS und CAPX. Die Abbildung 6 verdeutlicht, wie sich die Anzahl der Schätzungen je Kenn­zahl nach diesen ersten Anpassungen verändert. Zu dem Umsatz liegen noch 90.545, zu den EPS 104.971, zu den DPS 5.377 und zu den CAPX 77.076 Schätzungen vor. Da die Manage­mentschätzung in einer Vielzahl von Beobachtungen als Spanne statt als Einzelwert dargestellt wird, wird von diesen der Mittelwert berechnet und nachfolgend als Schätzung betrachtet.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 6: Histogramm der jährlichen Schätzungen in USD je Kennzahl (Quelle: eigene Darstellung)

Um die Güte der Managementschätzungen je Beobachtung bestimmen zu können, wird der wahre Wert des jeweiligen Jahres benötigt.248 Da diese Information im IBES-Guidance-Daten- satz nicht Vorhemden ist, ist ein Zusammenfuhren (Mergen) des Datensatzes mit dem von Com- pustat notwendig. Zum Mergen der beiden Datensätze ist eine gemeinsame Untemehmensiden- tifikationsnummer und das jeweilige Jahr erforderlich, damit die einzelnen Beobachtungen der beiden Datensätze korrekt zusammengefiihrt werden. Der IBES-Guidance-Datensatz enthält le­diglich den IBES-Ticker als Untemehmensidentifikationsnummer, während Compustat u. a. die CUSIP und den GVKEY verwendet.249 Über einen weiteren IBES-Datensatz, dem IBES- Guidance-Identifier-Datensatz, der ebenfalls den IBES-Ticker enthält, wird durch Mergen zu­nächst die CUSIP für jede Beobachtung im IBES-Guidance-Datensatz ermittelt.250 Über die CUSIP und das Jahr erfolgt im Anschluss das Zusammenfuhren mit dem Compustat-Datensatz, der den wahren Wert, wenn verfügbar, je Beobachtung ergänzt. Nach dem Mergen wird sich weitergehend am GVKEY aus dem Compustat-Datensatz als Untemehmensidentifikations- nummer orientiert, da dieser beständiger ist als die CUSIP.251

Nach der Zusammenführung der Datensätze ist ersichtlich, dass nicht für alle Schätzungen aus dem IBES-Guidance-Datensatz ein wahrer Wert aus dem Compustat-Datensatz vorliegt. Insbe­sondere sind davon die Beobachtungen betroffen, die Schätzungen für die Jahre ab 2022 zur Verfügung stellen, da hierfür noch keine wahren Werte vorliegen können. Die Schätzungen, bei denen der zugehörige wahre Wert nicht vorhanden ist252, werden entfernt. Somit verändert sich die Anzahl der Beobachtungen, für die die Güte der Managementschätzung ausgewertet werden kann, bei dem Umsatz auf 18.040, bei den EPS auf 21.161, bei den DPS auf 625 und bei den CAPX auf 10.086 Beobachtungen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Vergleich der Schätzungen und wahren Werte je Kennzahl (Quelle: eigene Darstellung)

Abschließend werden mithilfe von Boxplots die verbleibenden Beobachtungen je Kennzahl für die Schätzungen und für die wahren Werte miteinander verglichen, um mögliche Ausreißer durch fehlerhafte Angaben, die die Güte verzerren würden, aufzudecken.253 Die Boxplots zei­gen, dass die Schätzungen und wahren Werte aller Kennzahlen annähernd die gleichen Vertei­lungen hinsichtlich ihrer Spannweite aufweisen. Die Tabelle 1 vergleicht darüber hinaus die Mediane und Mittelwerte der Kennzahlen im Rahmen der Schätzungen und der wahren Werte.

Es ist ersichtlich, dass die Mediane und Mittelwerte der Schätzungen und wahren Werte nur geringfügig voneinander abweichen. Der Umsatz besitzt beispielsweise für die Schätzungen einen Median von 427 Mio. USD und für die eingetretenen Werte einen Median von 424 Mio. USD. Bei der Kennzahl EPS sind allerdings im Boxplot zwei starke Ausreißer ersichtlich, die näher untersucht werden. Der Wert der Schätzung der ersten Ausreißer-Beobachtung liegt bei 89 Mio. USD, der dazugehörige wahre Wert bei 0,82 Mio. USD. Die zweite Ausreißer-Be­obachtung weist eine ebenso starke Differenz auf. Diese starken Abweichungen zwischen Schätzung und wahrem Wert deuten auf eine unterschiedliche Einheit im Rahmen der Schät­zung und des wahren Wertes hin, sodass die beiden Beobachtungen im Rahmen der EPS ent­fernt werden.254 Ebenso werden die Spannweiten der Kennzahlen auf Plausibilität überprüft.255 Hierbei sticht heraus, dass bei den CAPX negative Beobachtungen vorliegen. Da das Minimum der CAPX allerdings bei null liegt, werden die fünf negativen Beobachtungen ebenfalls ent­fernt. Bei den restlichen Beobachtungen werden keine Änderungen vorgenommen.

3.2.2 Kennzahlprognose mit Machine Learning

Um die Vergleichbarkeit der Prognosegüte der ML-Modelle und der Managementschätzung zu gewährleisten, werden bei der Erstellung der Prognosemodelle mittels ML lediglich die Be­obachtungen verwendet, für die im Rahmen der Managementschätzung eine Prognosegüte er­mittelt werden kann.256 Dies entspricht den Beobachtungen aus dem Compustat-Datensatz, für die eine Managementschätzung im IBES-Datensatz und der wahre Wert der jeweiligen Kenn­zahl vorliegt. Aus diesem Grund werden die zusammengeführten Datensätze je Kennzahl aus der Datenaufbereitung für die Managementschätzung erneut herangezogen und die dazugehö­rigen, für die ML-Prognose benötigten Attribute257 aus dem Compustat-Datensatz extrahiert und ergänzt. Je Kennzahlprognose mithilfe von ML erhält somit ein anderer Datensatz Eingang in die Modellerstellung und -Validierung. Bei der Datenexploration der einzelnen Datensätze je Kennzahl258 ist ersichtlich, dass diese hinsichtlich der Korrelationen und Ausreißer der Attri­bute eine hohe Ähnlichkeit untereinander und auch zu dem gesamten Ausgangsdatensatz aus Compustat aufweisen.259 Aus diesem Grund erfolgt eine identische Datenaufbereitung der Da­tensätze je Kennzahl, die im Folgenden erläutert wird.

Wie bereits in Kapitel 3.1.2 auf S. 28 erarbeitet, weisen einige Attribute starke Korrelationen zueinander auf. Dennoch werden keine Attribute aufgrund zu hoher Korrelationen entfernt, da die angewandten ML-Verfahren mit Multikollinearitäten umgehen können und diese im Rah­men der Modellerstellung verarbeiten.260 Eine Ausnahme stellt lediglich die LR dar, weshalb im weiteren Verlauf ebenso ein regularisiertes LR-Modell erstellt wird. Darüber hinaus hat sich im Rahmen der allgemeinen Datenexploration ergeben, dass die Attribute im Vergleich zu dem Interquartilsabstand eine erhebliche Spannweite aufweisen. Auch innerhalb der einzelnen Da­tensätze je Kennzahlprognose sind diese Spannweiten und weit vom Median entfernte Ausrei­ßer weiterhin vorzufinden.261 Es wird daher ein Winsorizing auf den Datensätzen vorgenom­men, das dazu fuhrt, dass alle Attribute, deren Wert unter dem 5. sowie über dem 95. Perzentil liegen, durch den Wert des jeweiligen Perzentils ersetzt werden.262 Die Anzahl der Beobach­tungen wird durch das Winsorizing nicht verändert, jedoch werden die Ergebnisse weniger stark durch die Ausreißer verzerrt.

Die vorliegenden Datensätze je Kennzahl besitzen zudem einige Beobachtungen, die für ein­zelne Attribute keinen Wert aufweisen.263 Im Umgang mit diesen Not a Number-Werten (NaNs) werden zwei unterschiedliche Varianten der Datensätze je Kennzahlprognose erstellt und anschließend in den ML-Modellen getestet.264 Für die erste Alternative werden die Be­obachtungen mit NaNs gänzlich aus den Datensätzen entfernt.265 Durch dieses Vorgehen wird allerdings auch die Anzahl der Beobachtungen verringert, was insbesondere bei der Prognose der DPS zu einer weiteren Minimierung des bereits kleinen Datensatzes führt. Im Rahmen der zweiten Methode werden die NaNs durch die Mittelwerte des jeweiligen Attributs ersetzt, wodurch die Anzahl der Beobachtungen zu denen aus den Ausgangsdatensätzen konstant bleibt.266 Da der RF im Gegensatz zu den restlichen ML-Verfahren eine spezielle Funktion im Umgang mit NaNs, die sogenannten Surrogate Splits, besitzt, wird der Ausgangsdatensatz je Kennzahl mit den NaNs ebenso beibehalten.267 Bei den Surrogate Splits wird im Rahmen der Modellerstellung je Attribut eine Liste mit Ersatzvariablen erstellt. Aus dieser wird bei Auftre­ten von NaNs diejenige ausgewählt, die den ursprünglichen Split möglichst ähnlich vor­nimmt.268

Die Tabelle 13 im Anhang auf S. 86 zeigt, wie viele Beobachtungen je Kennzahl in den erzeug­ten Datensätzen vorliegen. Darüber hinaus gibt sie einen Überblick zu weiteren Merkmalen der unterschiedlichen Datensätze, die im Folgenden für die entsprechenden Kennzahlprognosen genutzt werden. Die dargestellten Merkmale der Datensätze mit NaN-Ersatz durch Mittelwert sind identisch zu denen der Datensätze mit NaNs. Dies ist darauf zurückzuführen, dass durch den Ersatz der NaNs lediglich innerhalb der Attribute Veränderungen vorgenommen werden, da keine NaNs innerhalb der Zielvariablen vorliegen. Die DPS stellen mit nur 625 bzw. 351 Beobachtungen den kleinsten Datensatz dar, während die meisten Beobachtungen (21.159 bzw. 18.552) im Datensatz zu den EPS vorliegen. Gleichermaßen bildet der Datensatz zu den EPS die größte Zeitspanne von 1993-2020 ab, während die Beobachtungen im Datensatz der DPS aus den Jahren 2004 bis 2019 stammen.

Im Vergleich der Datensätze mit und ohne NaNs ist auffällig, dass sich die Spannweite der Zielvariable durch das Entfernen der Beobachtungen mit NaNs lediglich bei der Kennzahl CAPX verändert. Hieraus kann konkludiert werden, dass die Beobachtungen zur jeweils größ­ten bzw. kleinsten Zielvariable bei den restlichen Kennzahlen keine NaNs aufweisen. Die Mit­telwerte der Zielvariablen verändern sich ebenfalls nur geringfügig durch das Entfernen der NaNs. Den größten Mittelwert aller Kennzahlen besitzt der Umsatz. Dies ist plausibel, da le­diglich der Umsatz und die CAPX absolute Kennzahlen darstellen und die CAPX als Aufwand grundsätzlich kleiner als der Umsatz eines Unternehmens sein sollten. An den Zielvariablen werden über die bereits in Kapitel 3.2.1 auf S. 31 beschriebenen Maßnahmen zur Beseitigung von fehlerhaften Daten keine weiteren Veränderungen vorgenommen, da die verbleibenden „Ausreißer“ in den Zielvariablen plausible Werte darstellen, die aufgrund unterschiedlicher Größenordnungen und Branchen der Unternehmen auftreten.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 7: Boxplot der Attribute nach Datenaufbereitung

(Quelle: eigene Darstellung)

Die Abbildung 7 stellt abschließend die Verteilung der Attribute nach dem Winsorizing und der Erstellung der drei alternativen Datensätze im Umgang mit NaNs exemplarisch fur den gesamten Ausgangsdatensatz aus Compustat dar. Es ist zu erkennen, dass sich die Spannweiten der einzelnen Attribute deutlich minimiert haben im Vergleich zum Ausgangsdatensatz.269 Die­ser Effekt tritt gleichermaßen bei den einzelnen Kennzahldatensätzen auf. Neben der bereits in Kapitel 3.1.2 auf S. 26 erläuterten Vorauswahl der Attribute anhand von Plausibilitätsüberle­gungen, Literaturrecherche und Erfahrungswissen270 wird keine weitere Variabienselektion271 in der Datenaufbereitung vorgenommen, da die ML-Verfahren automatisch in der Modeller­stellung die für das Modell relevanten Attribute extrahieren. Im Rahmen der LR wird hierfür die Regularisierung mittels Lasso-Regression angewandt.272 Untersuchungen wie z. B. von Chen et al. (2022) zeigen zudem, dass ein größeres Set an Attributen insbesondere beim RF zu einer besseren Prognosefähigkeit fuhrt, soweit Pruning angewandt wird.273

Als abschließende Modifikation wird je Kennzahl ein Datensatz erstellt, bei dem Ratios der Kennzahlen durch Skalierung gebildet werden.274 Hierzu werden die Attribute Buchwert pro Anteil, EBIT, EBITDA, Bruttogewinn, Vorräte, Schulden, Marktwert, Umsatz und EPS an den Vermögenswerten skaliert und die Attribute Vermögenswerte, Herstellungskosten der verkauf­ten Güter, Dividende, Aktienpreis, FoaLL, DPS und CAPX durch das EBIT geteilt.275 Diese Einteilung der Skalierung erfolgt anhand inhaltlicher Aspekte sowie in Anlehnung an Chen et al. (2022).276 Die Modelle mit den Hyperparametereinstellungen, die die höchste Prognosegüte je Kennzahl aufweisen, werden mit dem skalierten Datensatz erneut trainiert und validiert.

4 Methodisches Vorgehen

4.1 Modellvalidierung

Die Modellvalidierung beschreibt die Aufteilung des gesamten Datensatzes zur Modellerstel­lung in eine Trainings- und Validierungsmenge.277 Im Rahmen der vorliegenden Datensätze ist die zeitliche Struktur der Beobachtungen aufgrund der Entwicklung der Kennzahlen und Attri­bute von besonderer Relevanz.278 Wird eine solche Zeitreihe wie ein reiner Querschnittsdaten­satz aufgeteilt, wie es z. B. eine k-fold cross-validation279 vorsieht, wird ein Look-Ahead Bias erzeugt, da die zeitliche Abfolge der Daten nicht berücksichtigt wird.280 Es werden somit z. B. Attribute, die zeitlich weiter in der Zukunft liegen, verwendet, um vorherige Kennzahlen zu prognostizieren.281 Ein derart erzeugtes Modell weist in der Praxis auf gänzlich unbekannten Daten eine geringere Prognosegüte auf.282 Um dies auszuschließen, wird in der vorliegenden Arbeit eine rollierende Validierung vorgenommen.283

Eine rollierende Validierung kann mit einem fixen oder einem expandierenden Zeitfenster er­stellt werden. Bei einem expandierenden Fenster wird mit jedem Validierungsdurchlauf eine zunehmende Anzahl an Beobachtungen im Training berücksichtigt, da sich der Zeitraum der betrachteten Trainingsdaten je Durchlauf um ein Jahr erhöht. Dies bietet den Vorteil, dass mehr

Abbildung in dieser Leseprobe nicht enthalten

Daten je Durchlauf fur die Modellerstellung vorliegen, jedoch können dadurch auch Verzer­rungen entstehen.284 Der vorliegende Datensatz fur die Kennzahlprognose der EPS deckt bei­spielsweise eine Zeitspanne von 1993 bis 2021 ab. Da weit entfernte Ereignisse bei einem ex­pandierendem Fenster in der Trainingsmenge in jedem Validierungsdurchlauf berücksichtigt werden, würde beispielsweise die Weltfinanzkrise ab 2007 immer wieder Beachtung in der Modellerstellung finden. In der Realität besitzt sie aber wenig Einfluss z. B. auf die Kennzahlen im Jahr 2022.285 Aus diesem Grund wird sich für ein fixes statt für ein expandierendes Zeit­fenster in der vorliegenden Arbeit entschieden.286 Bei Anwendung eines fixen Zeitfensters wer­den lediglich Beobachtungen einer konstanten Anzahl an Jahren je Durchlauf zum Trainieren des Modells herangezogen.287

In-Sample-Daten

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 8: Vorgehen der rollierenden Validierung
(Quelle: eigene Darstellung)

Die Abbildung 8 verdeutlicht exemplarisch das Vorgehen der rollierenden Validierung mit ei­nem fixen Zeitfenster von fünf Jahren anhand des Zeitraums von 1993-2002. Zur Prognose der Kennzahl im Jahr 1998 werden die Beobachtungen der Jahre 1993-1997 für die Modellschät­zung und Hyperparameteroptimierung genutzt. Daraufhin wird das Zeitfenster zur Prognose der Kennzahl im Jahr 1999 um ein Jahr verschoben und das Modell sowie dessen Hyperpara­meter mit den Beobachtungen der Jahre 1994-1998 neu geschätzt. Das Jahr 1993 erhält in die­sem Modelldurchlauf keine Berücksichtigung mehr. Das fixe Zeitfenster wird in der vorliegen­den Arbeit zunächst auf einen Zeitraum von fünf Jahren festgelegt, um Konjunkturschwankun­gen und Finanzkrisen zu berücksichtigen, aber um gleichermaßen auszuschließen, dass ledig­lich von Krisen betroffene Jahre in eine Modellerstellung eingehen. In einem kleineren Zeit­fenster würden finanzielle Schocks, wie z. B. durch die Corona-Krise oder durch die Weltfi­nanzkrise eine starke Gewichtung erhalten und somit das Modell verzerren. Bei einem Zeit­fenster von drei Jahren würden beispielsweise für die Prognose des Jahres 2010 ausschließlich Beobachtungen, die stark von der Finanzkrise betroffen waren, in die Modellerstellung einge­hen. Darüber hinaus werden weitere fixe Zeitfenster in der vorliegenden Arbeit getestet. Die Einstellung erfolgt im Rahmen jedes Modells mithilfe des Skalars iFenster.

Neben dem Zeitfensters der rollierenden Validierung kann in jedem Modell die Anzahl der Vergangenheitswerte der Zielvariable (lagged-variables), die zur Modellerstellung genutzt wer­den, bestimmt werden. Auch dies geschieht über einen Skalar (¿Lag). Wird der Skalar auf zwei gesetzt, so erhalten lediglich die Vergangenheitswerte der jeweiligen Kennzahl der letzten zwei Jahre im gewählten Zeitfenster Eingang in die Modellerstellung. Das Lag kann maximal so groß gewählt werden, wie das fixe Zeitfenster der rollierenden Validierung eingestellt ist. Ebenso ist es möglich, über den Parameter ILagged die Anwendung der Vergangenheitswerte der jeweiligen Kennzahl gänzlich zu unterbinden.288 Es wird die Prognosegüte unterschiedli­cher Lags in den jeweiligen Modellen erprobt.

Die durch die Modelle prognostizierten Werte werden zur Beurteilung der Prognosefähigkeit anhand von Fehlermaßen mit dem wahren Wert der jeweiligen Kennzahl verglichen.289 Es wird somit zunächst je Validierungsdurchlauf die durchschnittliche Güte aller darin enthaltenen Be­obachtungen ermittelt.290 Diese Fehlermaße werden weitergehend über alle Validierungsdurch­läufe aggregiert und bewertet. Es ist somit zu beachten, dass durch Anwendung der rollierenden Validierung nicht die Güte eines einzelnen Modells mit fixen (Hyper-)Parametem bewertet wird, sondern der gesamte Prozess über alle Validierungsdurchläufe hinweg.291

[...]


1 Vgl. Cheriyan et al. (2018), S. 53; Lee (2017), S. 293-294; Zhou (2021), S. 15.

2 Vgl. Lee (2017), S. 294.

3 Vgl. Sellhorn (2020), S. 49; Bertomeu (2020), S. 1135; Fieberg/Hesse/Loy/Metko (2022), S. 1, 9-10.

4 Vgl. u. a. Ding et al. (2020), S. 1098-1099; Sellhorn (2020), S. 55; Fieberg/Hesse/Loy/Metko (2022), S. 1.

5 Erwartungen werden insbesondere in der Management's Discussion and Analysis (MD&A) veröffentlicht.

6 Vgl. Selling/Nordlund (2015), S. 503; Ding et al. (2020), S. 1099; Sellhorn (2020), S. 55.

7 Vgl. Ding et al. (2020), S. 1100; Sellhorn (2020), S. 55.

8 Vgl. Petroni/Beasley (1996), S. 152.

9 Vgl. Beaver/McNichols/Nelson (2003), S. 347; Bergstresser/Philippon (2006), S. 527-528; Lev/Li/Sougian- nis (2010), S. 779; Grace/Leverty (2012), S. 376.

10 Vgl. McNichols (2002), S. 61-62; Legerstee/Franses (2014), S. 78.

11 Hiermit ist die direkte Überprüfung bei Abgabe der Schätzung gemeint und nicht die nachträgliche wie z. B. bei Petroni/Beasley (1996). Zustimmend Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099.

12 Zustimmend Kaplan/Reckers (1995), S. 27; Petroni/Beasley (1996), S. 169; Ding et al. (2020), S. 1098-1099; Sellhorn (2020), S. 55.

13 Vgl. Ruland (1978), S. 439, 444. Zustimmend Copeland/Marioni (1972), S. 507-508. Kritisch Green/Segall (1967), S. 54.

14 Zustimmend Ding et al. (2020), S. 1099; Sellhorn (2020), S. 85. ML weist bereits Erfolge in der Prognose von Insolvenzen und Bilanzbetrug auf. Hierfür wird u. a. verwiesen auf Perols et al. (2017), S. 221-245; Barboza/Kimura/Altman (2017), S. 405-417.

15 Vgl. u. a. Callen et al. (1996), S. 475-482; Zhang/Cao/Schniederjans (2004), S. 205-207; Bajaj et al. (2020), S. 3619-3625; Chen et al. (2022), S. 467-515.

16 Siehe beispielhaft Ding et al. (2020), S. 1099. Van Binsbergen/Han/Lopez-Lira (2021), S. 1-2 fuhren darüber hinaus einen Vergleich zu Analystenschätzungen durch.

17 Vgl. Ding et al. (2020), S. 1105-1121, 1128.

18 Vgl. Ding et al. (2020), S. 1121.

19 Vgl. Ding et al. (2020), S. 1128.

20 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56. Beispielhaft Geschäftsbericht Target (2021), S. 26.

21 Vgl. Frankel/McNichols/Wilson (1995), S. 135; Lev/Gu (2016) , S. 5-6.

22 Vgl. Tsai/Chiou (2009), S. 7183; Cao/Parry (2009), S. 32; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Lev/Gu (2016), S. 16-18.

23 Zustimmend Tsai/Chiou (2009), S. 7183; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Selling/Nord- lund(2015), S. 501-503.

24 Vgl. u. a. Cao/Parry (2009), S. 41; Pavlyshenko (2019), S. 24; Ding et al. (2020), S. 1116; Chen et al. (2022), S. 510.

25 Vgl. Rogers/Gunn (2006), S. 175-176; Archer/Kimes (2008), S. 2259; Hunt/Myers/Myers (2022), S. 132.

26 Vgl. Kumar/Ravi (2007), S. 24; Géron (2019), S. 181; Lanquillon (2019), S. 127; Knuth (2021), S. 364-365.

27 Vgl. u. a. Cheriyan et al. (2018), S. 57; Ding et al. (2020), S. 1116; Kubat (2021), S. 93. Zustimmend Boha- nec/Borstnar/Robnik-Sikonja(2017), S. 416.

28 Vgl. Zhang/Cao/Schniederjans (2004), S. 213-214; Ding et al. (2020), S. 1101.

29 Für eine weitere Begründung der regularisierten Methode wird auf das Kapitel 2.3.2 auf S. 16-17 verwiesen.

30 Die Relevanz einer solchen Analyse verdeutlichen Bohanec/Borstnar/Robnik-Sikonja (2017), S. 416-417.

31 Vgl. Ding et al. (2020), S. 1116-1117; Bertomeu (2020), S. 1137. Sowie Azevedo/Bielstein/Gerhart (2021), S. 545-579, die eine Kombination aus Analystenschätzung und multipler LR durchführen.

32 Vgl. Ding et al. (2020), S. 1118; Chen et al. (2022), S. 503-504.

33 Vgl. Ding et al. (2020), S. 1121-1123; Bertomeu (2020), S. 1136-1142.

34 Vgl. Staehle (1969), S. 50; Groll (2004), S. 13; Stephan (2006), S. 7; Schuster/Rüdt von Collenberg (2015), S. 70.

35 Vgl. Groll (2004), S. 5; Stephan (2006), S. 7; Schuster/Rüdt von Collenberg (2015), S. 70.

36 Vgl. u. a. Staehle (1969), S. 52; Kem (1971), S. 702; Stephan (2006), S. 8-9.

37 Vgl. Staehle (1969), S. 52; Stephan (2006), S. 9.

38 Vgl. Staehle (1969), S. 56, Stephan (2006), 16-17. Beispiele für nicht-finanzielle Kennzahlen in Geschäfts­berichten sind z. B. das Mitarbeiterwachstum, die Fluktuationsquote oder Kennzahlen zum Umweltbewusst- sein, wie beispielsweise der CO2-Verbrauch.

39 Ähnlich Schuster/Rüdt von Collenberg (2015), S. 99,103.

40 Ähnlich Schuster/Rüdt von Collenberg (2015), S. 100-101, 103.

41 Vgl. Cao/Parry (2009), S. 32; Etemadi/Ahmadpour/Moshashaei (2014), S. 55; Ding et al. (2020), S. 1099.

42 Vgl. Shmueli (2010), S. 291; Bertomeu (2020), S. 1136; Azevedo/Bielstein/Gerhart (2021), S. 549-550.

43 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43; Kühnapfel (2015), S. 142.

44 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43.

45 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42; Wacker/Lummus (2002), S. 1015-1016. Auch die ML- Verfahren zählen zu den quantitativen Methoden.

46 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42-43.

47 Bei den naiven Verfahren wird der letzte beobachtete Wert der Kennzahl mit einem Faktor (prozentualer Auf- oder Abschlag) erweitert. Das Ergebnis stellt den Prognosewert fur die kommende Periode dar. Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43.

48 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43. Für eine weitere Erläuterung der Verfahren wird ver­wiesen auf Makridakis/Reschke/Wheelwright (1980), S. 115-159; Kühnapfel (2015), S. 166-216.

49 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 43; Kühnapfel (2015), S. 143.

50 Vgl. Makridakis/Reschke/Wheelwright (1980), S. 42.

51 Vgl. Bertomeu (2020), S. 1136.

52 Vgl. Franses/Legerstee (2010), S. 331; Kühnapfel (2015), S. 137-138.

53 Vgl. Kauko/Palmroos (2014), S. 313; Kühnapfel (2015), S. 258.

54 Vgl. Kauko/Palmroos (2014), S. 313; Kühnapfel (2015), S. 261. Für eine weitere Erläuterung der Delphi- Methode wird auf Rowe/Wright (1999), S. 353-375; Kauko/Palmroos (2014), S. 313-327; Kühnapfel (2015), S. 258-262 verwiesen.

55 Vgl. u. a. Makridakis/Reschke/Wheelwright (1980), S. 207; Kühnapfel (2015), S. 139; Pavlyshenko (2019), S. 15; Bertomeu (2020), S. 1137; Ding et al. (2020), S. 1128.

56 Wie beispielsweise die eigene Gewinnmaximierung. Vgl. Bergstresser/Philippon (2006), S. 527-528.

57 Vgl. u. a. Bergstresser/Philippon (2006), S. 527-528; Kühnapfel (2015), S. 249-252; Ding et al. (2020), S. 1098; Bertomeu (2020), S. 1137.

58 Vgl. McNichols (2002), S. 61-62.

59 Vgl. u. a. Bertomeu (2020), S. 1137.

60 Vgl. SEC (2002), https://www.sec.gov/rules/proposed/33-8098.htm; FASB (2010), S. 14; PCAOB (2022), AS 2501.02. Zustimmend Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099.

61 Vgl. Ding et al. (2020), S. 1099.

62 Vgl. Zhang/Cao/Schniederjans (2004), S. 205-206; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Ding et al. (2020), S. 1099, 1128.

63 Vgl. Levine (1960), S. 351-352; Copeland/Marioni (1972), S. 497-512; Kodde/Schreuder (1984), S. 381-395; Bajaj et al. (2020), S. 3619-3625.

64 Vgl. u. a. Cao/Parry (2009), S. 32-41; Etemadi/Ahmadpour/Moshashaei (2014), S. 55-63.

65 Für eine vollständige Übersicht der Anzahl der Beobachtungen je Kennzahl wird verwiesen auf Abbil­dung 13 im Anhang auf S. 83.

66 Für die rollierende Validierung sind größere Datenmengen von Vorteil. Vgl. Poddig/Varmaz/Fieberg (2019), S. 353; Bertomeu (2020), S. 1145-1146.

67 Vgl. Schuster/Rüdt von Collenberg (2015), S. 3.

68 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.

69 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.

70 Zustimmend Acito/Folsom/Zhao (2021), S. 278-279.

71 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 55-56; Schuster/Rüdt von Collenberg (2015), S. 96; Na- gendra/Kumar/Venoor (2018), S. 188, 191.

72 Vgl. Schuster/Rüdt von Collenberg (2015), S. 96.

73 Vgl. Schuster/Rüdt von Collenberg (2015), S. 96; Nagendra/Kumar/Venoor (2018), S. 191.

74 Vgl. Beaver et al. (1989), S. 172-175; Zhang/Cao/Schniederjans (2004), S. 205-206; Etemadi/Ahmad­pour/Moshashaei (2014), S. 55-56, Chen et al. (2022), S. 468.

75 Vgl. Acito/Folsom/Zhao (2021), S. 278-279.

76 Zustimmend Acito/Folsom/Zhao (2021), S. 278-279.

77 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.

78 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.

79 Vgl. Nagendra/Kumar/Venoor (2018), S. 191.

80 Vgl. Emst (2005), S. 215.

81 Vgl. Schuster/Rüdt von Collenberg (2015), S. 77, 80.

82 Langfristig bedeutet länger als ein Jahr. Vgl. u. a. Schuster/Rüdt von Collenberg (2015), S. 77.

83 Vgl. Schuster/Rüdt von Collenberg (2015), S. 80.

84 Vgl. Schuster/Rüdt von Collenberg (2015), S. TI.

85 Vgl. Schuster/Rüdt von Collenberg (2015), S. 79-80.

86 Vgl. Bradshaw et al. (2012), S. 945. Zustimmend Hunt/Myers/Myers (2022), S. 133. Der Jahresabschluss ist Teil des Geschäftsberichts.

87 Vgl. Ball/Brown (1968), S. 159-178; Beaver (1968), S. 67-92.

88 Vgl. Copeland/Marioni (1972), S. 497-512. Ähnlich Kodde/Schreuder (1984), S. 381-395.

89 Vgl. Copeland/Marioni (1972), S. 506-508. Sie nutzen sowohl naive Verfahren als auch Trendextrapolatio­nen als Zeitreihenverfahren.

90 Vgl. Copeland/Marioni (1972), S. 506-508; Ruland (1978), S. 439,444. Kritisch Green/Segall (1967), S. 54.

91 Vgl. Petroni/Beasley (1996), S. 152; Gaver/Paterson (2004), S. 396-398; Grace/Leverty (2012), S. 357-359; Bertomeu (2020), S. 1137.

92 Vgl. Petroni (1992), S. 503-503; Warfield/Wild/Wild (1995), S. 85; Christensen/Hoyt/Paterson (1999), S. 828; Bergstresser/Philippon (2006), S. 524. Zustimmend Ding et al. (2020), S. 1123.

93 Vgl. Bergstresser/Philippon (2006), S. 511-512. Für weitere mögliche Anreize wird verwiesen auf De- chow/Skinner (2000), S. 235-250.

94 Vgl. Kaplan/Reckers (1995), S. 27; Ding et al. (2020), S. 1099, 1123.

95 Vgl. McNichols (2002), S. 61-62; Legerstee/Franses (2014), S. 78.

96 Die statistischen Programme verwenden Zeitreihenanalysen basierend auf der Box-Jenkins-Methode und dem Holt-Winters-Verfahren. Vgl. Franses/Legerstee (2010), S. 334.

97 Vgl. Franses/Legerstee (2010), S. 334.

98 Vgl. Franses/Legerstee (2010), S. 337-339. Zustimmend Fildes/Goodwin (2007), S. 10.

99 Vgl. u. a. Fischer/Verrecchia (2000), S. 229-245; Selling/Nordlund (2015), S. 501-508.

100 Zustimmend Ding et al. (2020), S. 1099; Sellhorn (2020), S. 85. Vgl. fur Beispiele von ML-Prognosen Bajaj et al. (2020), S. 3619-3625; Chen et al. (2022), S. 467-515; Zhang/Cao/Schniederjans (2004), S. 205-236.

101 GBT sind eine andere Weiterentwicklung von DT neben dem RF. GBT benutzen statt des Baggings das Boosting. Für eine weitere Erläuterung des Boostings wird verwiesen auf Freund (1995), S. 256-285 und Freund/Schapire (1997), S. 119-139.

102 Vgl. Chen et al. (2022), S. 468-469.

103 Vgl. Chen et al. (2022), S. 468-469.

104 Sie erstellen sowohl ein univariates als auch ein multivariates NN. Das univariate enthält lediglich Vergan­genheitswerte der EPS als Attribute. Vgl. Zhang/Cao/Schniederjans (2004), S. 216.

105 In Form einer einfachen LR. Vgl. Zhang/Cao/Schniedeijans (2004), S. 213-214.

106 Vgl. Zhang/Cao/Schniederjans (2004), S. 213-216.

107 Vgl. Zhang/Cao/Schniedeijans (2004), S. 206-207,214.

108 Vgl. Zhang/Cao/Schniedeijans (2004), S. 232. Zustimmend Cao/Parry (2009), S. 39-40. Kritisch Callen et al. (1996), S. 480-481 bei deren Untersuchung die Prognosegüte einer Zeitreihenanalyse die der NN über­trifft. Allerdings werden lediglich Vergangenheitswerte der EPS zur Prognose verwendet.

109 Vgl. Ding et al. (2020), S.1101,1116.

110 Vgl. Ding et al. (2020), S. 1100.

111 Sie untersuchen die folgenden fünf Versicherungen: private Kfz-Haftpflicht, gewerbliche Kfz-Haftpflicht, Berufsunfahigkeitsversicherung, Mehrgefahrenversicherung, Gebäudeversicherung.

112 Vgl. Ding et al. (2020), S. 1101-1105.

113 Vgl. Ding et al. (2020), S. 1110.

114 Vgl. Ding et al. (2020), S. 1109. Für eine Erläuterung der Gütemaße wird verwiesen auf den Anhang auf S. 88.

115 Vgl. Ding et al. (2020), S. 1116.

116 Vgl. Ding et al. (2020), S. 1116-1117.

117 Vgl. Ding et al. (2020), S. 1121-1128.

118 Vgl. Ding et al. (2020), S. 1128.

119 Vgl. Samuel (1959), S. 211; Lanquillon (2019), S. 90; Géron (2019), S. 4; MathWorks (2022a), S. 3.

120 Vgl. Mitchell (1997), S. 2; Zhou (2021), S. 1; MathWorks (2022a), S. 2-3.

121 Vgl. MathWorks (2022a), S. 4; Lanquillon (2019), S. 95-96. Im Rahmen weiterer Literatur werden neben den beiden genannten Grundformen auch Mischformen, wie das halbüberwachte und das bestärkende Lernen aufgezählt. Für eine Erläuterung dieser wird verwiesen auf Lanquillon (2019), S. 97-99.

122 Vgl. Bittencourt/Clarke (2003), S. 3751; Bankhofer/Vogel (2008), S. 257; Hastie/Tibshirani/Fried- man (2017), S. 2; Lanquillon (2019), S. 96.

123 Vgl. MathWorks (2022a), S. 6; Lanquillon (2019), S. 97.

124 Vgl. Choo et al. (2020), S. 13; MathWorks (2022a), S. 6.

125 Vgl. Lanquillon (2019), S. 96; Zhou (2021), S. 26.

126 Vgl. Géron (2019), S. 10; Lanquillon (2019), S. 126-128.

127 Vgl. Hastie/Tibshirani/Friedman (2017), S. 29; Richter (2019), S. 3; Choo et al. (2020), S. 14.

128 Vgl. Choo et al. (2020), S. 15; Ding et al. (2020), S. 1109; Zhou (2021), S. 59. Für eine Erläuterung der Gütemaße wird verwiesen auf den Anhang, S. 88.

129 Vgl. Zhou (2021), S. 58.

130 Vgl. James et al. (2013), S. 203; Richter (2019), S. 26; Lanquillon (2019), S. 126.

131 Vgl. James et al. (2013), S. 203; Hastie/Tibshirani/Friedman (2017), S. 11; Richter (2019), S. 26; Choo et al. (2020), S. 14.

132 Vgl. Hastie/Tibshirani/Friedman (2017), S. 12.

133 Vgl. Hastie/Tibshirani/Friedman (2017), S. 11; Richter (2019), S. 26.

134 Vgl. Richter (2019), S. 26; Choo et al. (2020), S. 14.

135 Vgl. Choo et al. (2020), S. 15.

136 Vgl. Richter (2019), S. 28-29,41-42.

137 Vgl. James et al. (2013), S. 204; Hastie/Tibshirani/Friedman (2017), S. 57; Zhou (2021), S. 271.

138 Vgl. Hastie/Tibshirani/Friedman (2017), S. 61; Richter (2019), S. 28-29, 41-42; Molnar (2022), S. 49.

139 Vgl. James et al. (2013), S. 204, 215; Richter (2019), S. 41.

140 Vgl. Hastie/Tibshirani/Friedman (2017), S. 63; Choo et al. (2020), S. 19; Zhou (2021), S. 272.

141 Vgl. James et al. (2013), S. 215; Hastie/Tibshirani/Friedman (2017), S. 61-62.

142 Vgl. Hastie/Tibshirani/Friedman (2017), S. 68.

143 Vgl. Richter (2019), S. 52; Choo et al. (2020), S. 22.

144 Vgl. James et al. (2013), S. 215; Choo et al. (2020), S. 19.

145 Vgl. Richter (2019), S. 52; Géron (2019), S. 140; Choo et al. (2020), S. 22; Molnar (2022), S. 49-50.

146 Vgl. James et al. (2013), S. 215; Choo et al. (2020), S. 22.

147 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/interpret-classification-and-regression-mo- dels.html; Molnar (2022), S. 49-50.

148 Vgl. Molnar (2022), S. S. 49-50.

149 Vgl. Bankhofer/Vogel (2008), S. 273; Russel/Norvig (2012), S. 824; James et al. (2013), S. 303.

150 Vgl. Breiman et al. (1984), S. 21-22; James et al. (2013), S. 306; Richter (2019), S. 164.

151 Dieses Vorgehen wird auch als Greedy-Algorithmus bezeichnet. Zur weiteren Erläuterung des Greedy-Al- gorithmus wird verwiesen auf Hastie/Tibshirani/Friedman (2017), S. 292, 307, Richter (2019), S. 174-175.

152 Vgl. Breiman et al. (1984), S. 20-24; Quinlan (1986), S. 83; Kotsiantis (2013), S. 262; Knuth (2021), S. 365; Zhou (2021), S. 81.

153 Vgl. Breiman et al. (1984), S. 24, 32-33.

154 Vgl. Breiman et al. (1984), S. 22; Quinlan (1986), S. 86; Zhou (2021), S. 80.

155 Vgl. Breiman et al. (1984), S. 23; James et al. (2013), S. 305, Zhou (2021), S. 80.

156 Vgl. Breiman et al. (1984), S. 22; Quinlan (1993), S. 5; Bankhofer/Vogel (2008), S. 273.

157 Vgl. Breiman et al. (1984); James et al. (2013), S. 304-311.

158 Vgl. Breiman (1996), S. 123; Breiman (2001), S. 5, 25, Zhou (2021), S. 190.

159 Vgl. Breiman (2001), S. 5, 11; Richter (2019), S. 218-219.

160 Vgl. Breiman (2001), S. 11; Hastie/Tibshirani/Friedman (2017), S. 588.

161 Vgl. Breiman (2001), S. 11; Hastie/Tibshirani/Friedman (2017), S. 588.

162 Vgl. Breiman (1996), S. 123; Breiman (2001), S. 25-26; Richter (2019), S. 186, 188; Géron (2019), S. 195.

163 Vgl. Breiman (1996), S. 123; Bauer/Kohavi (1999), S. 108-109; Breiman (2001), S. 5.

164 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-588; Zhou (2021), S. 190-191.

165 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-589.

166 Vgl. Hastie/Tibshirani/Friedman (2017), S. 587-589, 596.

167 Vgl. James et al. (2013), S. 19; Zhou (2021), S. 51.

168 Vgl. Breiman et al. (1984), S. 60-62; Kotsiantis (2013), S. 266; Rokach/Maimon (2015), S. 57-58; Lanquil- lon (2019), S. 96, Richter (2019), S. 12, Zhou (2021), S. 4.

169 Vgl. Rokach/Maimon (2015), S. 57; Zhou (2021), S. 26.

170 Vgl. Zhou (2021), S. 51.

171 Vgl. Quinlan (1993), S. 35; Kotsiantis (2013), S. 266; Cleve/Lämmel (2014), S. 108-109; Rokach/Mai­mon (2015), S. 58.

172 Vgl. Breiman et al. (1984), S. 63-66; Kotsiantis (2013), S. 266; Rokach/Maimon (2015), S. 58.

173 Vgl. Han/Kamber/Pei (2012), S. 344; Kotsiantis (2013), S. 262; Cleve/Lämmel (2014), S. 108-109.

174 Vgl. Géron (2019), S. 184-185; MathWorks (2022b), https://de.mathworks.com/help/stats/fitctree.htmL

175 Für eine weitere Erläuterung von Underfitting wird verwiesen auf Rokach/Maimon (2015), S. 69; Lanquil- lon(2019), S. 118-120.

176 Vgl. James et al. (2013), S. 35-36; Richter (2019), S. 12.

177 Vgl. James et al. (2013), S. 34-35, Richter (2019), S. 12.

178 Vgl. James et al. (2013), S. 35-36, 307; Zhou (2021), S. 51.

179 Vgl. James et al. (2013), S. 358; Bertomeu (2020), S. 1146-1147.

180 Vgl. Breiman (2001), S. 23-24; Rogers/Gunn (2006), S. 175-176; Archer/Kimes (2008), S. 2259; Has­tie/Tibshirani/Friedman (2017), S. 592-593; Géron (2019), S. 200; Mathworks (2022b), https://de.mathworks.com/help/stats/interpret-classification-and-regression-models.html.

181 Vgl. Hastie/Tibshirani/Friedman (2017), S. 593; Géron (2019), S. 195: MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermutedpredictorimportance.html.

182 Vgl. Breiman (2001), S. 23; Hastie/Tibshirani/Friedman (2017), S. 593; MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermutedpredictorimportance.html.

183 Vgl. Breiman (2001), S. 24.

184 Vgl. Breiman (2001), S. 23.

185 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermuted- predictorimportance.html.

186 Vgl. MathWorks (2022b), https://de.mathworks.com/help/stats/regressionbaggedensemble.oobpermuted- predictorimportance.html.

187 Vgl. Kohonen (1988), S. 4; Géron (2019), S. 277; Richter (2019), S. 221; Choo et al. (2020), S. 25.

188 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Géron (2019), S. 277; Richter (2019), S. 221.

189 Vgl. Goodfellow/Bengio/Courville (2016), S. 164; Hastie/Tibshirani/Friedman (2017), S. 389; Choo et al. (2020), S. 26; Ranjan (2020), S. 40.

190 Vgl. Andrews/Diederich (1995), S. 373-374; Bologna (2004), S. 325-326; Géron (2019), S. 181.

191 Vgl. Géron (2019), S. 286; Choo et al. (2020), S. 25.

192 Vgl. Géron (2019), S. 321; Ranjan (2020), S. 39; Zhou (2021), S. 119.

193 Wie bei Ding et al. (2020), S. 1104. Für eine Ausführung der weiteren Formen wird verwiesen auf Ran­jan (2020), S. 205-214; Choo et al. (2020), S. 38-45; Zhou (2021), S. 115-121 und Kubat (2021), S. 403-404.

194 Vgl. Géron (2019), S. 286; Choo et al. (2020), S. 25; Kubat (2021), S. 119.

195 Vgl. Choo et al. (2020), S. 25; Kubat (2021), S. 119.

196 Vgl. Choo et al. (2020), S. 28-29; Zhou (2021), S. 107.

197 Vgl. Goodfellow/Bengio/Courville (2016), S. 165; Choo et al. (2020), S. 28-29; Zhou (2021), S. 107.

198 Vgl. Hastie/Tibshirani/Friedman (2017), S. 393; Choo et al. (2020), S. 29.

199 Vgl. Goodfellow/Bengio/Courville (2016), S. 164; Lanquillon (2019), S. 128; Géron (2019), S. 286; Choo et al. (2020), S. 30.

200 Vgl. Choo et al. (2020), S. 30; Ranjan (2020), S. 45-46; Kubat (2021), S. 123.

201 Vgl. Kohonen (1988), S. 9; Richter (2019), S. 226; Choo et al. (2020), S. 26; Kubat (2021), S. 117-119.

202 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Lanquillon (2019), S. 128; Zhou (2021), S. 104.

203 Vgl. Géron (2019), S. 282; Choo et al. (2020), S. 26; Kubat (2021), S. 117.

204 Vgl. Richter (2019), S. 227; Ranjan (2020), S. 40.

205 Vgl. Goodfellow/Bengio/Courville (2016), S. 165-166; Choo et al. (2020), S. 26; Ranjan (2020), S. 40, 76; Kubat (2021), S. 117-118.

206 Vgl. Hastie/Tibshirani/Friedman (2017), S. 392; Richter (2019), S. 227; Choo et al. (2020), S. 27; Ran­jan (2020), S. 45, 76.

207 Vgl. Choo et al. (2020), S. 27; MathWorks (2022b), https://de.mathworks.com/help/stats/fitr- net.html#mw_0d008c5f-4640-448a-8f2a-bcll59e863al.

208 Vgl. Ranjan (2020), S. 83; Choo et al. (2020), S. 27; Kubat (2021), S. 117.

209 Vgl. Ranjan (2020), S. 83; Choo et al. (2020), S. 27; Kubat (2021), S. 117.

210 Vgl. Choo et al. (2020), S. 27.

211 Vgl. Hastie/Tibshirani/Friedman (2017), S. 394; Choo et al. (2020), S. 27.

212 Vgl. Hastie/Tibshirani/Friedman (2017), S. 394; Choo et al. (2020), S. 27.

213 Dieser Algorithmus wurde erstmals von Werbos im Jahr 1982 auf NN übertragen und wird seitdem ange­wandt. Für eine weitere Erläuterung wird verwiesen auf Werbos (1982), S. 762-765; Goodfellow/Ben- gio/Courville (2016), S. 172-175; Choo et al. (2020), S. 30-34.

214 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Lanquillon (2019), S. 128; Géron (2019), S. 282; Choo et al. (2020), S. 30; Kubat (2021), S. 123.

215 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Lanquillon (2019), S. 128; Choo et al. (2020), S. 30-31; Kubat (2021), S. 122.

216 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395-396; Choo et al. (2020), S. 31-32.

217 Im Minimum der Verlustfunktion nimmt der Gradient den Wert null an. Vgl. Goodfellow/Bengio/Cour- ville (2016), S. 172-173; Richter (2019), S. 230; Choo et al. (2020), S. 31-32.

218 Vgl. Richter (2019), S. 231; Choo et al. (2020), S. 32.

219 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395; Richter (2019), S. 231.

220 Vgl. Richter (2019), S. 231; Choo et al. (2020), S. 32.

221 Vgl. Hastie/Tibshirani/Friedman (2017), S. 395, 398; Choo et al. (2020), S. 36.

222Vgl. Choo et al. (2020), S. 37-38.

223Vgl. Choo et al. (2020), S. 37-38.

224Vgl. Choo et al. (2020), S. 37-38.

225Ähnlich Ding et al. (2020), S. 1106.

226Für die Datenexploration des Compustat-Datensatzes wird verwiesen auf Kapitel 3.1.2 auf S. 26-28.

227Vgl. Refmitiv (2022), https://www.refmitiv.eom/en/fmancial-data/company-data/ibes-estimates#how.

228 Vgl. Thomson Reuters (2009), S. 8.

229 Die Schätzungen für die Jahre ab 2022 sind für die vorliegende Untersuchung nicht von Interesse, da sie nicht mit dem tatsächlich eingetretenen (wahren) Wert verglichen werden können. Eine Selektion erfolgt im späteren Verlauf.

230 Vgl. Thomson Reuters (2009), S. 4.

231 Für eine Erläuterung möglicher Prognoseverfahren wird verwiesen auf Kapitel 2.1 auf S. 5-7.

232 Je nachdem, in welcher Form sie von dem Unternehmen veröffentlicht werden.

233 Vgl. Thomson Reuters (2009), S. 4. Dieser Mittelwert wird im weiteren Verlauf allerdings nicht betrachtet, da die Managementschätzungen im Fokus stehen.

234 In der vorliegenden Arbeit wird wie bei Chen et al. (2022) ein digitaler Anhang verwendet, um die Druck­version kürzer zu halten.

235 Vgl. Acito/Folsom/Zhao (2021), S. 279. Hierzu wird verwiesen auf Kapitel 2.1 auf S. 8-10 verwiesen.

236 Wie auch bei Ding et al. (2020), S. 1105; Chen et al. (2022), S. 468.

237 Für die rollierende Validierung sind größere Datenmengen von Vorteil. Vgl. Poddig/Vannaz/Fieberg (2019), S. 353; Bertomeu (2020), S. 1145-1146.

238 Vgl. Refmitiv (2022), https://www.refmitiv.com/en/financial-data/company-data/fundanientals-data/stan- dardized-fundamentals/sp-compustat-database.

239 Vgl. The McGraw-Hill Companies (2003), S. 1.

240 Vgl. Callen et al. (1996), S. 477; Zhang/Cao/Schniederjans (2004), S. 216.

241 Vgl. Zhang/Cao/Schniederjans (2004), S. 206-207; Azevedo/Bielstein/Gerhart (2021), S. 554; Van Binsber- gen/Han/Lopez-Lira (2021), S. 13-14; Chen et al. (2022), S. 510. Für die Analyse fundamentaler Einfluss­faktoren wird verwiesen auf Penman (1992), S. 465-483; Lev/Thiagarajan (1993), S. 200-202; Abarba- nell/Bushee (1997), S. 4-7.

242 Beispielsweise für den Aufbau der rollierenden Validierung, die in dieser Arbeit angewandt wird. Hierfür wird verwiesen auf Kapitel 4.1 auf S. 35-37.

243 Die Verteilung der Zielvariablen wird aufgrund weiterer Anpassung des Datensatzes in Kapitel 3.2.1 auf S. 30-31 analysiert. Zur weiteren Erläuterung von Boxplots und deren Anwendung wird verwiesen auf Pod- dig/Varmaz/Fieberg (2019), S. 61-62; Rao/McMahan (2019), S. 69-70.

244 Der Umgang mit Ausreißern wird im Rahmen der Datenaufbereitung und Modellerstellung in Kapitel 3.2.2 auf S. 32 erläutert.

245 In der Tabelle 12 auf S. 85 sind die Korrelationskoeffizienten über 0,9 hellrot gekennzeichnet.

246 Der Umgang mit diesen Korrelationen in der vorliegenden Untersuchung wird im Kapitel 3.2.2 auf S. 32 erläutert.

247 Eine weitere Möglichkeit einen höheren Umsatz zu erzielen ohne Produktionsanstieg wäre eine Preissteige­rung.

248 Ähnlich Ding et al. (2020), S. 1106.

249 Vgl. Thomson Reuters (2009), S. 7.

250 Den GVKEY nutzt IBES nicht. Vgl. Thomson Reuters (2009), S. 7.

251 Vgl. Stanford Business Graduate School (2022), https://libguides.stan- ford.edu/c.php?g=559845&p=6686228.

252 Der Wert entspricht in Matlab somit Not a Number (NaN).

253 Vgl. Rao/McMahan (2019), S. 69-70. Für die Boxplots wird verwiesen auf den digitalen Anhang auf S. 2-4.

254 Hierzu wird verwiesen auf Abbildung 5 im digitalen Anhang auf S. 4.

255 Vgl. Ding et al. (2020), S. 1110. Der Umsatz, die DPS und die CAPX können beispielsweise keine negativen Werte annehmen. Für eine Erläuterung wird verwiesen auf Kapitel 2.1 auf S. 8-10.

256 Wie bei Ding et al. (2020), S. 1106; Chen et al. (2022), S. 479.

257 Für die Attribute der ML-Prognose wird verwiesen auf Tabelle 11 im Anhang auf S. 84.

258 Für die Boxplots der einzelnen Kennzahldatensätze wird verwiesen auf den digitalen Anhang auf S. 5-8.

259 Hierfür wird verwiesen auf Abbildung 5 in Kapitel 3.1.2 auf S. 27.

260 Vgl. Etemadi/Ahmadpour/Moshashaei (2014), S. 57; Hunt/Myers/Myers (2022), S. 137.

261 Hierfür wird verwiesen auf die Boxplots der Attribute je Kennzahldatensatz im digitalen Anhang auf S. 5-8.

262 Wie bei Azevedo/Bielstein/Gerhart (2021), S. 550; Hunt/Myers/Myers (2022), S. 137. Vgl. MathWorks (2022b), https://de.mathworks.com/help/matlab/ref7filloutliers.html.

263 Für die Anzahl der Beobachtungen, die NaNs enthalten, je Datensatz wird verwiesen auf Tabelle 13 auf S. 86. Die Differenz der Anzahl an Beobachtungen der Datensätze mit und ohne NaN je Kennzahl stellt die Anzahl der Beobachtungen mit NaNs dar.

264 Die Zielvariablen enthalten aufgrund der bereits vorgenommenen Aufbereitung des Datensatzes für die Ma­nagementschätzungen keine NaNs mehr.

265 Wie auch bei Ding et al. (2020), S. 1110.

266 Vgl. Rao/McMahan (2019), S. 78-79; Chen et al. (2022), S. 482.

267 Vgl. Hunt/Myers/Myers (2022), S. 137.

268 Für eine Erläuterung des Vorgehens der Surrogate Splits wird verwiesen auf Breiman et al. (1984), S. 130, 140-143; Hastie/Tibshirani/Friedman (2017), S. 311.

269 Für den Boxplot des Ausgangsdatensatz wird verwiesen auf Abbildung 5 auf S. 27.

270 Vgl. Poddig/Varmaz/Fieberg (2019), S. 333.

271 Für eine weitere Ausführung von möglichen Variabienselektionsalgorithmen wird verwiesen auf Pod­dig/Varmaz/Fieberg (2019), S. 342-344.

272 Für eine weitere Erläuterung wird verwiesen auf Kapitel 2.3.2 auf S. 16-17.

273 Vgl. Chen et al. (2022), S. 510. Zustimmend Hunt/Myers/Myers (2022), S. 137.

274 Wie bei Hunt/Myers/Myers (2022), S. 148.

275 Für eine Übersicht der Kennzahlen nach Skalierung wird verwiesen auf Tabelle 14 im Anhang auf S. 87.

276 Vgl. Chen et al. (2022), S. 483. Ähnlich Barboza/Kimura/Altman (2017), S. 410.

277 Dies dient insbesondere zur Bestimmung der optimalen Hyperparameter. Die Prognosegüte wird letztendlich an der Out-of-Sample-Menge ermittelt. Vgl. Kuhlmann (2007), S. 408; Chen et al. (2022), S. 489.

278 Zustimmend Pavlyshenko (2019), S. 15; Chen et al. (2022), S. 489.

279 Wie beispielsweise bei Ding et al. (2020), S. 1104-1105. Für eine Erläuterung wird verwiesen auf Ding et al. (2020), S. 1104-1105.

280 Vgl. Pavlyshenko (2019), S. 23; Bertomeu (2020), S. 1145; Chen et al. (2022), S. 489-490.

281 Zustimmend Bao et al. (2019), S. 215; Bertomeu (2020), S. 1145; Chen et al. (2022), S. 489-490.

282 Vgl. Bao et al. (2020), S. 215; Bertomeu (2020), S. 1145.

283 Wie auch bei Van Binsbergen/Han/Lopez-Lira (2021), S. 8-9; Chen et al. (2022), S. 489-490. Für eine Er-
klärung der rollierenden Validierung wird verwiesen auf Poddig/Varmaz/Fieberg (2019), S. 350-353.

284 Vgl. Poddig/Varmaz/Fieberg (2019), S. 351-353.

285 Ein weiteres Beispiel stellt die Corona-Pandemie dar, die aktuell zwar große Auswirkungen auf die Kenn-
zahlen der Unternehmen besitzt, aber beispielsweise in 2035 nur noch geringen Einfluss auf diese hat.

286 Wie auch bei Zhang/Cao/Schniederjans (2004), S. 216-217; Chen et al. (2022), S. 489-490.

287 Vgl. Chen et al. (2022), S. 490.

288 Dadurch besitzen die Datensätze ein Attribut weniger.

289 Ähnlich Cheriyan et al. (2018), S. 57; Ding et al. (2020), S. 1116.

290 Ähnlich Azevedo/Bielstein/Gerhart (2021), S. 550.

291 Vgl. Poddig/Varmaz/Fieberg (2019), S. 353.

Ende der Leseprobe aus 137 Seiten  - nach oben

Details

Titel
Die Prognosefähigkeit von Machine Learning-Verfahren und Managementschätzungen im Rahmen von finanziellen Unternehmenskennzahlen. Ein Vergleich
Hochschule
Universität Bremen  (Lehrstuhl für Allgemeine Betriebswirtschaftslehre, Unternehmensrechnung und Controlling)
Veranstaltung
Masterarbeit
Note
1,3
Autor
Anonym (Autor:in)
Erscheinungsjahr
2022
Seiten
137
Katalognummer
V1368399
ISBN (PDF)
9783346904188
ISBN (Buch)
9783346904195
Sprache
Deutsch
Schlagworte
Controlling Kennzahlenprognose Machine Learning Managementschätzung Accounting Estimates Matlab Kennzahlprogrammierung Programmierung
Produktsicherheit
GRIN Publishing GmbH
Arbeit zitieren
Anonym (Autor:in), 2022, Die Prognosefähigkeit von Machine Learning-Verfahren und Managementschätzungen im Rahmen von finanziellen Unternehmenskennzahlen. Ein Vergleich, München, GRIN Verlag, https://www.grin.com/document/1368399
Blick ins Buch
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • https://cdn.openpublishing.com/images/brand/1/preview_popup_advertising.jpg
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
  • Wenn Sie diese Meldung sehen, konnt das Bild nicht geladen und dargestellt werden.
Leseprobe aus  137  Seiten
Grin logo
  • Grin.com
  • Zahlung & Versand
  • Impressum
  • Datenschutz
  • AGB
  • Impressum