Modellierung und Prognose von Kapitalmarktvolatilität mit GARCH-Modellen


Bachelorarbeit, 2018

40 Seiten, Note: 1,7


Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Die GARCH-Familie
2.1 Das ARCH-Modell
2.2 Das GARCH-Modell
2.3 Asymmetrische GARCH-Modelle

3. Empirische Befunde

4. Analyse der Zeitreihe des DAX
4.1 Daten und Datenaufbereitung
4.2 Die Wölbung der Wahrscheinlichkeitsverteilung
4.3 Volatilitäts-Clustering
4.4 Autokorrelation der stetigen Renditen

5. Schätzung der Modelle
5.1 Die Schätzung des GARCH-Modells
5.2 Die Schätzung des EGARCH-Modells
5.3 Vergleich der Modelle
5.4 Prognose der Volatilität mittels des GARCH-Modells
5.5 Vergleich der Prognose
5.6 Alternative Modelle

6. Fazit

7. Anhang

8. Literaturverzeichnis

Abstract

In dieser empirischen Analyse werden Verfahren zur Modellierung und Prognose der Volatilität für den Deutschen Aktienindex (DAX) verwendet. Zu diesem Zweck wird ein GARCH-Modell beziehungsweise ein EGARCH-Modell geschätzt um diese miteinander zu vergleichen, vor allem hinsichtlich ihrer Prognosefähigkeit. Hierzu werden die stetigen Renditen des DAX vom 13. Mai 2008 bis zum 30. April 2018 als Datengrundlage herangezogen. Bei der statistischen Analyse dieser Finanzmarktzeitreihe zeigt sich, dass diese leptokurtisch verteilt ist und Autokorrelation aufweist. Unter der Berücksichtigung des Schwarz-Informationskriteriums wird ein GARCH(1,1)-Modell und eine EGARCH(1,1)-Modell geschätzt. Bei dem Vergleich der Modelle, hierzu wurden die standardisierten Residuen auf Normalverteilung und Autokorrelation getestet, zeigt sich generell keine Überlegenheit eines Modells. Beim Vergleich der Prognosegüte werden zwei gängige Prognosefehler hinzugezogen. Hier wird nachgewiesen, dass das GARCH(1,1)-Modell eine bessere Fähigkeit Prognosen zu generieren besitzt als das EGARCH(1,1)-Modell, aufgrund der geringeren Werte bei den Prognosefehlern.

1. Einleitung

Die Volatilität stellt eine entscheidende Größe in der finanzwirtschaftlichen Forschung beziehungsweise in der Finanzmarktökonometrie dar, denn diese ist gleichbedeutend mit dem Wort Risiko. Definiert ist diese als Schwankung, beispielweise eines Wertpapierkurs und ist somit ein Maß des Risikos einer Kapitalanlage. Dabei kommt die Volatilität in verschiedenen Gebieten zum Einsatz. Ein Einsatzgebiet, das der Volatilität am meisten Beachtung schenkt, ist die Finanzbranche. Neben dem persönlichen Interesse die Volatilität für beispielsweise Aktienkurse zu wissen, ist diese in der Bewertung von Finanzderivaten unerlässlich. Da bei einer Option, die Volatilität neben anderen Faktoren in diese Bewertung mit einbezogen wird und somit den Wert einer Option beeinflusst. Im Hinblick auf das große Handelsvolumen von Optionen, wäre dieser Grund schon ausreichend, warum die Forschung beziehungsweise die Finanzunternehmen so erpicht sind die Volatilität zu bestimmen. Parallel sind Fondsmanager ebenfalls an der Bestimmung der Volatilität interessiert, da diese zur Risikominderung des Portfolios von Nöten ist. Im Bereich Risikomanagement von Banken spielt die Volatilität ebenso eine große Rolle. Diese sind gezwungen, aufgrund der erkannten Schwächen in der Bankregulierung nach der letzten Finanzkrise, einen großen Teil ihres Eigenkapitals für einen potenziellen Verlust zurückzuhalten. Neben dem finanzwirtschaftlichen Interesse ist die Volatilität auch in volkswirtschaftlichen Einsatzgebieten präsent. Ein Beispiel hierfür ist, dass die Europäische Zentralbank (EZB) bei der Wahl einer geldpolitischen Vorgehensweise die Volatilität beachten muss, um beispielweise aufkommende Phasen von Finanzmarktturbulenzen entgegenwirken zu können. Deswegen müssen der EZB präzise Prognosen vorliegen, da geldpolitische Entscheidungen von der Zentralbank direkten Einfluss auf die Finanzmärkte haben.

Aus den eben genannten Gründen, besteht großes Interesse an zuverlässigen Prognosen der Volatilität. Allerdings entstehen hier zwei größere Probleme. Das erste Problem ist, dass die Volatilität nicht wie ein Aktienkurs beobachtbar ist, sondern nur geschätzt werden kann. Hinzu kommt, dass Finanzmarktdaten statistische Besonderheiten aufweisen, die mit klassischen Methoden der Zeitreihenanalyse nicht adäquat modelliert werden können. Um der hier vorliegenden Arbeit nicht zu viel vorwegzunehmen, werden diese Besonderheiten beziehungsweise die Lösung zur Modellierung, im Auftakt nicht näher beschrieben.

Das Ziel dieser Arbeit ist es, geeignete Volatilitätsmodelle zu schätzen und diese in Bezug auf die Modellierung von Finanzmarktdaten und deren Fähigkeit zur Prognose von Volatilitäten zu vergleichen. Hierbei befasst sich diese Untersuchung mit dem Deutschen Aktienindex (DAX), da dieser der bedeutendste deutsche Aktienindex ist.

Das überaus große Interesse von Volatilitätsprognosen in der Forschung, sowie in der Finanzwelt, dient als Motivation für diese Arbeit.

Im den zwei darauffolgenden Kapiteln wird zuerst eine theoretische Einführung der zu schätzenden Volatilitätsmodelle vorgenommen und anschließend Forschungsarbeiten ausgewählter Personen vorgestellt. Diese Forschungsarbeiten behandeln das gleiche Thema, die Prognose von Volatilität bestimmter Aktienindizes. In Kapitel 4 werden die bereits oben genannten statistischen Besonderheiten von Finanzmarktdaten näher erläutert und die Zeitreihe des DAX auf diese analysiert. Anschließend werden in Kapitel 5 die Volatilitätsmodelle zunächst geschätzt und ausführlich erklärt, gefolgt von einem Modellvergleich der zu schätzenden Modelle. Ebenso wird in diesem Kapitel aufgezeigt wie sich manuell eine Prognose von Volatilitäten berechnen lässt. Danach werden die verschiedenen Prognosen der Volatilitätsmodelle erstellt und diese gegeneinander verglichen. Abschließend zum Kapitel 5 wird es noch einen Abschnitt geben, in dem weitere Volatilitätsmodelle vorgestellt werden, die spezifische Probleme behandeln. Am Ende dieser Analyse werden die empirischen Ergebnisse zusammengefasst und bewertet, ebenso werden Zukunftsaussichten aufbauend auf der Analyse vorgebracht.

Alle Modelle beziehungsweise Abbildungen wurden mit der Ökonometrie-Software EViews 10 erstellt.

2. Die GARCH-Familie

2.1 Das ARCH-Modell

In den achtziger Jahren hat sich die Zeitreihenanalyse grundlegend, durch das richtungsweisende Volatilitätsmodell des Wirtschafts-Nobelpreisträger Engle (07/1982), verändert. In der Zeitreihenökonometrie wurde bis dato mit statistischen Methoden gearbeitet, die eine konstante Varianz und normalverteilte Renditen voraussetzen (Hassler 2003:814). Allerdings erfüllen gerade Finanzmarktzeitreihen diese Vorrausetzungen nicht, die in Kapitel 4 (s.S.8) näher erläutert werden. Um dennoch Finanzmarktdaten adäquat modellieren zu können, entwickelte Engle (07/1982) das ARCH-Modell. Der Begriff ARCH steht für Autoregressive-Conditional-Heteroskedasticity. Mit diesem Modell lässt sich die bedingte (conditional) Varianz, die von der eigenen Vergangenheit der Zeitreihe abhängt (autoregressive), über die Zeit variieren (Hussin 2009:21). Heteroskedastizität ist definiert, durch die nicht konstante Varianz der Fehlerterme, wofür der letzte Buchstabe des Begriffs ARCH steht. Mit dem ARCH-Modell lassen sich diese Eigenschaften von Rendite-Daten zufriedenstellend abbilden und Schätzungen der bedingten Varianz zukünftiger Renditen bilden. In dem ARCH(q)-Modell wird die bedingte Varianz durch eine lineare Funktion von q zeitverzögerten quadrierten Residuen spezifiziert, die in Formel (1) dargestellt ist (Schmitt 2012:280).

Abbildung in dieser eseprobe nicht enthalten

Das klassische ARCH-Modell findet in der Praxis häufig keine Anwendung mehr, da dieses im Laufe der Zeit weiterentwickelt wurde. Von großer Bedeutung ist dabei die allgemeine Gattung der ARCH-Modelle, die GARCH-Familie, die im Anschluss erläutert wird (Schmitt 2012:279). Somit lässt sich festhalten, dass der Stammvater zwar das ARCH-Modell ist, aber die statistische Modellierung meist seine Nachkommenschaft aus der GARCH-Familie leistet.

2.2 Das GARCH-Modell

Das GARCH-Modell (generalized ARCH) wurde von Bollerslev (1986) als Verbesserung des ARCH-Modells vorgeschlagen. In empirischen Untersuchungen von Finanzmarktzeitreihen hat sich ergeben, dass beim ARCH-Modell, eine hohe Anzahl von q erforderlich ist, um die Volatilität vernünftig abzubilden (Specht 1999:51). Dies ist nötig, da die Volatilität meist noch von weit zurückliegenden Schocks beeinflusst wird. Durch die Modellierung, unter Einbeziehung vieler Parameter, entstehen jedoch letztendlich Schätzprobleme (Jacobi 2005:7). Eine Lösung für diese Problematik bietet das GARCH-Modell, das eine flexiblere Lagstruktur erlaubt (Bollerslev 1986:308). Beim GARCH-Modell hängt die bedingte Varianz, neben den quadrierten verzögerten Residuen, zusätzlich von der eigenen Vergangenheit der Volatilität ab (Specht 1999:51). In der Formel (2), ist die Struktur der Varianz aus einem GARCH(p,q)-Modell ersichtlich.

Abbildung in dieser eseprobe nicht enthalten

Das GARCH-Modell zeichnet sich durch eine sehr viel sparsamere Parametrisierung aus, im Vergleich zum ARCH-Modell (Schmitt 2012:283). Die Interpretation der Parameter sowie die nötigen Bedingungen des GARCH(p,q)- Modell werden in Kapitel 5 (s.S.16) erläutert.

Das GARCH-Modell zählt heutzutage als Standard auf dem Gebiet der Volatilitätsanalyse. Allerdings erfolgte auf Basis dieses Modells eine Reihe von Modifikationen, die die Modellierung von Finanzmarktreihen verbessert. Eine der Modellerweiterungen berücksichtigt angemessen die Asymmetrien auf Finanzmärkten, die nun anschließend konkretisiert werden.

2.3 Asymmetrische GARCH-Modelle

In dem nun beschriebenen GARCH-Modell wird eine bestimmte Asymmetrie auf den Finanzmärkten nicht berücksichtigt, die als Leverage-Effekt bezeichnet wird. Dieser ist definiert, indem die Volatilität bei fallenden Kursen stärker zunimmt als bei betragsmäßig identischen steigenden Kursen (Black 1976, zitiert nach Nelson 03/1991:349). Erklärt werden kann der Leverage-Effekt so, dass durch schlechte Nachrichten der Aktienkurs fällt und somit auch der Eigenkapitalanteil des Unternehmens. Infolgedessen erhöht sich der Verschuldungsgrad und steigert somit das Unternehmensrisiko, beziehungsweise die bedingte Volatilität der Aktie (Campbell et al. 1997:497). Marktinformationen haben also einen asymmetrischen Effekt auf die Volatilität bei Aktien beziehungsweise Aktienindizes.

Diesen Effekt bestätigt Tallau (06/2012) in seiner Publikation: ,, Zum Zusammenhang von DAX-Renditen und dem Volatilitätsindex VDAX-NEW“ für DAX-Renditen. Demnach führen negative DAX-Renditen bei absoluter Betrachtung zu einer höheren Volatilität als positive. Zu dieser Feststellung gelangt er, indem er die täglichen Veränderungen des VDAX-NEW auf die täglichen logarithmierten Renditen des DAX regressiert. Der VDAX-NEW ist ein Volatilitätsindex der die erwartete Volatilität von den Marktteilnehmern des DAX für die nächsten 30 Tage abbildet. Dieser Index wird aus den Optionspreisen abgeleiteten impliziten Volatilitäten definiert. In der Wissenschaft gibt es jedoch unterschiedliche Meinungen, inwiefern sich diese gemessene implizite Volatilität als effizienter Schätzer für die zukünftige realisierte Volatilität eignet. Der Autor modellierte verschiedene Regressionen für unterschiedliche Zeiträume und zeigte somit, dass für jeden Zeitraum beziehungsweise für den Gesamtzeitraum einen asymmetrischen Zusammenhang zwischen Veränderungen des VDAX-NEW und den DAX-Renditen besteht. Für den Gesamtzeitraum sollte laut dem Modell ein Anstieg der DAX-Renditen um 1% mit einem Rückgang des VDAX-NEW um 0,260 Punkte einhergehen. Während bei einer negativen DAX-Rendite der VDAX-NEW um 0,977 Punkte steigt.

Allerdings kann das GARCH-Modell den Leverage-Effekt nicht modellieren, da es positive wie auch negative Reaktionen auf Kursänderungen gleich behandelt (Schmid und Trede 2006:182). Ein Ausweg aus diesem Dilemma bietet das Exponential-GARCH-Modell (EGARCH), das von Nelson (03/1991) entwickelt wurde. Dieses Modell erlaubt, dass negative Reaktionen eine höhere Einflussnahme auf die bedingte Volatilität haben als positive, durch eine logarithmierte Transformation der bedingten Volatilität (Schmelzer 2009:52). Neben dem EGARCH-Modell gibt es reichlich weitere Modelle die diese Asymmetrie modellieren können, auf die aber nicht näher eingegangen wird. Eine Schätzung sowie eine ausführliche Erläuterung der Koeffizienten in einem EGARCH-Modell werden in Abschnitt 5.2 (s.S.17) vorgenommen.

3. Empirische Befunde

Im folgenden Abschnitt werden verkürzt ausgewählte empirische Analysen über Volatilitätsmodelle vorgestellt.

Jacobi (2005) untersuchte in seiner Arbeit ,,ARCH-Prozesse und ihre Erweiterungen: Eine empirische Untersuchung für Finanzmarktzeitreihen“, die Eignung des ARCH-Modells, des GARCH-Modells und ausgewählte Erweiterungen hinsichtlich der Prognosen für die bedingte Varianz. Als Datengrundlage verwendete er die Schlusskurse des DAX in einem Zeitraum vom 01. Februar 1991 bis zum 29. Dezember 2000. In seiner Arbeit wurden die logarithmierten Tagesrenditen zur Modellierung verwendet. Er kam zu dem Schluss, dass das GARCH-Modell und seine Erweiterungen dem einfachen ARCH-Modell hinsichtlich einer besseren Anpassung an die Daten, überlegen sind. Zum Vergleich der Prognose verwendete er zwei Kennzahlen der Prognosegüte, den MSE (Mittlerer quadratischer Prognosefehler) sowie den MAE (Mittlerer absoluter Prognosefehler). Bei Gegenüberstellung der Prognosefehler wurde festgestellt, dass die beiden asymmetrischen GARCH-Modelle die präziseren Ex-post-Prognosen liefern, als das klassische GARCH-Modell. Das ARCH-Modell lieferte bei beiden Prognosefehler die schlechtesten Ergebnisse. Er wählte in seiner Analyse jedoch nicht das EGARCH-Modell zur Erstellung der Prognose aus, sondern zwei andere asymmetrische GARCH-Modelle aus, das NGARCH- beziehungsweise das GJR-GARCH-Modell.

Curto und Pinto (2012) überprüften in ihrer Arbeit ,,Predicting the financial crisis volatilty“ welche gängige GARCH-Modelle die Volatilität in extremen Situationen besser vorhersagen können. Zur Analyse wurden die täglichen Schlusskurse acht großer Indizes verwendet, darunter CAC 40 (Frankreich), DAX 30 (Deutschland), FTSE 100 (England), NIKKEI 225 (Japan), Hang Seng (Hongkong), NASDAQ 100, DJIA und S&P 500 (USA). Aus diesen Schlusskursen wurden dann die logarithmierten Renditen berechnet. Der Beobachtungszeitraum ist vom 31. Dezember 1994 bis zum 31.Dezember 2008 ausgewählt worden. In diesem Zeitraum sind neben der Subprime-Krise auch weitere Krisen beinhaltet wie zum Beispiel die Dotcom-Blase und der 11. September 2001. Um zu bestimmen welches Modell in der Lage ist die gesteigerte Volatilität adäquat vorherzusagen, werden die Modellparameter in den ersten 13 Jahren geschätzt (1995 bis 2007), während das Jahr 2008 als Prognosezeitraum dient. Es wurden neben dem GARCH-Modell, die asymmetrischen Modellerweiterungen EGARCH-, GJR- und APARCH-Modell zur Schätzung der Volatilität modelliert. In der Arbeit wurde aufgezeigt, dass die asymmetrischen Modelle sich besser an die Daten anpassen, als das GARCH-Modell. In der out-of-sample-Analyse wurde aufgezeigt, dass das EGARCH- und APARCH-Modell die anderen zwei Modelle hinsichtlich der Volatilitätsvorhersagen dominieren. Diese Schlussfolgerung kam unter Zuhilfenahme des Harvey-Newbold-Tests und den Werten von den Bestimmtheitsmaßen der Mincer-Zarnowitz Regression zustande. Das EGARCH-Modell kristallisiert sich bei den Tests, als das am besten geeignetste Modell zur Vorhersage der extremen Volatilität im Jahr 2008 heraus.

In einer etwas aktuelleren Analyse verglichen Thalassinos, Ugurlu und Muratoglu (2015) verschiedene Typen der Volatilitätsmodelle, hinsichtlich ihrer Fähigkeit Prognosen zu generieren. In ihrer Arbeit ,,Comparison of Forecasting Volatility in the Czech Republic Stock Market“, schätzten sie ein klassisches GARCH-Modell, sowie das asymmetrische GJR- und EGARCH-Modell. Als Datenbasis verwendeten sie die Tagesdaten vom 08.01.2001 bis zum 20.07.2012 des PX Index, den offiziellen Index der Prager Börse. Aus diesen Daten wurden dann die stetigen Renditen berechnet. In ihrer Analyse schätzten sie jedes Modell mit anderen Verteilungsannahmen für die Residuen, darunter die Normalverteilung, Student-t-Verteilung und die verallgemeinerte Fehlerverteilung (siehe hierzu Kapitel 5.6). Sie verglichen darauf die geschätzte Varianz der Modelle für den gesamten Untersuchungszeitraum. Dabei verwendeten sie gängige Prognosefehler, den mittleren quadratischen Fehler (MSE) und den mittleren absoluten Fehler (MAE). Hierbei erweitern sie diese Prognosefehler noch zusätzlich indem sie die Variablen quadrieren, infolgedessen stehen ihnen 4 Kennzahlen zur Verfügung. Einmal die Kennzahlen ohne und mit quadrierten Werten. Sie kamen zu dem Ergebnis, dass das EGARCH-Modell die besten Resultate liefert. Dies ist aufgrund der Großteils geringsten Prognosefehler begründet, auch bei Betrachtung verschiedener Verteilungsannahmen für die Residuen.

An dieser Stelle ist nochmals anzumerken, dass die in diesen Analysen verwendeten GARCH-Modelle, nur ein Bruchteil aller Modelle sind, die zur Modellierung und Prognose von Volatilitäten genutzt werden.

4. Analyse der Zeitreihe des DAX

4.1 Daten und Datenaufbereitung

In der folgenden empirischen Analyse werden die täglichen Schlusskurse des Deutschen Aktienindex (DAX) verwendet. Der DAX wird auf Grundlage der Kurse der 30 umsatzstärksten Unternehmen ermittelt, dabei wird er um Dividendenzahlungen bereinigt (Jacobi 04/2005:16). Die Datengrundlage wurde von Thomson Reuters bereitgestellt. Der Untersuchungszeitraum erstreckt sich vom 13. Mai 2008 bis zum 30. April 2018 und enthält somit 2532 Tagesschlusskurse beziehungsweise 2531 Renditen. Es werden stetige Renditen verwendet, um die Effekte von Ausreißern möglichst gering zu halten, sowie die Varianz zu stabilisieren. In der Analyse von Finanzmarktdaten werden überwiegend stetige Renditen verwendet (Winker 2017:40). Stetige Renditen ( ) ergeben sich aus der Differenz der logarithmierten Schlusskurse ( ), die wie folgt berechnet werden:

Abbildung in dieser eseprobe nicht enthalten

In der Kapitalmarktforschung dominieren stetige Renditen, da diese eher normalverteilt sind als diskrete Rendite, die durch kein logarithmieren der Renditeformel definiert sind (Kähler und Pasternak 2002:168). Außerdem implizieren stetige Renditen, dass Kurse nicht kleiner als null sein können.

Die Zeitreihe wird, unter der Zuhilfenahme des Augumented Dickey-Fuller-Test auf ihre Stationarität hin geprüft. Eine Zeitreihe ist (schwach) stationär, falls der Erwartungswert, die Varianz und die Autokovarianz über alle Zeitpunkte konstant sind (Schindler und Winker 2012:229). Bei der Spezifikation des Tests, wird die Laglänge automatisch auf Basis des Schwarz Informationskriteriums (SIC) ausgewählt und eine Konstante mit aufgenommen. Die Nullhypothese, dass die Zeitreihe nichtstationär ist, kann zu jedem gängigen Signifikanzniveau verworfen werden (s. Anhang, Tab.7, S.IV). Folglich kann von schwacher Stationarität der stetigen Renditen ausgegangen werden.

4.2 Die Wölbung der Wahrscheinlichkeitsverteilung

Die Abbildung 1 zeigt neben dem Histogramm der stetigen DAX-Renditen, sowie den Verlauf einer Normalverteilung, auch einige ausgewählte statistische Kennzahlen. Aufgeführt sind das arithmetisches Mittel, die Standardabweichung, die Schiefe, die Wölbung sowie die Jarque-Bera-Statistik mit zugehörigem p-Wert.

[...]

Ende der Leseprobe aus 40 Seiten

Details

Titel
Modellierung und Prognose von Kapitalmarktvolatilität mit GARCH-Modellen
Hochschule
Justus-Liebig-Universität Gießen
Note
1,7
Autor
Jahr
2018
Seiten
40
Katalognummer
V436028
ISBN (eBook)
9783668775510
ISBN (Buch)
9783668775527
Dateigröße
737 KB
Sprache
Deutsch
Schlagworte
GARCH-Modell, EGARCH-Modell, DAX, Prognose, Vergleich der Modelle, Alternative Modelle, Volatilität
Arbeit zitieren
Simon Sobeck (Autor), 2018, Modellierung und Prognose von Kapitalmarktvolatilität mit GARCH-Modellen, München, GRIN Verlag, https://www.grin.com/document/436028

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Modellierung und Prognose von Kapitalmarktvolatilität mit GARCH-Modellen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden