Eine empirische Analyse über den Ölpreiseinfluss auf den Euro-Dollar-Wechselkurs

Vektorautoregressive Modelle


Seminararbeit, 2017
23 Seiten, Note: 1,7

Leseprobe

Inhaltsverzeichnis

1. Einleitung

2. Datenbasis und Datenaufbereitung

3. Nichtstationarität und Kointegration

4. Theorie der vektorautoregressiven Modells

5. Schätzung des vektorautoregressiven Modells

6. Interpretation der Schätzung mittels Impuls-Antwort-Folgen

7. Residuenanalyse zur Überprüfung des Modells
7.1 Test auf Normalverteilung
7.2 Test auf Heteroskedastie
7.3 Autokorrelation der Fehlerterme

8. Fazit

9. Anhang

10. Literaturverzeichnis

1. Einleitung

In dieser Analyse wird durch die Zuhilfenahme der Modellierung in einem vektorautoreg- ressiven Modell untersucht, ob sich Ölpreise auf den Euro-Dollar-Wechselkurs auswirken.

Eine Faustregel über einen positiven Zusammenhang ist, dass Rohöl überwiegend in US-Dollar gehandelt wird. Durch diesen Umstand führt ein höherer Ölpreis gleichzeitig zu einer höheren Nachfrage nach US-Dollar und somit zu einer stärkeren Währung (Aufwertung). Eine andere Faustregel besagt das Gegenteil: Bei Erwartungen eines schwächeren Dollar, durch beispielsweise einen erstarkenden Euro, kompensieren Ölproduzenten (wegen Verringerung der Kaufkraft) ihre Erlöse durch einen höheren Ölpreis. Beide Theorien können zugleich keine Gültigkeit haben. Ziel der vorliegenden Arbeit ist daher den Ölpreiseinfluss auf den Euro-Dollar-Wechselkurs, mithilfe einer ökonometrischen Analyse, umfassend zu untersuchen.

Die Untersuchung beginnt mit einer Erläuterung der verwendeten Daten über die Ausführung der Schätzung in einem Vektorautoregressiven Modell, mit einer Begutachtung der Aussagekraft des Modells. Anschließend wird das Modell mit geeigneten Instrumenten verständlich gemacht, um abschließend eine ökonomische Interpretation der Testergebnisse zu konzipieren.

2. Datenbasis und Datenaufbereitung

In dieser Analyse werden die zwei Schlusskurse für die Rohölpreise Brent und West Texas Intermediate (WTI) verwendet. Brent ist der Preis für Rohöl in Europa und WTI ist der Preis für Rohöl in den USA. Diese sind lediglich Referenzpreise die an Finanzmärkten gehandelt werden, da außerhalb der Finanzmärkte unzählige Preise für Öl existieren.

Der hier verwendete EUR/USD-Kurs ist der Eröffnungskurs. Darüber hinaus ist es ein Mengenwechselkurs, der eine Einheit Inlandswährung (EUR) in Auslandswährung (USD) ausdrückt (vgl. Breuer 2015:22). In der Analyse wird das Datenpaar, Schlusskurs von den Ölpreisen vom vorherigen Tag, auf den Eröffnungskurs am darauffolgenden Tag gebildet.

Der Untersuchungszeitraum erstreckt sich vom 21. November 1997 bis zum 20. November 2017 und beinhaltet Werktagesdaten. Die Daten wurden zum einem von Thomson Reuters (Euro-Dollar-Wechselkurs) und von der U.S. Energy Information Administration (Kurs für WTI und Brent) bereitgestellt, die die Seriosität der Daten gewährleisten.

In der Grafik (s. Anhang, Abb. 2, S. III) kann man einen gewissen Gleichlauf der Daten für die beiden Rohölsorten und des EUR/USD-Kurs erkennen. Dies ist zudem sichtbar durch die ausgeprägten positiven Korrelationskoeffizienten, die jeweils die Stärke des linearen Zusammenhangs messen. Der Korrelationskoeffizient für den EUR/USD-Kurs und der Rohölsorte Brent beträgt 0,7707, sowie für den Wechselkurs und WTI 0,8038. Dennoch ist anzumerken, dass die Korrelation weder die Richtung eines möglichen Zusammenhangs noch eine klare Aussage über die Kausalität erlaubt.

Entscheidend in der Datenanalyse ist es auf Strukturbrücke und Ausreißerwerte einzugehen, denn diese führen zu einer Verzerrung der zu schätzenden Parameter. Außerdem begünstigen Extremwerte die Autokorrelation in den Fehlertermen, sowie Abweichungen von der Normalverteilung (vgl. Schröder 2012:361). Durch den Einsatz von Dummy-Variablen lässt sich aber Abhilfe leisten, die dieses Problem mit einbeziehen. Strukturbrüche sind meist singuläre Ereignisse, die außerordentlich schwierig zu modellieren sind (vgl. Winker 2017:184). Ein singuläres Ereignis in dem vorliegenden Schätzzeitraum ist beispielweise die Einführung des Euros (2002), durch den Einsatz des synthetischen Kurses muss dies jedoch nicht mit einbezogen werden. In den Daten sind mehrere Extremwerte erkennbar (s. Anhang, Abb.2), begründet durch verschiedene Krisen, wie die Finanzmarktkrise (2008) und mehrere kleinere Krisen, wie zum Beispiel der Arabische Frühling. Durch keinen erkennbaren Strukturbruch, sowie unregelmäßige, aber wiederkehrende Faktoren, werden in der weiteren Analyse keine Dummy-Variablen eingesetzt (vgl. Schröder 2012:361).

Da bei Finanzmarkt-Zeitreihen in Normalfall Heteroskedastizität vorliegt, werden die Daten im Vorfeld logarithmiert (vgl. Schröder 2012:9).

3. Nichtstationarität und Kointegration

Für die Analyse der Zeitreihen ist die Eigenschaft der Stationarität unverzichtbar (vgl. Schröder 2012:14). In der Ökonometrie betrachtet man jedoch nur die Bedingungen der Kovarianz-Stationarität (schwache Stationarität), die eine Zeitreihe als stationär bezeichnet, wenn der Erwartungswert, die Varianz und die Kovarianz über alle Zeitpunkte konstant sind (vgl. Winker 2017:270-271). Falls diese Bedingungen verletzt sind, kann es gegebenenfalls zu einer Scheinregression führen. Die Zeitreihen werden, unter der Zuhilfenahme des Augmented Dickey-Fuller-Test (ADF-Test) auf ihre Stationarität getestet. Bei der Spezifikation des Tests, wird die Laglänge automatisch auf Basis des Schwarz Informationskriteriums (SIC) ausgewählt, sowie wird eine Konstante mit aufgenommen.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 1: Ergebnisse des ADF-Tests für die jeweiligen logarithmierten Zeitreihen.

Gesamtergebnisse (s. Anhang, Tab. 8, S. IV)

In der Tabelle 1 sind die komprimierten Ergebnisse des ADF-Tests ersichtlich. Die Nullhypothese des ADF-Test lautet, dass die Zeitreihe nichtstationär ist, somit kann man die Annahme der Nichtstationarität bei jeder Zeitreihe zu keinem gängigen Signifikanzniveau verwerfen. Es muss davon ausgegangen werden, dass es sich hier um jeweils nichtstationäre Zeitreihen handelt. Ein Problem des ADF-Tests ist die geringe Mächtigkeit, die dazu führen kann, dass die Nullhypothese fälschlicherweise angenommen wird (vgl. Winker 2017:277). Aus diesem Grund wird ein zweiter Stationaritätstest hinzugezogen, den KPSS-Test, unter Einbeziehung einer Konstante. Dessen Nullhypothese lautet, dass die Zeitreihe stationär ist. In der Tabelle 9 (s. Anhang, Tab. 9, S. V) ist erkennbar, dass alle KPSS-Statistiken über dem kritischen Wert zum 5%-Niveau liegen, somit muss man die Nullhypothese verwerfen. Die zwei Stationaritätstests gelangen zu demselben Ergebnis.

Eine Lösung, um diese Problem zu behandeln ist die erste Differenzenbildung anzuwenden. Dazu werden die Werte mit Ihren gestrigen Werten subtrahiert. An dieser Stelle muss man jedoch anmerken, dass durch dieses Vorgehen sich wichtige Informationen, aus den Niveaus der Zeitreihen verlieren (vgl. Schröder 2012:229).

Abbildung in dieser Leseprobe nicht enthalten

Tab. 2: Ergebnisse des ADF-Tests nach der ersten Differenzbildung der logarithmierten Zeitreihen.

Analoge Spezifikation nach dem Vorbild vom ADF-Test aus Tabelle 1.

Gesamtergebnisse (s. Anhang, Tab. 10, S. VI)

Ausgehend von Tabelle 2 kann die Nullhypothese, nach Bildung der ersten Differenz der Zeitreihen, verworfen werden. Die Daten besitzen nun die Eigenschaft der Stationarität. Allerdings haben Finanzmarktreihen oft einen gemeinsamen Trend und weisen ein langfristiges Gleichgewicht auf (vgl. Schröder 2012:229).

Infolgedessen liegt eine Kointegrationsbeziehung vor, hierdurch kann auf die erste Differenzenbildung verzichtet werden um der Gefahr einer Scheinregression zu entgehen. Für die Kointegrationsanalyse bietet sich der Johansen Kointegration Test an, da dieser in multivariaten Fällen angewendet wird (vgl. Schröder 2012:250).

Abbildung in dieser Leseprobe nicht enthalten

Tab. 3: Ergebnisse des Kointegrationstests. Gesamtergebnisse (s. Anhang, Tab. 11, S. VII)

In der Modellspezifikation wird eine Laglänge von eins festgelegt. In Tabelle 3 ist ersichtlich, dass sowohl die Trace-Statistik, als auch die maximale Eigenwert-Statistik auf eine beziehungsweise zwei Kointegrationsbeziehungen hindeutet. Allerdings weist dieser Test einige Schwächen auf, der nicht zweifelsfreie konsistente Ergebnisse liefert (vgl. Schröder 2012:253).

Aus diesem Grund wird für das zu schätzende Modell, in Kapitel 5, die logarithmierten Zeitreihen sowie diese nach der ersten Differenzenbildung verwendet, um jeweils auf deren Charakteristiken einzugehen.

4. Theorie der vektorautoregressiven Modells

In einer einfachen linearen Regression wird versucht eine endogene Größe Y (z.B. Wechselkurs) durch eine andere Größe X (z.B. Ölpreis) zu erklären. Damit keine verzerrten Parameterschätzer resultieren, muss die Exogenität der erklärenden Variable X gelten. Dies ist bei Finanzmarktdaten oftmals nicht gerechtfertigt, da der Wechselkurs ebenso eine Wirkung auf den Ölpreis aufweisen kann. Es resultiert das Endogenitätsproblem, dass definiert ist durch ein Vorliegen von Korrelation zwischen dem Fehlerterm und der erklärenden Variable (hier X). Ein weiterer Nachteil ist, dass man keine stabilen Aussagen über dynamische Anpassungsprozesse treffen kann, falls Y nur träge auf X reagiert (vgl. Schröder 2012:181). Um diese zwei Probleme zu lösen, setzt man vektorautoregressive Modelle ein. Das Endogenitätsproblem wird demensprechend gelöst, indem alle Variablen in einem dynamischen Modell, als endogen behandelt werden. Ein einfaches vektorautoregressives Modell, mit einem verzögerten Wert für jede endogene Variable, ist für dieses Beispiel in Gleichung (1) dargestellt.

Abbildung in dieser Leseprobe nicht enthalten

5. Schätzung des vektorautoregressiven Modells

Vor der Schätzung des vektorautoregressiven (VAR) Modells sind zunächst einige Vorüberlegungen zu treffen. In dem Kapitel 3 wurde bereits festgelegt, dass in dem Modell einmal die logarithmierten Zeitreihen als auch diese nach der ersten Differenzenbildung verwendet werden. Außerdem werden keine exogenen Variablen, bis auf eine Konstante, bspw. Saisondummies mit einbezogen. Letzten Endes wird noch beschlossen, wie viele verzögerte Werte der endogenen Variablen mit enthalten werden sollen, also die Bestimmung der Laglänge. Bei der Entscheidung über die optimale Laglänge liegt stets ein Konflikt vor. Da bei einer Überparameterisierung ineffiziente Schätzer der Parameter folgen können. Währenddessen können bei einer zu kurzen Laglänge autokorrelierte Fehlerterme hervorgehen. Um diese goldene Mitte in diesem Konflikt zu finden, bedient man sich in der Ökonometrie den Informationskriterien. Diese kombinieren das Maß der Anpassungsgüte mit einem Strafterm für die einbezogenen Parameter (vgl. Schröder 2012:193-194).

Abbildung in dieser Leseprobe nicht enthalten

Tab. 4: Werte der Informationskriterien für differenzierte logarithmierte Zeitreihen

In der Tabelle 4 sind jeweils die Werte für das Akaike Kriterium (AIC), sowie für das Schwarz Kriterium (SC) ersichtlich. Werte die mit einem Stern versehen wurden, weisen jeweils das Minimum aus. Dies bedeutet das AIC eine optimale Laglänge von 14 signalisiert, während SC eine Länge von zwei empfiehlt. Beim AIC ist eher eine

Überparameterisierung zu erwarten, während beim SC inhaltsreiche Lags vernachlässigt werden (vgl. Schröder 2012:196). Da hier ein großer Zeitraum vorliegt, wird das Modell mit zwei Lags geschätzt, um eine Überparameterisierung zu vermeiden. Desweiteren wird eine Konstante mit aufgenommen.

Abbildung in dieser Leseprobe nicht enthalten

Tab.5: Werte der Bestimmtheitsmaße aus dem Schätzergebnis für VAR(2)-Modell

In der Tabelle 5 sind jeweils die Bestimmtheitsmaße () ersichtlich.

Aufgrund der geringen Werte, kann nur ein geringer Teil der Varianzen der Reihen aus ihrer dynamischen Entwicklung erklärt werden. Die Darstellung des kompletten Schätzergebnisses ist im Anhang unter Tabelle 12 auf Seite VIII zu finden, allerdings kann über die geschätzten Parameter per se nicht viel abgelesen werden. Durch den Einsatz der Impuls-Antwort-Folgen (IAF), werden die Koeffizienten interpretierbar gemacht, worauf im nächsten Kapitel eingegangen wird. Zur Überprüfung, ob alle verzögerten Werte einer Variable gemeinsam einen signifikanten Einfluss haben auf eine andere gegenwärtige Variable, wird eine Erweiterung des Tests auf Granger-Kausalität, die Blockexogenität, durchgeführt.

In der Tabelle 13 (s. Anhang, Tab. 13, S. IX) sind die Werte für den Test auf Granger-Kausalität ersichtlich, dessen Nullhypothese lautet, dass keine Granger-Kausalität von der unabhängigen Variable auf die abhängige Variable vorliegt. Infolgedessen kann nur die Nullhypothese bei dem Ölpreis Brent verworfen werden und somit schlussfolgern, dass der Wechselkurs und der Ölpreis für WTI zusammen einen Einfluss auf Brent haben. Es ist anzumerken, dass die Verwerfung der Nullhypothese nur zustande kommt, aufgrund des überaus geringen p-Werts der unabhängigen Variable WTI.

Für die Schätzung des Modells mit den logarithmierten Zeitreihen, wobei auf die erste Differenzenbildung verzichtet wird, ergibt sich jeweils ein von über 99 % unter Einbeziehung von 3 Lags (s. Anhang, Tab. 14, S. X, für das komplette Schätzergebnis). Allem Anschein nach liegt hier eine Scheinregression vor, die in dieser Analyse nicht mehr weiter betrachtet wird.

6. Interpretation der Schätzung mittels Impuls-Antwort-Folgen

Der dynamische Anpassungsprozess zwischen den Variablen ist kaum ablesbar aus den Koeffizienten im Modell. Aus diesem Grund bedient man sich in der Ökonometrie der Methode von IAF. Die Idee hinter der IAF besteht darin zu ermitteln, wie eine Variable auf einen einmaligen Schock im Fehlerterm (hier i.H.v. zwei Standardabweichungen) reagiert, der in einer anderen Variablen eingetreten ist. Eine Bedingung hierfür ist, dass die Fehlerterme zwischen den Gleichungen keine Korrelation aufweisen dürfen. In dieser Analyse weisen jedoch die Fehlerterme eine geringe Korrelation zueinander auf (s. Anhang

Tab. 12, Korrelation der Fehlerterme), was einen zeitgleichen Effekt bedeutet.

Um dennoch ein klares Bild des Anpassungsprozess zu erhalten, werden orthogonalisierte IAF betrachtet. Mithilfe der Cholesky-Zerlegung werden die Schocks wieder unabhängig voneinander gestaltet, indem die Richtung bestimmt wird das beispielsweise die Variable zeitgleich auf wirkt ( à ), aber nicht umgekehrt (vgl. Schröder 2012:205). In dieser Arbeit wird die Anordnung, EUR/USD-Kurs à Kurs WTI à Kurs Brent, vorgenommen. Dies ist durch den ökonomischen Gedanken argumentiert, da der EUR-USD-Kurs das größte Handelsvolumen aufweist, gefolgt von WTI und Brent. Hier ist zu ergänzen, dass man unterschiedliche Orthogonalisierungen betrachten sollte, um den Verlauf der IAF zu analysieren. Jedoch wird in dieser Analyse nur die oben genannte Ortho-gonalsierung betrachtet, da hier keine extrem stark korrelierten Fehlerterme vorliegen.

Zur Interpretation der IAF werden diese mit Konfidenzbändern ausgewiesen. Diese entscheiden, ob das Ergebnis in den IAF signifikant sind oder weniger belangvoll sind, also nicht signifikant von null verschieden. Falls das 95%-Konfidenzintervall zu einem gegebenen Zeitpunkt die Nulllinie beinhaltet, definiert man dies als einen nicht signifikanten Effekt (vgl. Schröder 2012:208).

Abbildung in dieser Leseprobe nicht enthalten

Abb. 1: Orthogonalisierte IAF mit asymptotischen Konfidenzbänder für VAR (2) – Modell zur

Abbildung der Reaktionen von den Rohölpreisen auf den EUR/USD-Wechselkurs

Die Reaktionen des EUR-USD-Wechselkurses auf Schocks in den Kursen für WTI und Brent sind in der Abbildung 1 aufgeführt. Die Nulllinie liegt zu jedem Zeitpunkt innerhalb der Konfidenzintervallen. Somit darf die Nullhypothese, dass die betreffende Reaktion gleich null ist, zum 5%-Niveau nicht verworfen werden.

Der EUR/USD-Wechselkurs weist somit für keinen Zeitpunkt eine signifikante Reaktion auf.

7. Residuenanalyse zur Überprüfung des Modells

7.1 Test auf Normalverteilung

Damit die t- und F-Statistiken korrekt interpretiert werden können, müssen die Fehlerterme normalverteilt sein. Hierzu bedient man sich, explizit für VAR-Modelle, einer Erweiterung des Jarque-Bera-Tests. Dieser vergleicht die Schiefe und Wölbung der Verteilung der Residuen, mit der einer Normalverteilung.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 6: Test auf Normalverteilung mittels Jarque-Bera-Test

Die Nullhypothese, dass die Fehlerterme multivariat normalverteilt sind, muss ausgehend von den Werten in Tabelle 6 verworfen werden. Die Parametertests sind dennoch asymptotisch gültig, da hier eine große Anzahl von 4988 Beobachtungen vorliegt. Die ist begründet auf die Gültigkeit des Zentralen Grenzwertsatz, falls die Verteilung keine mit unendlicher Varianz ist (vgl. Schröder 2012:7).

7.2 Test auf Heteroskedastie

Falls die Varianz der Fehlerterme keine konstanten Varianzen aufweisen, besteht die Gefahr, dass die Standardfehler verzerrt sind und somit die t- und F-Tests missinterpretiert werden können. In diesem Fall, bei Variation der Varianzen, spricht man von Heteroskedastie. Sofern die Varianzen konstant sind, spricht man von Homoskedastie.

Die Grafik (s. Anhang, Abb. 3, S. XI) weckt Zweifel daran, dass die Varianz der Fehlerterme konstant ist. Zur Überprüfung wird der White Test mit Kreuzprodukt zurate gezogen. Die Nullhypothese lautet, dass die Residuen homoskedastisch sind. Die Ergebnisse sind in der Tabelle 7 ausgegeben.

Abbildung in dieser Leseprobe nicht enthalten

Tab. 7: Ergebnisse des White Heteroskedastie Test mit Kreuzprodukt

Hier muss die Nullhypothese wiederum verworfen werden. Somit sind die Ergebnisse der Signifikanztests nur unter Vorsicht zu genießen.

7.3 Autokorrelation der Fehlerterme

Bei einer Modellspezifikation ist akribisch zu prüfen, dass die Fehlerterme keine Autokorrelation aufweisen. Autokorrelation liegt vor, falls die Fehlerterme für verschiedene

Beobachtungen nicht unabhängig voneinander sind. Bei Vorliegen von Autokorrelation kann es zu verzerrten Koeffizienten in dynamischen Modellen führen. Die kann bedingt sein durch fehlende Variablen, deren Einflüsse über die Fehlerterme wiedergegeben werden, oder es liegen Strukturbrüche in den Zeitreihen vor. An dieser Stelle ist zu ergänzen, dass die Fehlerterme zwischen den Gleichungen jedoch korreliert sein dürfen (vgl. Schröder 2012:184-185).

Zur Überprüfung wird der Portmanteau Test für Autokorrelation angewendet, dessen Nullhypothese keine Autokorrelation der Fehlerterme bis zu Lag h lautet. In der Tabelle 15 (s. Anhang, Tab. 15, Seite XII) ist das Ergebnis des Tests ersichtlich, in der die Nullhypothese für jedes Lag bis einschließlich Lag 30 verworfen werden muss. Es muss davon ausgegangen werden, dass die Fehlerterme Autokorrelation aufweisen. Dies ist explizit in die Interpretation des Modells mit einzubinden, da es auf eine große Problematik hinweist.

Zum Lösen dieses Problems kann die Lagzahl erhöht werden, auf dies wird verzichtet, da dies im Widerspruch mit dem Ergebnis der Informationskriterien steht. Eine weitere Maßnahme kann die Auswahl eines Betrachtungszeitraums sein, ohne größere Ausreißer bzw. Strukturbrüche. Das wird jedoch unterlassen, da es in dieser Analyse, über alle Perioden hinweg, um die Untersuchung eines Gesamteinfluss von Öl auf den EUR/USD-Wechselkurs handelt.

[...]

Ende der Leseprobe aus 23 Seiten

Details

Titel
Eine empirische Analyse über den Ölpreiseinfluss auf den Euro-Dollar-Wechselkurs
Untertitel
Vektorautoregressive Modelle
Hochschule
Justus-Liebig-Universität Gießen
Note
1,7
Autor
Jahr
2017
Seiten
23
Katalognummer
V436024
ISBN (eBook)
9783668765986
ISBN (Buch)
9783668765993
Dateigröße
790 KB
Sprache
Deutsch
Schlagworte
Vektorautoregressive Modelle, VAR-Modelle, IAF, Impuls-Antwort-Folgen, Hypothesentest, Stationarität, Kointegration
Arbeit zitieren
Simon Sobeck (Autor), 2017, Eine empirische Analyse über den Ölpreiseinfluss auf den Euro-Dollar-Wechselkurs, München, GRIN Verlag, https://www.grin.com/document/436024

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Eine empirische Analyse über den Ölpreiseinfluss auf den Euro-Dollar-Wechselkurs


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden