Modellspezifikation von multivariaten ökonomischen Zeitreihen

Spezifikation von AR-, MA-, ARMA-, ARIMA-, VAR- und VARMA-Modellen


Diplomarbeit, 2009
119 Seiten, Note: 1,0

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1 Einleitung

2 Zeitreihen und stochastische Prozesse

3 Univariate Zeitreihenmodelle
3.1 ARrModelle
3.2 MArModelle
3.3 ARMArModelle
3.4 ARIMArModelle

4 Modellspezifikation von univariaten Zeitreihen
4.1 Ablauf
4.2 Bestimmung der Modellordnung
4.3 Schätzen der Modellparameter
4.4 Verfeinerung des angepassten Modells
4.5 Überprüfung der Anpassungsgüte

5 Multivariate Zeitreihenmodelle
5.1 VARrModelle
5.2 VMArModelle
5.3 VARMArModelle

6 Spezifikation von VARrModellen
6.1 Ablauf
6.2 Schätzen der Modellparameter
6.3 Bestimmung der Modellordnung
6.4 Verfeinerung des angepassten Modells
6.5 Überprüfung der Anpassungsgüte

7 Eigenschaften von VARMArProzessen
7.1 Anmerkungen zu Forschungen
7.2 VARMA vs. VAR
7.3 Lineare Transformationen von VARr und VARMArProzessen

8 Spezifikation von VARMArModellen
8.1 NichtrIdentifizierbarkeit der Darstellungsformen
8.2 Identifizierbare Darstellungsformen
8.3 Schätzverfahren
8.4 Spezifikation der finalen GleichungsrForm
8.5 Spezifikation der EchelonrForm

9 Spezifikation von VARMArModellen über Skalarkomponenten
9.1 SkalarkomponentenrModelle
9.2 Spezifikationsprozedur nach Tiao/Tsay (1989)
9.3 Kritikpunkte an der Spezifikationsprozedur nach Tiao/Tsay (1989)
9.4 Spezifikationsprozedur nach Athanasopoulos/Vahid (2008)

10 SkalarkomponentenrModelle vs. EchelonrForm
10.1 Theoretischer Vergleich
10.2 Experimenteller Vergleich
10.3 Empirischer Vergleich

11 Schlussbetrachtung

Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1: Eine multivariate Zeitreihe aus PMP, PMEMP und PMCP

Abbildung 2: PBrErgebnisse bzgl. /5(' 97

Abbildung 3: PBrErgebnisse bzgl. PN:/5('; 97

Tabellenverzeichnis

Tabelle 1: Bedingungen für Stationarität und Invertierbarkeit in ARr, MAr sowie ARMArProzessen

Tabelle 2: Typische Verhaltensmuster von ACF und PACF für stationäre und invertierbare ARMArModelle

Tabelle 3: Bedingungen für Stationarität und Invertierbarkeit in VARr, VMAr sowie VARMArProzessen

Tabelle 4: 5%rWerte der KroneckerrIndizes - L :L5á L6;

Tabelle 5: KriteriumrTabelle

Tabelle 6: RootrTabelle

Tabelle 7: VergleichsrKonzepte von SCMs und EchelonrForm

Tabelle 8: Ergebnisse für DGP (29)

Tabelle 9: Ergebnisse für DGP (30)

Tabelle 10: Ergebnisse für DGP (31)

Tabelle 11: Ergebnisse für DGP (32)

Tabelle 12: Ergebnisse für DGP (33)

Tabelle 13: Ergebnisse für DGP (34)

Tabelle 14: Ergebnisse für DGP (35)

Tabelle 15: Ergebnisse für DGP (36)

Tabelle 16: ZeitreihenrKategorien

Tabelle 17: Produktion und Einkommen (1)

Tabelle 18: Beschäftigung und Arbeitslosigkeit (2)

Tabelle 19: Konsum, Wohnen sowie Umsätze aus Einzelhandel und produzierendem Gewerbe (3)

Tabelle 20: Reale Warenbestände und Verkäufe (4)

Tabelle 21: Preise und Löhne (5)

Tabelle 22: Zinssätze (6)

Tabelle 23: Geldmengen und Kredit (7)

Tabelle 24: Wechselkurse, Aktienkurse und Aktienvolumen (8)

Tabelle 25: PBrErgebnisse bzgl. /5('

Tabelle 26: PBrErgebnisse bzgl. PN:/5(';

Tabelle 27: Ergebnisse der Maßzahl $$$$$$$$$$$Û

Tabelle 28: Ergebnisse der Maßzahl $$$$$$$$$$Û

Abkürzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Die Veränderungen von Variablen über die Zeit können anhand von Zeitreihen dargestellt werden. Zeitreihen treten in allen wissenschaftlichen Bereichen auf, sobald die Dynamik und die zeitliche Entwicklung realer Systeme empirisch untersucht wird. Ökonomen können anhand von Zeitreihen insbesondere die Dynamik aggregierter ökonomischer Aktivitäten wie beispielsweise des Bruttoinlandsprodukts, der Arbeitslosigkeit oder der Inflation analysieren.

Die Analyse von Zeitreihen dient verschiedenen Zwecken, wobei Deskription, Modellierung und Prognose zu den Hauptanwendungsgebieten zählen. Im Rahmen der Deskription gilt es, den Verlauf einer Zeitreihe zu beschreiben und ihre Charakteristiken zu erkennen. Typischerweise wird hierbei eine Zerlegung der Zeitreihe in eine Trendkomponente, eine zyklische Komponente und eine irreguläre Restkomponente vorgenommen. Die Modellierung oder auch Modellspezifikation einer Zeitreihe bildet das Bestreben, die Reihe aus sich selbst heraus zu erklären. Dazu fasst man die empirischen und zeitlich geordneten Beobachtungen als Realisationen eines stochastischen Prozesses auf. Das Ziel des Modellfindungsprozesses ist nicht primär darin zu sehen, den unbekannten „wahren“ datengenerierenden Prozess zu finden, sondern vielmehr explorativ ein geeignetes Modell zu spezifizieren, das den Prozess adäquat abbildet. Ist ein passendes Modell gefunden, kann es dazu verwendet werden, eine Strukturanalyse durchzuführen und/oder zukünftige Werte zu prognostizieren. Die Präzision einer Prognose hängt dabei im Wesentlichen von der Güte des angepassten Modells ab. Je nach Zielsetzung werden Modelle jeweils an isolierte Zeitreihen angepasst oder mehrere Zeitreihen in einem multivariaten Modell gemeinsam betrachtet. Die univariate Zeitreihenanalyse eignet sich dazu, die Dynamik einzelner Zeitreihen zu untersuchen, ist jedoch nicht in der Lage, dynamische Interaktionen zwischen verschiedenen Variablen einzubeziehen. Multivariate Zeitreihenmodelle betrachten mehrere Variablen simultan und können so die dynamischen Interaktionen der Variablen untereinander berücksichtigen.

Der Kern und damit das übergeordnete Ziel der vorliegenden Arbeit liegt darin, Verfahren zur Modellspezifikation von multivariaten Zeitreihen zu diskutieren und zu vergleichen. Da jedoch einer multivariaten meist eine univariate Modellierung vorausgeht bzw. die Modellspezifikation einer multivariaten Zeitreihe häufig die Modellspezifikation der univariaten Teilreihen erfordert, wird in dieser Arbeit die Spezifikation von univariaten Zeitreihenmodellen vorangestellt, bevor auf multivariate Zeitreihenmodelle und ihre Spezifikation eingegangen wird.

Im Detail besteht das Ziel dieser Arbeit darin, die von Athanasopoulos/Vahid (2008) modifizierte SkalarkomponentenrMethode zur Spezifikation von Vektorr Autoregressiven MovingrAveragerModellen darzustellen und mit dem in weiten Teilen der Literatur vorherrschenden Spezifikationsverfahren über die Echelonr Form zu vergleichen. Der Gang der Untersuchung gestaltet sich dabei wie folgt: Im zweiten Kapitel werden zunächst die Grundbegriffe und rzusammenhänge der Zeitreihenanalyse erläutert, bevor das dritte Kapitel univariate Zeitreihenmodelle einführt. Hierzu gehören Autoregressive (AR), MovingrAverager (MA), Autoregressive MovingrAverager (ARMA) und Autoregressive Integrierte Movingr Averager (ARIMA) Modelle. Im Anschluss wird im vierten Kapitel beschrieben, wie univariate Modelle im Rahmen des Ansatzes nach Box/Jenkins (1976) spezifiziert werden können.

Das fünfte Kapitel stellt multivariate Zeitreihenmodelle vor, d.h. Vektorr Autoregressive (VAR), VektorrMovingrAverager (VMA) und VektorrAutoregressive MovingrAverager (VARMA) Modelle. Anders als bei univariaten Zeitreihen ist es hier nicht sinnvoll, die Spezifikation der verschiedenen multivariaten Modelle gemeinsam zu betrachten, weshalb im sechsten Kapitel die Spezifikation von VARr Modellen separat beschrieben wird. Der Grund für eine getrennte Betrachtung ist darin zu sehen, dass sich die Spezifikationsprozeduren von VARr und VARMAr Modellen wesentlich voneinander unterscheiden. Eine Spezifikation von VMAr Modellen als Modelle für multivariate Zeitreihen wird in der Literatur nahezu nicht vorgenommen, weshalb dieser Spezialfall im Rahmen dieser Arbeit nicht extra betrachtet wird.

Die Kapitel sieben bis zehn widmen sich den VARMArModellen und einer Vielzahl an Spezifikationsprozeduren, insbesondere der SkalarkomponentenrMethode. Dazu liefert das siebte Kapitel in einem ersten Abschnitt einen groben Überblick zum Gang der Forschungen im Bereich der VARMArProzesse. Die Abschnitte 7.2 und 7.3 stellen VARr und VARMArProzesse gegenüber und führen einen Vergleich, wobei der Schwerpunkt auf den Auswirkungen linearer Transformationen auf die Prozesse liegt. Im achten Kapitel wird eingangs in Abschnitt 8.1 das Problem der Nichtr Identifizierbarkeit von VARMArDarstellungen erörtert, während in Abschnitt 8.2 die finale Gleichungsr sowie die EchelonrForm als identifizierbare Darstellungsformen angeführt werden. Bevor in den Abschnitten 8.4 und 8.5 Prozeduren zur Spezifikation der finalen Gleichungsr sowie der EchelonrForm vorgestellt werden, sind mögliche Verfahren zur Parameterschätzung Thema des Abschnittes 8.3.

Das neunte Kapitel beginnt in Abschnitt 9.1 mit einer Einführung der SkalarkomponentenrModelle (SCMs). Abschnitt 9.2 behandelt die SkalarkomponentenrMethode nach Tiao/Tsay (1989) und geht dabei insbesondere auf die Funktionsweise der kanonischen Korrelationsanalyse ein, die dem Spezifikationsverfahren zugrunde liegt. Der Publikation von Tiao/Tsay (1989) schließt sich eine umfassende Diskussion ihrer vorgeschlagenen Spezifikationsr prozedur an. Die angebrachten Kritikpunkte und Verbesserungsvorschläge sind in Abschnitt 9.3 zusammengetragen. Der Abschnitt 9.4 stellt die von Athanasopoulos/Vahid (2008) modifizierte SkalarkomponentenrMethode vor, die auf den Ausführungen von Tiao/Tsay (1989) basiert.

Im zehnten Kapitel erfolgt ein umfassender Vergleich von SCMs und der Echelonr Form auf theoretischer (Abschnitt 10.1), experimenteller (Abschnitt 10.2) und empirischer Basis (Abschnitt 10.3). Der theoretische Vergleich soll erörtern, welche der beiden Darstellungsformen als sparsamer anzusehen ist. Das Ziel des experimentellen Vergleiches ist es, eine Aussage darüber treffen zu können, welches der Verfahren die Struktur von ex ante generierten Prozessen im Mittel genauer identifizieren kann. Die empirische Analyse unterzieht die Prognosepräzision der Verfahren einem Vergleich und hat es so zum Ziel fest zu stellen, welches Verfahren im Mittel stabilere Prognosen erzielt.

Die Arbeit schließt mit dem elften Kapitel, das Methodik, Ergebnisse und Zusammenhänge im Rahmen einer Schlussbetrachtung zusammen stellt.

2 Zeitreihen und stochastische Prozesse

Unter einer Zeitreihe versteht man einen endlichen Ausschnitt aus einer unendlichen Folge von Zufallsvariablen eines stochastischen Prozesses ;ç mit P Ð :, oder auch eine Folge U5á å á UÍ von Realisationen eines solchen endlichen Ausschnittes von ;ç. 6 kennzeichnet dabei die Länge der Zeitreihe bzw. die Anzahl an Realisationen der Zufallsvariablen. Da der stochastische Prozess ;ç die Beobachtungen generiert, wird er auch als datengenerierender Prozess (DGP) bezeichnet. Häufig wird allerdings nicht deutlich zwischen der Zeitreihe und dem stochastischen Prozess differenziert, weshalb die Symbolik ;ç oft für die Zeitreihe selbst verwendet wird.

In der Zeitreihenanalyse sind zwei spezielle Prozesse von besonderem Interesse: WhiterNoiser und GaußrProzesse. Stellt der DGP eine Folge von unabhängigen, identisch verteilten Zufallsvariablen dar, spricht man von einem WhiterNoiser Prozess. Hier wird üblicherweise die Notation 7ç verwendet. Ein stochastischer Prozess wird als GaußrProzess bezeichnet, falls alle seine Randverteilungen Normalverteilungen sind. Die Kombination von WhiterNoiser mit GaußrProzessen führt zu Gaußschen WhiterNoiserProzessen. Ihre besondere Relevanz erlangen derartige Prozesse im Rahmen der Modellspezifikation. Folgen die Residuen eines angepassten Modells einem WhiterNoiserProzess, kann davon ausgegangen werden, dass alle systematischen Einflüsse in der Modellierung berücksichtigt wurden. Handelt es sich zudem um einen GaußrProzess, erlaubt dies die Anwendung diverser praktischer Verfahren zur Überprüfung der Parameterr Relevanz sowie rVariabilität.

Da sich die Zufallsvariablen eines stochastischen Prozesses typischerweise in Abhängigkeit voneinander entwickeln, können sie über eine gemeinsame Wahrscheinlichkeitsverteilung [Abbildung in dieser Leseprobe nicht enthalten] beschrieben werden. Zur Charakterisierung von Zeitreihen sind primär die ersten und zweiten Momente dieser Verteilung von Interesse. Erwartungswert, Varianz und Kovarianz können

allerdings nur dann aus empirischen Daten geschätzt werden, wenn das Niveau, die Streuung und die Abhängigkeitsstruktur im Verlauf der Zeitreihe konstant, d.h. zeitinvariant ist. Eine Zeitreihe, die diese Bedingungen erfüllt, wird als schwach stationär bezeichnet. Dann gilt ÊP und Êì:

Abbildung in dieser Leseprobe nicht enthalten

Ist zudem die gesamte gemeinsame Wahrscheinlichkeitsverteilung zeitinvariant, gilt also

Abbildung in dieser Leseprobe nicht enthalten

ÊP, Êì und ÊG, spricht man von strenger Stationarität. Da schwache Stationarität für die weiteren Betrachtungen jedoch hinreichend ist, ist im Verlauf dieser Arbeit immer schwache Stationarität gemeint, wenn von Stationarität gesprochen wird. Ist eine der Bedingungen für schwache Stationarität nicht erfüllt, liegt eine instationäre Zeitreihe vor.

Handelt es sich bei ;ç um einen stationären stochastischen Prozess, wird [Abbildung in dieser Leseprobe nicht enthalten]

mit Pá ì Ð : als Autokovarianzfunktion bezeichnet. Sie hat allerdings den Nachteil, dass sie von der Einheit der Variablen abhängt. Als Instrument zur Beschreibung eines stationären Prozesses ist sie daher nur bedingt geeignet. Die Autokorrelationsfunktion (ACF)

Abbildung in dieser Leseprobe nicht enthalten

mit Û4 L êvermeidet diesen Schwachpunkt. Neben der ACF ist auch die partielle Autokorrelationsfunktion (PACF) von Interesse. Die PACF è eines stationären Prozesses ;ç ist die Folge der partiellen Korrelationen von ;ç und ;ç? , wobei die Zufallsvariablen [Abbildung in dieser Leseprobe nicht enthalten]festgehalten werden. Es wird è4 L s und è5 L é5 gesetzt. Für ì L r ist ;ç also perfekt mit sich selbst korreliert und für ì L s entspricht die PACF gerade der ACF.

Im ökonomischen Kontext weisen Zeitreihen häufig systematische Niveauveränderungen auf, sind also als Realisationen eines instationären Prozesses anzusehen. Diese Instationarität kann durch saisonale Muster oder konjunkturelle Schwankungen bedingt sein. Bei kürzeren Zeitreihen äußert sie sich allerdings meist in Form eines Trends, d.h. in einer persistenten Aufwärtsr oder AbwärtsrBewegung der Variablen über die Zeit. Die Ursache einer solchen MittelwertrInstationarität kann sowohl eine deterministische als auch eine stochastische Komponente in der ProzessrGenerierung sein. Es handelt sich um einen deterministischen Trend, wenn eine Funktion der Zeit B:P; in den Prozess einfließt. Die Pfade von ;ç bewegen sich dann um die durch die Trendfunktion gegebene Niveaulinie. Ein stochastischer Trend weist hingegen keinen Pfad von ;ç um eine Niveaulinie auf. Bei deterministischen Trends ist die Wirkung von Schocks lediglich vorübergehend, bei stochastischen Trends ist sie persistent. Aus diesem Grund spricht man stochastischen Trends ein „langes Gedächtnis“ zu. Ein Beispiel für einen stochastischen Trend ist der RandomrWalkrProzess

Abbildung in dieser Leseprobe nicht enthalten

der als Modell für einen Irrfahrtsprozess dienen kann.

Möchte man die stochastischen Charakteristika einer instationären Zeitreihe bestimmen, ist in einem vorherigen Schritt die Stationarität über ein geeignetes Verfahren herzustellen. Handelt es sich um eine trendbehaftete Reihe, ist unbedingt die Trendform zu beachten. Bei deterministischen Trends wird das Trendpolynom durch eine Regressionsschätzung ermittelt. Die Differenz von beobachteter Zeitreihe und der Regressionsfunktion liefert dann stationäre Residuen. Weist ein Prozess einen stochastischen Trend auf, kann er durch das Bilden von einfachen oder ggf. mehrfachen Differenzen in einen stationären Prozess überführt werden. Daher werden deterministische Trends auch als trendrstationär und stochastische Trends als differenzenrstationär bezeichnet.

In ökonomischen Modellen werden in der Regel stochastische Trends unterstellt. Die Materie ist zu vielschichtig und von Überraschungen gekennzeichnet, als dass sie mit einem deterministischen Trend und seiner Vorhersehbarkeit in Einklang gebracht werden kann. Es ist zudem unrealistisch anzunehmen, dass externe Schocks wie beispielsweise Geldangebotsänderungen oder Konsumeinbrüche keine nachhaltigen Wirkungen auf die Ökonomie nach sich ziehen. Im weiteren Verlauf dieser Arbeit werden deshalb immer stochastische Trends bzw. differenzenr stationäre Prozesse unterstellt, wenn eine trendbehaftete Zeitreihe vorliegt.

3 Univariate Zeitreihenmodelle

3.1 ARrModelle

Ein stochastischer Prozess ;ç wird als Autoregressiver Prozess der Ordnung L oder kurz als AR[L]rProzess bezeichnet, wenn er durch die Modellgleichung

Abbildung in dieser Leseprobe nicht enthalten

(1)

mit P Ð : und L Ð 34 beschrieben werden kann. Dabei wird für die Innovationen 7ç ein WhiterNoiserProzess mit ':7ç; L r und 8=N:7ç; L ê6 unterstellt. (1) kann umgeschrieben werden zu

Abbildung in dieser Leseprobe nicht enthalten

und unter Verwendung des BackshiftrOperators $ (mitunter auch als LagrOperator . bezeichnet) kompakter dargestellt werden als

Abbildung in dieser Leseprobe nicht enthalten

oder in Kurzschreibweise als

Abbildung in dieser Leseprobe nicht enthalten

Der BackshiftrOperator $ mit dem Exponenten @, $×, verschiebt die gesamte Zeitreihe um @ Einheiten in die Vergangenheit bzw. in die Zukunft: $× ; ç L ;ç?× bzw. $?× ; ç L ;ç>×.

Der Erwartungswert ä von ;ç ergibt sich zu

Abbildung in dieser Leseprobe nicht enthalten

indem auf beiden Seiten von (1) der Erwartungswert gebildet wird. Wird für das Interzept Ù4 L r unterstellt, ist der Prozess ;ç zentriert bei r.

Die Bezeichnung des Modells als „autoregressiv“ rührt daher, dass (1) formal einem Regressionsansatz entspricht. Die Regressoren sind hierbei allerdings keine unabhängigen Variablen, sondern vergangene Beobachtungen der abhängigen Variablen.

Ein AR[L]rProzess heißt stationär, wenn alle Lösungen der charakteristischen Gleichung

sFÙ5VFÙ6V6 F®FÙãVã Lr

außerhalb des Einheitskreises liegen. Es muss also V5 P sá å á +Vã+ P s gelten, damit ;ç einem stationären Prozess folgt. Diese sogenannte Stationaritätsbedingung soll anhand eines AR>s?rProzesses

Abbildung in dieser Leseprobe nicht enthalten

(2)

mit P Ð : verdeutlicht werden. Die zugehörige charakteristische Gleichung lautet s F ÙV L r und hat die Lösung V5 L s Ù. V5 P s ist hierbei nur im Falle von Ù O s erfüllt. Der Prozess ;ç ist daher nur dann stationär, wenn Ù O s gilt. Ist

Ù L s bzw. Ù P s, handelt es sich um einen nichtrstationären RandomrWalkr Prozess bzw. um einen explodierenden Prozess.

Die ACF eines stationären AR[L]rProzesses,

Abbildung in dieser Leseprobe nicht enthalten

(3)

kann wie folgt hergeleitet werden:

Multiplizieren beider Seiten von (3) mit ;ç? , ì P r und Erwartungswertbildung führt zu

Abbildung in dieser Leseprobe nicht enthalten

(4)

bzw. unter Verwendung von [Abbildung in dieser Leseprobe nicht enthalten]zu

Abbildung in dieser Leseprobe nicht enthalten

(5)

Dies ist die Autokovarianzfunktion eines AR[L]rProzesses. Die ACF

Abbildung in dieser Leseprobe nicht enthalten

(6)

folgt aus (5) durch Division der ProzessrVarianz êÒ6 L Û4. (4), (5), (6) werden als YulerWalkerrGleichungen bezeichnet1.

AR[L]rModelle können unter der Stationaritätsbedingung in eine andere Modellklasse überführt werden, die Thema des nächsten Abschnittes ist.

3.2 MArModelle

Ein stochastischer Prozess ;ç heißt MovingrAveragerProzess der Ordnung M oder kurz MA[M]rProzess, wenn er der Beziehung

Abbildung in dieser Leseprobe nicht enthalten

mit P Ð : und M Ð 34 genügt. Die BackshiftrOperatorrDarstellung ergibt sich zu [Abbildung in dieser Leseprobe nicht enthalten]

Hier sind nicht die vergangenen beobachtbaren Größen Bestandteil der Definitionsgleichung r im Gegensatz zu den AR[L]rModellen r sondern die vergangenen Innovationen. 7ç wird hierbei ebenfalls als WhiterNoise unterstellt. Die beobachtbare Größe ;ç wird als gewogenes Mittel aus gegenwärtigen und vorangegangenen Innovationen dargestellt, wobei die Innovationen unkorreliert sind. MA[M]rModelle sind also eine endliche gewichtete Summe von unabhängigen Zufallsvariablen und daher stets stationär. MA[»]rProzesse sind stationär, wenn die Koeffizienten absolut summierbar sind, also à ÚÜ O » gilt. Die Autokovarianzfunktion eines MA[M]rProzesss ergibt sich zu

Abbildung in dieser Leseprobe nicht enthalten

geschrieben werden können. Dies ist gegeben, wenn alle Nullstellen des

charakteristischen Polynoms

sFÚ5VFÚ6V6 F®FÚäVä Lr

außerhalb des Einheitskreises liegen. Jeder invertierbare MA[M]rProzess besitzt dann eine AR[»]rDarstellung.

Dies soll anhand eines MA>s?rProzesses

Abbildung in dieser Leseprobe nicht enthalten

(7)

mit P Ð : durch rekursives Einsetzen der Modellgleichung (7) verdeutlicht werden: 7ç L ;ç E Ú7ç?5 L ;ç E Ú:;ç?5 E Ú7ç?6; L ® L ;ç E ÃÜ@5ÚÜ ;ç?Ü . 7ç L ;ç E ÃÜ@5ÚÜ ;ç?Ü wird als AR[»]rDarstellung des MA>s?rProzesses bezeichnet. Das charakteristische Polynom des MA>s?rProzesses ergibt sich zu s F ÚV L r, die Lösung ist demnach V5 L s Ú. V5 P s ist nur im Falle von Ú O s erfüllt. Es muss also für den AR[»]rProzess Ú O s gelten, damit er stationär ist. Die Eigenschaft der Invertierbarkeit von MArProzessen ist primär notwendig, um die Innovationen und Koeffizienten über die empirischen Zeitreihenwerte schätzen zu können. Sie ist aber auch ein ergänzendes Kriterium zur Modellspezifikation, da unterschiedliche MArProzesse der gleichen Ordnung dieselbe Autokorrelationsfunktion nach sich ziehen können. Es liegt nahe, ARrProzesse mit einem MArFehlerterm zu modellieren und eine gemischte Modellklasse zu konstruieren. Diese Thematik wird im nächsten Abschnitt erörtert.

3.3 ARMArModelle

Die Kombination von ARrProzessen der Ordnung L mit MArProzessen der Ordnung M führt zu der Klasse der Autoregressiven MovingrAveragerProzesse der Ordnung [Lá M], kurz ARMA[Lá M]rProzesse. Die Definitionsgleichung ergibt sich aus einer Kombination beider Prozesse zu

Abbildung in dieser Leseprobe nicht enthalten

(8)

mit [Abbildung in dieser Leseprobe nicht enthalten]. Um die kompakte BackshiftrOperatorr Darstellung zu verwenden, wird (8) zunächst in der Form

Abbildung in dieser Leseprobe nicht enthalten

angegeben. Unter Verwendung des BackshiftrOperators erhält man die Kurzschreibweise

Abbildung in dieser Leseprobe nicht enthalten

Die Eigenschaften der Stationarität und der Invertierbarkeit sind auch im ARMA[Lá M]rKontext von Relevanz. Liegen alle Wurzeln des charakteristischen Polynoms des ARrTeils

Abbildung in dieser Leseprobe nicht enthalten

außerhalb des Einheitskreises, hat der Prozess ;ç eine MA[»]rDarstellung [Abbildung in dieser Leseprobe nicht enthalten]

Ein ARMA[Lá M]rProzess heißt daher stationär, wenn V5 P sá å á +Vã+ P s erfüllt ist. Er ist invertierbar, wenn alle Wurzeln der charakteristischen Gleichung des MArTeils

Abbildung in dieser Leseprobe nicht enthalten

außerhalb des Einheitskreises liegen. Dann besitzt der ARMA[Lá M]rProzess eine AR[»]rDarstellung

Abbildung in dieser Leseprobe nicht enthalten

Damit ist gezeigt, dass ein stationärer und invertierbarer ARMA[Lá M]rProzess sowohl eine AR[»]r, als auch als MA[»]rDarstellung besitzt. Ein ARMA[Lá M]rProzess lässt sich also unter geeigneten Bedingungen und ausreichend hohen Ordnungen durch einen reinen AR[L]r oder einen reinen MA[M]rProzess approximieren. Die folgende Tabelle fasst die Bedingungen für Stationarität und Invertierbarkeit in ARr, MAr und ARMArProzessen zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 1: Bedingungen für Stationarität und Invertierbarkeit in ARr, MAr sowie ARMArProzessen

Passt man einer gegebenen Zeitreihe ein AR[L]r, ein MA[M]r und ein ARMA[L²á M²]r Modell an, benötigt das ARMArModell bei annähernd gleicher Anpassungsgüte die geringste Anzahl an Parametern. Hierbei gilt in der Regel: L² E M² Q L und L² E M² Q M. ARMArModelle sind also in der Lage, komplexes Verhalten einer Zeitreihe bereits über eine geringe Anzahl an Parametern zu beschreiben3. Im Rahmen des Ansatzes nach Box/Jenkins (1976) werden möglichst sparsame Modelle favorisiert, um eine hohe Prognosestabilität zu erreichen. Folgt man diesem Prinzip der Sparsamkeit, sind ARMA[LáM]rModelle reinen AR[L]r bzw. MA[M]rModellen vorzuziehen4.

Ein weiterer Vorteil dieser gemischten Modellklasse zeigt sich bei einer Überlagerung unabhängiger ARMArProzesse. Die Summe zweier ARMArProzesse führt erneut zu einem ARMArProzess. Seien die Ordnungen der unabhängigen ARMArProzesse >L5á M5? und >L6áM6?, dann gilt für die Ordnung >LáM? des durch die Summe beider Prozesse entstehenden neuen ARMArProzesses L Q L5 E L6 und MQ - :L5 E M6áL6 E M5;. An L Q L5 E L6 zeigt sich zudem, dass eine Überlagerung zweier MArProzesse einen reinen MArProzess nach sich zieht, während eine Überlagerung zweier ARrProzesse meist einen gemischten ARMAr Prozess ergibt, dessen MArTeil nichtrverschwindend ist. Liegt ein als WhiterNoiser Prozes unterstellter Beobachtungsfehler bei einem ARrProzess vor, führt dies ebenfalls zu einem ARMArProzess.

Derartige aggregierte Zeitreihen sind insbesondere im ökonomischen Kontext von Relevanz. Hier sind u.a. Aggregationen über Haushalte oder Regionen hinweg gebräuchlich. Als Beispiel sei das Bruttoinlandsprodukt (BIP) als makroökonomische Kennzahl für die Wertschöpfung eines Landes angeführt, dass sich gemäß der Verwendungsrechnung in jeder Periode aus der Summe von privaten Konsumausgaben, Bruttoinvestitionen, Staatsausgaben und dem Außenbeitrag ergibt. ARMArModelle stellen demnach häufig eine adäquate Modellklasse für univariate ökonomische Zeitreihen dar. Da ökonomische Zeitreihen, wie das angeführte BIP, allerdings meist keinen stationären Verlauf aufweisen, sondern einem Trend folgen, muss eine wichtige Ergänzung eingeführt werden.

Einer trendbehafteten Zeitreihe kann direkt kein ARMArModell angepasst werden. Möchte man dennoch ein ARMArModell anpassen, kann dies nur für die trendbereinigte Zeitreihe erfolgen. Ist eine explizite Modellierung der instationären Ausgangsreihe das Ziel, führt dies zu einer anderen Modellklasse, den ARIMAr Modellen.

3.4 ARIMArModelle

Autoregressive Integrierte MovingrAveragerModelle der Ordnung [Lá @á M], kurz als ARIMA[Lá@á M]rModelle bezeichnet, können auf einfache Weise Instationaritäten in Zeitreihen berücksichtigen. Der Grad der Differenzenbildung @ gibt hierbei an, wie häufig einfache Differenzen zu bilden sind, um einen stationären ARMArProzess zu erzeugen. Allgemeingültig formuliert heißt ein stochastischer Prozess ;ç integriert von der Ordnung @, ;ç1+:@;, wenn seine @rfachen Differenzen :s F $;× ;ç einen stationären Prozess bilden. Die Ausgangsreihe folgt einem ARIMA[Lá @á M]rModell

Abbildung in dieser Leseprobe nicht enthalten

mit P Ð : und @ Ð 34, das durch Integration aus einem ARMArModell hervorgeht. Der Teil :s F $;×;ç ist dabei stationär. Gilt @ L r, stellt die Ausgangsreihe bereits einen stationären Prozess dar. Unter einem ARIMA[Lá@á M]rModell ist also ein Modell zu verstehen, dessen @rte Differenzen einem ARMA[Lá M]rModell folgen. Somit sind ARIMArModelle eine geeignete Klasse, um differenzenrstationäre Prozesse abzubilden.

Eine Zeitreihe kann zusätzlich saisonale Effekte aufweisen. Dies ist der Fall, wenn eine Beobachtung in einem bestimmten Monat von Beobachtungen der Vorjahre des gleichen Monats abhängt. Zeigt eine Zeitreihe solch eine Saisonfigur, kann dies durch Aufnahme von Saisondifferenzen im ARIMArModell

Abbildung in dieser Leseprobe nicht enthalten

mit O Ð 3 und & Ð 34 berücksichtigt werden. & gibt dabei an, wie häufig saisonale Differenzen der Saisonperiode O zu bilden sind, um die Zeitreihe von der Saison zu bereinigen. Folgt man dem Prinzip der Sparsamkeit, bietet sich allerdings eher die Modellklasse der saisonalen ARIMArModelle an. Ein SARIMA>Lá @á M? H >2á &á 3?ær Modell wird beschrieben durch

[Abbildung in dieser Leseprobe nicht enthalten]bzw. allgemein durch

Abbildung in dieser Leseprobe nicht enthalten

4 Modellspezifikation von univariaten Zeitreihen

4.1 Ablauf

Die Modellspezifikation von univariaten Zeitreihen vollzieht sich grundsätzlich in vier Schritten. In einem ersten Schritt ist der Typ des DGP und seine Ordnung zu bestimmen. Hier hat sich der Ansatz nach Box/Jenkins (1976) als Standardverfahren etabliert, welcher auf der ACF und der PACF basiert. Beide Kennfunktionen weisen je nach zugrundeliegendem Prozess charakteristische Verhaltensweisen auf, die es im Rahmen des Box/JenkinsrAnsatzes zu erkennen gilt. Handelt es sich bei ;ç um einen instationären ARIMA oder SARIMArProzess, sind zuerst @ und & zu ermitteln und der Prozess geeignet zu stationarisieren, bevor die Ordnungen L und M sowie ggf. 2 und 3 bestimmt werden können.

Der zweite Schritt dient der Parameterschätzung des Modells. Je nach Modelltyp sind dabei unterschiedliche Schätzverfahren anwendbar. Handelt es sich um ein reines ARrModell, kann das Modell einfacher geschätzt werden, als wenn es sich um ein MAr oder ein gemischtes ARMArModell handelt. Auf ein (S)ARIMArModell sind nach geeigneter Differenzenbildung die selben Schätzverfahren anwendbar wie auf ein ARMArModell.

Sind die Modellparameter geschätzt, kann in einem dritten Schritt untersucht werden, ob alle Koeffizienten signifikant von null verschieden sind oder die Anpassung von SubsetrModellen angebracht ist. Ein SubsetrModell kennzeichnet dabei eine restringierte Neuschätzung des ursprünglich angepassten Modells, in dem insignifikante Parameterwerte null gesetzt werden. Enthält ein Modell insignifikante Parameter, wird es als überangepasst bezeichnet. Die Anpassung von SubsetrModellen ist damit Ausdruck des SparsamkeitrPrinzips, nach dem eine Überanpassung zu vermeiden ist. Der dritte Schritt endet mit einem Vergleich der angepassten Modelle, um das geeignetste Modell zu bestimmen.

Im vierten und letzten Schritt ist die Güte der vorgenommenen Modellanpassung zu überprüfen. Ein Modell ist korrekt spezifiziert, wenn die empirischen Residuen als Realisationen eines WhiterNoiserProzesses angesehen werden können. Erst dann kann davon ausgegangen werden, dass alle systematischen Komponenten der Zeitreihe adäquat modelliert sind. Zudem sind die Residuen auf Normalverteilung zu überprüfen. Normalverteilte Residuen sind nicht nur eine zwingende Voraussetzung zur Anwendung der MLrMethode, sondern vereinfachen auch die Überprüfung der Parameterrelevanz über PrStatistiken. Liegt keine Normalverteilung in den Residuen vor, kann dies eine Transformation der Ausgangsreihe nahelegen oder auf eine schlechte Modellanpassung hindeuten.

Auf die einzelnen Schritte im Rahmen der Modellspezifikation von univariaten Zeitreihen wird detailliert in den nächsten Abschnitten eingegangen.

4.2 Bestimmung der Modellordnung

Bevor ein geeignetes Modell für eine gegebene Zeitreihe spezifiziert werden kann, muss entschieden werden, ob sie die Realisation eines instationären stochastischen Prozesses ist. Zuerst ist die Betrachung und Analyse des Zeitreihenplots sowie der empirischen ACF angezeigt. Am Plot lässt sich bereits erkennen, ob es sich um eine stationäre oder um eine instationäre Zeitreihe handelt. Die empirische ACF zeigt klare Verhaltensmuster bei trendr und saisonbehafteten Zeitreihen. Ist die Ausgangsreihe trendbehaftet, klingt die ACF nur sehr langsam ab. Zeigt sie saisonale Schwankungen, sind sie in der ACF ebenfalls sichtbar.

Weist die Zeitreihe einen Trend und/oder eine Saison auf, ist zu überprüfen, wie oft einfache und saisonale Differenzen zu bilden sind. Das ist notwendig, da die Ordnungen Lá M sowie 2á 3 erst auf Basis der stationarisierten Reihe ermittelt werden können. Die Methode der variaten Differenzen stellt hierzu ein adäquates heuristisches Hilfsmittel dar5. Mit ihr können die benötigten Grade der Differenzenbildung @ bzw. & bestimmt werden. Es werden unterschiedliche Kombinationen von einfachen und saisonalen Differenzen gebildet und die Kombination aus @ und & ausgewählt, die das kleinste Varianzverhältnis der gefilterten Reihe zur Ausgangsreihe

Abbildung in dieser Leseprobe nicht enthalten

nach sich zieht. Die Auswahl erfolgt leicht anhand der ausgegebenen Tabelle von Varianzverhältnissen für verschiedene Kombinationen aus @ und &. Ist die Ausgangsreihe bereits stationär oder wurden in einem vorherigen Schritt entsprechende Differenzen gebildet, können nun die Ordnungen des Prozesses anhand der empirischen ACF sowie der empirischen PACF ermittelt werden. Für einen stationären AR[L]rProzess gilt, dass die theoretische ACF é und tendenziell auch ihr empirisches Gegenstück éÜ nach dem Lag L exponentiell abklingt. Die Rekursion

Abbildung in dieser Leseprobe nicht enthalten

mit ì P r sollte dabei näherungsweise erfüllt sein. Die theoretische PACF è zeigt ein Abbrechen nach dem Lag L,

Abbildung in dieser Leseprobe nicht enthalten

während die empirische PACF èÜ für ì P L mit großer Wahrscheinlichkeit innerhalb der Grenzen G¾6 verbleibt. Aufgrund von èÜ ý 08:rás 6; entspricht die doppelte Standardabweichung in etwa einem 95%rSchwankungsintervall. ACF und PACF legen daher einen AR[L]rProzess nahe, wenn die ACF nach dem Lag L exponentiell abklingt und die PACF nach dem Lag L abbricht bzw. innerhalb der 95%rGrenzen verbleibt. Das letzte Lag in der PACF, dass die 95%rGrenzen schneidet, wird damit als Ordnung L des ARrProzesses gewählt. Es kann davon ausgegangen werden, dass das Modell über das Lag L hinaus keine weiteren von null verschiedenen Koeffizienten besitzt. Zeichnen sich für spätere einzelne Lags signifikante Ausschläge in einer der Kennfunktionen ab, sind sie grundsätzlich nur dann in der Modellierung zu berücksichtigen, wenn es einen inhaltlichen Ansatzpunkt hierfür gibt. Der Grund für die fälschlicherweise ausgewiesene Signifikanz dieser vereinzelten Lags kann in dem Problem des multiplen Testens gesehen werden, da für jedes Lag separat ein Test mit 5% Irrtumswahrscheinlichkeit durchgeführt wird.

Liegt ein MA[M]rProzess vor, bricht die theoretische ACF é für ì P M ab. Für die empirische ACF éÜ gilt nach dem Lag M approximativ

Abbildung in dieser Leseprobe nicht enthalten

Die theoretische PACF è klingt für ì P M exponentiell ab. Ihr empirisches Pendant èÜ weist für ì P M tendenziell ebenfalls einen exponentiell abklingenden Verlauf auf. ks E té6 E ® E té6o 6 gibt die asymptotische Varianz der empirischen ACF an und wird als Formel von Bartlett bezeichnet. So lassen sich BartlettrGrenzen konstruieren, die der doppelten geschätzten Standardabweichung

Abbildung in dieser Leseprobe nicht enthalten

entsprechen. Sie sind zudem aufgrund der asymptotischen Normalverteilung der empirischen Autokorrelationen als 95%rSchwankungsintervall interpretierbar. Über die BartlettrGrenzen kann daher die Ordnung M des MArProzesses anhand der empirischen ACF ermittelt werden. Klingt die PACF für ì P M exponentiell ab und bricht die ACF nach dem Lag M ab bzw. verbleibt für ì P M innerhalb der Bartlettr Grenzen, spricht dies für einen MA[M]rProzess. Das letzte Lag, dass die Grenzen schneidet, wird zugleich als Ordnung M des MArProzesses gewählt. Sollten vereinzelte spätere (inhaltlich irrelevante) Lags signifikante Ausschläge aufweisen, sind sie aus dem oben erläuterten Grund in der Regel zu vernachlässigen.

Bei stationären ARMA[LáM]rProzessen gestaltet sich die Bestimmung der Ordnungen auf Basis der Kennfunktionen schwieriger. Sowohl ACF als auch PACF klingen exponentiell ab. Weisen die empirischen Kenngrößen also beide einen exponentiell abklingenden Verlauf auf und brechen nicht nach einem bestimmten Lag abrupt ab, spricht das für ein gemischtes Modell der ARMArKlasse. Es genügen meist schon geringe Werte für L und M, da ARMArModelle geringer Ordnungen bereits komplexes Verhalten abbilden können.

Die Tabelle 2 gibt die typischen Verhaltensmuster der Kennfunktionen für stationäre und invertierbare ARMArModelle wieder.

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Typische Verhaltensmuster von ACF und PACF für stationäre und invertierbare ARMArModelle

Für den Fall, dass die Ausgangsreihe eine Saisonfigur aufweist und die Methode der variaten Differenzen einen positiven Wert für & ausgewiesen hat, können über die empirische ACF und PACF der trendr und saisonbereinigten Reihe die Größen 2 und 3 bestimmt werden. 2 bzw. 3 bezeichnet dabei die Anzahl an verbliebenen signifikanten Saisonausschlägen in der PACF bzw. ACF.

4.3 Schätzen der Modellparameter

Ist die Ordnung bestimmt, sind die Parameter des Modells zu schätzen. Da es für die Parameterschätzung einen Unterschied macht, ob ein ARr, MAr oder ARMArModell angepasst werden soll, werden die Verfahren im Folgenden nach Modelltypen getrennt vorgestellt, wobei für jeden Modelltyp auch auf ein spezifisches Verfahren eingegangen wird.

Die Schätzverfahren für ARrModelle basieren auf zentrierten Reihen

Abbildung in dieser Leseprobe nicht enthalten

(9)

mit P Ð : und L Ð 34. 7ç ist ein WhiterNoiserProzess mit '[Abbildung in dieser Leseprobe nicht enthalten]sind die zu schätzenden Parameter. Es liegt nahe, ä über den empirischen Mittelwert :$ über alle 6 Beobachtungen zu schätzen. Speziell bei ARrModellen existiert eine einfache Beziehung zwischen Parametern und Autokorrelationen, die über die LevinsonrDurbinrRekursion genutzt werden kann, Schätzer mit sehr guten numerischen Eigenschaften zu erhalten. Diese Rekursionsbeziehung ist durch die YulerWalkerrGleichungen

Abbildung in dieser Leseprobe nicht enthalten

mit ì P r gegeben. In Matrizenschreibweise ergeben sie sich mit é L é? zu

Abbildung in dieser Leseprobe nicht enthalten

Über diese Darstellung können die é5á åá éã und mit ihnen rekursiv die é ermittelt werden. Die durch die YulerWalkerrGleichungen gegebene Rekursionsbeziehung kann auch dazu genutzt werden, die Ù5á å á Ùã auf Basis der é zu schätzen. Zur Schätzung der Parameter werden also lediglich die empirischen Autokorrelationen benötigt. Der Vektor der YulerWalkerrSchätzer ÜLk Ü5á åá ÙÜão" konvergiert für 6 \ » gegen den wahren Parametervektor Ù. Diese asymptotische Verteilungsaussage zeigt, dass sich YulerWalkerrSchätzer bei langen Zeitreihen verhalten wie KleinsterQuadraterSchätzer in einem Regressionsmodell. Ein weiterer Vorteil dieses rekursiven Verfahrens liegt darin, dass Schätzungen für alle ARr Modelle geringerer Ordnung ebenfalls bestimmt werden.

Neben den YulerWalkerrSchätzern können die Verfahren Maximum Likelihood (ML), Conditional Least Sums of Squares (CLS) und Unconditional Least Sums of Squares (ULS) zur Parameterschätzung in ARrModellen herangezogen werden. Die MLr Methode ermittelt die Schätzer über die Maximierung der LogrLikelihoodrFunktion. Hierbei wird ein GaußrProzess und damit die multivariate Normalverteilung der Zufallsvariablen ;5á åá ;Í unterstellt. Die MLrSchätzer sind dann die Parameterwerte, die das Maximum der LogrLikelihood nach sich ziehen.

Sieht man das ARrModell als Regressionsmodell an, lassen sich die Parameter über die Methode der kleinsten Quadrate (KQrMethode) ermitteln. Diese Annahme ist allerdings problematisch unter dem Gesichtspunkt, dass die Regressoren keine unabhängigen Variablen sind, sondern Vergangenheitswerte von ;ç. KQrMethoden schätzen die Parameter, indem die Summe der quadrierten Residuen minimiert wird. Hierzu gehören die CLSr und die ULSrMethode. Ihre Funktionsweisen sollen anhand eines AR>t?rProzesses

Abbildung in dieser Leseprobe nicht enthalten

erläutert werden6. Das Ziel ist es, die Summe der quadrierten Residuen

Abbildung in dieser Leseprobe nicht enthalten

zu minimieren. Die Schätzwerte Ü5 resultierenden Gleichungssystems:

Abbildung in dieser Leseprobe nicht enthalten

Die CLSrMethode verwendet implizit die Bedingung U?5 L U4 L r, da die Summation bei P L u beginnt. Die ULSrMethode beginnt die Summation bei P L s, prognostiziert jedoch in einem vorherigen Schritt die dazu benötigten Werte U?5 und U4.

Es lässt sich zeigen, dass YulerWalkerrSchätzer voll effizient sind. Es existieren also keine Schätzer mit einer geringeren asymptotischen Varianz als die YulerWalkerr Schätzer. Ein weiterer Vorteil der YulerWalkerrMethode ist, dass sie stets Schätzer für einen stationären Prozess generiert. Handelt es sich um eine kurze Zeitreihe, ist trotzdem eher die MLrMethode vorzuziehen. Sie liefert hier erfahrungsgemäß bessere Schätzer als die YulerWalkerrMethode. Wurde bereits ein Schätzer über das YulerWalkerrVerfahren ermittelt, kann ÜLk Ü5áåáÙÜão" als Startwert für die MLr Methode dienen. Die YulerWalkerrSchätzer können verbessert werden, wenn die Zeitreihe vorher einer TaperrModifikation unterzogen wird. Bei endlichen Zeitreihen kann so ein glatter Übergang der beobachteten Zeitreihe in den nichtrbeobachteten Teil erfolgen, indem die Ränder der zentrierten Zeitreihe heruntergewichtet werden. Die KQrSchätzer haben den Nachteil, dass sie im Gegensatz zu YulerWalker nicht die Stationarität des angepassten Modells gewährleisten. Für alle vorgestellen Schätzmethoden trifft jedoch die selbe Asymptotik zu:

Gegeben einen stationären AR[L]rProzess gemäß (9), dann gilt für den Schätzer Ü: ¾6:ÙÜ F Ù; ist asymptotisch multivariat normalverteilt mit Erwartungswertvektor r und Kovarianzmatrix [Abbildung in dieser Leseprobe nicht enthalten] ? ist dabei die Kovarianzmatrix von L aufeinander folgenden Variablen des Prozesses ;ç. Aus dieser Verteilungsaussage geht hervor, dass die Schätzer aller vorgestellten Verfahren bei langen Zeitreihen hinreichend genau mit den tatsächlichen Parametern übereinstimmen. Die Verfahren unterscheiden sich also hauptsächlich in der Behandlung der Werte, die an den Rändern des beobachteten Intervalls liegen. Je länger eine Zeitreihe ist, desto weniger fallen die Unterschiede zwischen den Methoden und damit das Schätzverfahren an sich ins Gewicht7.

Bei MArModellen gestaltet sich die Parameterschätzung komplizierter, obwohl das Bildungsgesetz im Vergleich zu einem ARrModell einfacher ist. Das ist darin begründet, dass die Parameter nicht linear mit den Zeitreihenvariablen verbunden sind, wie das bei ARrModellen der Fall ist. Die Parameterschätzung wird dadurch erschwert, dass die lineare Beziehung zwischen den Koeffizienten Ú5á å á Úä und 7ç nicht hinreichend ist, da die 7ç nicht beobachtet werden können. Zur Schätzung werden die empirischen Größen :;5áåá;Í; benötigt, mit denen die Koeffizienten allerdings nichtrlinear verknüpft sind, wie die AR[»]rDarstellung

Abbildung in dieser Leseprobe nicht enthalten

eines MA>s?rModells erkennen lässt.

Ist ein MArModell invertierbar, können die Innovationen und Parameter über die :;5á å á ;Í; geschätzt werden. Hier sind dann die Verfahren ML, CLS und ULS anwendbar. ML ermittelt analog zu den ARrModellen die Schätzer durch Maximierung der LogrLikelihoodrFunktion. Die CLSrMethode führt über den KQr Ansatz zu nichtrlinearen Schätzern. Das ULSrVerfahren prognostiziert die Zeitreihe über die CLSrSchätzer in die Vergangenheit und kann so die CLSrSchätzer verbessern. Das YulerWalkerrVerfahren steht hier nicht zur Verfügung, da es auf dem speziellen Bildungsgesetz von ARrProzessen beruht.

Ein spezifisches Schätzverfahren ist der Innovationsalgorithmus von Brockwell/Davis (1998). Gegeben sei ein MA[M]rProzess

Abbildung in dieser Leseprobe nicht enthalten

mit P Ð : und M Ð 34, ':;ç; L r und Autokovarianzfunktion Û . Zudem gelte

84 L Û4 sowie à4á5 L r. Nun werden die EinrSchrittrPrognosen àçá5 mit P R s in Abhängigkeit der Prognosefehler Ýç L ;ç F;àç?5á5 auf Basis der empirischen Reihe rekursiv bestimmt. Die optimalen EinrSchrittrPrognosen àçá5 ergeben sich hierbei durch

Abbildung in dieser Leseprobe nicht enthalten

mit P R s. Optimal ist eine EinrSchrittrPrognose dann, wenn der erwartete Prognosefehler

[Abbildung in dieser Leseprobe nicht enthalten] minimiert wird.

Sind die EinrSchrittrPrognosen bestimmt, kann obige Beziehung der Prognosefehler mit den Residuen dazu genutzt werden, die Parameter des MA[M]rModells zu schätzen. Um eine rekursive Anpassung von MA[M]rModellen durchführen zu können, werden[Abbildung in dieser Leseprobe nicht enthalten] ; für G L rásá å á I F s und

Abbildung in dieser Leseprobe nicht enthalten

gesetzt. Die rekursive Anpassung führt zu den geschätzten Modellen ; ç L 7ç E àà57ç?5 E ®E ààà7ç?à.

Abbildung in dieser Leseprobe nicht enthalten

Der WhiterNoiserProzess 7ç hat dabei die Varianz 8=N>7ç? L àà.

Die InnovationsrSchätzer sind asymptotisch multivariat normalverteilt. Strebt I mit 6 gegen unendlich, ist ¾6:ààÜ F àÜ ; asymptotisch normalverteilt. Mit dem Innovationsalgorithmus können also auf Basis der Autokovarianzfunktion vergleichsweise einfach Schätzungen für die Parameter eines MA[M]rModells ermittelt werden.

Die Parameter in ARMA[Lá M]rModellen können ebenfalls über die Methoden ML, CLS und ULS geschätzt werden. Die MLr, CLSr und ULSrSchätzer sind asymptotisch multivariat normalverteilt und stimmen bei hinreichend langen Zeitreihen immer besser mit den wahren Parameterwerten überein. Das YulerWalkerrVerfahren ist bei ARMArModellen nicht anwendbar.

Für ARMA[Lá M]rModelle steht auch ein spezifisches Verfahren zur Verfügung. Es geht zurück auf Durbin (1960) und basiert darauf, dass das ARMA[Lá M]rModell ; [Abbildung in dieser Leseprobe nicht enthalten]

mit P Ð : und Lá M Ð 34 als Regressionsansatz betrachtet wird. Die nicht beobachtbaren Störgrößen 7ç?5á å á 7ç?ä werden dabei über die Residuen Ýç?Ü approximiert, die aus der Anpassung eines ARrModells hoher Ordnung resultieren. Alle vorgestellten Schätzverfahren für ARr, MAr und ARMArModelle führen zu Schätzern, die asymptotisch multivariat normalverteilt sind. Dies erlaubt die Anwendung von Pr und (rTests sowie Konfidenzintervallen, um die Parameterschätzungen auf Signifikanz zu überprüfen.

4.4 Verfeinerung des angepassten Modells

Das geschätzte Modell soll nun in einem dritten Schritt der Modellspezifikation auf irrelevante Lags und damit insignifikante Parameter untersucht werden. Auf irrelevante Lags kann manchmal bereits aus inhaltlichen Gründen oder aus ACF/PACF geschlossen werden. Formal werden Parameter anhand der jeweiligen Pr Statistik auf Signifikanz geprüft. Sie ergibt sich aus dem Verhältnis von Parameterschätzer zu seiner geschätzten Standardabweichung und für ARr bzw. MArParameter speziell zu

Abbildung in dieser Leseprobe nicht enthalten

Unter der Nullhypothese *4ã Ùè L r bzw. *4ã Úè L r sind die PrStatistiken approximativ standardnormalverteilt. Anhand der korrespondierenden LrWerte kann beurteilt werden, ob ein Koeffizient signifikant von null verschieden ist. Der Lr Wert gibt dabei die Wahrscheinlichkeit an, dass die Teststatistik einen noch extremeren als den aktuell erhaltenen Wert annimmt8. Je kleiner der LrWert für einen Koeffizienten ist, umso größer ist der Erklärungsbeitrag des zugehörigen Lags für das Modell. Nimmt der LrWert eine Wahrscheinlichkeit an, die kleiner als 0.05 ist, so ist das betreffende Lag zu 5% Irrtumswahrscheinlichkeit signifikant. Übersteigt ein LrWert 0.05, leistet das Lag nur einen ungenügenden Erklärungsbeitrag und sollte in einer restringierten Neuschätzung null gesetzt werden. Ein LrWert O0.05 entspricht einer PrStatistik P|1.96|, da dies über die approximierte Standardnormalverteilung gerade die kritische Grenze eines zweiseitigen Tests mit 5% Irrtumswahrscheinlichkeit darstellt. So kann auch ohne Lr Wert eine Aussage bzgl. der Signifikanz getroffen werden.

Sind gewisse Koeffizienten insignifikant, führt dies zu einer restringierten Neuschätzung des ursprünglich angepassten Modells und damit zu der Anpassung von SubsetrModellen. Um die angepassten Modelle untereinander vergleichen zu können, sind Informationskriterien wie Akaike’s Information Criterion (#+%) oder das SchwarzrCriterion (5%) geeignet. Sie beurteilen die Anpassungsgüte des geschätzten Modells an die vorliegende empirische Zeitreihe und die Komplexität des Modells, gemessen an der Anzahl der Parameter.

Im Folgenden sollen #+% und 5% beispielhaft für ein AR[L]rModell erläutert werden. Das #+% ergibt sich zu

Abbildung in dieser Leseprobe nicht enthalten

wobei Üã die geschätzte Residuenvarianz darstellt. Das #+% hat allerdings den Nachteil, dass es eher zu Modellen mit vielen Parametern tendiert. Diesen Nachteil vermeidet das 5%

Abbildung in dieser Leseprobe nicht enthalten

Je höher die Ordnung L des ARrModells ist, desto größer fällt der Strafterm aus. Beide Kriterien können zur Modellselektion verwendet werden, wobei das 5% aus dem oben genannten Grund im Zweifel vorzuziehen ist. Bei SubsetrAR[L]rModellen wird die Ordnung L in den Kriterien durch die Anzahl der geschätzten Parameter ersetzt. Gewählt wird das Modell, bei dem der Kriteriumswert am kleinsten ist.

Die Informationskriterien eröffnen zudem eine alternative, wenn auch zeitintensivere Vorgehensweise bei der Modellspezifikation. So kann von vornherein eine Vielzahl verschiedener (Subsetr)Modelle an eine Zeitreihe angepasst werden und dann das Modell gewählt werden, dessen Kriteriumswert minimal ist. Beide Kriterien berücksichtigen es jedoch nicht, wenn einzelne Koeffizienten nur einen unzureichenden Erklärungsbeitrag leisten. Hier ist also zwingend zu überprüfen, ob alle Koeffizienten signifikant von null verschieden sind, wenn dem Prinzip der Sparsamkeit gerecht werden soll.

4.5 Überprüfung der Anpassungsgüte

Ist ein Modell spezifiziert, das den obigen Kriterien gerecht wird, soll in einem letzten Schritt die Güte der vorgenommenen Anpassung überprüft werden. Hierzu werden die empirischen Residuen des Modells herangezogen. Als graphische Hilfsmittel können der Residuenplot sowie die Kennfunktionen ACF/PACF der Residuen dienen. Der Plot sollte annähernd einen stationären, bei null zentrierten Prozess zeigen. Anhand der Kennfunktionen kann überprüft werden, ob noch nennenswerte Korrelationen bzw. partielle Korrelationen in den Residuen verblieben sind. Das ist dann der Fall, wenn einzelne Lags signifikante Ausschläge aufweisen.

Formal kann die Residualreihe mit Hilfe des BoxrPiercerLjungrTests auf verbliebene Autokorrelationen untersucht werden. Die folgenden Ausführungen zu diesem Testverfahren basieren auf der modifizierten Variante nach Ljung/Box (1978). Diese Modifikation vermeidet die konservative Teststatistik, die dem ursprünglichen PortmanteaurTest von Box/Pierce (1970) anhaftet. Für lange Zeitreihen :6 R srr; ist das Testverfahren dadurch vernünftig anwendbar, während es bei kürzeren Zeitreihen nicht empfehlenswert ist. Dem Verfahren liegt die Nullhypothese

*4ã é :7; L r zugrunde, nach der die Residuen unkorreliert sind. Die Teststatistik ergibt sich zu

Abbildung in dieser Leseprobe nicht enthalten

Weist man für einen Prozess nach, dass er sich äquivalent zu einem MA[»]rProzess verhält, so kann über diesen Weg dessen Stationarität gezeigt werden. Ist ein AR[L]r Prozess stationär, lässt er sich gerade als MA[»]rProzess darstellen. Dies soll am Beispiel eines AR>s?rProzesses mit Ù O s gezeigt werden. Rekursives Einsetzen von (2) führt zu

Abbildung in dieser Leseprobe nicht enthalten

mit absolut summierbaren Koeffizienten :ÙÜ ;. ;ç L ÃÜ@4ÙÜ7ç?Ü E 7ç,wird als MA[»]rDarstellung des AR>s?rProzesses bezeichnet. Über diese Art der Darstellung kann ein relativ einfacher Zugang zur theoretischen Analyse hergestellt werden. Jeder Prozess, der eine doppelt unendliche MArDarstellung besitzt, wird als linearer Prozess bezeichnet. Lineare Prozesse erhalten durch den Wold’schen Zerlegungssatz eine besondere Bedeutung. Hiernach lässt sich jeder stationäre Prozess eindeutig in zwei unkorrelierte Komponenten zerlegen. Eine Komponente ist dabei deterministisch, d.h. sie lässt sich exakt aus ihrer eigenen Vergangenheit vorhersagen. Die andere Komponente ist rein nichtrdeterministisch und stellt einen MA[»]rProzess dar.

Um ein MA[M]rModell schätzen zu können, muss auf die beobachtbaren Größen zurückgegriffen werden. Die nichtrbeobachtbaren Innovationen selbst können nur über die empirischen Zeitreihenwerte geschätzt werden. Es ist also von zentraler Bedeutung, dass MA[M]rModelle in ARrModelle überführt werden können. Diese Eigenschaft wird als Invertierbarkeit bezeichnet. Hierzu muss der Prozess 7ç als Filtration des Prozesses ; ç,

Abbildung in dieser Leseprobe nicht enthalten

[...]


1 Vgl. Schlittgen/Streitberg (2001), S. 126.

2 Vgl. Wold (1938).

3 Vgl. Schlittgen (2001), S. 63.

4 Vgl. Schlittgen/Streitberg (2001), S. 135.

5 Vgl. Schlittgen (2001), S. 34.

6 Angelehnt an die Darstellungen in Schlittgen (2001), S. 48/49.

7 Vgl. Schlittgen (2001), S. 50.

8 Vgl. Schlittgen (2001), S. 20.

Ende der Leseprobe aus 119 Seiten

Details

Titel
Modellspezifikation von multivariaten ökonomischen Zeitreihen
Untertitel
Spezifikation von AR-, MA-, ARMA-, ARIMA-, VAR- und VARMA-Modellen
Hochschule
Universität Hamburg  (Institut für Statistik und Ökonometrie)
Note
1,0
Autor
Jahr
2009
Seiten
119
Katalognummer
V138942
ISBN (eBook)
9783640477333
ISBN (Buch)
9783640477029
Dateigröße
1454 KB
Sprache
Deutsch
Anmerkungen
Diese Arbeit ist eine der wenigen Diplomarbeiten im Fachbereich BWL/VWL der Universität Hamburg, die mit der Note 1.0 ausgezeichnet wurde. Der Autor hat eine Diplomgesamtnote von 1.1 erzielt und wurde durch die Haspa Hamburg Stiftung sowie die Fachbereiche BWL und VWL ausgezeichnet.
Schlagworte
AR, MA, ARMA, ARIMA, Zeitreihenmodelle, SCM, Echelon, Box, Jenkins, univariat, Spezifikation, Skalarkomponenten, Skalarkomponentenmodelle, Zeitreihenanalyse, Statistik, Ökonometrie
Arbeit zitieren
Arne Johannssen (Autor), 2009, Modellspezifikation von multivariaten ökonomischen Zeitreihen, München, GRIN Verlag, https://www.grin.com/document/138942

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Modellspezifikation von multivariaten ökonomischen Zeitreihen


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden