Modellierung und Schätzung von ARMA-Prozessen


Seminararbeit, 2010

34 Seiten, Note: 1,0


Leseprobe

Inhaltsverzeichnis

1 Einleitung
1.1 Deskriptive Zeitreihenmodelle
1.2 Stochastische Prozesse
1.2.1 Momentfunktionen stochastischer Prozesse
1.2.2 Stationarität und Ergodizität
1.2.3 Gauß-Prozesse

2 Einführung in ARMA-Modelle
2.1 White-Noise-Prozesse
2.2 Moving-Average-Prozesse
2.3 Autoregressive Prozesse
2.3.1 Invertierbarkeit und Kausalität
2.3.2 Yule-Walker-Gleichungen
2.4 ARMA-Prozesse

3 Modellschätzung
3.1 Yule-Walker-Schätzung
3.2 Maximum-Likelihood-Schätzung
3.3 Kleinste-Quadrate-Methoden
3.4 Vergleich der Schätzungsverfahren anhand eines Beispiels
3.5 Schätzung der Ordnungen p und q

4 Fazit

Anhang: Empirische Größen

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

Literaturverzeichnis

1 Einleitung

Heutzutage ist die Analyse von Zeitreihendaten in fast allen Wissenschaftsgebieten von großer Bedeutung, sei es in der Wirtschaft, in der Industrie, in der Demografie oder in Naturwissenschaften. Verschiedenste Phänomene wie beispielsweise das Konsumverhalten, Anzahl der Erwerbstätigen, die Feinstaubbelastung in Städten, die Geburtenrate, die monatliche Niederschlagsmenge oder die Anzahl der Sonnenflecken lassen sich durch Zeitreihen beschreiben. Prinzipiell ist jede Folge (xt)teT von quantitativen Beobachtungswerten zu einem bestimmten Vorgang als eine Zeitreihe definiert. Der Zweck der Analyse einer Zeitreihe kann die Beschreibung des zeitlichen Vorgangs, die zeitliche Beobachtung der Kontrolle oder die Prognose der zukünftigen Entwicklung sein. Der Zeitraum T kann in der Realität unendlich sein, in der Praxis sind in jedem Fall aber nur endlich viele Werte beobachtbar.1

1.1 Deskriptive Zeitreihenmodelle

In traditionellen, deskriptiven Zeitreihenmodellen wird die Zeitreihe als Verknüpfung von Trend-, Konjunktur-, Saison- und Restkomponente beschrieben. Der Trend mt beschreibt systematische, langfristige Veränderungen der Zeitreihe, die Konjunkturkomponente kt mehrjährige, nicht notwendigerweise periodische Schwankungen, und die Saisonkomponente st saisonbedingte periodische Effekte. Der Rest ut, der nicht durch die anderen Komponenten erklären werden kann, wird als Realisation einer Zufallsvariable aufgefasst. Die einfachste Variante der Verknüpfung dieser Komponenten ist die additive Überlagerung:

Abbildung in dieser Leseprobe nicht enthalten

(1.1)

In der Praxis wird die Zeitreihe durch geeignete Filter in ihre Komponenten zerlegt und anschließend der Abstand von geeigneten Funktionen zu den Zeitreihenkomponenten minimiert. Eine Möglichkeit der Minimierung ist die Kleinste- Quadrate-Methode, bei der die Summe der quadrierten Abstände minimiert wird. Im Falle der Approximation des Trends mt durch eine affin lineare Schätzfunktion mt =a +ä21 ist zum Beispiel das Minimierungsproblem

Abbildung in dieser Leseprobe nicht enthalten

zu lösen. Die sich dabei ergebenen optimalen Parameter α und ä2 werden auch OLS-Schätzer („Ordinary-Least-Squares“-Schätzer) genannt.

Weiteres zum klassischen Komponentenmodell und insbesondere zur Schätzung von Trend-, Konjunktur- und Saisonkomponente findet sich zum Beispiel in [Schlittgen/Streitberg, 2001], S. 9 ff.

1.2 Stochastische Prozesse

Eine modernere Variante ist die Auffassung einer Zeitreihe als endliche Realisation stochastischer Prozesse. Hierbei wird nicht nur eine Komponente, sondern die ganze Zeitreihe als Ergebnis eines Zufallsprozesses angesehen. Formal versteht man unter einem stochastischen Prozess eine Menge {Xt 11 e T} von Zufallsvariablen auf einem Wahrscheinlichkeitsraum (Ω, A,P), die auf einen gemeinsamen Wertebereich E c R abbildet. Eine (reelle) Zufallsvariable Xt = Xt(ω) ist also eine Funktion, die Elemente ω der Ergebnismenge Ω Werte in R zuordnet. In der Praxis sind ω Umweltzustände, die mit einer bestimmten Wahrscheinlichkeit auftreten können. Auf Ω muss eine sogenannte σ-Algebra A definiert sein, welche Teilmengen bzw. Ereignisse von Ω enthält, und ein Wahrscheinlichkeitsmaß P, das den Elementen von A Wahrscheinlichkeiten zuordnet. Die σ-Algebra A legt also fest, welche der Elementarereignisse ω überhaupt auftreten, während das Wahrscheinlichkeitsmaß P den expliziten Wert der Wahrscheinlichkeit ausdrückt.2 Die Indexmenge T stellt in der Zeitreihenanalyse stets eine Menge von Zeitpunkten dar. Da wie bereits erwähnt in der Praxis nur endlich viele, diskrete Werte beobachtbar sind, kann man stochastische Prozesse auf diskrete Zeitparameter einschränken. In diesem Fall lässt das Symbol Xt(ω) vier verschiedene Interpretationsweisen in Abhängigkeit von t und ω zu:

- Sind t und ω fest, so ist Xt(ω) eine feste reelle Zahl.
- Ist t fest und ω variabel, so ist Xt(ω) eine reelle Zufallsvariable.
- Ist t variabel und ω fest, dann ist Xt(ω) eine von Zeitpunkten t abhängige Funktion, die auch als Realisierung des Prozesses bezeichnet wird.

Eine solche liegt in der Praxis als Zeitreihe vor und soll durch einen geeigneten stochastischen Prozess modelliert werden.

- Sind t und ω variabel, so ist Xt(ω) der gesamte stochastische Prozess.3

1.2.1 Momentfunktionen stochastischer Prozesse

Grundlegend für die Behandlung stochastischer Prozesse sind die folgenden Größen, die auch als Momentfunktionen bezeichnet werden und für alle 5, te T definiert sind:

- Erwartungswertfunktion oder Mittelwertfunktion

Abbildung in dieser Leseprobe nicht enthalten

(1.3)

- Varianzfunktion

Abbildung in dieser Leseprobe nicht enthalten

(1.4),

- Kovarianzfunktion oder Autokovarianzfunktion

Abbildung in dieser Leseprobe nicht enthalten

(1.5)

- Korrelationsfunktion oder Autokorrelationsfunktion

Auf Grund der Symmetrie der Kovarianz und Korrelation gilt y(s,t) = y(t,s) und p(s,t) = p(t,s). Die Erwartungswertfunktion gibt an, mit welchem Wert von Xt zum Zeitpunkt t „im Mittel“ zu rechnen ist. Analoges gilt für Varianz-, Kovarianz- und

Korrelationsfunktion.4

1.2.2 Stationarität und Ergodizität

Diese Momentfunktionen sind theoretische Größen und in der Praxis nicht beobachtbar. Für die Schätzbarkeit sind jedoch weitere einschränkende Annahmen für stochastische Prozesse notwendig, da in der Realität immer nur eine einzige Realisation eines solchen vorliegt. Dies betrifft einerseits die zeitliche Heterogenität und andererseits das Gedächtnis des Prozesses. Damit aus allen Zeitpunkten die gleiche Information über die Verteilung der Zufallsvariablen eines stochastischen Prozesses gezogen werden kann, müssen beispielsweise die sogenannten Stationaritätsbedingungen erfüllt sein:

Ein stochastischer Prozess (Xt)teT heißt stark stationär, wenn für s, t1,...,tn e T, n e N beliebige Teilfamilien Xt,...,Xtn und X^ +s,...,Xtn +s des Prozesses dieselbe gemeinsame Verteilung besitzen. Ein stochastischer Prozess (Xt)teT heißt schwach stationär, wenn er folgende zwei Bedingungen erfüllt:

- μt =μ konstant für alle te T (Mittelwertstationarität)

Abbildung in dieser Leseprobe nicht enthalten5

Starke Stationarität impliziert schwache Stationarität, falls die ersten beiden Momente existieren. Da für unsere betrachteten wie auch für viele relevante wirtschaftswissenschaftliche stochastischen Prozesse der Begriff der schwachen Stationarität ausreichend ist, soll Stationarität hier konsequent als schwache Stationarität verstanden werden.

Ein weiterer wichtiger Punkt ist, dass die Werte des Prozesses über die Zeit hinweg nicht zu stark abhängig voneinander sein dürfen. Sonst liefern sie zu wenig eigenständige Information über die Verteilung des Prozesses. Die notwendigen Einschränkungen über das Gedächtnis eines stochastischen Prozesses werden Ergodizitätsbedingungen genannt. Im Falle der Stationarität wird ein stochastischer Prozess Mittelwert-ergodisch genannt, falls

Abbildung in dieser Leseprobe nicht enthalten

(1.7)

und Kovarianz-ergodisch, falls

Abbildung in dieser Leseprobe nicht enthalten

(1.8)

Aus anschaulicher Sicht ist Mittelwert-Ergodizität gegeben, falls γ(τ) „hinreichend schnell“ gegen null geht bzw. zeitlich weit auseinander liegende Zufallsvariablen beinahe unkorreliert sind. In diesem Fall ist das arithmetische Mittel XT ein erwartungstreuer und konsistenter Schätzer für μ. Im Gegensatz zur Mittelwert- Ergodizität ist die Kovarianz-Ergodizität für stationäre Zeitreihen nur schwer nachweisbar. Diese wird jedoch benötigt, damit sich auch Varianz, Kovarianz und Korrelation von stochastischen Prozessen durch die im Anhang vorgestellten empirische Größen schätzen lassen. Für die im folgenden Abschnitt vorgestellten Gauß-Prozesse kann man zeigen, dass (1.7) und (1.8) schon unter folgender Bedingung erfüllt sind:

Abbildung in dieser Leseprobe nicht enthalten

(1.9)

Hier genügt also die absolute Summierbarkeit der Autokovarianzfunktion.6

1.2.3 Gauß-Prozesse

Ein stochastischer Prozess (Xt)teT heißt Gauß-Prozess, wenn für jeweils n Zeitpunkte t1,...,tn die gemeinsame Verteilung von XtXtn eine multivariate Normalverteilung mit invertierbarer Kovarianzmatrix ist. Da die multivariate Normalverteilung schon durch die ersten beiden Momente festgelegt wird, ist beim Gauß-Prozess schwache und starke Stationarität äquivalent.7

2 Einführung in ARMA-Modelle

Wir werden nun spezielle lineare Prozesse behandeln, die in der Praxis breite Anwendung finden. Diese kennzeichnen sich durch die Verknüpfung von Zufallsvariablen und Zufallsschocks aus. In Abschnitt 2.1 wird die Modellierung des Schockterms als White-Noise-Prozess besprochen. In den darauf folgenden beiden Abschnitten geht es um Moving-Average-Prozesse, bei denen sich der Prozess aus einem gewichteten Mittel über die vergangenen Störterme ergibt, und um autoregressive Prozesse, die sich im Wesentlichen aus ihrer eigenen Vergangenheit und einem Störterm erklären lassen. In Abschnitt 2.4 wird schließlich deren Kombination, die sogenannten ARMA-Prozesse, behandelt. Im Übrigen erfüllen diese Prozesse die in Abschnitt 1.2.2 erwähnten Ergodizitätsbedingungen, falls sie sich durch Filterung eines White-Noise-Prozesses mit absolut summierbarer Folge (cu ) ergeben8. Unter welchen Voraussetzungen dies der Fall ist, wird in Abschnitt 2.3.1 bei der Frage nach der Invertierbarkeit und AR- und MA-Prozessen geklärt.

2.1 White-Noise-Prozesse

Ein stochastischer Prozess (et ) heißt White-Noise-Prozess („weißes Rauschen“), wenn die et unabhängige Zufallsvariablen sind mit E[ει] = μ und Var[et] = σ[2]> 0 für alle t e Z .9

Auf Grund der Unabhängigkeit gilt

Abbildung in dieser Leseprobe nicht enthalten

Daraus folgt für die Kovarianzfunktion:

Damit ist ein White-Noise-Prozess also immer stationär. In den nachfolgenden Abschnitten schreiben wir für einen stochastischen Prozess (et ), der einem White- Noise-Prozess entspricht, auch abkürzend et ~ WN(μ,σ[2]).

2.2 Moving-Average-Prozesse

Ein Moving-Average-Prozess10 der Ordnung q, kurz MA( q )-Prozess, ist ein stochastischer Prozess (Xt ), der sich aus einem gleitenden Durchschnitt über q vergangene und dem aktuellen Störterm erklärt:

Abbildung in dieser Leseprobe nicht enthalten

(2.2)

Für p = ж heißt der Prozess unendlicher MA-Prozess. Mit dem Lagoperatorpolynom

Abbildung in dieser Leseprobe nicht enthalten

(2.3)

erkennt man, dass sich MA(q)-Prozesse aus Filtration von White-Noise-Prozessen ergeben: Xt =ß(B)εt. Es ergeben sich unmittelbar folgende Eigenschaften:

Abbildung in dieser Leseprobe nicht enthalten

(2.4)

Abbildung in dieser Leseprobe nicht enthalten

(2.5)

[...]


1 Vgl. [Hartung, 2002], S. 637-638.

2 Vgl. [Fahrmeir, 1981], S. 5. Für eine streng mathematische Behandlung der Begrifflichkeiten σ-Algebra und Wahrscheinlichkeitsmaß siehe [Elstrodt, 2009], S.13-14, 61.

3 Vgl. [Schmid, 2006], S. 111-112.

4 Vgl. [Schmid, 2006], S. 112-113.

5 Vgl. [Schmid, 2006], S. 114.

6 Vgl. [Stier, 2001], S. 89-90.

7 Vgl. [Schmid, 2006], S. 115.

8 Vgl. [Schlittgen/Streitberg, 2001], S. 232.

9 Vgl. [Schlittgen/Streitberg, 2001], S. 95-97.

10 Dieser Abschnitt orientiert sich im Wesentlichen an [Schlittgen/Streitberg, 2001], S. 116-117. In ähnlicher Form zu finden in [Pruscha, 2001], S. 347, oder in [Stier, 2001], S. 52-54.

Ende der Leseprobe aus 34 Seiten

Details

Titel
Modellierung und Schätzung von ARMA-Prozessen
Hochschule
Bayerische Julius-Maximilians-Universität Würzburg  (Volkswirtschaftliches Institut)
Veranstaltung
Zeitreihenanalyse
Note
1,0
Autor
Jahr
2010
Seiten
34
Katalognummer
V155502
ISBN (eBook)
9783640682362
ISBN (Buch)
9783640682959
Dateigröße
707 KB
Sprache
Deutsch
Anmerkungen
Kleine unerhebliche Änderungen zur ursprünglichen bewerteten Abgabe.
Schlagworte
ARMA-Prozesse, Modellschätzung, Yule-Walker, CLS, ML-Schätzung, AR, MA, ARMA, Maximum Likelihood, ULS, ML-Schätzer, CLS-Schätzer, Stationarität, Ergodizität, Gauß-Prozess, MA-Prozess, AR-Prozess, Vektorkorrelation, HQ, AIC, BIC, Akaike, ACF, PACF, Autokorrelation, White Noise
Arbeit zitieren
Klaus Hartmann (Autor), 2010, Modellierung und Schätzung von ARMA-Prozessen, München, GRIN Verlag, https://www.grin.com/document/155502

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Modellierung und Schätzung von ARMA-Prozessen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden