Spezifikation von ARIMA-Modellen anhand des Box-Jenkins-Ansatzes


Bachelorarbeit, 2014
48 Seiten, Note: 1.3

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

1 Einleitung

2 Grundlagen zu Zeitreihen und stochastischen Prozessen

3 Univariate Zeitreihenmodelle
3.1 Autoregressive Modelle
3.2 Moving-Average Modelle
3.3 Autoregressive Moving-Average Modelle
3.4 Autoregressive Integrierte Moving-Average Modelle

4 Modellspezifikation univariater Zeitreihenmodelle
4.1 Modellidentifikation
4.2 Schätzung der Modellparameter
4.3 Modelldiagnose

5 Schlussbetrachtung

Literaturverzeichnis

Abbildungsverzeichnis

1 Darstellung eines simulierten AR(3)-Prozesses

2 Darstellung eines simulierten MA(2)-Prozesses

3 Darstellung eines simulierten ARMA(2 , 2)-Prozesses

4 Darstellung eines simulierten ARIMA(1 , 1 , 1)-Prozesses

5 Darstellung des simulierten ARIMA(1 , 1 , 1)-Prozesses nach einmaliger Differenzenbildung

6 Darstellung eines stationären und eines instationären Prozesses

7 ACF und PACF eines AR(3)-Prozesses

8 ACF und PACF eines MA(2)-Prozesses

9 ACF und PACF eines ARMA(2 , 2)-Prozesses

10 ACF und PACF eines ARIMA(2 , 1 , 2)-Prozesses

11 QQ-Plots eines gut angepassten und eines schlecht angepassten Modells

Tabellenverzeichnis

1 Bedingungen für Stationarität und Invertierbarkeit bei AR-, MA- und ARMA-Prozessen

2 Charakteristisches Verhalten von ACF und PACF verschiedener Zeitrei- henmodelle

Abkürzungen und Akronyme

Abbildung in dieser Leseprobe nicht enthalten

1 Einleitung

Daten, die über die Zeit hinweg kontinuierlich beobachtet und aufgezeichnet werden, sind vor allem in der Ökonometrie von enormer Wichtigkeit. Mit ihrer Hilfe können zukünftige Werte der Zeitreihe prognostiziert werden, nachdem ein geeignetes Mo- dell an die Daten angepasst wurde. Unter einer Zeitreihe wird eine geordnete Folge von Beobachtungen verstanden. Diese liegen beispielsweise in Form von Aktienkur- sen, Inflationsraten, zeitlichen Entwicklungen des Bevölkerungswachstums oder auch als Absatzzahlen und Produktionsmengen vor. Mittels der Zeitreihen sollen die Verän- derungen und Entwicklungen zugrunde liegender Variablen beobachtet und analysiert werden. Die Ziele der Zeitreihenanalyse sind dabei die Identifikation bestimmter Regel- mäßigkeiten und Muster in den Daten sowie die Modellierung des datengenerierenden Prozesses und die Prognose zukünftiger Werte.

Die vorliegende Arbeit beschäftigt sich mit der Modellspezifikation univariater Zeitreihen anhand des Box-Jenkins-Ansatzes, in dessen Rahmen ein geeignetes Modell an den datengenerierenden Prozess angepasst werden soll. Wurde ein adäquates Modell für den Prozess gefunden, können mit seiner Hilfe Prognosen für zukünftige Werte der Zeitreihe ermittelt werden. Die Güte des angepassten Modells bestimmt dabei die Genauigkeit der prognostizierten Werte, weshalb es wichtig ist, das Modell mit großer Sorgfalt den gegebenen Daten anzupassen. Das Ziel dieser Arbeit ist es, die Spezifikation verschiedener univariater Zeitreihenmodelle vorzustellen.

Im Hinblick darauf werden im zweiten Kapitel einige benötigte Grundlagen der Zeitrei- henanalyse eingeführt, welche die Basis zu weiteren Ausführungen bilden sollen. Hierzu gehören unter anderem der White-Noise Prozess, der Gauß Prozess sowie der Random Walk als einfachste Zeitreihenmodelle. Die statistischen Kennfunktionen und Stationa- rität als wichtige Voraussetzung für die Modellspezifikation werden ebenfalls im zweiten Kapitel thematisiert.

Das dritte Kapitel befasst sich mit verschiedenen univariaten Zeitreihenmodellen, die für eine Anpassung der Daten zur Verfügung stehen. Hierzu zählen Autoregressive (AR), Moving-Average (MA), Autoregressive Moving-Average (ARMA) und Autoregressive Integrierte Moving-Average (ARIMA) Modelle. Ihre Charakteristiken, wichtigsten Eigenschaften und die zugehörigen Plots der verschiedenen Modelle werden im Verlauf des Kapitels dargelegt.

Im Anschluss wird im vierten Kapitel dieser Arbeit die eigentliche Modellspezifikati- on und deren verschiedene Schritte im Rahmen des Box-Jenkins-Ansatzes behandelt. Zunächst wird dazu ein grober Überblick über den Ablauf der Spezifikation gegeben, bevor im Folgenden näher auf die einzelnen Schritte eingegangen wird. Insbesondere der erste Schritt wurde dabei von George E. P. Box und Gwilym M. Jenkins geprägt, die eine spezielle Möglichkeit zur Identifikation des Modells anhand der statistischen Kennfunktionen entwickelten.

Abschließend erfolgt im fünften Kapitel eine Schlussbetrachtung, welche die vorliegende Arbeit zusammenfasst und einen Überblick über den Verlauf und die zur Verfügung stehenden Methoden innerhalb der einzelnen Schritte der Modellspezifikation liefert.

2 Grundlagen zu Zeitreihen und stochastischen Prozessen

Ein stochastischer Prozess (Yt) t ∈ Z ist eine Folge von Zufallsvariablen Yt, wobei der Index t als (diskrete) Zeit aufgefasst wird. Durch ihn wird eine zufällige und dynamische Entwicklung einer ökonomischen Größe, wie z.B. ein Aktienindex, eine Inflationsrate oder eine Populationsgröße, beschrieben. Zu jedem Zeitpunkt t ∈ Z ist dem Prozess Yt somit eine Zufallsvariable zugeordnet.

Eine konkrete Realisation (Yt (ω)) t ∈ Z eines Ausschnittes des stochastischen Prozesses wird als Zeitreihe oder auch als Pfad des Prozesses bezeichnet. Eine Zeitreihe ist dem- nach eine endliche Folge von Beobachtungen einer Variablen y 1 , y 2 , . . . , yT, die in regel- mäßigen zeitlichen Abständen (z.B. jede Minute, Stunde, Woche, Monat etc.) erhoben wurden. T kennzeichnet dabei die Anzahl der Zeitpunkte, an denen Werte der Zeitreihe realisiert werden. Im Folgenden wird die Zeitreihe ebenfalls mit (Yt) t ∈ Z bezeichnet, da in der Literatur oft nicht deutlich zwischen der Zeitreihe und dem stochastischen Pro- zess differenziert wird. Des Weiteren beschäftigt sich diese Arbeit mit den univariaten Zeitreihen, die sich dazu eignen, die Dynamik einzelner Zeitreihen zu untersuchen. Sol- len die dynamischen Interaktionen zwischen verschiedenen Variablen betrachtet wer- den, bieten sich multivariate Zeitreihenmodelle an, welche aber kein Bestandteil der vorliegenden Arbeit sind.

Zwei der einfachsten stochastischen Prozesse, und dennoch von großer Bedeutung in der Zeitreihenanalyse, sind der Gauß und der White-Noise Prozess. Ein Gau ß Prozess ist ein stochastischer Prozess, bei dem die Randverteilungen des Prozesses normalver- teilt sind.

Als White-Noise Prozess (Weißes Rauschen) wird eine Folge (ε t) t ∈ Z von unabhängigen und identisch verteilten Zufallsvariablen ε t bezeichnet. Für diese gilt:

Abbildung in dieser Leseprobe nicht enthalten

Da alle Zufallsvariablen eines White-Noise Prozesses unkorreliert sind, also in keinem Zusammenhang zueinander stehen, können mit Hilfe der Beobachtungen aus der Ver- gangenheit keinerlei Rückschlüsse auf den zukünftigen Verlauf des Prozesses gezogen werden. Ein White-Noise Prozess ist daher ein Prozess ohne Gedächtnis (Short-term Memory). Dennoch ist er in der Zeitreihenanalyse von besonderem Interesse, da er für die Konstruktion komplexer stochastischer Prozesse, die im folgenden Kapitel ein- geführt werden, benötigt wird. Die Kombination aus einem White-Noise Prozess und einem Gauß Prozess wird Gau ß scher White-Noise Prozess genannt. Auch in der Modell- spezifikation spielen White-Noise Prozesse eine große Rolle. Bei der Modellwahl wird darauf geachtet, ob die Residuen einer Zeitreihe als White-Noise Prozess beschrieben werden können. Ist dies der Fall, kann angenommen werden, dass alle systematischen Komponenten im angepassten Modell erfasst wurden und ein adäquates Modell gefun- den wurde.1

Die Annahme der identisch verteilten und unabhängigen Zufallsvariablen ist in der Praxis bei zeitlich geordneten Beobachtungsdaten allerdings sehr selten vorzufinden. Daher wird typischerweise davon ausgegangen, dass zwischen den Zufallsvariablen einer Zeitreihe Abhängigkeit besteht. Aufgrund dieser Abhängigkeiten können die Zufalls- variablen einer Zeitreihe auch durch eine gemeinsame Wahrscheinlichkeitsverteilung p (Y 1 , Y 2 , . . . , YT) dargestellt werden, welche das Verhalten der einzelnen Zufallsvaria- blen insbesondere durch die ersten und zweiten Momente, also Erwartungswert, Va- rianze und Autokovarianz, beschreibt. Oft wird diesen Charakeristika des Prozesses Zeitinvarianz unterstellt, da die Werte aus den empirischen Daten nur geschätzt und für eine sinnvolle Analyse des Prozesses genutzt werden können, wenn sie über die Zeit hinweg konstant sind und demnach Stationarität aufweisen.

Dabei wird zwischen schwacher und strenger Stationarität unterschieden. Unter schwa cher Stationarität wird ein stochastischer Prozess (Yt) t ∈ Z verstanden, der mittel- wert- und kovarianzstationär ist. Es gilt also ∀ t und ∀ τ (t, τ ∈ Z):

Abbildung in dieser Leseprobe nicht enthalten

Die Autokovarianz γτ zweier Zufallsvariablen des stochastischen Prozesses (Yt) t ∈ Z hängt dabei lediglich von der Zeitdifferenz τ ab und nicht von der Zeit t. Der oben eingeführte White-Noise Prozess ist schwach stationär, da sein Erwartungswert sowie seine Autokovarianzfunktion zeitinvariant sind.

Es wird von strenger Stationarität gesprochen, falls zusätzlich zu den Bedingungen der schwachen Stationarität gilt, dass die gesamte gemeinsame Verteilung der Zufallsvariablen Yt zeitinvariant ist, d.h.

Abbildung in dieser Leseprobe nicht enthalten

∀ t, ∀ τ und ∀ k. Strenge Stationarität impliziert demzufolge schwache Stationarität, umgekehrt ist dies jedoch nur der Fall, wenn Gauß Prozesse betrachtet werden. Im weiteren Verlauf dieser Arbeit ist die schwache Stationarität allerdings hinreichend für alle weiteren Betrachtungen.

Sind die Bedingungen der schwachen Stationarität nicht erfüllt, liegt ein instationärer Prozess vor. Auch diese Prozesse können durch bestimmte Modellierungen dargestellt werden, wie z.B. durch ARIMA-Modelle, welche in Kapitel 3 dieser Arbeit thematisiert werden.

Im ökonomischen Kontext ist meist das zugehörige stochastische Modell der Beobach- tungen des Prozesses (Yt) t ∈ Z nicht bekannt, weswegen keine analytische Begründung der schwachen Stationarität möglich ist. Aufgrund dessen wird die Stationarität anhand der Zeitreihe Yt untersucht. Dies kann unter anderem mit Hilfe der Autokovarianz- oder der Autokorrelationsfunktion geschehen, die im Folgenden eingeführt werden.

Die Autokovarianzfunktion

Abbildung in dieser Leseprobe nicht enthalten

eines stochastischen Prozesses (Yt) t ∈ Z beschreibt den linearen Zusammenhang zwischen zwei Zufallsvariablen des Prozesses, der von der Zeitdifferenz, dem Lagparameter τ, ab- hängt. Die Kovarianz hängt zudem allerdings von dem Niveau der Variablen ab, weshalb sie nur ein bedingt geeignetes Maß ist, um die Kovarianzen verschiedener Zeitreihen miteinander zu vergleichen. Aus diesem Grund wird oft die Autokorrelationsfunktion (ACF)

Abbildung in dieser Leseprobe nicht enthalten

mit γ 0 = σ 2 als normiertes Maß für die lineare Abhängigkeit zweier Zufallsvariablen herangezogen. Die Autokorrelationsfunktion nimmt dementsprechend Werte im Bereich von -1 bis 1 an, wobei sie mit sich selbst (τ = 0) perfekt korreliert (ρτ = 1) ist. Die ge- wöhnliche ACF erfasst jedoch alle Korrelationen sämtlicher Zufallsvariablen zwischen Yt und Yt −τ.2 Sollen nur die direkte Korrelation zwischen Yt und Yt −τ betrachtet wer- den, bietet es sich an, die partielle Autokorrelationsfunktion (PACF) als Instrument zur Beschreibung linearer Abhängigkeiten zu nutzen. Die PACF πτ eines Prozesses misst lediglich den linearen Zusammenhang zwischen Yt und Yt −τ nach Bereinigung

des Einflusses der dazwischen liegenden Zufallsvariablen (Yt − 1 , . . . , Yt −τ +1). Dabei gilt:

[Abbildung in dieser Leseprobe nicht enthalten] ist perfekt mit sich selbst korreliert)

[Abbildung in dieser Leseprobe nicht enthalten] (Für τ = 1 entspricht die PACF der ACF)

[Abbildung in dieser Leseprobe nicht enthalten] (Die PACF ist hierdurch auch für π < 0 erklärt)3

Stationarität im Allgemeinen ist in realen ökonomischen Prozessen nicht immer gege- ben. Oft weisen ökonomische Zeitreihen größere Schwankungen auf, was verschiedene Gründe von Nichtstationarität, wie beispielsweise Saisonalität oder einen Trend, zur Ursache haben kann. Trends äußern sich durch eine konstante Aufwärts- oder Ab- wärtsbewegung der Zufallsvariablen eines Prozesses über die Zeit hinweg, wodurch die Mittelwertstationarität nicht mehr gegeben ist. Um die Zeitreihen im ökonomischen Zusammenhang dennoch sinnvoll analysieren zu können, muss eine Transformation der Daten durchgeführt werden, um Stationarität in der Zeitreihe zu erlangen. Zunächst sollen dazu zwei Arten von Trends in Zeitreihen unterschieden werden.

Die Ursache der Mittelwertinstationarität kann zum einen ein deterministischer Trend sein, in dessen Fall die Zeitreihen des stochastischen Prozesses um die Trendgerade schwanken. Der Trend ist hierbei eine Funktion der Zeit t, welche die Grundrichtung des Prozessverlaufes bestimmt. Die Abweichungen vom Trend sind rein zufällig und sta- tionär, was bedeutet, dass der Prozess immer eine Tendenz zum Trend aufweist und die Abweichungen somit keinen Einfluss auf das langfristige Verhalten des Prozesses haben. Deshalb kann auch von einem trend-stationären Prozess gesprochen werden. Um de- terministische Trends zu beseitigen, müssen zunächst die Parameter der Trendfunktion geschätzt werden, um danach mit Hilfe der Regression die Werte des trendbereinigten Prozesses zu bestimmen.4

Zum anderen kann ein stochastischer Trend die Ursache für eine Mittelwertinstationarität sein. Ein typischer stochastischer Trend ist die Realisation einer Zeitreihe in Form eines Random Walks. Sei ε t ein White-Noise Prozess, dann heißt

Abbildung in dieser Leseprobe nicht enthalten

Random Walk mit Drift c und wird auch Zufallsbewegung oder Irrfahrt genannt. Ist c = 0 handelt es sich um einen Random Walk ohne Drift. Random Walks mit oder ohne Drift zeichnen sich dadurch aus, dass der aktuelle Wert des Prozesses sich nahezu perfekt durch den vergangenen Wert Yt − 1 prognostizieren lässt. Ein Random Walk wird aus diesem Grund auch als Prozess mit langem Gedächtnis (long Memory) bezeichnet, da zufällige Schocks im Gedächtnis des Prozesses bleiben und so der erwartete Pro- gnosefehler steigt. Prozesse mit stochastischem Trend können durch Differenzenbildung in einen stationären Prozess überführt werden, weswegen sie auch differenz-stationäre Prozesse genannt werden.5

In der Ökonometrie treten in den Variablen öfter stochastische als deterministische Trends auf, weshalb im weiteren Verlauf dieser Arbeit von stochastischen Trends ausgegangen werden kann, wenn von trendbehafteten Prozessen gesprochen wird.

3 Univariate Zeitreihenmodelle

Im letzten Kapitel wurden die Grundlagen der Zeitreihenanalyse eingeführt. Dabei wurden unter anderem zwei Arten von Prozessen, der White-Noise Prozess und der Random Walk, veranschaulicht, die in diesem Kapitel eine wichtige Rolle bei der Mo- dellierung komplexer stochastischer Prozesse spielen werden. In diesem Abschnitt der Arbeit sollen nun verschiedene Zeitreihenmodelle vorgestellt und deren Anwendung be- schrieben werden.

Zunächst wird jedoch der Lag-Operator eingeführt, mit dessen Hilfe Zeitreihenmodelle kompakter dargestellt werden können. Der Lag-Operator L (oder in der Literatur oft auch als Backshift-Operator B bezeichnet) ist ein linearer Filter, mit dem die gesamte Zeitreihe um eine Zeiteinheit in die Vergangenheit verschoben wird:

Abbildung in dieser Leseprobe nicht enthalten

Wird Lag-Operator mehrmals hintereinander ausgeführt, lässt sich die Anzahl der Anwendungen d als Potenz definieren. Folglich kann der Lag-Operator L allgemeiner als L d Yt = Yt − d geschrieben werden.6

Aufgrund verschiedener Eigenschaften von Lag-Operatoren ist es möglich, Polynome p (L) im Lag-Operator L zu definieren und mit ihnen wie mit gewöhnlichen Polynomen p (x) zu arbeiten.7

3.1 Autoregressive Modelle

Im weiteren Verlauf dieses Abschnittes wird der Autoregressive Operator der Ordnung p ∈ N

Abbildung in dieser Leseprobe nicht enthalten

mit φ 1 , . . . , φ p ∈ R und φ p = 0 wichtig sein, weswegen er gleich zu Beginn vorgestellt wird. Ein Autoregressiver Prozess der Ordnung p definiert sich nun wie folgt:

Definition 3.1 Ein stochastischer Prozess (Yt) t ∈ Z hei ß t Autoregressiver Prozess der Ordnung [Abbildung in dieser Leseprobe nicht enthalten], wenn er der Darstellung

Abbildung in dieser Leseprobe nicht enthalten

genügt, wobei ε t ein White-Noise Prozess mit [Abbildung in dieser Leseprobe nicht enthalten] und [Abbildung in dieser Leseprobe nicht enthalten] ist und φ 1 [Abbildung in dieser Leseprobe nicht enthalten]

Wird für die Darstellung des AR(p)-Prozesses der oben eingeführte Lag-Operator L genutzt, führt dies zu der kompakteren Schreibweise

Abbildung in dieser Leseprobe nicht enthalten

Die Innovation ε t, die als neue Information zum Zeitpunkt t in das Modell mit ein- geht, beeinflusst somit den zukünftigen Wert des Prozesses, nicht aber die vergangenen Werte, da er unkorreliert mit den Vergangenheitsdaten Yt − 1 , . . . , Yt − p ist. ε t fasst alle Umwelteinflüsse zusammen, die auf die untersuchten ökonomischen Variablen zum Zeit- punkt t einwirken. Bei dem Autoregressiven Modell wird der aktuelle Wert Yt durch eine Linearkombination der p vergangenen Werte Yt − 1 , . . . , Yt − p modelliert. Die Gleichung des AR(p)-Prozesses entspricht dem klassischen Regressionsansatz, allerdings sind die Regressoren hierbei die um p zeitlich verschobenen Zufallsvariablen Yt − 1 , . . . , Yt − p.8 Da- her kommt auch die Bezeichnung “autoregressiv“, denn der Prozess wird praktisch auf sich selbst regressiert. In Abbildung 1 ist ein beispielhafter AR(p)-Prozess mit p = 3 dargestellt. Der AR(3)-Prozess setzt sich aus einer Linearkombination der drei vergan- genen Beobachtungen zusammen.

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Darstellung eines simulierten AR(3)-Prozesses

Der Erwartungswert μ von Yt kann durch Erwartungswertbildung auf beiden Seiten der Gleichung (3.1) gebildet werden:

Abbildung in dieser Leseprobe nicht enthalten

Falls φ 0 = 0 gilt, hat auch Yt den Erwartungswert Null und ist somit stationär.9

Ein AR(p)-Prozess ist genau dann schwach stationär, wenn die p Nullstellen z 1 , . . . , zp ∈ C des Autoregressiven Polynoms [Abbildung in dieser Leseprobe nicht enthalten] nichtaufdemEinheitskreis liegen, wenn also für alle Lösungen des charakteristischen Polynoms

Abbildung in dieser Leseprobe nicht enthalten

[Abbildung in dieser Leseprobe nicht enthalten] gilt. Sollte das Autoregressive Polynom Φ p (z) nur Nullstellen außerhalb des Einheitskreises besitzen (|zi| > 1), ist der dazugehörige AR(p)-Prozess kausal. Bei einem AR(p)-Prozess impliziert Kausalität somit schwache Stationarität.10 Unter dieser Stationaritätsbedingung können AR(p)-Modelle auch als MA()-Darstel- lung geschrieben werden, was in Abschnitt 3.2 dieser Arbeit genauer erläutert wird.

Ein AR(p)-Prozess ist im Gegensatz zu anderen Modellen folglich nicht automatisch schwach stationär. Dies lässt sich leicht anhand eines AR(1)-Prozesses Yt = φ 1 Yt − 1 + ε t mit φ 1 = 1 beweisen, denn hierbei handelt es sich um einen Random Walk, der nicht schwach stationär ist. Falls [Abbildung in dieser Leseprobe nicht enthalten] gilt, ist Yt ebenfalls nicht stationär und wird als explodierender Prozess bezeichnet.

Um die Eigenschaften eines Autoregressiven Prozesses der Ordnung p zu charakterisieren, bietet sich insbesondere die Autokorrelationsfunktion ρτ an. Wird ein bei Null zentrierter AR(p)-Prozess

Abbildung in dieser Leseprobe nicht enthalten

mit [Abbildung in dieser Leseprobe nicht enthalten] multipliziert und dann der Erwartungswert gebildet, ergibt sich

Abbildung in dieser Leseprobe nicht enthalten

Mit [Abbildung in dieser Leseprobe nicht enthalten] und [Abbildung in dieser Leseprobe nicht enthalten] führt dies zur Autokovarianzfunktion des AR(p)Prozesses:

Abbildung in dieser Leseprobe nicht enthalten

Die Autokorrelationsfunktion des stationären AR(p)-Prozesses folgt aus (3.3) durch Division der Varianz [Abbildung in dieser Leseprobe nicht enthalten]

Abbildung in dieser Leseprobe nicht enthalten

Dabei werden die Gleichungen (3.2), (3.3) und (3.4) auch als Yule-Walker-Gleichungen bezeichnet. Diese sind besonders nützlich bei der Parameterschätzung eines AR(p)Modells mit bekannter Autokorrelationsfunktion oder umgekehrt bei der Bestimmung der ACF für gegebene Parameter.

3.2 Moving-Average Modelle

Ähnlich wie bei den AR(p)-Modellen spielt der Moving-Average Operator der Ordnung q ∈ N

Abbildung in dieser Leseprobe nicht enthalten

mit [Abbildung in dieser Leseprobe nicht enthalten] im Verlauf dieses Abschnittes eine wichtige Rolle und wird daher wieder zu Beginn eingeführt. Ein Moving-Average Prozess der Ordnung q ist nun wie folgt definiert:

Definition 3.2 Ein stochastischer Prozess [Abbildung in dieser Leseprobe nicht enthalten] hei ß t Moving-Average Prozess der q

[...]


1 Vgl. Schlittgen (2012), S. 5

2 Vgl. Shumway/Stoffer (2010), S. 21

3 Vgl. Schlittgen/Streitberg (2001), S. 194

4 Vgl. Cryer/Chan (2008), S. 30

5 Vgl. Hackl (2005), S. 236

6 Vgl. Johannssen (2009), S. 7

7 Vgl. Neusser (2009), S. 22

8 Vgl. Tsay (2010) S. 37

9 Vgl. Schlittgen (2012), S. 57

10 Vgl. Schlittgen/Streitberg (2001), S. 122

Ende der Leseprobe aus 48 Seiten

Details

Titel
Spezifikation von ARIMA-Modellen anhand des Box-Jenkins-Ansatzes
Hochschule
Universität Hamburg  (Fakultät für Betriebswirtschaft Lehrstuhl für BWL, insbesondere Mathematik & Statistik in den Wirtschaftswissenschaften)
Note
1.3
Autor
Jahr
2014
Seiten
48
Katalognummer
V301247
ISBN (eBook)
9783956876127
ISBN (Buch)
9783668004436
Dateigröße
628 KB
Sprache
Deutsch
Schlagworte
spezifikation, arima-modellen, box-jenkins-ansatzes
Arbeit zitieren
Alina Timm (Autor), 2014, Spezifikation von ARIMA-Modellen anhand des Box-Jenkins-Ansatzes, München, GRIN Verlag, https://www.grin.com/document/301247

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Spezifikation von ARIMA-Modellen anhand des Box-Jenkins-Ansatzes


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden