Die Box-Jenkins-Methode wurde von G.E.P. Box und G.M. Jenkins 1970 in dem Buch „Time Series Analysis – forecasting and control“ veröffentlicht. Die Entwickler gingen davon aus, dass sich jede Zeitreihe als endliche Realisation einer korrelierten Zufallsvariablen ...Y-2, Y-1, Y0, Y1, Y2,... auffassen lässt. Dies wird auch als stochastischer Prozess (Yt) bezeichnet.
Von einer stationären Zeitreihe wird gesprochen, wenn sie keine systematischen Veränderungen im Gesamtbild aufweist. Bestimmte Kennziffern, die auf Teilbereiche der Zeitreihe berechnet werden, dürfen nicht zu stark voneinander abweichen. Zu diesen Kennziffern gehört das arithmetische Mittel x , die Varianz s2, die Standardabweichung s, die empirische Kovarianz c und der Korrelationskoeffizient von Bravais-Pearson r.
Ein stochastischer Prozess kann auf folgende Arten stationär sein:
mittelwertstationär, wenn der Erwartungswert µt konstant ist, also EYt = µY für alle t
varianzstationär, wenn die Varianz von Yt = sY 2 für alle t
kovarianzstationär, wenn die Kovarianzfunktion .(s,t) nur von der Zeitdifferenz s-t abhängt
schwach stationär, wenn der Prozess sowohl mittelwert-, als auch kovarianz- und somit auch varianzstationär ist.1
In den folgenden Abschnitten 1.1-1.4 werden Zeitreihenmodelle betrachtet, bei denen ein schwach stationärer Prozess durch sich selbst und/oder durch einen Prozess (et) erklärt wird. Der Ausdruck et stellt ein weißes Rauschen dar. Realisationen von weißem Rauschen haben einen Erwartungswert von 0 (Eet = 0), eine konstante Varianz se 2 und die Zufallsvariablen et sind unkorreliert. In dieser Arbeit werden zur Vereinfachung nur bereits mittelwertbereinigte Prozesse (Yt) betrachtet, d.h. EYt=0. Wenn der Erwartungswert EYt=µ ist, so wird der Prozess(Yt - µ) als mittelwertbereinigter Prozess bezeichnet. Dieser ist Prozess (Yt) ist invertierbar, falls sich der Prozess (et) durch den Prozess (Yt) abbilden lässt.2 In Kapitel 2 wird zunächst auf die allgemeine Vorgehensweise und dann im speziellen auf die Modellidentifikation und Parameterschätzung des Box-Jenkins-Verfahrens eingegangen.
Diese Arbeit schließt in Kapitel 3 mit einer Darstellung der Arbeitsergebnisse für die Aufgabe der Umsetzung der Modellidentifikation und Parameterschätzung von ARMA(p,q)-Prozesse mit MS Excel anhand der Zeitreihe der Auftragseingänge im verarbeitenden Gewerbe Westdeutschlands.
[...]
Inhaltsverzeichnis
Abbildungsverzeichnis
Tabellenverzeichnis
1 Einführung und Grundlagen
1.1 Autoregressive Prozesse (AR-Prozesse)
1.2 Moving Average Prozesse (MA-Prozesse)
1.3 Autoregressive Moving Average Prozesse (ARMA-Prozesse)
1.4 Behandlung von instationären Prozessen, ARIMA- und SARIMA-Prozesse
2 Vorgehensweise bei der Box-Jenkins-Methode
2.1 Modellidentifikation
2.2 Schätzung der Parameter
3 Darstellung der Arbeitsergebnisse
Literaturverzeichnis
Anhang
Abbildungsverzeichnis
Abbildung 1: Phasen des Box Jenkins Ansatzes (eigene Darstellung nach Hartung)
Abbildung 2: Sparsamkeitsprinzip am Beispiel des BIC-Kriteriums (eigene Darstellung)
Abbildung 3: Auftragseingänge.. (eigene Darstellung)
Abbildung 4: 2. Differenz der Auftragseingänge... (eigene Darstellung)
Tabellenverzeichnis
Tabelle 1: Modellordnungen der Kriterien bei verschiedenen j (eigene Berechnungen)
Tabelle 2: Parameterschätzungen für ARMA(0,2)-Modelle (eigene Berechnungen)
1 Einführung und Grundlagen
Die Box-Jenkins-Methode wurde von G.E.P. Box und G.M. Jenkins 1970 in dem Buch „Time Series Analysis - forecasting and control“ veröffentlicht.
Die Entwickler gingen davon aus, dass sich jede Zeitreihe als endliche Realisation einer korrelierten Zufallsvariablen ...Y-2, Y-1, Y0, Y1, Y2,... auffassen lässt. Dies wird auch als stochastischer Prozess (Yt) bezeichnet.
Von einer stationären Zeitreihe wird gesprochen, wenn sie keine systematischen Veränderungen im Gesamtbild aufweist. Bestimmte Kennziffern, die auf Teilbereiche der Zeitreihe berechnet werden, dürfen nicht zu stark voneinander abweichen.
Zu diesen Kennziffern gehört das arithmetische Mittel x, die Varianz s2, die Standardabweichung s, die empirische Kovarianz c und der Korrelationskoeffizient von Bravais-Pearson r.
Ein stochastischer Prozess kann auf folgende Arten stationär sein:
- mittelwertstationär, wenn der Erwartungswert µt konstant ist, also EYt = µY für alle t
- varianzstationär, wenn die Varianz von Yt = σY2 für alle t
- kovarianzstationär, wenn die Kovarianzfunktion γ(s,t) nur von der Zeitdifferenz s-t abhängt
- schwach stationär, wenn der Prozess sowohl mittelwert-, als auch kovarianz- und somit auch varianzstationär ist.1
In den folgenden Abschnitten 1.1-1.4 werden Zeitreihenmodelle betrachtet, bei denen ein schwach stationärer Prozess durch sich selbst und/oder durch einen Prozess (εt) erklärt wird. Der Ausdruck εt stellt ein weißes Rauschen dar. Realisationen von weißem Rauschen haben einen Erwartungswert von 0 (Eεt = 0), eine konstante Varianz
σ2 ε und die Zufallsvariablen εt sind unkorreliert.
In dieser Arbeit werden zur Vereinfachung nur bereits mittelwertbereinigte Prozesse
(Yt) betrachtet, d.h. EYt=0. Wenn der Erwartungswert EYt=µ ist, so wird der
Prozess(Yt - µ) als mittelwertbereinigter Prozess bezeichnet. Dieser ist Prozess (Yt) ist invertierbar, falls sich der Prozess (εt) durch den Prozess (Yt) abbilden lässt.2
In Kapitel 2 wird zunächst auf die allgemeine Vorgehensweise und dann im speziellen auf die Modellidentifikation und Parameterschätzung des Box-Jenkins-Verfahrens eingegangen.
Diese Arbeit schließt in Kapitel 3 mit einer Darstellung der Arbeitsergebnisse für die Aufgabe der Umsetzung der Modellidentifikation und Parameterschätzung von ARMA(p,q)-Prozesse mit MS Excel anhand der Zeitreihe der Auftragseingänge im verarbeitenden Gewerbe Westdeutschlands.
1.1 Autoregressive Prozesse (AR-Prozesse)
Ein stochastischer Prozess (Yt) wird als autoregressiver Prozess der Ordnung p (kurz: AR(p)-Prozess) bezeichnet, falls er in der Form
Abbildung in dieser Leseprobe nicht enthalten
auftritt. Die Symbole φ1,...,φp sind die Parameter des Prozesses die jeweils ungleich null definiert sind. Der Ausdruck εt stellt ein weißes Rauschen dar. Hartung interpretiert Ytbei einem AR(p)-Prozess als gewogenen Durchschnitt seiner p Vorgänger Yt-1,...,Yt-p und einem zufälligen Rest.3 Schlittgen/Streitberg fassen die erklärende Gleichung eines AR(p)-Prozesses formal als multiple Regression auf, mit dem Unterschied das Yt durch seine Vergangenheitswerte und nicht durch eine unabhängige Variable erklärt wird.4 AR(p)-Prozesse sind natürlich invertierbar. Schwach stationär ist der Prozess, wenn die Lösungen z der Gleichung
Abbildung in dieser Leseprobe nicht enthalten
außerhalb des Einheitskreises liegen, also betragsmäßig > 1 sind. Ist der AR(p)-Prozess schwach stationär, so kann er auch durch MA(∞)-Prozesse dargestellt werden.5
1.2 Moving Average Prozesse (MA-Prozesse)
Ein stochastischer Prozess (Yt) heißt Moving Average Prozess der Ordnung q (kurz: MA(q)-Prozess), wenn er als einseitig gewogener gleitender Durchschnitt eines whitenoise Prozesses (εt) auftritt. Ein MA(q)-Prozess genügt der Form
Yt = εt + θ1εt-1 + ... + θqεt-q, EYt = 0.
Die θ1,…, θq sind die von Null verschiedenen Parameter des Prozesses.6
Schlittgen/Streitberg interpretieren den Beobachtungswert yt als gewichtetes Mittel des gegenwärtigen und vergangener Zufallsschocks die unabhängig voneinander sind.7
MA(q)-Prozesse sind stets schwach stationär, damit sie auch invertierbar sind müssen die Lösungen z der Gleichung
Abbildung in dieser Leseprobe nicht enthalten
außerhalb des Einheitskreises liegen.8
1.3 Autoregressive Moving Average Prozesse (ARMA-Prozesse)
Neben reinen AR(p)- und MA(q)-Prozessen gibt es auch Kombinationen dieser beiden Prozesse. Diese autoregressiven moving average Prozesse der Ordnung p und q (kurz: ARMA(p,q)-Prozess) haben die Form
Abbildung in dieser Leseprobe nicht enthalten
Die Symbole φ1,...,φp bezeichnen die Parameter des autoregressiven und die θ1,…, θq sind die Parameter des moving average Teils. ARMA(p,q)-Prozesse sind schwach stationär und/oder invertierbar, wenn die entsprechenden Vorraussetzungen durch den AR- bzw. MA-Teil erfüllt werden.9
Unter diesen Gegebenheiten lassen sich dann ARMA(p,q)-Prozesse als AR(∞)- bzw. MA(∞)-Prozesse darstellen.1011
1.4 Behandlung von instationären Prozessen, ARIMA- und SARIMA-Prozesse
Beobachtete Zeitreihen sind in der Realität nicht immer schwach stationär. Um mit diesen im Box-Jenkins-Ansatz zu arbeiten, müssen zunächst die Daten durch Filter aufbereitet werden. Zeitreihen enthalten oft eine Saison- und/oder Trendkomponente, die durch (verschiedene) Differenzenfilter eliminiert werden können. Dies lässt sich auf stochastische Prozesse übertragen. Ein nicht schwach stationärer Prozess (Yt), der sich durch die d-ten Differenzen
Abbildung in dieser Leseprobe nicht enthalten
in einen schwach stationären ARMA(p,q)-Prozess umwandeln lässt, wird als integrierter ARMA(p,q)-Prozess bezeichnet. Die Kurzbezeichnung ist ARIMA(p,d,q)-Prozess, wobei p für die Ordnung des autoregressiven, q für die Ordnung des moving average und d für die Differenzenordnung steht.
Enthält der nicht schwach stationäre Prozess (Yt) eine konstante Saisonfigur mit der Periode s und entspricht der Prozess
Abbildung in dieser Leseprobe nicht enthalten
einem schwach stationären ARMA(p,q)-Prozess, so wird der Prozess (Yt) als saisonaler ARMA(p,q)-Prozess mit Periode s oder als SARMAs(p,q)-Prozess bezeichnet. Trend- und Saisonkomponente treten manchmal auch gemeinsam auf. Ein solcher nicht schwach stationäre stochastische Prozess (Yt) heißt SARIMAs(p,q)-Prozess, wenn der Prozess [Abbildung in dieser Leseprobe nicht enthalten] einen schwach stationären ARMA(p,q)-Prozess abbildet.
Durch die bis jetzt beschriebenen Differenzenfilter konnte die Mittelwertstationarität eines stochastischen Prozesses erreicht werden. In der Praxis kann jedoch auch beobachtet werden, dass Zeitreihen mit zunehmenden t volatiler werden. Entsprechend sind die σ2 nicht konstant, welches aber ein Kriterium für eine schwache Stationarität ist. Auf solche Zeitreihen kann die sogenannte Box-Cox-Transformation angewendet werden, um sie homoskedadistisch (gleiche Varianzen) zu machen.
2 Vorgehensweise bei der Box-Jenkins-Methode
In diesem Kapitel soll zunächst ein allgemeiner Überblick über die Phasen der BoxJenkins-Methode gegeben werden, bevor in den Abschnitten 2.1 und 2.2 auf die zur Lösung der Aufgabenstellung genutzten Verfahren eingegangen wird.
Die Abbildung 1 (nächste Seite) stellt grafisch die Phasen der Box-Jenkins-Methode nach Hartung dar.
Schlittgen/Streitberg gliedern in sechs Phasen. Die Parameterschätzung wird in Grobund Feinschätzung und die Prognose in Interpretation und Modellanwendung unterschieden. Inhaltlich sind die Aussagen jedoch gleich.12
Abbildung in dieser Leseprobe nicht enthalten
Abbildung 1: Phasen des Box Jenkins Ansatzes (eigene Darstellung nach Hartung)
In der Phase der Modellidentifikation werden die Ordnungen p und q des ARMA- Prozesses bestimmt. Diese Festlegung ist jedoch nicht endgültig. In späteren Phasen, insbesondere während der Modellüberprüfung und der Prognose kann eine Revidierung der Modellordnungen nötig sein. Neben Fehlidentifikationen stellt auch die mangelnde Konvergenz numerischer Optimierungsverfahren während der Parameterschätzung eine potenzielle Fehlerquelle dar.
Nachdem die Ordnungen p und q festgelegt wurden, werden die Parameter φ1,...,φp, θ1,…, θq des ARMA(p,q)-Prozesses geschätzt.13 Basierend auf diesen Schätzungen erfolgt dann in der 3. Phase die Überprüfung der Modelladäquatheit mit Hilfe statistischer Testverfahren. Letztlich wird in Phase vier das Modell angewendet, um zukünftige Werte zu prognostizieren.
Wesentlicher Vorteil des Box-Jenkins-Verfahrens gegenüber anderen Prognoseverfahren ist, dass das mathematische Modell mit statistischen Methoden festgelegt und überprüft wird. Es sind somit keine mehr oder weniger willkürliche Parametervorgaben von Seiten des Benutzers notwendig bzw. möglich.
2.1 Modellidentifikation
In den Abschnitten 1.1-1.3 wurde bereits angesprochen, dass sich gemischte
ARMA(p,q)-Prozesse durch AR(∞)- bzw. durch MA(∞)-Prozesse abbilden lassen. Es stellt sich somit die Frage, ob es nicht sinnvoll ist nur reine AR(p)- bzw. MA(q)- Prozesse zu betrachten. Aufgrund des Sparsamkeitsprinzips raten Box und Jenkins jedoch zur Anpassung von ARMA(p,q)-Prozessen, da dann weniger Parameter notwendig sind um die Zeitreihe y1,...,yn zu erklären. Bei ungefähr gleicher Anpassungsgüte der Modelle AR(p`), MA(q`) und ARMA(p,q) gilt immer
p + q ≤ p` und p + q ≤ q`
Des weiteren gilt: Umso weniger Parameter zur Erklärung einer Zeitreihe y1,...,yn notwendig sind, desto besser ist die Prognosegüte zukünftiger Werte.14
Zur Bestimmung der Ordnungen p und q gibt es verschiedene Methoden. Beim klassischen Box-Jenkins-Ansatz wird vom Benutzer verlangt, Muster in der Autokorrelations- und der partiellen Autokorrelationsfunktion zu erkennen. Dies ist insbesondere bei gemischten Prozessen recht schwierig und bedarf entsprechender Erfahrung.15
Aufgrund der Aufgabenstellung und der vergleichsweise einfacheren Umsetzung in Excel, habe ich mich deshalb für die Anwendung der automatischen Selektionsverfahren entschieden. Bei diesen Methoden werden p0 und q0 aus einer Parameterpaarmenge von p und q so gewählt, dass ein bestimmtes Informationskriterium minimiert wird. Im Beispiel werden das Bayesianische- (BIC), das Hannan/Quinn- (φ(p,q)) und das Akaike-Informationskriterium (AIC) berechnet.
[...]
1 Vgl. Schlittgen, Streitberg (1997), S. 100
2 Vgl. Hartung (1993), S. 678
3 Vgl. Hartung (1993), S. 679
4 Vgl. Schlittgen, Streitberg (1997), S. 122
5 Vgl. Hartung (1993), S. 679
6 Hartung (1993), S. 681
7 Schlittgen, Streitberg (1997), S. 116
8 Hartung (1993), S. 682
9 Vgl. Abschnitt 1.1 bzw. 1.2
10 Vgl. Hartung (1993), S. 684
11 Vgl. Hartung (1993), S. 684 u. S. 685
12 Vgl. Schlittgen, Streitberg, S. 288
13 Beim in den folgenden Abschnitten vorgestellten automatischen Selektionsverfahren wird zunächst eine Schätzung für alle sinnvoll erscheinenden Paare (p,q) gemacht, bevor die Modellordnungen festgelegt werden. Vgl. Abschnitt 2.1 und 2.2
14 Vgl. Hartung (1993), S. 686
15 Vgl. Hartung (1993), S. 687
-
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X. -
¡Carge sus propios textos! Gane dinero y un iPhone X.