Zentralbankunabhängigkeit und das Problem der Zeitinkonsistenz


Diploma Thesis, 2008

108 Pages, Grade: 1,7


Excerpt


Inhaltsverzeichnis

Abbildungsverzeichnis

Symbolverzeichnis

1. Einleitung

2. Spieltheoretische Grundlagen

3. Das Problem der Zeitinkonsistenz in der Geldpolitik
3.1 Das Zeitinkonsistenzproblem aus Sicht geldpolitischer Strategien
3.2 Das Konzept der Phillipskurve
3.3 Der Inflation Bias - Die Nash-Lösung im Ein-Perioden-Spiel
3.4 Reputation der geldpolitischen Akteure im wiederholten Spiel
3.4.1 Teilspielperfektes Gleichgewicht als Antwort eines endlichen Zeithorizontes
3.4.2 Die Triggerstrategie bei einem unendlichen Zeithorizont
3.5 Optimale Geldpolitik bei unvollständiger Information
3.5.1 Optimale Strategien bei makroökonomischen stochastischen Schocks
3.5.2 Geldpolitische Effekte bei unbekannter Inflationsaversion der Zentralbank
3.5.2.1 Das Separatinggleichgewicht
3.5.2.2 Das Poolinggleichgewicht
3.6 Zusammenfassende Schlussfolgerungen
3.7 Empirische Bedeutung

4. Zentralbankunabhängigkeit als Konsequenz der Zeitinkonsistenzproblematik
4.1 Dimensionen von Zentralbankunabhängigkeit
4.2 Ein konservativer Zentralbanker
4.3 Der Anreizvertrag für die Notenbank
4.4 Die Wechselkursanbindung mit Ausstiegsklausel
4.5 Einfluss der modelltheoretischen Analyse auf die Verfassung der Europäischen Zentralbank
4.6 Empirische Ergebnisse zur Zentralbankunabhängigkeit

5. Schlussbemerkungen

Anhang

Literaturverzeichnis

Abbildungsverzeichnis

Abbildung 1: Zeitachse - Aktionen der geldpolitischen Akteure

Abbildung 2: Kurzfristige Phillipskurve – Negativer Zusammenhang zwischen Inflation und Arbeitslosenquote

Abbildung 3: Kurz- und langfristige Phillipskurven unter Einfluss der Inflationserwartung der Privaten

Abbildung 4: Vergleich der gleichgewichtigen Werte der drei möglichen geldpolitischen Szenarien

Abbildung 5: Nash-Gleichgewicht als Schnittpunkt der Reaktionsfunktionen von Zentralbank und privatem Sektor

Abbildung 6: Graphische Darstellung der Inflationserwartung durch Indifferenzkurven sowie kurz- und langfristiger Phillipskurven

Abbildung 7: Reihenfolge des eindimensionalen Spiels bei Existenz stochastischer Makroschocks

Abbildung 8: Reihenfolge des zweidimensionalen Spiels mit unbekannter Inflationsaversion der Zentralbank

Abbildung 9: Spielbaum

Abbildung 10: Indifferenzkurvensystem der Verlustfunktion der Zentralbank

Abbildung 11: Spielbaum bei Zeitinkonsistenz

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

1. Einleitung

In Vorbereitung auf die Europäische Währungsunion und dem Aufbau der Europäischen Zentralbank wurde ein besonderes Augenmerk auf die Unabhängigkeit und der damit verbundenen Glaubwürdigkeit der neuen Notenbank gelegt. Die Erfahrungen in der Vergangenheit haben gezeigt, dass von politischen Entscheidungsträgern abhängige Währungshüter, zu einem großen Teil, zu inflationärem Verhalten tendieren. In Zeiten schlechter Konjunkturlage versuchen Regierungen durch übertriebene Kritik des Öfteren Druck auf Zentralbanken auszuüben, um durch geldpolitische Maßnahmen Beschäftigungseffekte generieren zu können.[1] Der wirtschaftswissenschaftlichen Forschung ist der negative Zusammenhang zwischen Arbeitslosigkeit und Inflation schon lange ein Begriff. Als oberste Präferenz haben Politiker nahezu aller Parteien, die an einer Wiederwahl interessiert sind, eine niedrige Arbeitslosigkeit. Schon Altkanzler Helmut Schmidt vertrat die Meinung: „5% Inflation sind besser als 5% Arbeitslosigkeit“. Könnte demnach eine Regierung die Währungshüter einer Volkswirtschaft beeinflussen, wäre die Gefahr einer unumstritten wohlfahrtsschädigenden Inflationssteigerung gegeben. Die Notenbanken können nämlich durch geldpolitische Instrumente wie Leitzinsniveau und Geldmenge die Inflation beeinflussen. Aufgrund dieser Problematik entbrannte in der Literatur eine rege Diskussion, wie optimalerweise das institutionelle Design der Geldpolitik aussehen sollte. Der Grad an Autonomie der Notenbanken spielt dabei eine ebenso entscheidende Rolle, wie die Implementierung zeitkonsistenter politischer Strategien.

Die vermeintlichen Interventionsmöglichkeiten der Geldpolitik wurden schon in den sechziger Jahren durch den einfachen mechanischen Zusammenhang der Phillipskurve dargelegt. Sie postuliert auf empirisch-deskriptiver Basis den negativen Zusammenhang zwischen Inflationsrate und Arbeitslosenquote.[2] Friedman und Phelps (1968) problematisierten diese einfache Sichtweise indem sie die Bedeutung der Erwartungsbildung in diese Thematik einbrachten. Falls die Geldpolitik durch Inflation die Beschäftigung beeinflussen will, wird die Öffentlichkeit adaptive Inflationserwartungen bilden.[3] Lucas (1972) griff diese Kritik der Phillipskurve auf und erweiterte die makroökonomische Forschung durch das Konzept der rationalen Erwartungen. Er deutet darauf hin, dass wirtschaftspolitische Maßnahmen nicht als konstant angenommen werden können, weil Wirtschaftssubjekte Veränderungen in der Wirtschaftspolitik antizipieren und folglich ihr Verhalten anpassen.[4] Als Ergebnis ergibt sich, dass eine auf bestimmte Parameter gestützte Politikmaßnahme nach ihrer Durchführung zu unerwünschten Ergebnissen führt. An dieser Stelle setzten Kydland und Prescott (1977) mit ihrer einflussreichen Arbeit an. Sie legten den literarischen Ursprung zur Zeitinkonsistenzdebatte. Dabei modellieren sie zeitinkonsistente Strategien und erweitern dadurch die Diskussion um die Glaubwürdigkeit politischer Entscheidungsträger. Sie haben das Problem der Zeitinkonsistenz als methodisch spieltheoretischer Ansatz auf die Theorie der Wirtschaftspolitik angewandt.[5] Barro und Gordon (1983) haben die Modellierung zeitinkonsistenter Pläne aufgegriffen und auf die Theorie der Geldpolitik übertragen. Sie stellen das geldpolitische Problem als ein Spiel zwischen monetärer Autorität (Regierung bzw. Zentralbank) und privatem Sektor (Öffentlichkeit, in der Regel Arbeitnehmer) dar und verweisen dabei auf die Bedeutung von Reputationsmechanismen.[6] Als Lösung des Problems stellen sie die Regelbindung der Geldpolitik vor. In nachfolgenden Arbeiten führt Rogoff (1985) den konservativen Zentralbanker als alternativen Lösungsvorschlag ein und Walsh (1995) sowie Svensson (1997) favorisierten einen optimalen Vertrag zwischen Regierung und Zentralbank.[7] Alesina und Summers (1993) argumentierten für mehr Zentralbankunabhängigkeit um das Zeitinkonsistenzproblem zu lösen.[8] Die weiterführende Forschung konzentrierte sich schwerpunktmäßig auf die Analyse von Reputationsmodellen in wiederholten Spielen mit unvollständiger Information. Die bedeutungsvollsten Arbeiten dazu lieferten Backus und Driffill (1985), Vickers (1986), Tabellini (1985), Cukierman und Liviatan (1991) in dem sie die unbekannte Inflationsaversion der Zentralbank einführten und verschiedene Zentralbanktypen unterscheiden.[9]

Die vorliegende Arbeit beschäftigt sich mit der Diskussion über Unabhängigkeit von Zentralbanken und dem Zeitinkonsistenzproblem wirtschaftspolitischer Maßnahmen. Vorwiegend orientiert sich die Ausführung an dem Modell von Barro und Gordon (1983). Dabei soll die Lösung des Problems der Zeitinkonsistenz unter spieltheoretischen Gesichtspunkten dargestellt und analysiert werden. Dem Erwartungsbildungsprozess der privaten Wirtschaftssubjekte wird bei der Analyse der Interaktion zwischen Geldpolitik und Öffentlichkeit eine entscheidende Rolle zukommen. Zunächst wird der Einperiodenfall betrachtet, bei dem sich drei denkbare Inflationsstrategien der Zentralbank ergeben können. Anschließend wird der mehrperiodige Ansatz analysiert, wobei sich interessante Ergebnisse für die Strategiewahl der Notenbank einstellen. Je nachdem ob ein endlicher oder unendlicher Zeithorizont unterstellt wird, ergeben sich unterschiedliche optimale Pläne der Zentralbank. In einem dritten Teil wird die Interaktion unter asymmetrischer Informationsverteilung beschrieben. In der betrachteten Modellwelt treten zum einen stochastische Schocks auf und des Weiteren wird für den privaten Sektor die Inflationsaversion der Zentralbank als unbekannter Parameter angenommen. Nach der theoretischen Analyse des Zeitinkonsistenzproblems wird der Fokus dieser Arbeit auf die praktische Notenbankunabhängigkeit gelegt und den Einfluss der theoretischen Debatte auf die Ausgestaltung der Europäischen Zentralbank dargestellt. Um die Einordnung der analytischen Beschreibung der Zeitinkonsistenzproblematik in die spieltheoretischen Konzepte zu gewährleisten, werden die angewandten Methoden zunächst vorgestellt.

2. Spieltheoretische Grundlagen

In der Spieltheorie werden Situationen behandelt, in denen mehrere Wirtschaftssubjekte miteinander strategisch interagieren und Entscheidungen treffen. Anwendung findet sie vor allem in den Wirtschaftswissenschaften. Rasmussen beschreibt die Spieltheorie folgendermaßen: „Game theory is concerned with the actions of decision makers who are conscious that their actions affect each other.”[10] Wirtschaftliche Interaktionen werden in den Wirtschaftswissenschaften häufig anhand der Spieltheorie als Theorie rationalen interaktiven Handelns beschrieben. Die Spieltheorie ist eine Theorie zur mathematischen Analyse von Konfliktsituationen in denen die Ergebnisse abhängig vom Verhalten aller Akteure sind. Sie untersucht somit Entscheidungsprobleme zweier oder mehrere Personen bzw. Institutionen. Gerade auch makroökonomische Phänomene wurden in der jüngsten Vergangenheit vermehrt durch Anwendung der spieltheoretischen Konzepte erklärt. Der Einfluss der Spieltheorie auf die Makroökonomie ist bedeutend. Zur Erklärung und Analyse der Geldpolitik ist daher eine methodische Darstellung der Spieltheorie sinnvoll. Deshalb werden in diesem Kapitel die grundlegenden Konzepte und Methoden der Spieltheorie, welche in der Theorie der Geldpolitik von Bedeutung sind, kurz vorgestellt.

Die Spieltheorie ist sehr breit gefächert und kann daher in Teilbereiche klassifiziert werden. Ein großer Bestandteil ist die Analyse nicht-kooperativer Situationen. In diesen Spielen wird angenommen, dass die Spieler strikt gegeneinander agieren, was bedeutet, dass keinerlei Interesse an den Auszahlungen der Gegenspieler bzw. einem Teil davon besteht. Die Mitspieler sind nur insoweit von Belange, als deren Strategien die eigenen Ziele tangieren. Des Weiteren ergibt sich eine wichtige Unterscheidung zwischen statischen und dynamischen Spielen, woraus folglich der Charakter des Spiels bestimmt wird. In statischen oder strategischen Spielen wählen alle Akteure eines Spiels ihre Aktionen gleichzeitig. In dynamischen Spielen ist eine bestimmte Reihenfolge der Spielzüge vorgegeben. Eine weitere Kategorisierung der Spiele bezieht sich auf die Informationssituation der Akteure. Dabei werden Spiele mit vollständiger und unvollständiger Information differenziert. Die Annahme vollständiger Information gewährleistet komplette Kenntnis der Spieler über die Charakteristika der Mitspieler. Die Spieler kennen sowohl die Struktur des Spiels, als auch die Eigenschaften der Gegenspieler. Vor allem die Auszahlungsfunktionen der Spieler sind allgemein bekannt, was bei Spielen mit unvollständiger Information für mindestens einen Spieler nicht zutreffend ist. Dies liegt beispielsweise dann vor, wenn die Natur vor der ersten Strategiefestlegung eines Spielers eine Gegebenheit wählt, die mindestens ein Spieler nicht beobachten kann. Davon abzugrenzen ist die Definition vollkommene (perfekte) Information. In Spielen mit perfekter Information sind die Spieler in jedem Zeitpunkt des Spiels komplett über die Geschichte des Spiels informiert. Folglich kennen sie in jedem Spielzug die Handlungen der Gegenspieler bzw. können sie antizipieren. Im Falle vollständiger Information müssen die Handlungen nicht zwingend bekannt sein.[11] Nach dem Nobelpreisträger John C. Harsanyi ist eine Differenzierung zwischen Spielen mit unvollständiger und unvollkommener Information nicht erforderlich. Spiele mit unvollständiger Information lassen sich in Spiele mit unvollkommener Information transformieren, falls der „Pseudospieler“ Natur eingebaut wird. Dieser kann alle entscheidenden Spielzüge vor dem Spiel tätigen, ohne dass ein Spieler diese beobachten kann.[12]

In den Anwendungen der spieltheoretischen Konzepte geht es um die Analyse der Strategien bzw. Aktionen der Spieler. Dabei wird das Verhalten der Akteure nach bestimmten Kriterien beurteilt, um dann zu einer Lösung zu gelangen. Je nach Ausgestaltung dieser Kriterien existieren verschiedene Lösungskonzepte um Gleichgewichte zu identifizieren. Eine der wichtigsten Lösungskonzepte der Spieltheorie ist das Konzept des Nash-Gleichgewichts, welches vom Nobelpreisträger John F. Nash (1950) entwickelt wurde. Eine Strategiekombination Abbildung in dieser Leseprobe nicht enthalten stellt ein Nash-Gleichgewicht dar, wenn kein Spieler Abbildung in dieser Leseprobe nicht enthalten sich durch ein Abweichen von Abbildung in dieser Leseprobe nicht enthalten besser stellen kann, solange die Gegenspieler Abbildung in dieser Leseprobe nicht enthalten spielen. In einem Nash-Gleichgewicht stellen die gewählten Strategien die wechselseitig besten Antworten dar. In dem Sinne besteht für keinen Spieler der unilaterale Anreiz von seiner optimalen Strategie abzuweichen. Formal lässt sich dieser Zusammenhang unter Verwendung der Auszahlungsfunktionen der Interaktionspartner folgendermaßen ausdrücken:[13]

Abbildung in dieser Leseprobe nicht enthalten

Um Strategiekombinationen auf Nash-Gleichgewichte untersuchen zu können, muss für jeden Spieler geprüft werden, ob ein Abweichen von seiner gespielten Strategie im Sinne seiner Auszahlungsfunktion profitabel wäre (gegeben den Strategien der Gegenspieler). Ist ein solches Abweichen unrentabel, ist ein Nash-Gleichgewicht identifiziert.[14] In manchen Spielen ist es jedoch denkbar, dass ein so definiertes Nash-Gleichgewicht in reinen Strategien nicht existiert. Doch auch in diesen Situationen können plausible Lösungen gefunden werden, falls wahrscheinlichkeitsgewichtete Kombinationen der reinen Strategien gespielt werden. Solch eine Wahrscheinlichkeits-verteilung über die reinen Strategien eines Spielers nennt man gemischte Strategie.[15] Das gefundene Ergebnis wird demnach Nash-Gleichgewicht in gemischten Strategien genannt.

In manch einer Situation spieltheoretischer Interaktion können Nash-Gleichgewichte unplausible Ergebnisse liefern, da dieses Lösungskonzept einzig und allein das betrachtete Gleichgewicht untersucht und dabei die Spielsituation außerhalb völlig unbeachtet lässt.[16] In diesem Zusammenhang hat Reinhard Selten die Idee des Nash-Gleichgewichts verfeinert. Das Konzept des teilspielperfekten Gleichgewichts stellt eine Modifikation dar, welche Anwendung bei dynamischen Spielen findet und nicht plausible Lösungen ausschließt. Selten stellt zweierlei Anforderungen an ein teilspielperfektes Gleichgewicht. Zum einen muss die betrachtete Strategiekombination ein Nash-Gleichgewicht des gesamten dynamischen Spiels sein und zum anderen muss sie ein Nash-Gleichgewicht jedes Teilspiels darstellen.[17] Somit sind nur Strategien als Gleichgewicht zugelassen, die für das komplette Spiel Optimalität aufweisen, auch wenn diese im tatsächlich realisierten Spielverlauf gar nicht erreicht werden. Die große Errungenschaft Seltens liegt darin, unglaubwürdige Drohungen im Spiel von Anfang an als Lösungen auszuschließen, um dadurch eine Verminderung der Anzahl an plausiblen Gleichgewichte zu generieren.[18]

Für eine gründliche Analyse der Interaktion zwischen Geldpolitik und Öffentlichkeit werden Glaubwürdigkeitsaspekte und Reputationsmechanismen von erheblicher Bedeutung sein. Diese lassen sich jedoch nicht in einer einperiodigen Spielsituation beschreiben und untersuchen. Auch viele andere wirtschaftswissenschaftliche Problemstellungen können nicht durch einperiodige Modelle beschrieben werden. Eine ausführliche Erklärung konsistenter Lösungen ist oft nur durch eine mehrperiodige Betrachtung möglich. Deshalb muss die Analyse solch mehrperiodiger Situationen durch die Theorie der wiederholten Spiele erfolgen. Bei diesen Interaktionen stehen sich die Akteure des Spiels immer gleichen, wiederkehrenden Entscheidungssituationen gegenüber. Die Spieler spielen dasselbe Spiel mehrmals hintereinander. Das so genannte Basisspiel wird endlich oder unendlich oft wiederholt. Dadurch ergeben sich für die Spieler neue Strategiemöglichkeiten. Die Aktionen der Spieler sind in jeder neuen Stufe des Spiels von den zuvor gewählten Aktionen abhängig. Die Analyse endlich oft wiederholter Spiele stellt keine besondere Herausforderung dar. Im Falle dass auf den einzelnen Stufen des Spiels ein eindeutiges Nash-Gleichgewicht vorliegt, ergibt sich als Ergebnis auf jeder Stufe des Spiels einfach das eindeutige (bei dynamischen Spielen: teilspielperfekte) Nash-Gleichgewicht. Die teilspielperfekten Gleichgewichte im Rahmen endlich oft wiederholten Spielen, werden in der Regel anhand des Konzepts der Rückwärtsinduktion ermittelt. Daraus ergibt sich die Überlegung, wie sich der Spieler verhält, der als letztes am Zug ist. Die optimale Entscheidung des „letzten“ Spielers wird dazu verwendet die optimale Entscheidung des „vorletzten“ Spielers zu ermitteln. Diese Vorgehensweise wird bis zur ersten Periode fortgesetzt. In solch ermittelten Gleichgewichtssituationen hat kein Spieler einen Anreiz vom Gleichgewichtspfad abzuweichen. Bei Spielen mit unendlichem Zeithorizont versagt das Lösungskonzept der Rückwärtsinduktion, da keine letzte Runde existiert. Für die Darstellung und Analyse der Theorie unendlich wiederholter Spiele, wird das Konzept der Diskontierung zukünftiger Erträge und das der durchschnittlichen Auszahlung in einem unendlich wiederholten Spiel verwendet. Dabei werden Barwerte potentieller Auszahlungen miteinander verglichen und auf Vorteilhaftigkeit geprüft. Bei wiederholten Spielen sind Strategieabsprachen und angedrohte Verhaltensweisen der Akteure, die unter Umständen gar nicht gespielt werden, von großer Bedeutung. Dabei werden Spielergebnisse des Basisspiels, die bei unendlicher Wiederholung im Durchschnitt erreicht werden können, analysiert. Das zentrale Beurteilungskriterium liegt in der Abwägung langfristiger Nachteile durch Reputationsverluste und kurzfristiger Vorteile durch Abweichungen getroffener Absprachen. Die angesprochenen Androhungen werden in der Spieltheorie durch Vergeltungsstrategien, den so genannten Triggerstrategien, modelliert. Bei solchen Strategien legen die Akteure so lange kooperatives Verhalten an den Tag, bis ein Gegenspieler von der Vereinbarung abweicht. Folglich wird als Bestrafung eine ineffiziente Strategie gespielt. Eine Triggerstrategie kann demnach als Androhung und Durchführung von Sanktionen bei Nichteinhaltung der Absprachen verstanden werden.[19]

In der Beurteilung und Darstellung der Lösungen wiederholter Spiele, wird in der Spieltheorie bemerkenswert oft das Folk-Theorem angewandt. Für verschiedene Spieltypen und Gleichgewichtskonzepte existieren unterschiedliche Folk-Theoreme. Hier soll nur das entsprechende Folk-Theorem für den Fall wiederholter Spiele kurz beschrieben werden. Es besagt, dass bei hinreichend großer Diskontierung und hinreichend kleiner Wahrscheinlichkeit für ein Spielende in der nächsten Periode, jedes Nash-Gleichgewicht des Basisspiels als teilspielperfektes Nash-Gleichgewicht des unendlich oft wiederholten Spiels implementiert werden kann. Die Spieler müssen sozusagen geduldig genug sein. In Kapitel 3.4.2 muss somit Abbildung in dieser Leseprobe nicht enthalten nahe eins sein. Des Weiteren können durch Realisation von Triggerstrategien alle möglichen Ergebnisse als durchschnittliche Auszahlungen eines teilspielperfekten Gleichgewichts resultieren.[20]

In vielen Situationen ökonomischen Handelns ist nicht nur der mehrperiodige Charakter des Spiels ein entscheidendes Merkmal, sondern auch die Tatsache unvollständiger Information. In dynamischen Spielen mit vollständiger Information kann das Gleichgewichtskonzept der Teilspielperfektheit Ergebnisse (Nash-Gleichgewichte) eliminieren, die auf unglaubwürdigen Drohungen basieren. In dynamischen Spielen mit unvollständiger Information ist es möglich, dass Gleichgewichte aufgrund unglaubwürdiger Drohungen existieren. Um diese eliminieren zu können, reicht das Konzept der Teilspielperfektheit nicht mehr aus, da es in diesen Spielen keine Teilspiele gibt. In einer Interaktion mit unvollständiger Information bzw. asymmetrisch verteilter Information kann mindestens ein Spieler die Gegebenheiten der Natur nicht beobachten. Die Analyse solcher Situationen erfordert wiederum eine Verfeinerung der bereits bekannten Lösungskonzepte. In der Geldpolitik findet dafür vor allem das Konzept des perfekt bayesianischen Gleichgewichtes Anwendung. Ein grundlegendes Element dieses Gleichgewichtskonzeptes ist die bayesianische Entscheidungstheorie. Sie beruht auf der Bayes-Regel und beschäftigt sich mit der Fragestellung wie Informationsverarbeitung und Reaktion auf neue Informationen ökonomisch modelliert werden können. Dabei geht es um die Bildung einer bedingten Wahrscheinlichkeit. Dies bedeutet eine Wahrscheinlichkeit für den Eintritt eines Ereignisses, gegeben, dass ein anderes allgemeines Ereignis beobachtet wird. In diesem Zusammenhang lassen sich die Wahrscheinlichkeitseinschätzungen der Wirtschaftssubjekte danach unterscheiden, ob es sich um ursprüngliche Einschätzungen (a priori Wahrscheinlichkeit) oder um Einschätzungen nach Erhalt der neuen Informationen (die in der Einschätzung verarbeitet werden können) handelt (a posteriori Wahrscheinlichkeit). Die Wirtschaftssubjekte können ihre Schätzungen korrigieren, wenn sie neue Erkenntnisse über den möglichen Umweltzustand erhalten. Falls die Natur als „Pseudospieler“ für eine Umweltgegebenheit zwei mögliche Ausprägungen, a1 oder a2, vorgesehen hat, kann die revidierte Wahrscheinlichkeit für die Ausprägung a nach Beobachtung des Ereignisses b durch die Anwendung der Bayes-Regel folgendermaßen errechnet werden:

Abbildung in dieser Leseprobe nicht enthalten

[Abbildung in dieser Leseprobe nicht enthalten] entspricht dabei der Wahrscheinlichkeit der Ausprägung a1, gegeben der Beobachtung b.[21] Die allgemeine Formel für bayesianisches Lernen ist:

Abbildung in dieser Leseprobe nicht enthalten

mit[Abbildung in dieser Leseprobe nicht enthalten]

Das Konzept des perfekt bayesianischen Gleichgewichts führt nun die Idee ein, dass die Spieler in jeder unsicheren Spielsituation (Informationsmenge) Wahrscheinlichkeits-einschätzungen darüber haben, in welchem Entscheidungsknoten des Spielbaums sie sich befinden. Zu Beginn des Spiels haben die Spieler a priori Wahrscheinlichkeits-beurteilungen über die Gegebenheiten der Natur, speziell über die Typenausprägungen der (Mit-)Spieler. Jeder Spieler aktualisiert diese a priori Einschätzungen durch Beobachtung des Verhaltens der Gegenspieler und kann sich dadurch a posteriori Einschätzungen nach der Bayes-Regel bilden. Jeder Akteur bildet in einer Spielsituation, in der er nicht genau weiß wie sich die Gegenspieler zuvor verhalten haben (Informationsmenge), eine Vorstellung über die Wahrscheinlichkeitsverteilung in welchem Knoten des Spielbaums er sich befinden könnte. Diese Vorstellungen nennt man System von Beliefs eines Spielers. Demnach kann ein perfekt bayesianisches Gleichgewicht beschrieben werden. Dieses setzt sich aus einer Strategiekombination[22] und einem System von Beliefs zusammen. Die Beliefs müssen in diesem Fall nach der bayesianischen Regel gebildet worden sein (falls sie angewandt werden kann) und die Strategien der Spieler müssen Nash-Gleichgewichte darstellen, gegeben den Strategien der Gegenspieler und deren Wahrscheinlichkeitseinschätzungen.[23]

Einen Spezialfall des Konzepts eines perfekt bayesianischen Gleichgewichts stellt die Klasse der Signalspiele dar. Bei der Modellierung der geldpolitischen Interaktion bei unbekannter Inflationsaversion der Zentralbank findet genau dieser Spezialfall Anwendung. Signalspiele lassen sich in die Kategorie der dynamischen Spiele mit unvollständiger Information einordnen. Diese Spiele werden durch eine bestimmte Art der Informationsasymmetrie charakterisiert. Es existieren immer zwei Spieler. Ein Spieler (Sender) verfügt dabei über wesentlich mehr Information als der zweite Spieler (Empfänger). Kurz kann man die Theorie der Signalspiele so beschreiben: Der Sender hat eine gewisse Eigenschaft, über die nur er Bescheid weiß. Der Gegenspieler (Empfänger) hat eine Erwartung darüber, welche Eigenschaft dies ist. Dem Sender ist es möglich, ein Signal bzw. eine Nachricht auszusenden, die von dem Empfänger beobachtet wird. Der Empfänger kann zwar die Aktionen des Senders beobachten, erhält aber keinerlei Aufschlüsse über die Merkmale des Senders. Die Typausprägung des Senders bleibt dadurch dem Empfänger unbekannt. Die allgemein beobachtbare Aktion des Senders kann von diesem somit als Signal verwendet werden, um die Erwartungsbildung des Empfängers in eine bestimmte Richtung zu lenken.[24] Das Konzept des perfekt bayesianischen Gleichgewichts überträgt sich leicht auf ein Signalspiel. Der Empfänger muss nach Erhalt des Signals des Senders dementsprechend einen Belief über die möglichen Typenausprägungen des Senders bilden.

In der monetären Anwendung des Konzepts ist der Zentralbanktyp der Öffentlichkeit nicht bekannt. Zu Beginn des Spiels haben die privaten Wirtschaftssubjekte eine a priori Wahrscheinlichkeitseinschätzung über den Typ der Zentralbank. Nach Ablauf der Periode wird diese Einschätzung revidiert und anhand der beobachteten Aktion der Notenbank eine a posteriori Wahrscheinlichkeitseinschätzung gebildet. Die Bildung dieser Posteriori-Beliefs der Öffentlichkeit erfolgt durch die Bayes-Regel. Die Notenbank als Sender hat somit die Möglichkeit, dem privaten Sektor als Empfänger etwas über ihre wahren Präferenzen zu signalisieren. Das dafür verwendete Instrument ist die Inflationsrate.

Durch die speziellen Charakteristika eines Signalisierungsspiels können verschiedene Gleichgewichtskonstellationen entstehen. Grundsätzlich kann der Sender seinen wahren Typen dadurch verbergen, dass er für alle Typen die gleiche Botschaft sendet. Dem Empfänger ist es durch diese Poolingstrategie unmöglich Rückschlüsse auf den Typen des Senders zu ziehen. Wenn also alle Typen des Senders die gleiche Strategie spielen und somit nicht unterschieden werden können, spricht man von einem Poolinggleichgewicht. In Separatinggleichgewichten verrät die Strategie des Senders etwas über seinen wahren Typ. Dabei spielen verschiedene Typen des Senders in der ersten Periode unterschiedliche Strategien. Dies impliziert, dass es für die Existenz eines separierenden Gleichgewichts mindestens genauso viele Botschaften wie Typen des Senders geben muss.[25]

3. Das Problem der Zeitinkonsistenz in der Geldpolitik

3.1 Das Zeitinkonsistenzproblem aus Sicht geldpolitischer Strategien

Das Phänomen konstant hoher Inflationsraten bei ansteigender Arbeitslosigkeit Mitte der siebziger Jahre löste eine Welle der Kritik an der bis dahin gängigen Meinung, eine geringe Arbeitslosigkeit mit einer Erhöhung der Inflation erkaufen zu können. Robert E. Lucas (1976) erkannte, dass die Effekte wirtschaftspolitischer Maßnahmen aufgrund sich ändernden Umweltfaktoren nicht als konstant angenommen werden können, da die Wirtschaftsakteure diese Veränderungen antizipieren und ihr Verhalten anpassen. Daran knüpften Kydland und Prescott 1977 in ihrem Aufsatz „Rules Rather than Discretion: The Inconsistency of Optimal Plans“ an und machten auf das Problem zeitinkonsistenter Entscheidungen aufmerksam. Demnach ist eine politische Strategie zeitinkonsistent, falls sie zu einem Zeitpunkt t0 optimal ist, jedoch zu einem späteren Zeitpunkt t1 mit Abbildung in dieser Leseprobe nicht enthalten nicht mehr optimal ist, d.h. ein ex ante optimaler Plan ist ex post nicht mehr optimal. Nach Basar und Olsder (1999) definiert sich eine zeitkonsistente Lösung darin, dass kein Spieler einen rationalen Anreiz besitzt in einem zukünftigen Zeitpunkt des Spiels von seiner ergriffenen Strategie abzuweichen.[26] Der Grund dafür ist auf eine geänderte Entscheidungsbasis zurückzuführen. Alleine die Ankündigung einer Strategie der Regierung beeinflusst die Erwartungsbildung der Öffentlichkeit und somit ihr Handeln. Dies ändert die Rahmenbedingungen des politischen Entscheidungsträgers, so dass er einen Anreiz hat, sich nicht an seine Ankündigung zu halten. Durch die Erwartungsbildung der Wirtschaftsakteure wird von ihnen das geänderte Verhalten der Entscheidungsträger antizipiert.[27] Eine Politik ist demnach zeitinkonsistent, falls es für einen Politiker optimal ist, zunächst eine in sich schlüssige Entscheidung anzukündigen um sie dann, wenn die Wirtschaftssubjekte ihre Erwartungen entsprechend gebildet haben, zu widerrufen.

In der Geldpolitik wurde die Zeitinkonsistenzproblematik aufbauend auf Kydland und Prescott (1977) durch Barro und Gordon (1983) theoretisch fundiert. Zur Erklärung soll nun das Zeitinkonsistenzproblem anhand der Interaktion zwischen Zentralbank und Öffentlichkeit (beispielsweise Arbeitgeber- bzw. Arbeitnehmervertretung) illustriert werden. Vor Beginn der jährlichen Lohnverhandlungen (t0) kann die Zentralbank ankündigen, dass sie durch geeignete geldpolitische Maßnahmen eine Inflationsrate von null erzeugen möchte. Schenken nun die Arbeitgeber- und Arbeitnehmervertreter dieser Aussage der Zentralbank Glauben und handeln somit eine sehr geringe Steigerung der Nominallöhne als Inflationsausgleich aus (t1), hätte die Zentralbank nach Ende der Lohnverhandlungen (t2) einen Anreiz die Inflationsrate zu erhöhen. Dadurch würde eine unerwartete Inflation erzeugt werden, die unter bestimmten Voraussetzungen die tatsächliche Arbeitslosenquote senkt. Voraussetzung dafür ist, dass die Notenbank neben ihrem primären Ziel der Preisniveaustabilität auch das Ziel der Outputstabilisierung verfolgt. Eine Politik der Nullinflation ist demnach in t0 durchaus optimal, was in t2 allerdings nicht mehr der Fall ist.[28]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 1: Zeitachse - Aktionen der geldpolitischen Akteure

Für das Auftreten zeitinkonsistenter Strategien müssen die beiden folgenden Voraussetzungen erfüllt sein. Ein Spieler muss bei der Wahl seiner Strategie frei sein (im Anwendungsfall der Geldpolitik ist dies die Notenbank bei der Wahl der Inflationsrate), der andere Spieler muss sich dagegen frühzeitig auf eine Strategie festlegen (die privaten Akteure bilden ihre Erwartung über die Inflationsrate, an welche sie gebunden sind).[29]

Vor dem Hintergrund dieser Problematik entstand in der Wissenschaft die Frage, inwiefern die Wirtschaftspolitik eines Staates diskretionär oder regelgebunden erfolgen soll. Diskretion bedeutet dabei die Einräumung von Entscheidungsspielräumen. Die nachstehenden Ausführungen beschäftigen sich genau mit dieser Frage. Dabei wird unter verschiedenen Informationsvoraussetzungen das Thema „rules versus discretion“ beleuchtet. In dem nun folgenden Kapitel wird zunächst eine Einführung in das Konzept der Phillipskurve gegeben, welches später zur Modellierung von Rahmenbedingungen der Ökonomie dient.

3.2 Das Konzept der Phillipskurve

Geringe Inflationsraten und niedrige Arbeitslosenquoten sind zwei der wichtigsten Ziele der Geldpolitik. Daher beeinflussen sie die Wohlfahrt einer Volkswirtschaft in erheblichem Ausmaß. 1958 untersuchte der britische Ökonom Alban W. Phillips den Zusammenhang zwischen Inflation und Arbeitslosigkeit, was seither als Phillipskurve bezeichnet wird. Das Konzept der Phillipskurve postuliert einen inversen Zusammenhang zwischen einer nominellen Variablen (der Änderung des Preisniveaus) und einem realen Maß der Wirtschaftsaktivität in einer Volkswirtschaft (der Arbeitslosigkeit). Der britische Volkswirt behauptete, dass eine stabile negative Beziehung zwischen Inflation und Arbeitslosigkeit existiert. Je höher die Arbeitslosenquote u, desto niedriger die Inflationsrate Abbildung in dieser Leseprobe nicht enthalten. Er führte dies auf eine empirische Analyse des Datenbestandes Großbritanniens der Jahre 1861 bis 1957 zurück. Die Phillipskurve legt einen Tradeoff zwischen Inflation und Arbeitslosigkeit nahe. Die graphische Darstellung dieser statistischen Beziehung kann folgendermaßen abgebildet werden:

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 2: Kurzfristige Phillipskurve – Negativer Zusammenhang zwischen Inflation und Arbeitslosenquote

(Quelle: Dornbusch, Rüdiger / Fischer, Stanley (1992), op. cit., S. 491, eigene Darstellung.)

Dabei kann monetäres Wachstum (Inflation) einen Wirtschaftsaufschwung unterstützen. Das reale Inlandsprodukt und die Beschäftigung steigen, falls das Inflationsniveau steigt. Das Lohnniveau in einer Volkswirtschaft reagiert langsamer als das Preisniveau. Dadurch sind Preisniveauänderungen mit Änderungen des Reallohns verbunden. Aufgrund von Nachfrageeffekten der Reallohnänderung führen Preissteigerungen zu einem Rückgang der Arbeitslosenquote, Preissenkungen dagegen zu einem Anstieg der Arbeitslosigkeit.[30]

Diese Beziehung ist kurzfristig konsistent und stabil. Versucht die Geldpolitik jedoch durch inflationäres Verhalten diesen Zusammenhang auszunutzen, ist diese Relation nicht mehr gegeben. Die Phillipskurve ist langfristig nicht stabil. Eine erhöhte Inflationsrate führt nur in kurzer Sicht zu höherem Beschäftigungsniveau, da sich eine Volkswirtschaft einer dauerhaften Inflation anpasst. Milton Friedman (1968) und Edmund Phelps (1967) erweiterten das Konzept der einfachen Phillipskurve, indem sie die Inflationserwartungen mit einbezogen. Tarifparteien in der Lohnsetzung beispielsweise orientieren sich nicht an der gegenwärtigen Inflationsrate [Abbildung in dieser Leseprobe nicht enthalten] , sondern an der von ihnen erwarteten Inflationsrate [Abbildung in dieser Leseprobe nicht enthalten] . Erhöht die Geldpolitik die Inflation systematisch, gewöhnen sich sowohl die Privaten als auch die Unternehmen an die fortgesetzte Inflation und passen ihre Erwartungen an. Die Inflationsrate kann somit nicht dauerhaft über den Inflationserwartungen liegen und nur der unvorhergesehene Teil der Inflation ([Abbildung in dieser Leseprobe nicht enthalten] -[Abbildung in dieser Leseprobe nicht enthalten]) kann invers mit der Arbeitslosenquote u verbunden sein. Demzufolge ist ein konstant höheres Beschäftigungsniveau nicht mit einer konstant höheren Inflation erreichbar. Nach Friedman und Phelps stellt sich langfristig das natürliche Niveau an Arbeitslosigkeit ein, d.h. eine natürliche Arbeitslosenquote, die unabhängig vom Zustand der Inflation ist. Die Kernaussage der um Erwartungen modifizierten Phillipskurve ist, dass ein gegebenes Beschäftigungsniveau langfristig mit jeder Inflationsrate vereinbar ist. Steigen Inflationsrate und erwartete Inflationsrate im gleichen Maße, bleibt die unerwartete Inflation ([Abbildung in dieser Leseprobe nicht enthalten] - [Abbildung in dieser Leseprobe nicht enthalten]) gleich. Das Beschäftigungsniveau verändert sich somit nicht. Die daraus resultierende Arbeitslosigkeit verändert sich nicht und wird daher als natürliche Arbeitslosigkeit bezeichnet. Beschäftigungseffekte können nur durch überraschende Politik generiert werden. Bei dieser Form der erweiterten Phillipskurve besteht ausschließlich ein kurzfristiger Tradeoff zwischen Inflation und Arbeitslosigkeit.[31]

Abbildung in dieser Leseprobe nicht enthalten

Abbildung 3: Kurz- und langfristige Phillipskurven unter Einfluss der Inflationserwartung der Privaten

(Quelle: Bofinger, Peter / Reischle, Julian / Schächter, Andrea (1996), op. cit., S. 33, eigene Darstellung.)

Die Phillipskurve stellt eine Alternative dar, das gesamtwirtschaftliche Angebot auszudrücken. Lucas (1972) u.a. überführte das Konzept der Phillipskurve in den neoklassischen Modellrahmen und erarbeitete eine Angebotsfunktion in der nicht die Arbeitslosenquote sondern das Outputniveau y die reale Variable darstellt. Nach Lucas kann eine überraschende Änderung der Geldpolitik kurzfristig reale Effekte auslösen. Dabei stellen die produzierenden Unternehmen einer Ökonomie fest, dass die Preise ihrer Produkte gestiegen sind. Eine Erklärung dafür könnte eine gestiegene Nachfrage seitens der Privaten oder ein Ansteigen des allgemeinen Preisniveaus sein. Die Unternehmen können den genauen Grund der Preissteigerung nicht erkennen und werden daraufhin sowohl die Produktion ausweiten als auch ihre Preise erhöhen. Diese Überlegungen finden sich in der Lucas-Angebotsfunktion wieder, so dass die Phillipskurve alternativ anstatt durch die Arbeitslosenquote u, auch durch das Outputniveau y als reale Variable dargestellt werden kann. Unvorhergesehene Inflationssteigerungen haben dabei einen positiven Einfluss auf das Outputniveau (Vgl. Gleichung (3)). Abweichungen des realen Outputs vom natürlichen Niveau können nur aufgrund nicht antizipierter Preisänderungen erfolgen. Eine kurzfristige Phillipskurve gleicht also jeweils einer kurzfristigen Angebotskurve. Die Lucas-Angebotsfunktion entspricht demnach im Ergebnis der um Erwartungen erweiterten Phillipskurve.[32]

Die Ausführungen zur Phillipskurventhematik und einem Tradeoff zwischen Inflation und Arbeitslosigkeit bzw. Output dienen im folgenden Kapitel zur Beschreibung der Rahmenbedingungen der Ökonomie und werden dabei noch weiter spezifiziert. In diesem Kontext wird anstatt der Arbeitslosenquote u das Outputniveau y verwendet.

3.3 Der Inflation Bias - Die Nash-Lösung im Ein-Perioden-Spiel

Barro und Gordon (1983) haben ein Zeitinkonsistenzmodell entwickelt, welches Glaubwürdigkeits- und Reputationsmechanismen in der Geldpolitik beleuchtet. Dabei wird die Vorteilhaftigkeit einer Regelbindung der Geldpolitik gegenüber diskretionärem Entscheidungsspielraum selbst bei optimalen Bedingungen demonstriert. Erfreulicherweise beschränkte sich ihre Forschungsarbeit nicht nur auf die Theorie, sondern fand in gewissen Notenbankverfassungen praktische Anwendung.[33] Ihr Modell besteht aus drei Elementen: die gesellschaftliche Wohlfahrtsfunktion als Zielfunktion der Zentralbank, mit der erwartungsmodifizierten Philippskurve als Nebenbedingung und die rationale Erwartungsbildung des privaten Sektors. Dabei wird die Theorie der Geldpolitik als Interaktionsproblem zwischen der Öffentlichkeit und der monetären Autorität eines Landes interpretiert. Die geldpolitischen Entscheidungen werden von der monetären Autorität getroffen. Dabei wird die Zentralbank und die Regierung einer Ökonomie als identisch angesehen. In ihrem Kalkül versuchen beide, die gesellschaftliche Wohlfahrt durch Wirtschaftspolitik zu optimieren.[34]

[...]


[1] Erst vor kurzem hat der damalige französische Finanzminister Nicola Sarkozy das konservative Inflationsziel der Europäischen Zentralbank von 2% als „störend“ für die konjunkturelle Entwicklung bezeichnet und versuchte damit die Geldpolitik des EZB-Präsidenten Jean-Claude Trichet zu beeinflussen. Vgl. hierzu: Krosta, Andreas / Schieritz, Mark: „EZB weist Sarkozys Kritik vehement zurück“, in: Financial Times Deutschland vom 10.06.2004.

[2] Vgl. Phillips, Alban (1958): „The Relation between Unemployment and the Rate of Change of Money Wages in the United Kingdom, 1861-1957“, in: Economica, Band 25, S. 283.

[3] Vgl. Friedman, Milton (1968): „The Role of Monetary Policy“, in: American Economic Review, Band 58, Nr. 1, S. 1-3 und Phelps, Edmond (1967): “Phillips Curve, Expectations of Inflation, and Unemployment over Time”, in: Economica, Band 34, Nr. 3, S. 254.

[4] Vgl. Lucas, Robert (1972): „Understanding Business Cycle“, in: Carnegie-Rochester Conference on Public Policy, Band 5, S. 77-92.

[5] Vgl. Kydland, Finn / Prescott, Edward (1977): „Rules Rather than Discretion: The Inconsistency of Optimal Plans“, in: Journal of Political Economy, Band 85, Nr. 1, S. 473-491.

[6] Vgl. Barro, Robert / Gordon, David (1983a): „A Positive Theory of Monetary Policy in a Natural Rate Model“, in: Journal of Political Economy, Band 91, Nr. 4, S. 589-610 und Barro, Robert / Gordon, David (1983b): “Rules, Discretion, and Reputation in a Model of Monetary Policy”, in: Journal of Monetary Economics, Band 12, Nr. 1, S. 101-122.

[7] Vgl. Rogoff, Kenneth (1985): „The Optimal Degree of Commitent to an Intermediate Monetary Target”, in: Quartely Journal of Economics, Band 100, S. 1169–1190. Siehe auch Walsh, Carl (1995): “Optimal Contracs for Central Bankers”, in: American Economic Review, Band 85, S. 150–167 und Svensson, Lars (1997): “Optimal Inflation Targets, Conservative Central Bankers and Linear Inflation Contracs, in: American Economic Review, Band 87, S. 98–114.

[8] Vgl. Alesina, Alberto / Summers, Lawrence (1993): “Central Bank Independence and Macreconomic Performance: Some Comparitive Evidence”, in: Journal of Money, Credit and Banking, Band 25, S. 151–162.

[9] Vgl. Backus, David / Driffill, John (1985): „Inflation and Reputation“ in: American Economic Review, Band 75, Nr. 1, S. 530-538 und Vickers, John (1986): ”Signalling in a Model of Monetary Policy with incomplete Information”, in: Oxford Economic Papers, Band 38, S. 443-455 sowie Tabellini, Guido (1985): “Accommondative Monetary Policy and Central Bank Reputation”, in: Giornali degli Economisti e Annali di Economia, Band 44, S. 389-425 und Cukierman, Alex / Liviatan, Nissan (1991): “Optimal Accommodation by strong Policymakers under incomplete Information”, in: Journal of Monetary Economics, Band 27, S. 99-127.

[10] Vgl. Rasmusen, Eric (1989): “Games and Information – An Indroduction to Game Theory”. Cambridge: Cambridge University Press, S. 21.

[11] Vgl. Gibbons, Robert (1992): „A Primer in Game Theory“. Edinburgh: Pearson Education, S. 1 und 55 sowie 143.

[12] Vgl. Holler, Manfred / Illing, Gerhard (1996): “Einführung in die Spieltheorie”. Berlin / Heidelberg: Springer Verlag, S. 45 und 46.

[13] Vgl. Eichberger, Jürgen (1993): „Game Theory for Economists“. San Diego / New York: Academic Press, S. 84. si stellt dabei die Strategie des Spielers i dar. Das Symbol * deutet auf die Optimalität hin und die Spielermenge wird mit I bezeichnet. Ai repräsentiert die Auszahlungsfunktion des Spielers i.

[14] Vgl. Berninghaus, Siegfried / Erhart, Karl-Martin / Güth, Werner (2004): „Strategische Spiele. Eine Einführung in die Spieltheorie“. Berlin / Heidelberg: Springer Verlag, S. 25.

[15] Vgl. Gibbons, Robert (1992), op. cit., S. 30.

[16] Vgl. Illing, Gerhard (1997): „Theorie der Geldpolitik – Eine spieltheoretische Einführung“. Berlin: Springer Verlag, S. 331.

[17] Ein Teilspiel ist ein Teil eines dynamischen Spiels mit der Eigenschaften, dass das Teilspiel an einem Knoten des Spielbaums beginnt, der für alle Spieler eine vollständige Informationsmenge darstellt und an einem Endknoten endet, der für alle Spieler eine Auszahlung angibt. Eine Informationsmenge eines Spielers ist eine Menge an Spielsituationen, die der Spieler nicht unterscheiden kann. Die Spieler wissen also nicht, wie sich ihre Gegenspieler in den vergangenen Situationen entschieden haben. Im Anhang dieser Arbeit befindet sich ein Schaubild zur Erklärung eines Spielbaums.

[18] Vgl. Eichberger, Jürgen (1993), op. cit., S. 157 und 159.

[19] Vgl. Berninghaus, Siegfried / Erhart, Karl-Martin / Güth, Werner (2004), op. cit., S. 357.

[20] Vgl. Gibbons, Robert (1992), op. cit., S. 89 und Rasmusen, Eric (1989), op. cit., S. 156.

[21] Vgl. Holler, Manfred / Illing, Gerhard (1996), op. cit., S. 50.

[22] Diese entspricht hier einer Verhaltensstrategiekombination. Eine Verhaltensstrategie ordnet jeder Informationsmenge eines Spielers eine Wahrscheinlichkeitsverteilung über seine Aktionen zu.

[23] Vgl. Eichberger, Jürgen (1993), op. cit., S. 165 und 167.

[24] Vgl. Gibbons, Robert (1992), op. cit., S. 183 und 184.

[25] Vgl. Eichberger, Jürgen (1993), op. cit., S. 187.

[26] Vgl. Basar, Tamer / Olsder, Geert (1999): „Dynamic Noncooperative Game Theory“. London / New York: Academic Press, S. 249 und 250.

[27] Vgl. Bofinger, Peter / Reischle, Julian / Schächter, Andrea (1996): „Geldpolitik – Ziele, Institutionen, Strategien und Instrumente“. München: Verlag Franz Vahlen, S. 138.

[28] Vgl. Dornbusch, Rüdiger / Fischer, Stanley (1992): „Makroökonomik“. München: R. Oldenburg Verlag, S. 537.

[29] Vgl. Bofinger, Peter / Reischle, Julian / Schächter, Andrea (1996), op. cit., S. 138.

[30] Vgl. Arnold, Lutz (2006): „Makroökonomie – Eine Einführung in die Theorie der Güter-, Arbeits- und Finanzmärkte“. Tübingen: Mohr Siebeck Verlag, S. 100 und 101 sowie Barro, Robert / Grilli, Vittorio (1994): „Makroökonomie – Europäische Perspektive“. München: R. Oldenburg Verlag, S. 635 und 636.

[31] Vgl. Dornbusch, Rüdiger / Fischer, Stanley (1992), op. cit., S. 493 und 494 sowie Barro, Robert / Grilli, Vittorio (1994), op. cit., S. 636 und 637.

[32] Vgl. Illing, Gerhard (1997), op. cit., S. 85 und Bofinger, Peter / Reischle, Julian / Schächter, Andrea (1996), op. cit., S. 32 und 33.

[33] Die Konsequenzen aus der Arbeit von Barro und Gordon (1983) werden in Kapitel 4 ausführlich beschrieben.

[34] Vgl. Barro, Robert / Gordon, David (1983a), op. cit., S. 593.

Excerpt out of 108 pages

Details

Title
Zentralbankunabhängigkeit und das Problem der Zeitinkonsistenz
College
University of Heidelberg  (Alfred-Weber-Institut)
Grade
1,7
Author
Year
2008
Pages
108
Catalog Number
V87036
ISBN (eBook)
9783638043557
ISBN (Book)
9783656867425
File size
864 KB
Language
German
Keywords
Zentralbankunabhängigkeit, Problem, Zeitinkonsistenz
Quote paper
Manuel Würtz (Author), 2008, Zentralbankunabhängigkeit und das Problem der Zeitinkonsistenz, Munich, GRIN Verlag, https://www.grin.com/document/87036

Comments

  • No comments yet.
Look inside the ebook
Title: Zentralbankunabhängigkeit und das Problem der Zeitinkonsistenz



Upload papers

Your term paper / thesis:

- Publication as eBook and book
- High royalties for the sales
- Completely free - with ISBN
- It only takes five minutes
- Every paper finds readers

Publish now - it's free