4. Kochrezepte („Strategien“) für eine erfolgreiche Geldpolitik 4.1 Einführung Die Diskussion der geldpolitischen Transmissionsmechanismen hat uns gezeigt, dass die
praktische Geldpolitik kein ganz einfaches Geschäft ist. Konkret sehen sich die
Entscheidungsträger in einer Notenbank permanent mit der komplexen Aufgabe konfrontiert,
in einer sich stets wandelnden Umwelt ihre zinspolitischen Hebel so einzustellen, dass das
Ziel der Geldwertstabilität möglichst dauerhaft – und ohne negative Nebenwirkung auf das
Wirtschaftswachstum und die Beschäftigung – gesichert werden kann.
4.1.1 Anforderungen an geldpolitische Strategien und allgemeine Diskussion
konkurrierender Strategien
Wir werden uns in diesem Absatz zunächst ganz allgemein mit der Bedeutung von
Daumenregeln (oder wissenschaftlicher: Heuristiken) in komplexen Entscheidungssituationen
auseinandersetzen. Ihr entscheidender Beitrag besteht darin, dass sie den
Entscheidungsprozeß auf einige wenige relevante Faktoren reduzieren, die in der Regel zu
guten Ergebnissen führen. Auf dieser Basis können wir dann die drei wichtigsten
geldpolitischen Strategien diskutieren:
• Die Geldmengensteuerung,
• Das Inflation targeting,
• Die Taylor-Regel.
Wir werden sehen, dass weder die Geldmengensteuerung noch das Inflation targeting in der
Lage sind, eine echte Entscheidungshilfe für die Geldpolitik zu bieten. Die Taylor-Regel
erweist sich demgegenüber als eine recht gute Daumenregel für zinspolitische
Entscheidungen.
4.1.2 Geldpolitische Strategie der EZB
Im zweiten Teil dieses Kapitels setzten wir uns mit der „stabiliätsorientierten geldpolitischen
Strategie“ der EZB auseinander. Sie beruht auf zwei Säulen:
• Einem Referenzwert für die Geldmenge M3, und
• einer breit fundierten Beurteilung der Aussichten für die künftige Preisentwicklung.
Es wird deutlich werden, dass beide Säulen im Grunde wenig zum Verständnis der
zinspolitischen Beschlüsse der EZB beitragen. Aus diesem Grund wird die Zinspolitik der
EZB auch anhand einer einfachen Taylor-Regel dargestellt. Sie lässt sich damit über weite
Strecken recht gut erklären.
4.2 Die Bedeutung einer geldpolitischen Strategie Ein Grundproblem der Diskussion über geldpolitische Strategien (man spricht häufig auch
von geldpolitischen Regeln) besteht darin, dass man sich oft wenig darüber im Klaren ist,
worin deren konkrete Bedeutung zu sehen ist. In diesem Kapitel soll darunter vor allem eine
Entscheidungshilfe für das schwierige Geschäft der Zinspolitik verstanden werden.
4.2.1 „Daumenregeln“ (Heuristiken) machen das Leben einfacher
Im Prinzip verwenden die Notenbanker dazu dieselben Landkarten, die wir im vorangegangen
Kapitel beschrieben haben. Da sie über große Mitarbeiter-Stäbe verfügen, weisen ihre Karten
natürlich einen sehr viel genaueren Maßstab auf als die hier präsentierten Übersichten. Dies
ändert aber nichts an dem Grundproblem,
• dass man nie ganz genau weiß, welche der verschiedenen Karten in einer konkreten
Situation gerade am besten ist, und
• dass es auch bei den detaillierten Darstellungen noch viele ausgedehnte weiße Flecken
gibt.
Diese Unsicherheit ist im Grunde kein spezifisches Problem der Geldpolitik. In eigentlich
allen Bereichen des menschlichen wie des politischen Lebens gilt es häufig, Entscheidungen
in einer sehr komplexen Umwelt zu treffen, ohne dass man jemals über alle Konsequenzen
vollständig informiert ist. Die Erfahrung zeigt, dass sich die Entscheidungsträger in solchen
Situationen häufig damit behelfen, dass sie sich an „Daumenregeln“ (Heuristiken) halten.
Solche Regeln zeichnen sich im Idealfall (Gigerenzer et al. 1999) dadurch aus, dass
• sie eine recht einfache Handlungsanweisung für komplexe Situation bieten,
• und dabei in den meisten Fällen zu ähnlich guten (oder nahezu ähnlich guten) Resultaten
führen wie sehr komplexe Entscheidungsprozeduren.
Bei den geldpolitischen Strategien, die wir im Folgenden darstellen und diskutieren werden,
handelt es im Prinzip um solche „ Daumenregeln“. Im Idealfall tragen sie dazu bei,
• dass es im Innenverhältnis den Mitgliedern des obersten Entscheidungsgremiums einer
Notenbank leichter fällt, zweckmäßige zinspolitische Entscheidungen zu treffen als ohne
eine solche Hilfestellung. Bei einer großen Zahl von Entscheidungsträgern, der EZB-Rat
setzt sich derzeit aus 18 Mitgliedern zusammen, kann eine gemeinsam akzeptierte
Heuristik auch dazu verhelfen, die gruppeninternen Entscheidungsprozesse zu
strukturieren und sie damit auch zu vereinfachen.
• dass es im Außenverhältnis für die Öffentlichkeit leichter nachvollziehbar wird, warum
sich eine Notenbank für eine ganz bestimmte zinspolitische Maßnahme entschieden hat.
Eine gute Strategie verhilft dann also dazu, dass die Geldpolitik transparent und auf diese
Weise auch glaubwürdig wird.
4.2.2 Die wichtigsten Daumenregeln in der Geldpolitik und die Strategie der EZB
Es ist naheliegend, dass alle geldpolitischen Strategien auf einer bestimmten Theorie des
Transmissionsprozesses beruhen. Dies gilt in besonderem Maße für die drei besonders
populären Strategien, die wir im Folgenden diskutieren werden:
• Die Strategie der Geldmengensteuerung basiert auf dem quantitätstheoretischen
Transmissionskanal.
• Für die Strategie des Inflation Targeting bietet der erwartungstheoretische
Transmissionskanal die entscheidende theoretische Grundlage.
• Die Taylor Regel bezieht sich auf die zentralen Wirkungsmechanismen des Zinskanals.
Nach einer Darstellung dieser drei elementaren Strategien werden wir die
„stabilitätsorientierte geldpolitische Strategie“ der EZB beschreiben. Wir werden dabei
überprüfen, inwieweit diese als eine Daumenregel betrachtet werden kann, die zu einem
besseren Verständnis der zinspolitischen Entscheidungen der EZB beiträgt.
4.3 Die Geldmengensteuerung: Simpel, aber leider wenig praxistauglich In Anbetracht der einfachen Struktur der Quantitätstheorie ist es nicht überraschend, dass sich
daraus auch eine recht klare geldpolitische Strategie ableiten läßt (Friedman 1968). Die
Deutsche Bundesbank hat hierbei im Jahr 1974 eine Vorreiter-Rolle übernommen und dieses
Konzept bis zum Jahr 1998, dem Ende ihrer eigenständigen geldpolitischen
Verantwortlichkeit, beibehalten. Wir stellen zunächst das Konzept in seiner Reinform dar und
beschrieben dann die Probleme, die sich bei seiner Anwendung in der Praxis ergeben.
4.3.1 Die Logik der Geldmengensteuerung
Der Ausgangspunkt für die Geldmengensteuerung ist die einleuchtende Idee, dass die
Geldmenge auf mittlere Sicht so wachsen soll, dass ein inflationsfreies Wachstum der
Wirtschaft ermöglicht wird. Die dazu erforderliche normative Wachstumsrate der Geldmenge
( M *) erhält man, wenn man Quantitätsgleichung (3.1) nach der Geldmenge auflöst und sie
dann in Veränderungsraten formuliert:
(4.1) M * = π* + Y – V .
Entscheidend ist nun, wie man die Determinanten auf der rechten Seite konkret definiert. Wir
halten uns dabei an die Vorgehensweise der Europäischen Zentralbank, die fast identisch mit
der der Bundesbank ist (Schächter 1999):
• Für die Preisentwicklung (π*) wird eine normative Größe genommen, konkret der von der
Notenbank angestrebte Zielwert für die Inflationsrate. Es läßt sich ermitteln, dass die EZB
hierbei einen Wert von etwa 1 ½ % angesetzt hat.
• Der zweite Term (Y ) steht für die realwirtschaftliche Entwicklung, da die EZB eine
mittelfristige Ausrichtung verfolgt, setzt sie hier nicht die tatsächliche oder eine
prognostizierte Entwicklung des realen Bruttoinlandsprodukts ein; sie verwendet dazu die
jährliche Wachstumsrate des Produktionspotentials, d.h. also der Produktionskapazitäten
der Wirtschaft in Euroland. Diese beläuft sich auf etwa 2 ¼ % und ist nahezu identisch
mit dem Trend des realen Bruttoinlandsprodukts.
• Da die Umlaufsgeschwindigkeit nicht konstant ist, sondern einen ausgeprägten Trend
aufweist, ist es schließlich noch erforderlich, diesen bei der Berechnung des normativen
Geldmengenwachstums zu berücksichtigen. In Euroland sinkt die
Umlaufsgeschwindigkeit mit einer Rate von etwa einem halben bis einem Prozent pro
Jahr.
Addiert man diese drei Determinanten auf, kommt man zu einer normativen Wachstumsrate
der Geldmenge von rund 4 ½ %. Aufgrund ihrer guten statistischen Eigenschaften hat sich die
EZB dafür entscheiden, diese Strategie für die Geldmenge M3 zu formulieren.
Auf der Grundlage einer solchen normativen Wachstumsrate läßt sich nun eine relativ simple
Daumenregel für die Geldpolitik formulieren:
• Liegt das tatsächliche Geldmengenwachstum höher als der Zielwert, bestehen auf mittlere
Sicht Inflationsgefahren. Es ist daher sinnvoll, eine expansivere Zinspolitik zu verfolgen.
• Im umgekehrten Fall eines zu schwachen Geldmengenwachstums wird der „monetäre
Mantel“ auf die Dauer zu eng. Es drohen Inflationsgefahren. In diesem Fall liegt es nahe,
die Zinspolitik zu lockern.
Besonders deutlich wurde diese Logik in der Geldmengensteuerung der Bundesbank, die um
den Zielwert einen Korridor von 3% bis 6 % legte und dann fortlaufend überprüfte, ob die
tatsächliche Entwicklung der Geldmenge noch innerhalb des Korridors verlief.
4.3.2 Die Praxis der Geldmengensteuerung
In der geldpolitischen Praxis hat sich diese auf den ersten Blick so einleuchtende Strategie
leider nicht besonders bewährt. Dies zeigt sich schon daran, dass es der Bundesbank in der
Regel recht gut gelungen ist, das Endziel der Geldwertstabilität zu erreichen, obwohl sie ihr
Geldmengenziel jedes zweite Jahr verfehlte – mit zum Teil sehr starken Abweichungen. Für
die zinspolitischen Entscheidungen der Bundesbank kann diese Daumenregeln also keine
große Hilfe gewesen sein (Bernanke und Mishkin 1992 sowie Clarida und Gertler 1996).
Auch die EZB war in den ersten drei Jahren nicht sehr glücklich über den von ihr fixierten
Referenzwert für die Geldmenge M3. Trotz einiger statistischer ad-hoc Korrekturen lag die
tatsächliche Wachstumsrate der Geldmenge M3 in dieser Zeit fast durchweg über dem
Referenzwert von 4,5%. Bei genauerem Hinsehen ist die mangelnde Kontrollierbarkeit der
Geldmenge auch nicht besonders überraschend.
Ein Grundproblem besteht darin, dass die Quantitätstheorie sich nur auf die
Zahlungsmittelfunktion des Geldes bezieht, während die Geldmengenziele der Bundesbank
- wie auch der Referenzwert der EZB - für das sehr breit abgrenzte Aggregat M3 definiert
sind. Während es nun noch plausibel ist, dass ein starker Anstieg des Bargelds und der
Sichteinlagen auf eine hohe Ausgabenneigung der Privaten hindeutet, müssen Veränderungen
von M3 sehr viel differenzierter betrachtet werden (Coenen und Vega 1999). Da hierin vor
allem als Wertspeicher verwendete Aktiva gehalten werden (insbesondere Termineinlagen),
kann ein Anstieg von M3 allein darauf zurückzuführen sein, dass die Anleger ihre
Portfoliostruktur verändert haben, ohne dabei jedoch zusätzliche Ausgaben zu planen. Ein
gutes Beispiel hierfür ist die Situation im Sommer und Herbst 2001, in der es zu einem sehr
starken Wachstum vom M3 kam. Dieses war darauf zurückzuführen, dass die Anleger bei
sehr niedrigen Zinsen für langfristige Anlagen und bei einer allgemeinen Verunsicherung über
die weiteren Aussichten am Aktienmarkt einen „sicheren Hafen“ für ihr Vermögen suchten.
Ein zweites konzeptionelles Problem der Geldmengensteuerung, wie sie bisher praktiziert
wurde, liegt darin, dass sie sich immer nur auf die Veränderungen der Geldmenge in den
jeweils letzten zwölf Monaten konzentrierte. Diese sehr kurzfristige Perspektive steht in
einem deutlichen Widerspruch zur langfristigen Orientierung der Quantitätstheorie. Konkret
zeigt sich das in kurzfristigen Schwankungen der Geldmenge, die neben den bereits
genannten systematischen Ursachen auch auf rein zahlungstechnische Instabilitäten
zurückzuführen sind. Als besonders schwerwiegend erweist es sich dabei, dass weder von der
Bundesbank noch von der EZB bei einer anhaltend zu starken Ausweitung der Geldmenge in
einem Jahr keinerlei Korrekturen im Folgejahr angebracht wurden. Auf diese Weise kann es
zu einer systematisch zu hohen Ausweitung der Geldmenge kommen, ohne dass dies von der
Geldmengensteuerung adäquat berücksichtigt wird.
Auch die Umsetzung dieser Strategie in konkrete zinspolitische Maßnahmen ist nicht so
einfach, wie es den Anschein hat. Die oben genannte Regel, „Erhöhe den Zins bei einem zu
starken Geldmengenwachstum und umgekehrt“, ist nur dann zweckmäßig, wenn sich eine
Zinserhöhung dämpfend auf die Geldnachfrage auswirkt. Bei den ganz einfachen Modellen
der Geldnachfrage wird dies durchweg so gesehen. Dabei hat man aber zu berücksichtigen,
dass sich diese auf die Geldmenge M1 beziehen, die nur aus unverzinslichen Komponenten
besteht. In diesem Fall haben höhere kurzfristige Zinsen den Effekt einer „Ökonomisierung
der Kassenhaltung“, die Geldnachfrage sinkt.
Bei einem breiten Geldmengenaggregat wie der Geldmenge M3 ist dies sehr viel komplexer,
da sie neben unverzinslichen auch verzinsliche Komponenten, wie z.B. die Termineinlagen,
umfasst. Bei einem Anstieg der kurzfristigen Zinsen kommt es dann zwar ebenfalls zu dem
Effekt einer geringeren Nachfrage nach Bargeld und Sichteinlagen, da diese jedoch zunächst
vor allem in Termineinlagen umgewandelt werden, bleibt die Geldmenge M3 unverändert.
Die Sache wird nun noch weniger eindeutig, da es für die Anleger bei höheren Zinsen für
Termineinlagen auch attraktiv wird, ihre festverzinslichen Wertpapiere zu verkaufen und den
Erlös in Termineinlagen zu investieren. Somit kann ein Anstieg der kurzfristigen Zinsen also
dazu führen, dass sich die Nachfrage nach der Geldmenge M3 erhöht. Es tritt also genau das
Gegenteil dessen ein, was die Strategie eigentlich unterstellt. In der Tat sah sich sowohl die
Bundesbank als auch die EZB mit dem Phänomen konfrontiert, dass es nach Zinserhöhungen
zu einem noch stärkeren Wachstum von M3 gekommen ist und umgekehrt. Dieser positive
Einfluss der kurzfristigen Zinsen auf die Nachfrage nach M3 zeigt sich auch in komplexeren
ökonometrischen Studien für die Geldnachfrage in der Bundesrepublik wie im Euroraum.
Bei diesen vielfältigen Problemen der Geldmengensteuerung ist es nicht überraschend, dass es
heute – mit der Ausnahme der EZB, die sich ebenfalls nur eine für abgeschwächte Variante
dieser Strategie entscheiden hat,– keine Notenbank mehr gibt, die sich auf diese
geldpolitische Daumenregel stützt.
4.4. Das Konzept des Inflation Targeting
Die in 4.3 beschriebenen Probleme der Geldmengensteuerung wie auch die Probleme eines
Systems fester Wechselkurse (siehe 5.4.1) waren Anfang der neunziger Jahre für zahlreiche
Länder der Anlass, sich nach einer neuen geldpolitischen Strategie umzusehen. Das zunächst
von Neuseeland, Kanada und Großbritannien entwickelte Konzept des Inflation targeting
erfreute sich dabei einer immer größeren Beliebtheit. Es wird heute von vielen
Industrieländern wie auch von den sogenannten „emerging market economies“ verwendet
(Bernanke et al. 1998). Im Gegensatz zur Geldmengenstrategie wurde das Inflation targeting
nicht durch theoretische Arbeiten vorbereitet, es entstand vielmehr aus der konkreten
geldpolitischen Praxis einzelner Notenbanken.
4.4.1 Die Daumenregel des Inflation targeting
Auf den ersten Blick weist das Inflation targeting alle Vorteile einer einfachen Daumenregel
auf. Der Ausgangspunkt für diese Strategie ist zunächst ein quantifiziertes Inflationsziel
einer Notenbank, in dem sie
• einen konkreten Zielwert (in der Regel ein Zielband) vorgibt,
• den für sie relevanten Preisindex definiert und
• gegebenenfalls auch Ausnahmetatbestände (z.B. Preiserhöhungen aufgrund von
Naturkatastrophen, Erhöhungen indirekter Steuern, massive Verteuerung von Rohstoffen)
festlegt.
Dieser Zielwert wird nun mit einer Inflationsprognose für den Zeitraum der nächsten zwei
Jahre verglichen (Bank of England 2000 und 2002). Dabei ist es wichtig, dass die Prognose
unter der Annahme abgleitet wird, dass die Notenbank ihren derzeitigen Leitzins konstant
hält. Aus dem Vergleich des Zielwerts mit dem Prognosewert kann man nun eine sehr
einfache Heuristik für die Geldpolitik ableiten:
• Liegt der Prognosewert über dem Zielwert, sind die derzeitigen Leitzinsen zu hoch. Es ist
also eine restriktivere Zinspolitik erforderlich.
• Liegt der Prognosewert unter dem Zielwert, sind die derzeitigen Leitzinsen zu niedrig. Es
ist also eine expansivere Zinspolitik erforderlich.
Von den Anhängern des Inflation targeting wird der große Vorteil dieser Strategie darin
gesehen, dass auf diese Weise eine große Transparenz der geldpolitischen Entscheidungen
erreicht wird.
4.4.2 Grenzen und Ratio des Inflation targeting
Ähnlich wie bei der Geldmengensteuerung liegen auch bei Inflation targeting die Schwächen
im Detail. Dies wird deutlich, wenn man sich noch einmal die Ratio einer Daumenregel vor
Augen hält: Sie soll es einem Entscheidungsträger erleichtern, in einem komplexen Umfeld
richtige Entscheidungen zu treffen, indem sie den Entscheidungsprozess auf einige wenige
Kriterien reduziert, die in der Regel zu guten Ergebnissen führen. Der simple Vergleich der
Inflationsprognose mit dem Inflationsziel scheint hierfür geradezu ein Paradebeispiel zu sein.
Doch dabei würde man übersehen, wie schwierig es in der Praxis ist, eine zuverlässige
Inflationsprognose zu erstellen. Hierbei stellen sich alle in Kapitel 3 genannten
Unsicherheiten über die Struktur des geldpolitischen Transmissionsprozesses. Eine echte
Entscheidungshilfe wäre das Inflation targeting also nur dann, wenn es neben der
allgemeinen, in 4.4.1 genannten Daumenregel auch noch ein Kochrezept dafür bieten würde,
wie die Inflationsprognose erstellt werden soll. Hierzu hat sich jedoch bisher noch keine der
Notenbanken geäußert, die dieses Konzept praktiziert. Im Gegenteil: Es wird immer wieder
betont, dass es hierfür keine einfachen Lösungen gibt (Haldane 1997 und Vickers 1998).
Für eine Notenbank, die sich der Strategie des Inflation targeting anvertraut, wird damit also
das geldpolitische Geschäft kaum nennenswert erleichtert. Der einzige Vorteil kann darin
gesehen werden,
• dass man sich bei zinspolitischen Entscheidungen nicht an der aktuellen Situation,
sondern an der voraussichtlichen Entwicklung der nächsten zwei Jahre orientiert und
• dass dafür ein klar definiertes Inflationsziel zur Verfügung steht.
Auch für die Öffentlichkeit wird dadurch das Verständnis geldpolitischer Entscheidungen
nicht wesentlich verbessert. So lange die Notenbank nicht bekannt gibt, wie sie ihre Prognose
erstellt hat, läßt sich für die Privaten nur schwer nachprüfen, ob die Zinspolitik tatsächlich der
aktuellen Situation angemessen ist. Der Informationsgehalt der Inflationsprognose wird
dabei zusätzlich dadurch beeinträchtigt, dass sie unter der Annahme konstanter Leitzinsen
vorgenommen wird; dies führt vor allem dann zu völlig irrelevanten Werten, wenn man sich
in einer Situation besonders hoher oder besonders niedriger Zinsen befindet, in der für den
Prognosezeitraum mit deutlichen Zinsanpassungen zu rechnen ist.
Im Grunde ist das Inflation targeting also nur sehr bedingt als eine geldpolitische
Daumenregel anzusehen. Seine gleichwohl sehr hohe Beliebtheit in der Praxis der Geldpolitik
dürfte vor allem damit zu erklären sein, dass damit in der Regel der Eindruck eines klaren und
zeitgemäßen konzeptionellen Rahmens für die Geldpolitik erweckt wird, ohne dass sich
daraus eine nennenswerte Bindung der geldpolitischen Entscheidungsträger ergibt. So
gesehen ist das Inflation targeting vor allem als eine – durchaus erfolgreiche – Marketing-
Strategie von Notenbanken anzusehen.
Im Gegensatz zu dieser sehr pragmatischen Handhabung des Inflation targeting wird darunter
in der theoretischen Literatur ein sehr komplexer geldpolitischer Entscheidungskalkül
verstanden. Vor allem in Veröffentlichungen von Lars Svensson (1997) wird unter diesem
Schlagwort eine Geldpolitik propagiert, die möglichst alle relevanten Größen
modelltheoretisch berücksichtigt und auf dieser Basis eine für einen Prognosezeitraum
optimale Zinspolitik ableitet. Obwohl hierfür auch häufig der Begriff einer „Regel“ verwendet
wird, handelt es sich dabei geradezu um das Gegenteil einer Heuristik oder Daumenregel, wie
sie hier definiert wurde. Anstelle einer Reduktion des Entscheidungsprozesses auf möglichst
wenige Kriterien wird hier ein möglichst umfassender Kalkül gefordert. Dieses
mag seine Berechtigung haben, es ist aber eher irreführend hierfür den Begriff einer Regel
oder des Inflation targeting heranzuziehen.
4.5 Die Taylor-Regel
Bei einer Untersuchung der Zinspolitik der amerikanischen Notenbank stieß der Ökonom
John Taylor Anfang der neunziger Jahre auf ein relativ stabiles und zugleich einfaches
Erklärungsmuster (Taylor 1993). In der Folgezeit zeigte sich, dass dieser Zusammenhang
nicht nur in der Zinspolitik anderer Notenbanken beobachtet werden konnte (Deutsche
Bundesbank 1999), sondern zugleich auch eine in unterschiedlichsten Situationen sehr
zweckmäßige geldpolitische Daumenregel darstellt.
4.5.1 Die wesentlichen Bestandteile der Taylor-Regel und ihre ökonomische Ratio
Das von Taylor entdeckte Erklärungsmuster für die Zinspolitik der amerikanischen
Notenbank in den Jahren 1987 bis 1992 sah folgendermaßen aus:
(4.2) 2 0,5( 2) 0,5i yπ π= + + − +
Der kurzfristige Zinssatz (i) in den Vereinigten Staaten (konkret: der Satz für Tagesgeld am
Geldmarkt) ergab sich danach als Summe aus:
• Der aktuellen Inflationsrate (π),
• einem Wert von 2%, der dem durchschnittlichen kurzfristigen Realzinssatz (R) entspricht,
• einer mit 0,5 gewichteten Differenz zwischen der aktuellen Inflationsrate und einer
Zielinflationsrate (π*) , die hier gleich 2 gesetzt wurde, sowie
• der mit ebenfalls 0,5 gewichteten Outputlücke (y).
In allgemeiner Form kann man die Taylor-Regel dann auch für den Realzins (r = i–π)
formulieren:
(4.3) *0,5( ) 0,5r R yπ π= + − +
Die Taylor-Regel wird nun von vielen Ökonomen nicht nur als eine adäquate Erklärung der
amerikanischen Zinspolitik in einer bestimmten historischen Phase betrachtet, sie wird
vielmehr auch als eine ebenso einfache wie zweckmäßige geldpolitische Daumenregel
angesehen. Konkret heißt das also, dass eine Notenbank ihre Zinspolitik an der Gleichung
(4.3) ausrichten kann, in die sie dann nur noch die jeweiligen Werte für die verschiedenen
Parameter einsetzen muss.
Bevor wir darauf in 4.5.2 eingehen, soll kurz die ökonomische Ratio dieser Regel
herausgearbeitet werden. Als Grundlage hierfür sollen die Schaubilder 3.7 und 3.8 dienen.
Der Ausgangspunkt für die in (4.3) formulierte Taylor-Regel ist zunächst eine am
kurzfristigen Realzins orientierte Geldpolitik, wie sie auch in der oberen Hälfte der beiden
Schaubilder unterstellt wird.
• Geht man zunächst von einer Situation ohne Störungen aus, die durch eine zielgerechte
Inflationsrate und eine Outputlücke von Null gekennzeichnet ist, dann entspricht der
kurzfristige Realzins seinem langfristigen Durchschnitt (R), der als Näherungsgröße für
einen neutralen kurzfristigen Realzins dient.
• In der Situation eines negativen Nachfrage-Schocks (Schaubild 3.7) entsteht eine
negative Output-Lücke und die Inflationsrate ist niedriger als ihr Zielwert. Beide
Parameter in der Gleichung (4.3) weisen also einen negativen Wert aus. Der kurzfristige
Realzins liegt dann also unter dem neutralen Wert. Die Taylor-Regel empfiehlt also eine
expansive Geldpolitik. Im Fall eines positiven Nachfrage-Schocks wäre das Gegenteil der
Fall.
• Bei einem Angebots-Schock erhöht sich zunächst die Inflationsrate im unteren Teil des
Schaubilds 3.8. Da sie jetzt über ihrem Zielwert liegt, legt die Taylor Regel eine Erhöhung
des Realzinses nahe. Durch die Gewichtung mit 0,5 kommt es dabei in der Regel jedoch
nicht zu einer vollständigen Kompensation des Inflationsschocks. Die Taylor-Regel sorgt
bei einer solchen Störung also für eine Kompromiss-Lösung zwischen einer vollständigen
Stabilisierung des Outputs und einer vollständigen Stabilisierung der Inflationsrate. Für
eine exakte Lösung der geldpolitischen Reaktion bei einem Angebots-Schock wäre es
erforderlich, die genauen Verläufe der Phillips-Kurve und der gesamtwirtschaftlichen
Nachfrage-Kurve zu bestimmen.
4.5.2 Probleme bei der geldpolitischen Anwendung einer Taylor-Regel
Aufgrund der hier beschriebenen Eigenschaften kann man die Taylor-Regel tatsächlich als
eine sehr gute Daumenregel für die Beurteilung der Geldpolitik verwenden. Dabei muss man
sich natürlich stets der Grenzen einer solchen Heuristik bewußt sein. Sie kann immer nur eine
grobe Orientierung bieten, die in der Regel zu guten Ergebnissen führt. Man hat also im
Einzelfall immer zu prüfen, ob nicht spezifische Störfaktoren vorliegen, die der Anwendung
einer solchen Daumenregel entgegenstehen.
Während heute viele Ökonomen die Taylor-Regel heranziehen, wenn sie ein Bild von der
Ausrichtung der Geldpolitik eines Landes machen wollen, hat sich bisher keine Notenbank
dazu durchringen können, eine Konzeption zu entwickeln, die explizit auf dieser Heuristik
basiert (EZB 2001a). Dies liegt wohl vor allem daran, dass damit der Eindruck einer
Berechenbarkeit der Geldpolitik geschaffen würde, der
• der tatsächlichen Komplexität des Transmissionsmechanismus nicht entspräche und damit
• den Handlungsspielraum der Notenbanker zu stark einengen würde.
Bei der wirtschaftspolitischen Anwendung der Taylor-Regel ist außerdem zu berücksichtigen,
dass es auch nicht ganz einfach ist, die konkreten Werte für die einzelnen Parameter in der
Gleichung (4.3) zu bestimmen:
• Bei durchschnittlichem kurzfristigen Realzins kommt es wie bei allen
Durchschnittsgrößen sehr darauf an, welchen Zeitraum man für dessen Berechnung
heranzieht.
• Bei der Inflationsrate besteht die Möglichkeit, die tatsächliche Inflationsrate
heranzuziehen. In der Situation einer starken Rohstoffpreis-Verteuerung kann es aber
sinnvoll sein, die sogenannte „Kern-Inflationsrate“ heranzuziehen, die auf einem
Preisindex für die Lebenshaltung beruht, der die Preise von Rohstoffen und Lebensmitteln
nicht enthält. Auf diese Weise kann eine zu starke Erhöhung des Realzinses vermieden
werden.
• Die Output-Lücke wird errechnet, indem man das tatsächliche Bruttoinlandsprodukt mit
dem Produktionspotential, d.h. dem Bruttoinlandsprodukt bei Vollauslastung der
Produktionskapazitäten, vergleicht. Da eine solche Größe jedoch nur sehr schwer zu
ermitteln ist, kommt es zu erheblichen Divergenzen in den Schätzungen, die für die
Output-Lücke von unterschiedlichen Institutionen (z.B. der OECD oder dem
Internationalen Währungsfonds) vorgenommen werden.
• Schließlich wird in der Literatur immer auch die Frage diskutiert, ob man für eine Taylor-
Regel die aktuell verfügbaren Werte der Inflation und der Output-Lücke einsetzen soll,
oder ob es nicht besser wäre, hierfür Prognose-Werte einzusetzen. Letzteres wird vor
allem mit den langen Wirkungsverzögerungen der Geldpolitik begründet.
Trotz dieser Schwierigkeiten bei der konkreten Anwendung ist die Taylor-Regel sehr viel
eher als die Geldmengenstrategie und das Inflation targeting in der Lage,
• den Notenbankern im Innenverhältnis eine relativ robuste Entscheidungshilfe zu bieten
und auch
• den Privaten eine Richtschnur dafür zu liefern, ob die aktuelle Zinspolitik einer
Notenbank angemessen auf Angebots- und Nachfrageschocks reagiert.
4.6 Die „stabilitätsorientierte geldpolitische Strategie“ der EZB
Wie kaum eine andere Notenbank hat sich die Europäische Zentralbank sehr früh darum
bemüht, einen umfassenden konzeptionellen Rahmen für ihre Geldpolitik zu entwickeln. Die
„stabilitätsorientierte geldpolitische Strategie“ wurde erstmals im Januar 1999 präsentiert,
also ganz unmittelbar nach dem Startzeitpunkt der Europäischen Währungsunion.
4.6.1. Die zwei Säulen
Neben der bereits in 1.4.4 präsentierten Definition des Inflationsziels, die durchaus auch mit
einem Inflation targeting (siehe 4.4) vereinbar wäre, umfasst die Strategie der EZB „zwei
Säulen“:
• „Eine herausragende Rolle der Geldmenge, die in der Verkündung eines Referenzwerts
für das Wachstum eines breiten monetären Aggregats zum Ausdruck kommt,“ (EZB 1999, S.
50), sowie
• „eine breit fundierte Beurteilung der Aussichten für die künftige Preisentwicklung
und die Risiken für die Preisstabilität im Euro-Währungsgebiet insgesamt.“ (EZB 1999, S.
50).
Wir werden beide Säulen darstellen und diskutieren und dabei außerdem überprüfen,
inwieweit die Zinspolitik der EZB auch mit einer Taylor-Regel erklärt werden könnte.
4.6.2. Die erste Säule: „Herausragende Rolle der Geldmenge“
Die erste Säule deckt sich nahezu vollständig mit der in 4.3 präsentierten
Geldmengenstrategie. Allerdings hat die EZB mit dem Ausdruck „Referenzwert“ von Anfang
an klar zum Ausdruck gebracht, dass sie diese Säule nicht im Sinn einer engen Regelbindung
versteht:
„(...) beinhaltet das Konzept des Referenzwerts nicht eine Verpflichtung seitens des Eurosystems, kurzfristige Abweichungen des Geldmengenwachstums vom Referenzwert zu korrigieren. Die Zinsen werden nicht „mechanistisch“ als Reaktion auf solche Abweichungen angepaßt, um das Geldmengenwachstum auf den Referenzwert zurückzuführen.“ Trotz dieser Einschränkung ist es nach mehr als drei Jahren nach dem Start der EWU nur
schwer möglich, den Einfluß dieser Säule in den konkreten zinspolitischen Entscheidungen
der EZB auch nur annäherungsweise zu identifizieren. Wie das Schaubild 4.1 verdeutlicht lag
das Geldmengenwachstum
• von Januar 1999 bis Juli 2000 oberhalb des Referenzwertes, was nach dem
Selbstverständnis der EZB eine restriktive Zinspolitik erfordert hätte,
• von September 2000 bis April 2001 war das Geldmengenwachstum im Vergleich zum
Referenzwert zu gering, dies hätte also Zinssenkungen nahe gelegt,
• von Mai 2001 an ging das Geldmengenwachstum weit über den Referenzwert hinaus,
somit hätte man wieder Zinserhöhungen erwarten müssen.
Geldmengenwachstum und Referenzwert
0
1
2
3
4
5
6
7
8
9
Jan-9
9
Mar-99
May-99
Jul-9
9
Sep-99
Nov-9
9
Jan-0
0
Mar-00
May-00
Jul-0
0
Sep-00
Nov-0
0
Jan-0
1
Mar-01
May-01
Jul-0
1
Sep-01
Nov-0
1
Wachs tum s rate der Geldm enge M3
Referenzwert von 4,5 %
Wie das Schaubild 4.2 zeigt, verlief die tatsächliche Zinsentwicklung nahezu völlig losgelöst
von den Signalen der „ersten Säule“:
• Von Januar 1999 bis Oktober 1999 kam es zu rückläufigen Zinsen, obwohl das
Geldmengenwachstum ein gegenläufiges Handeln erfordert hätte,
• von November 1999 bis April 2001 kam es zu einer Zinserhöhungsphase, obwohl es von
der Geldmengenentwicklung her bereits ab September 2000 zu Zinssenkungen hätte
kommen müssen,
• von Mai 2001 an wurden die Zinsen deutlich zurückgenommen, obwohl sich von genau
diesem Zeitpunkt an die Geldmenge immer mehr vom Referenzwert nach oben weg
bewegte.
Schaubild 4.2 einfügen
Damit ist es wohl kaum noch möglich, von einer „herausragenden Rolle“ der Geldmenge in
den zinspolitischen Entscheidungen der EZB zu sprechen. Diese Beobachtungen decken sich
weitgehend mit den bereits erwähnten Ergebnissen der Geldmengenpolitik der Bundesbank,
die ebenfalls keinen erkennbaren Einfluss auf die zinspolitischen Entscheidungen hatten.
Zinsentwicklung in Euroland
0
1
2
3
4
5
6
Jan-9
9
Mar-99
May-99
Jul-9
9
Sep-99
Nov-99
Jan-0
0
Mar-00
May-00
Jul-0
0
Sep-00
Nov-00
Jan-0
1
Mar-01
May-01
Jul-0
1
Sep-01
Nov-01
Jan-0
2
in P
roze
nt
4.6.3 Die zweite Säule: eine breit fundierte Beurteilung der Aussichten für die Preisentwicklung Was sich hinter der zweiten Säule verbirgt, wird am ehesten in den Worten der EZB deutlich: „Diese Beurteilung stützt sich auf eine breite Palette von Konjunkturindikatoren. Diese breite Palette von Indikatoren umfaßt viele Variablen, die Vorlaufindikatoreigenschaften für zukünftige Preisentwicklungen besitzen. Diese Variablen beinhalten u. a. die Löhne, den Wechselkurs, die Anleihekurse und die Zinsstrukturkurve, verschiedene Meßgrößen für die reale Wirtschaftstätigkeit, fiskalpolitische Indikatoren, Preis- und Kostenindizes sowie Branchen- und Verbraucherumfragen. Offensichtlich wird es auch nützlich sein, die Inflationsprognosen, in die all diese Variablen eingegangen sind, bei der Beurteilung zu verwenden, ob der geldpolitische Kurs angemessen ist.“ (EZB 1999, S. 54f.) Natürlich ist es richtig, wenn sich eine Notenbank bei ihrer Beurteilung der zukünftigen
Preisentwicklung auf eine möglichst „breit fundierte Beurteilung“ stützt. Im Zusammenhang
mit einer geldpolitischen Strategie hat man sich jedoch zu fragen, inwieweit die EZB damit
auch dem Anspruch gerecht wird, eine Reduktion der Komplexität des geldpolitischen
Entscheidungsprozesses zu leisten, der zinspolitische Entscheidungen im Innenverhältnis
erleichtert und sie damit zugleich im Außenverhältnis besser verständlich macht. Durch eine
bloße Aufzählung unterschiedlichster Indikatoren, wie sie in dem obigen Zitat vorgenommen
wird, ist beiden Zwecken wenig gedient.
Die zweite Säule der EZB-Strategie kann damit lediglich als eine Beschreibung einer
Selbstverständlichkeit angesehen werden, nicht jedoch als eine Heuristik, wie sie
beispielsweise durch eine Geldmengenregel oder eine Taylor-Regel geboten wird.
4.6.4 Was macht die EZB wirklich?
Somit bietet die 2-Säulen-Strategie keine wirkliche Hilfestellung für das Verständnis der
zinspolitischen Entscheidungen der EZB. Während die erste Säule keinerlei Kontakt zur
tatsächlichen Zinspolitik aufweist, ist die zweite Säule so allgemein gehalten, dass man damit
alles und nichts begründen kann. Dies führt zu der Frage, ob es nicht möglich ist, die
zinspolitischen Entscheidungen der EZB mit einer Taylor-Regel zu erklären.
Schaubild 4.3 zeigt, dass es bis April 2001 relativ gut möglich ist, die Zinspolitik der EZB mit
einer typischen Taylor-Regel zu erklären. Die entscheidenden Parameter wurden dafür wie
folgt bestimmt:
• Für den durchschnittlichen kurzfristigen Realzins wurde ein Wert von 2,8 % gewählt.
Dies entspricht dem Durchschnitt der deutschen kurzfristigen Zinsen im Zeitraum von
1960 bis 1998.
• Für die Inflationsrate wurde die Kerninflationsrate eingesetzt, d.h. eine Inflationsrate ohne
Rohstoffe und Nahrungsmittel.
• Für die Outputlücke wurden die von der OECD in ihren halbjährlichen Surveys
prognostizierten Werte für die jeweils nächsten zwölf Monate verwendet. Da es sich
hierbei um Jahreswerte handelt, wurden sie anteilig auf die entsprechenden Monate
umgerechnet. Konkret wurde beispielsweise für den Mai 2000 ein Durchschnitt aus 8x
dem Wert für 2000 und 4x dem Wert für 2001 errechnet.
• Die Gewichtungsfaktoren für die Output-Lücke und die Inflationsabweichungen
entsprechen mit jeweils 0,5 den Werten der ursprünglichen Taylor-Regel.
Schaubild 4.3
Von Mai 2001 an kommt es zu einem deutlichen Auseinanderlaufen der tatsächlichen Zinsen
und den mit dieser Taylor-Regel berechneten Werten. Dies spricht dafür, dass die EZB von da
an eine deutlich expansive Geldpolitik eingeschlagen hat. Dieser Eindruck wird auch dadurch
gestützt, dass man das Zinsniveau bis April 2001, wie auch im Dezember 2001, recht gut mit
einer Taylor-Regel erklären kann, bei der die Output-Lücke mit dem Faktor 1 gewichtet wird,
während die Abweichung der Inflation von ihrem Zielwert einen Gewichtungsfaktor von Null
erhält.
Chart 9: Taylor interest rates and the Euro overnight rate
0.00
1.00
2.00
3.00
4.00
5.00
6.00
7.00
8.00
1999
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
2000
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
Dez
2001
Jan
Feb
Mrz
Apr
Mai
Jun
Jul
Aug
Sep
Okt
Nov
(in %
)
Taylor 0.5/0.5 (HICP)Taylor 0.5/0.5 (Core inflation)Taylor 1.0 GapEuro overnight rate