Schätzung der Arbeitsnachfrage von Belgischen Firmen aufgrund von Output, Kapital und Mitarbeiterlöhnen


Seminararbeit, 2008

36 Seiten, Note: 5.25 (CH)


Gratis online lesen

I. INHALTSVERZEICHNIS

1. EINFÜHRUNG

2. EMPIRISCHE METHODEN
2.1 Daten
2.2 Filterung der Stichprobe

3. ÖKONOMETRISCHE MODELLE
3.1 Allgemeines
3.2 Quasi-lineares Modell
3.3 Doppelt-logarithmisches Modell

4. RESULTATE
4.1 Finale Regressionsgleichungen
4.1.1 Additive Regression
4.1.2 Multiplikative Regres sion
4.2 Vorhersageintervalle
4.3 Effekt der Löhne auf die Arbeitsnachfrage

5. SCHLUSSFOLGERUNGEN

II. REFERENZEN

III. ANHANG

1. EINFÜHRUNG

Die Beeinflussung makroökonomischer Variablen wie Bruttosozialprodukt, Reallöhne oder Arbeitslosigkeit durch die Nachfrage industrieller Firmen nach Arbeitskräften hat die empirische Wirtschaftsforschung schon seit langem beschäftigt. In den 70er Jahren wurden erstmals konkrete Studien zur Spezifikation der kurzfristigen Arbeitsnachfrage im britischen Produktionssektor durchgeführt (Briscoe and Peel, 1975). Seither spielt die Untersuchung der Effekte von Produktionsplanung, Reallöhnen und Kapital auf die Arbeitsnachfrage von Unternehmungen aufgrund ihrer Rückwirkung auf den Arbeitsmarkt und den aggregierten Output einer Volkswirtschaft auch im politischen Kontext eine wichtige Rolle (Phipps, 1983).

2. EMPIRISCHE METHODEN

2.1 Daten

Der zur Verfügung gestellte Datensatz setzt sich aus Beobachtungen zu Kapital (K), Beschäftigung (L), Ouput (Q) und Jahreslohn (w) von insgesamt 569 belgischen Firmen im Jahre 1996 zusammen. Das Kapital wird als bilanzielles Total der festen Vermögenswerte in Millionen Euro aufgefasst, währenddem die Beschäftigung durch die Anzahl Mitarbeiter in der Firma ausgedrückt wird. Der Output bezieht sich auf den Umsatz in Mio. Euro pro Jahr, und für den Jahreslohn stehen die durchschnittlichen Lohnkosten der Mitarbeiter, welche nach der Umrechnung durch den Verfasser ebenfalls in Mio. Euro pro Jahr angegeben sind. Nachfolgend werden die wichtigten statistischen Kennzahlen dieser Variablen tabellarisch aufgeführt.

Tabelle 1: Kennzahlen für den unbereinigten Datensatz (n = 569) [in Mio. Euro]

Abbildung in dieser Leseprobe nicht enthalten

Wie Tabelle 1 zeigt, hat das Kapital mit der maximalen normierten Standardabweichung von 6.99 die höchste Streuungsbreite, da das Maximum fast das 106 fache des Minimums beträgt.

Am geringsten ist die Streuung beim Jahreslohn, dessen Extremwerte sich nicht einmal durch eine Zehnerpotenz voneinander unterscheiden und der mit Abstand die geringste normierte Standardabweichung von 0.37 hat. Auffällig ist die Tatsache, dass ca. 25% der Firmen einen Kapitalstock von höchstens 1 Mio. Euro aufweisen, wogegen nur gerade 2.5% einen solchen von über 50 Mio. Euro oder gar ein Vielfaches davon besitzen (Abb. 1). Auch die Beschäftigung variiert enorm, da neben Einpersonen-Unternehmen anscheinend auch Grosskonzerne mit Tausenden von Mitarbeitern in der Stichprobe enthalten sind (Tab. 1). Mit einem Anteil von rund 84% zählt die überwiegende Mehrheit der Firmen jedoch zu den KMUs mit weniger als 250 Mitarbeitenden (Hotz-Hart et al., 2006, S. 403). Dies führt zu einer annähernd starken Verteilungsschiefe, wie es am Histogramm des Kapitals zu erkennen ist (Abb. 1). Die unterschiedlichen Grössenordnungen bei den Produktionsfaktoren und deren rechtsschiefe Verteilungen schlagen sich unmittelbar auf den Output nieder. Einzig der Jahreslohn weist eine nahezu symmetrische Verteilung mit einer vergleichsweise geringen Rechts schiefe auf. Für die nachfolgende Analyse des Datensatzes spielen die Boxplots der vier Variablen eine wichtige Rolle, die aufgrund der dominierenden Rechtsschiefe mit einem logarithmischen Massstab dargestellt wurden (Abb. 2). Dabei finden sich mit Ausnahme des Jahreslohns sämtliche Ausreisser rechtsseitig der Obergrenze der jeweiligen Boxplots, die durch den 1.5-fachen Interquartilsabstand (IQA) vom 75%-Perzentil definiert ist (Moore et al., 2003, S. 38).

2.2 Filterung der Stichprobe

Wie im vorhergehenden Abschnitt erwähnt, befinden sich innerhalb des Datensatzes hinsichtlich der Variablen K, L und Q ungewöhnlich zahlreiche und teilweise auch extreme Ausreisser, welche auf eine eine Schätzung nach der OLS (optimal least squares) - Methode einen erheblichen Einfluss nehmen können. Aufgrund der verbreiteten Rechtsschiefe der Verteilung handelt es sich dabei ausschliesslich um einseitige Ausreisser (Abb. 2). Die Ausreisser im Wertebereich der einen Variable müssen dabei nicht zwingend denjenigen in der Verteilung einer anderen Variable entsprechen, womit die mehrdimensionale Beurteilung der Ausreisser auch von der Form der betrachteten Schätzung abhängig ist.

Aus diesem Grund ist als erstes eine plausible Annahme über die Art und Weise zu treffen, wie die unterschiedlichen Einflussgrössen in die resultierende Schätzung eingehen. Die Herleitung solcher Annahmen bezüglich der Form einer multiplen Regression beruhen auf ökonomischen Überlegungen, welche im nächsten Abschnitt vorgestellt werden.

Ist die ungefähre Form der Schätzung einmal gegeben, kann eine erste Mehrfachregression anhand des unbereinigten Datensatzes vorgenommen werden. Erwartungsgemäss werden bei einer solchen Schätzung die Residuenwerte der einzelnen Schätzer vervielfacht, so dass die jeweiligen Ausreisser noch deutlicher zu sehen sind. Aufgrund der grossen Anzahl extremer Beobachtungen musste die Bereinigung der Stichprobe mithilfe eines einfachen Algorithmus’ durchgeführt werden. Zu diesem Zweck wurde in der Statistik-Software R die sogenannte Cook’s Distance der Datenpunkte wie folgt berechnet (Enzmann, 2006):

Abbildung in dieser Leseprobe nicht enthalten

wobei yi der vorhergesagte Wert der Zielvariable und y- derjenige ohne den i-ten Datenpunkt, k die Anzahl der erklärenden Variablen und der geschätzte Standardschätzfehler der individuellen Residuen ei = yi - yi ist. Die Cook’s Distance Di ist ein zuverlässiges Mass zur Erkennung einflussreicher Beobachtungen, welches darüber Auskunft gibt, wie stark ein einzelner Datenpunkt die Koeffizienten der Regressionsgleichung beeinflusst (Wolf, 2007a). Anhand eines Boxplots der DrWerte wurden in einem ersten Schritt sämtliche „Ausreisser“ entfernt, deren Abstand vom 75%- Perzentil das 1.5-fache des Interquartilsabstandes überstieg. Da durch diese Prozedur eine neue, etwas weniger rechtsschiefe Verteilung entsteht, erscheinen nach der Berechnung der Cook’s Distance des einfach bereinigten Datensatzes neue Ausreisser, welche in einem zweiten Schritt entfernt werden müssen. Das Verfahren wird so oft wiederholt, bis die höchsten Werte der Cook’s Distance deutlich unter den kritischen Wert von Di ~ 1.0 gesunken sind.

Durch diese grobe Bereinigung wird zwar der Grossteil der einflussreichen Beobachtungen aus dem Datensatz herausgefiltert. Danach bleiben aber immer noch Ausreisser zurück, welche die Stabilität der Regressoren erheblich gefährden. Deshalb wird auf die übrig gebliebenen Datenpunkte eine Feinfilterung angewendet, die auf der Analyse der vier nachfolgenden Gefahrendiagramme beruht (Wolf, 2007b):

(1) der einfachen Residuen ei gegen die vorhergesagten Werte >);
(2) der standardisierten Residuen (e/SF^-)) gegen die theoretischen Quantile;
(3) der Quadratwurzel aus den standardisierten Residuen (eJSF(ei)) gegen die yi; und
(4) der Cook’s Distance Di in der Reihenfolge der n Beobachtungen.

Falls das Diagramm (1) eine Fächerform aufzeigt, weist die Streuung der Residuen um die Regressionsgeraden einen systematischen Trend auf und die Beziehung ist nicht-linear. Ein Trend in Diagramm (3) deutet auf Heteroskedastizität hin, d.h. die Varianz der Residuen ist nicht homogen (Enzmann, 2006). Das Diagramm (2) wird auch Normal-Quantils-Diagramm (N-Q-D) genannt und informiert darüber, wie stark die Verteilung der standardisierten Residuen von der im Idealfall geltenden Normal Verteilung abweicht. Anhand des 4. Diagramms lassen sich die Extremwerte der Cook’s Distance ablesen, wobei diese in R alternativ als Höhenlinien in einem Plot dargestellt werden, welcher die standardisierten Residuen gegen ein Mass für die Extremität der Datenpunkte (sog. Leverage) abbildet. Eine OLS-Schätzung kann somit erst dann als angemessen betrachtet werden, wenn die vier Gefahrendiagramme weder einen systematischen Trend der (standardisierten) Residuen noch Datenpunkte mit einem auffällig grossen Di zeigen (Enzmann, 2006). Um statistische Inferenz zu ermöglichen, müssen die einzelnen Schätzer zudem robust gegen Ausreisser sein. Deshalb stellen sogenannte heavy-tailed Verteilungen, bei denen Extremwerte in der Schwanzregion einen grossen Einfluss auf das Verhalten der geschätzten Regressoren ausüben, ein grosse Gefahr für die Schätzung dar (Kashid & Kulkarni, 2003).

Abbildung in dieser Leseprobe nicht enthalten

Tabelle 2: Kennzahlen für den bereinigten Datensatz (nb = 287) [in Mio. Euro]

Um die obenstehenden Kriterien für eine plausible Schätzung vollständig zu erfüllen, mussten letztlich rund 50% der Beobachtungen aus dem ursprünglichen Datensatz entfernt werden. Nach der Feinfilterung blieb somit ein endgültig bereinigter Datensatz aus nb = 287 Beobachtungen zurück. Wie Tabelle 2 zeigt, liegen nicht nur die Mittelwerte ß des verfeinerten Datensatzes, sondern auch die normierten Standardabweichungen (o/ß) deutlich tiefer als bei der unbereinigten Stichprobe. Die Maximalwerte der reduzierten Datenvektoren Kapital (K) und Output (Qb) befinden sich unterhalb 20 Mio. Euro, währenddem die Beschäftigung (Lb) nur noch KMUs mit weniger als 320 Mitarbeitenden enthält. Die Histogramme der verbleibenden Punkte des bereinigten Datensatzes zeigen noch immer rechtsschiefe Verteilungen für die vier Einflussgrössen K, Lb, Q und wb, wobei die Punkte aber deutlich näher aneinander gerückt sind (Abb. 3). Dieser Unterschied lässt sich dadurch erklären, dass innerhalb des bereinigten Datensatzes zwar immer noch einseitige Ausreisser existieren, diese aber nicht mehr besonders einflussreich sind. Der deutlich reduzierte Einfluss der verbleibenden Ausreisser auf die verfeinerte Verteilung kann auch anhand der für den bereinigten Datensatz erstellten Boxplots verifiziert werden (Abb. 4). Man beachte, dass im Gegensatz zu Abb. 2 eine lineare Skalierung verwendet wurde, welche die tatsächliche Rechtsschiefe der Verteilung unverzerrt wiedergibt.

3. ÖKONOMETRISCHE MODELLE

3.1 Allgemeines

Die Arbeitsnachfrage der im belgischen Industriesektor tätigen Firmen, welche in der vorliegenden Stichprobe enthalten sind, kann grundsätzlich auf zwei verschiedene Arten geschätzt werden. Bei der ersten und naheliegenderen Methode wird die Zielvariable im wesentlichen durch die Linearkombination aus den unabhängigen Variablen geschätzt, welche roh in die Regressionsgleichung einfliessen. Demgegenüber wird bei der zweiten Methode der Logarithmus der Zielvariable als Linearkombination der logarithmierten erklärenden Variablen geschätzt. Unabhängig von der gewählten Methode wird die Arbeitsnachfrage nicht direkt geschätzt, sondern über den Ansatz der Produktionfunktion Qr = F(Kr, L). Dabei wird der reale Output Qr unter der Annahme einer sogenannten CES (constant elasticity of substitution) - Funktion ausgedrückt als

Abbildung in dieser Leseprobe nicht enthalten

Dabei ist [Abbildung in dieser Leseprobe nicht enthalten] die konstante Elastizität der Substitution von Realkapital Kr durch Arbeit Lr (Univ. Siegen, FB Wirtschaftswissenschaften, 2006). Da die erste Methode die Verwendung eines linearen Ansatzes erfordert, wird zunächst von einem Spezialfall mit perfekten Substituten und [Abbildung in dieser Leseprobe nicht enthalten] ausgegangen:

Abbildung in dieser Leseprobe nicht enthalten

Andererseits eignet sich für die zweite Methode mit doppelter Logarithmierung ein potentieller Ansatz, wie es bei der Cobb-Douglas Funktion mit p = 0 (p = 1) der Fall ist:

Abbildung in dieser Leseprobe nicht enthalten

wobei A ein hier nicht näher bezeichneter Parameter für den technologischen Fortschritt, a und ß die partiellen Produktionselastizitäten des Realkapitals bzw. der Arbeit sind.

Schliesslich wird davon ausgegangen, dass jede Firma ihre totalen Produktionskosten [Abbildung in dieser Leseprobe nicht enthalten] mit dem nominellen Kapital K und dem Kapitalkostensatz r minimiert. Die nachfolgenden Ausführungen beziehen sich nur noch auf den bereinigten Datensatz mit nb = 287 Beobachtungen, wobei der hochgestellte Index „b“ jedoch weggelassen wird.

3.2 Quasi-lineares Modell

Die im vorhergehenden Abschnitt eingeführte lineare Schätzmethode bildet die Grundlage, auf der das nachfolgend beschriebene quasli-lineare Modell aufbaut. Bei der Schätzung des Outputs mithilfe von Gl. (4.1) wird von realen Grössen ausgegangen, wogegen der vorliegende Datensatz das mit gängigen Markt- oder Wiederbeschaffungspreisen bewertete Kapital K = pKKr und den mit Verkaufspreisen bewerteten Output bzw. Umsatzerlös Q = pQ-Qr enthält. Da keine Information zu den Preisen vorliegt, ist eine Schätzung der realen Produktionsfunktion nicht möglich. Weil die Verkaufspreise pQ unter der Annahme unvollkommener Konkurrenz der Firmen auf dem Gütermarkt über den Markup von den Mitarbeiterlöhnen w abhängig sind, darf deren Einfluss auf den resultierenden Umsatzserlös nicht vernachlässigt werden. Der nominelle Output oder Umsatzerlös Q wird demnach auch nicht durch den realen Faktor Arbeit L, sondern durch die mit den durchschnittlichen Mitarbeiterlöhnen bewertete Arbeit (w-L) geschätzt, d.h.

Abbildung in dieser Leseprobe nicht enthalten

wobei Yj (j = 0, 1, 2) die Koeffizienten des Regressionsmodells mit den als normalverteilt anzunehmenden Residuen ei ~ N(0, o ) sind (Carter Hill et al., 2001). Abbildung 5 zeigt den R-Output und die Gefahrendiagramme für das geschätzte Regressionsmodell mit dem hohen Bestimmtheitsmass von R = 0.976. Der signifikante Achsenabschnitt Yo = 0.263 (±0.044) erscheint zwar kontraintuitiv, liegt jedoch den Erwartungen entsprechend nahe bei Null. Die Steigungskoeffizienten Y1 = 0.233 (±0.015) für das Kapital K und Y2 = 1.222 (±0.012) für die bewertete Arbeit bzw. die Lohnkosten (w-L) sind ebenfalls hoch signifikant. Währenddem die vier Gefahrendiagramme keinen besonderen Trend des Residuenverlaufs erkennen lassen, zeigt das N-Q-D eine light-tailed Verteilung der standardisierten Residuen. Da auch die Werte für die Cook’s Distance der einzelnen Fälle keinen Verdacht auf störende Ausreisser oder übermässig einflussreiche Beobachtungen aufkommen lässt, scheinen die Regressoren insgesamt robust zu sein. Somit kann davon ausgegangen werden, dass tatsächlich rund 98% der Streuung der Umsatzvariable durch die modifizierte lineare Produktionsfunktion auf nomineller Basis erklärbar ist.

Ausgehend vom geschätzten Regressionsmodell kann jetzt eine Grundform für die geschätzte Arbeitsnachfrage L als Funktion von Kapital und Output hergeleitet werden, indem Gl. (5) durch den Lohnsatz w dividiert wird. Zu diesem Zweck werden der normierte Output bzw. das normierte Kapital mit q:= Q/w und k:=K/w definiert. Der normierte Output q kann auch als das Verhältnis zwischen realem Output Qr und firmenspezifischem Reallohn (w/pQ) bezeichnet werden. Aus der Sicht einer profitmaximierenden Firma sind dies die beiden wesentlichen Parameter, welche deren Arbeitsnachfrage steuern (Briscoe & Peel, 1975). Wie die Autoren der zitierten Studie jedoch erwähnen, werden unter der blossen Annahme der Profitmaximierung die restlichen Inputfaktoren konstant gehalten. Deshalb wird bei der vorliegenden Modellierung der Arbeitsnachfrage angenommen, dass die Firmen a priori ihre totalen Produktionskosten minimieren. Eine Erhöhung der Kapitalkosten (r-K) wirkt sich somit negativ auf die resultierende Nachfrage nach Arbeit aus, was über die Identität K = k-w zu folgendem Modellansatz führt:

Abbildung in dieser Leseprobe nicht enthalten

Der erste Term auf der rechten Seite von Gl. (6) gibt die Nachfrage nach Arbeit in potentieller Abhängigkeit des geplanten Umsatzes im Verhältnis zum Nominallohn wieder, während der zweite Term den Einfluss der Kapitalkosten misst. Der Kapitalkostensatz r ist wiederum keine Konstante, sondern aus den bekannten Variablen herzuleiten. Unter den Annahmen von Kostenminimierung und vollkommenen Substitutionsmöglichkeiten zwischen den Inputfaktoren ist davon auszugehen, dass Firmen mit hochqualifizierten Arbeitskräften und hohen Mitarbeiterlöhnen in der Regel weniger teures Kapital zur Produktion benötigen, wodurch eine inverse Beziehung zwischen dem Lohnsatz w und dem Kapitalkostensatz r resultiert. Aus weiteren Überlegungen zur Grenzproduktivität des Kapitals lässt sich folgern, dass der Kapitalkostensatz einer Firma umso höher liegt, je produktiver das Kapital ist. Die Produktivität des Kapitals kann mithilfe des Kapitalumschlags KU = (Q/K) = q/k gemessen werden, wobei letzterer nach ökonomischen Gesetzen sinkende Grenzerträge aufweisen muss und diese Annahme zur Vereinfachung in Form einer Wurzelfunktion ausgedrückt wird:

Durch das Einsetzen von Gl. (7) in (6) kann die Arbeitsnachfrage der Firmen mit den konstanten Koeffizienten 0, Ä und S sowie dem Exponenten K modelliert werden als

Abbildung in dieser Leseprobe nicht enthalten

Das quasi-lineare ökonomische Modell führt somit zu einer additiven Mehrfachregression, dessen Koeffizienten entsprechend geschätzt werden müssen.

3.3 Doppelt-logarithmisches Modell

Beim doppelt-logarithmischen Modell werden zunächst die Variablen in Logarithmen überführt, so dass die modifizierte Cobb-Douglas Produktionsfunktion basierend auf Gl. (4.2) geschätzt werden kann. Aus Konsistenzgründen wird zur Schätzung des nominellen Outputs wiederum die bewertete Arbeit (w-L) als massgebliche Variable verwendet:

Abbildung in dieser Leseprobe nicht enthalten

Wie Abbildung 6 zeigt, sind die Koeffizienten y« = 0.490 (±0.011), y21 = 0.114 (±0.009) und Y22 = 0.806 (±0.011) der doppelt-logarithmischen Schätzung hoch signifikant. Das Bestimmt- heitsmass ist mit R = 0.963 wiederum recht hoch, und auch die Gefahrenkontrolle lässt keine auffälligen Muster erkennen, welche gegen die Anwendung dieses Regressionsmodells sprechen würden. Analog zum Vorgehen in Abschn. 3.2 wird das doppelt-logarithmische Modell mithilfe der normierten Variablen q = Q/w und k = K/w hergeleitet. Die logarithmierte Arbeitsnachfrage kann in Anlehnung an Gl. (9) als Linearkombination der transformierten Variablen q und k folgendermassen dargestellt werden:

Abbildung in dieser Leseprobe nicht enthalten

32 von 36 Seiten

Details

Titel
Schätzung der Arbeitsnachfrage von Belgischen Firmen aufgrund von Output, Kapital und Mitarbeiterlöhnen
Hochschule
Universität Zürich  (Institut für Empirische Wirtschaftsforschung)
Veranstaltung
Seminar Regressionsanalyse (HS 08)
Note
5.25 (CH)
Autor
Jahr
2008
Seiten
36
Katalognummer
V147248
ISBN (Buch)
9783640580941
Dateigröße
941 KB
Sprache
Deutsch
Schlagworte
Regressionsanalyse, Schätzung, Cobb-Douglas
Arbeit zitieren
Dr. sc. ETH Andreas Zweifel (Autor), 2008, Schätzung der Arbeitsnachfrage von Belgischen Firmen aufgrund von Output, Kapital und Mitarbeiterlöhnen, München, GRIN Verlag, https://www.grin.com/document/147248

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Schätzung der Arbeitsnachfrage von Belgischen Firmen aufgrund von Output, Kapital und Mitarbeiterlöhnen



Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden