Lineare Regression mit linearen Parameterrestriktionen


Diplomarbeit, 2006
69 Seiten, Note: 1,3

Leseprobe

Inhaltsverzeichnis

Abbildungsverzeichnis

Tabellenverzeichnis

Abkürzungsverzeichnis

Symbolverzeichnis

1 Einleitung
1.1 Problemstellung
1.2 Struktur der vorliegenden Arbeit
1.3 Zielsetzung

2 Spezi kation der restriktionsfreien Modelle
2.1 Das multiple lineare Regressionsmodell
2.1.1 Skizzierung des Regressionsmodells
2.1.2 Varianz-Kovarianz-Matrix versus Mittlerer Quadratischer Fehler-Matrix
2.1.3 Das klassische lineare Regressionsmodell .
2.2 Punktschätzung der unbekannten Parameter
2.2.1 Die Kleinst-Quadrate-Methode
2.2.2 Die Maximum-Likelihood-Methode
2.3 Veranschaulichende Beispiele
2.3.1 Beispiel mit zwei unabhängigen Variablen
2.3.2 Beispiel mit einer unabhängigen Variablen

3 Regressionsmodelle mit linearen Parameterrestriktionen
3.1 Restriktionen in Gleichungsform
3.1.1 Die restringierten Schätzer
3.1.2 Die Varianz-Kovarianz-Matrix
3.1.3 Konsequenzen inkorrekter Bedingungen
3.1.4 Der RLSE bei Verletzung der Rangbedingungen .
3.1.5 Beispiel aus der Mikroökonomik
3.2 Restriktionen in Ungleichungsform
3.2.1 Die Optimalitätsbedingungen
3.2.2 Spezialfälle für eine geschlossene Lösung
3.2.3 Ansätze für eine geschlossene Form
3.2.4 Asymptotische Eigenschaften des ICLSE
3.2.5 Beispiele: Lösungsvergleich Kuhn-Tucker versus geschlossene Form
3.2.6 Der zweistu ge Ansatz
3.3 Stochastische Restriktionen
3.3.1 Der Mixed Estimator
3.3.2 Die Varianz-Kovarianz-Matrix
3.3.3 Spezialfälle
3.4 Mischformen
3.5 Der Pretest Schätzer

4 Multikollinearität
4.1 Exakte Multikollinearität
4.1.1 Beispiel
4.2 Beinahe Multikollinearität
4.2.1 Beispiel

5 Fazit

Literaturverzeichnis

Abbildungsverzeichnis

2.1 geschtzte Nachfragefunktion

3.1 Einfache Regression mit PR

4.1 Exakte Kollinearitt .

4.2 Beinahe Kollinearitt

Tabellenverzeichnis

3.1 Datentabelle fr Beispiel 3.1.536

3.2 Datentabelle zu Beispiel

3.3 Datentabelle zu Beispiel

Abkrzungsverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Symbolverzeichnis

Abbildung in dieser Leseprobe nicht enthalten

Kapitel 1 Einleitung

1.1 Problemstellung

DieRegressionsanalyseisteineuerstvielseitiganwendbareunddaherbedeutende statistische Methodik. Sie ndet neben der konomie in zahlreichen anderen Wissenschaftsgebieten wie etwa der Soziologie und Psychologie, der Politologie aberauchinderexperimentellenForschungdernaturwissenschaftlichenDisziplinen Verwendung (Gruber, 1997, S. 3).

Regressionsmodelle dienen ganz allgemein zur Untersuchung von Beziehungen, die zwischen irgendwelchen beobachtbaren Gren bestehen bzw. bestehen knnen. Es wird eine Masse an Daten gebraucht, um die Existenz der vermuteten Zusammenhnge zwischen den Variablen nachzuweisen. Dabei wird auf EinzelphnomeneinderDatenmassekeineRcksichtoderBezuggenommen.Im GegensatzzurKorrelationsanalyse,welchedieStrkedesZusammenhangszweier Variablen erfat ohne eine Aussage bzgl. einer Wirkungsrichtung zu treen, bautdieRegressionsanalyseaufderAnnahmebereineeinseitigfunktionaleBeziehungauf,derenHerleitungesinderPraxissachlogischerberlegungenbedarf (Fahrmeier, 1999, S. 152). Ein sogenanntes konometrisches Modell ergibt sich somit durch die wirtschaftstheoretische Fundierung eines rein formalen Regressionsmodells (vgl. Gruber (1997, S. 2 f.)) oder anders herum gesehen durch die Ausstattung eines Theoriegerstes konomischer Kausalbeziehungen mit diversen stochastischen Prmissen (vgl. Judge (1988, S. 175)).

Die Arbeit widmet sich dem Fall der verallgemeinerten, multiplen Regression bei dem nur eine abhngige Variable[1] y sich als eine Funktion mehrerer erklrender Variablen[2] x ausdrcken lsst, von der im brigen davon ausgegangen werden soll, dass sie linear ist. Das Adjektiv multipel bringt zum Ausdruck, dass dieFunktionmehrereRegressorenhat,undnichtwiebeidereinfachenRegressionnurdurcheineunabhngigeVariabledeterminiertwird.BeidenAusprgungen dererklrtenVariablenhandeltessichinallerRegelumkardinalskalierteWerte. Binre[3] Werte fr y wrden in den Bereich der logistischen Regression fhren, wobei als Wahrscheinlichkeit denierte y Werte den Probitmodellen zugeordnet werdenknnen.DiebeidenletztgenanntenMglichkeitenfrdieAusprgungdes Regressanden werden hier nicht behandelt, weil sie nicht zum zentralen Thema der Arbeit gehren. Im Unterschied dazu ist es bei der Auswahl der Regressoren durchausblich,nebendenkardinalauchbinrskalierteVariablenzubercksichtigen.

Diese Diplomarbeit behandelt das Problem der Einbringung von a- prioriInformationen[4] (API) in das lineare Regressionsmodell (RM). Hierbei handelt es sich um einen Spezialfall der linearen Regression, da Vorinformationen fr die Schtzung der Koezienten nicht zwangslug existieren mssen. In einigen FllenistaberdieBeachtungvonZusatzinformationenausGrndenderModellspezikationabsolutnotwendig,umnichtinterpretierbareLsungen,diesichaus Fehlern im Datenmaterial ergeben wrden, von vornherein auszuschliessen.[4] RestriktionenkommenauchinFllenzurAnwendung,indenensichErfahrungswerte fr die Koezientenschtzer aus vorhergehenden empirischen Untersuchungen gebildet haben. Eine rein empirisch begrndete Vorinformation hat den Nachteil, dass die Untersuchungen hug nicht vergleichbar sind, auch wenn dieselbe Problemstellungzugrundeliegt(Stahlecker,1987,S.18).EsistfolglicheineEntscheidungzutreen,obdieKoezientennachdemrestriktivenModelloderdem nichtrestriktiven Modell geschtzt werden sollen. Diese Entscheidung hngt von derjeweiligenGtederSchtzungab.Dabeiwirderwartet,dassdieEinbringung KAPITEL 3

vonVorinformationenzusammenmitdenBeobachtungsdatenindeneigentlichen SchtzvorgangzuverbessertenSchtzergebnissenfhrt.Dieserscheintrechteinleuchtend,wennmanberlegt,dassAPInebendemDatenmaterialalszustzliche Information in den Schtzprozess einwirken. API entstehen aus technologischen odersachlogischenEinschrnkungen,undtreteninLRMalsRestriktionenunterschiedlichster Form auf. Da in dieser Arbeit nur lineare Parameterrestriktionen (PR) behandelt werden, sind diese entweder in Gleichungsform mit oder ohne stochastischem Glied oder in Ungleichungsform vorzunden.

1.2 Struktur der vorliegenden Arbeit

Zum Einstieg wird dem Leser das Grundmodell erlutert, um die Voraussetzungen zur Betrachtung des Modells mit Parameterrestriktionen (PR) zu schaen. DieKoezientenunddieVarianzderStrvariablenwerdennachdemPrinzipder Kleinsten-Quadrate und nach der Maximum-Likelihood-Methode fr das unrestringierteModellgeschtzt.DieEigenschaftenderSchtzerwerdenaufgezeigt, und zum Abschlu veranschaulichen Zahlenbeispiele die zuvor behandelte Theorie.

ImdarauolgendenKapitelwerdendieverschiedenenErscheinungsformenvon PR nacheinander aufgefhrt. Es wird auf die Schreibweise, und darauf wie Restriktionen in den Schtzprozess eingebaut werden knnen, eingegangen. Soweit mglich, werden die Schtzer in einer geschlossenen Form[5] angegeben. Wie im vorhergehenden Kapitel werden die Eigenschaften von jedem Schtzer analysiert.BesonderesAugenmerkflltdabeiaufdenErwartungswertunddieVarianz des Schtzers. Der Lageparameter gibt an, ob die geschtzte Gre im Mittel demwahrenWertentspricht,undderStreuungsparameterwirdfrdenVergleich der Gte der verschiedenen Schtzer (Wirksamkeitsbetrachtung) bentigt. Das Theoriengerst wird, wann immer sich die Mglichkeit dazu ergibt, mit praktischen Beispielen untersttzt.

InKapitel4wirdaufdieBedingungenfrMultikollinearittunddiesichdaraus ergebenden Besonderheiten eingegangen.

In Kapitel 5 werden die Ergebnisse der gesamten Arbeit zusammengefasst.

1.3 Zielsetzung

Dem interessierten Leser sollen Unterschiede in der Koezientenschtzung zwischen dem linearen RM ohne Restriktionen und dem linearen RM mit PR veranschaulichtwerden.BemerkbarmachensichdieseUnterschiedeletztendlichinder Schtzfunktion. Die Schtzungen werden auf ihre Gte hin berprft und verglichen. Es wird errtert, inwiefern Restriktionen zur Verbesserung des Schtzergebnisses beitragen knnen.

Kapitel 2 Spezikation der restriktionsfreien Modelle

IndiesemKapitelgehendiestatistischenSchtzverfahrendavonaus,dasskeinerleiVorinformationenberdieunbekanntenParameter vorliegen.Alles,wasman ber die Parameter in Erfahrung bringen kann, soll allein aus den der Schtzung zugrundeliegenden Beobachtungsdaten entnommen werden.

[...]


[1] y wird auch Regressand, endogene oder erklrte Variable genannt.

[2] x wird auch Regressor, exogene oder erklrende Variable genannt.

[3] Nur zwei Ausprgungsmglichkeiten zumeist 0 und 1 4Synonym fr Vorinformationen, Zusatzinformationen

[4] Allerdings wird eine empirische berprfung der verwendeten Restriktionen im nachhinein nicht mehr mglich sein.

[5] Die geschlossene Form oder Lsung ist die Bezeichnung fr eine allgemeine Gleichung, nach der die Schtzer bestimmt werden knnen.

Ende der Leseprobe aus 69 Seiten

Details

Titel
Lineare Regression mit linearen Parameterrestriktionen
Hochschule
Universität Augsburg  (Planung und Entscheidung)
Note
1,3
Autor
Jahr
2006
Seiten
69
Katalognummer
V153974
ISBN (eBook)
9783640663743
ISBN (Buch)
9783640663996
Dateigröße
765 KB
Sprache
Deutsch
Anmerkungen
Das Werk umfasst 63 Seiten
Schlagworte
Regression, Regressionsanalyse
Arbeit zitieren
Ronny Schönborn (Autor), 2006, Lineare Regression mit linearen Parameterrestriktionen, München, GRIN Verlag, https://www.grin.com/document/153974

Kommentare

  • Noch keine Kommentare.
Im eBook lesen
Titel: Lineare Regression mit linearen Parameterrestriktionen


Ihre Arbeit hochladen

Ihre Hausarbeit / Abschlussarbeit:

- Publikation als eBook und Buch
- Hohes Honorar auf die Verkäufe
- Für Sie komplett kostenlos – mit ISBN
- Es dauert nur 5 Minuten
- Jede Arbeit findet Leser

Kostenlos Autor werden