Grin logo
de en es fr
Shop
GRIN Website
Publish your texts - enjoy our full service for authors
Go to shop › Economics - Statistics and Methods

Machine Learning. Basisexpansion und Regularisierung

Title: Machine Learning. Basisexpansion und Regularisierung

Seminar Paper , 2015 , 33 Pages , Grade: 1,3

Autor:in: Rust Christoph (Author)

Economics - Statistics and Methods
Excerpt & Details   Look inside the ebook
Summary Excerpt Details

Diese Arbeit gliedert sich in fünf Abschnitte. Nach der Einleitung werden im zweiten Abschnitt stückweise Polynome und Splines vorgestellt. Der dritte Abschnitt beschäftigt sich mit Regularisierung. Es werden Verfahren vorgestellt, wie Splines geglättet und den Koeffizienten Restriktionen auferlegt werden können, sodass Verläufe wie Monotonie resultieren. Im Anschluss werden in Abschnitt vier zwei Anwendungsbeispiele gegeben. Das Fazit (Abschnitt 5) gibt nochmal eine kurze Zusammenfassung.

Excerpt


Inhaltsverzeichnis

1 Einführung

2 Stückweise Polynome und Splines

2.1 Natürliche kubische Splines

2.2 B-Splines

3 Regularisierung

3.1 Geglättete Splines

3.2 Glättungsmatrix und Anzahl der Freiheitsgrade

3.3 Der Tradeoff zwischen Bias und Varianz

3.4 Monotone P-Splines

4 Anwendungsbeispiele

4.1 Relative Rechenleistung von Prozessoren

4.2 Beschleunigungskurve bei Motorradunfällen

5 Fazit

Zielsetzung & Themen

Die vorliegende Seminararbeit befasst sich mit der Methode der Basisexpansion und deren Regularisierung im eindimensionalen Fall, um nichtlineare Zusammenhänge in quantitativen Daten präzise zu modellieren und dabei eine optimale Balance zwischen Anpassungsflexibilität und Stabilität zu finden.

  • Grundlagen der stückweisen Polynome und Splines
  • Methoden der Regularisierung und Glättung von Splines
  • Analyse des Bias-Varianz-Tradeoffs bei der Modellwahl
  • Einsatz von Nebenbedingungen für monotone Spline-Modelle

Auszug aus dem Buch

1 Einführung

Lineare Modelle erfreuen sich bei quantitativen Analysen, wie beispielsweise in der Ökonometrie, großer Beliebtheit. Die Schätzergebnisse sind nämlich stabil und lassen sich leicht interpretieren. Außerdem lässt sich jedes nichtlineare Regressionsproblem f(X) = E(Y|X) durch eine Taylorapproximation erster Ordnung lokal approximieren und als lineares Modell darstellen. Liegt nur eine kleine Stichprobe vor oder sollen viele Parameter geschätzt werden, kann häufig auch nicht mehr als ein lineares Modell geschätzt werden. In den seltensten Fällen wird jedoch der zugrundeliegende datengenerierende Mechanismus tatsächlich linear in den erklärenden Variablen sein, womit jede lineare Modellierung in einem solchen Fall fehlspezifiziert ist und verzerrte Ergebnisse liefert.

Es existieren nun sehr viele Möglichkeiten für nichtlineare Modelle. Eine beliebte Methode ist, die erklärenden Variablen in X mit nichtlinearen Transformationen g(X) zu erweitern bzw. zu ersetzen und ein Modell zu spezifizieren, das linear in den daraus erhaltenen Variablen ist. Sei hm(X) : Rp → R die m-te Transformation von X mit m = 1, ..., M, dann ist eine lineare Basisexpansion gegeben durch die Modellierung f(X) = ∑_{m=1}^{M} βmhm(X).

Der Raum der auf diese Weise modellierbaren Funktionen f(X) ist ein Vektorraum, dessen Basis durch die Transformationen hm(X), m = 1, ..., M gegeben ist. Mit diesem Ansatz lassen sich sehr flexibel verschiedene nichtlineare Einflüsse von X modellieren und mit den üblichen Eigenschaften eines linearen Modells schätzen.

Zusammenfassung der Kapitel

1 Einführung: Diese Einleitung erläutert die Grenzen linearer Modelle bei der Analyse komplexer Daten und führt die Basisexpansion als flexible Methode zur Modellierung nichtlinearer Zusammenhänge ein.

2 Stückweise Polynome und Splines: Dieses Kapitel stellt stückweise Polynome, insbesondere natürliche kubische Splines und B-Splines, als Instrumente zur lokalen Funktionsanpassung vor.

3 Regularisierung: Es werden Verfahren wie geglättete Splines und monotone P-Splines diskutiert, um die Modellkomplexität zu steuern und einen optimalen Bias-Varianz-Tradeoff zu erreichen.

4 Anwendungsbeispiele: Anhand der Leistungsdaten von Prozessoren und einer Beschleunigungskurve nach Motorradunfällen wird die praktische Anwendung der Spline-Regression demonstriert.

5 Fazit: Das Fazit fasst die wesentlichen Erkenntnisse zusammen und betont die Vielseitigkeit von Basisexpansionen als robustes Werkzeug für statistische Lernprozesse.

Schlüsselwörter

Basisexpansion, Regularisierung, Splines, B-Splines, natürliche kubische Splines, Glättungsparameter, Bias-Varianz-Tradeoff, monotone P-Splines, lineare Modellierung, statistisches Lernen, Knoten, Freiheitsgrade, Regressionsanalyse.

Häufig gestellte Fragen

Worum geht es in dieser Arbeit grundsätzlich?

Die Arbeit behandelt Verfahren, um nichtlineare Zusammenhänge in Daten mittels Basisexpansion zu modellieren, wobei der Fokus auf der Stabilität und Flexibilität dieser Anpassungen liegt.

Was sind die zentralen Themenfelder?

Die zentralen Themen sind stückweise Polynome, die Anwendung von Splines, Methoden der Regularisierung sowie die Steuerung der Modellkomplexität durch Freiheitsgrade.

Was ist das primäre Ziel der Arbeit?

Ziel ist es, einen fundierten Einblick in die Methode der Basisexpansion und deren Regularisierung zu geben und die theoretischen Konzepte anhand des eindimensionalen Falls verständlich zu machen.

Welche wissenschaftliche Methode wird verwendet?

Es werden mathematische Methoden der funktionalen Anpassung, insbesondere Spline-Regression und Techniken der Regularisierung, theoretisch hergeleitet und praktisch auf Datensätze angewendet.

Was wird im Hauptteil behandelt?

Der Hauptteil gliedert sich in die Vorstellung von Splines, die mathematische Herleitung der Regularisierung mittels Glättungsmatrizen, die Analyse von Bias und Varianz sowie die Implementierung unter Nebenbedingungen wie Monotonie.

Welche Schlüsselwörter charakterisieren die Arbeit?

Die wichtigsten Begriffe sind Basisexpansion, Regularisierung, Splines, Bias-Varianz-Tradeoff und Freiheitsgrade.

Warum sind B-Splines gegenüber anderen Basen zu bevorzugen?

B-Splines bieten in der numerischen Praxis eine höhere Stabilität und Effizienz, da sie im Gegensatz zur 'truncated-power'-Basis einen kompakten Träger besitzen und so Rechenfehler vermeiden.

Was bewirkt der Glättungsparameter λ bei geglätteten Splines?

Der Parameter λ steuert den Tradeoff zwischen der Güte der Datenanpassung und der Glattheit (Krümmung) der Funktion; hohe Werte von λ führen zu einer stärkeren Glättung.

Excerpt out of 33 pages  - scroll top

Details

Title
Machine Learning. Basisexpansion und Regularisierung
Grade
1,3
Author
Rust Christoph (Author)
Publication Year
2015
Pages
33
Catalog Number
V317699
ISBN (eBook)
9783668170407
ISBN (Book)
9783668170414
Language
German
Tags
basisexpansion regularisierung
Product Safety
GRIN Publishing GmbH
Quote paper
Rust Christoph (Author), 2015, Machine Learning. Basisexpansion und Regularisierung, Munich, GRIN Verlag, https://www.grin.com/document/317699
Look inside the ebook
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
  • Depending on your browser, you might see this message in place of the failed image.
Excerpt from  33  pages
Grin logo
  • Grin.com
  • Shipping
  • Contact
  • Privacy
  • Terms
  • Imprint