Entdecken Sie die verborgenen Muster in Ihren Daten! Dieses Buch ist Ihr Schlüssel zum Verständnis und zur Anwendung der Regressionsanalyse, einem mächtigen Werkzeug zur Vorhersage und zum Erkennen von Zusammenhängen. Beginnend mit den Grundlagen der einfachen linearen Regression, führt Sie diese leicht verständliche Einführung Schritt für Schritt durch die Berechnung und Interpretation von Regressionsmodellen. Lernen Sie, wie Sie mit Formeln und Software wie Excel eine Regressionsgerade erstellen und für Prognosen nutzen können. Tauchen Sie tiefer ein in die multiple Regressionsanalyse, bei der mehrere unabhängige Variablen auf eine abhängige Variable wirken. Untersuchen Sie die vorwärts- und rückwärtsgerichtete Variablenauswahl, um die wichtigsten Einflussfaktoren zu identifizieren. Erfahren Sie, wie Sie mit SPSS komplexe Modelle erstellen und interpretieren, ohne sich in komplizierten Formeln zu verlieren. Anhand von anschaulichen Beispielen aus der Praxis, wie der Preisfindung im Weinhandel oder der Analyse von Wanderungsbewegungen, wird die Anwendung der Regressionsanalyse greifbar. Verstehen Sie die Bedeutung von Konzepten wie Multikollinearität und Signifikanzniveau, die für die Erstellung valider Modelle unerlässlich sind. Egal, ob Sie Student, Forscher oder Datenanalyst sind, dieses Buch vermittelt Ihnen das notwendige Wissen und die Fähigkeiten, um Regressionstechniken erfolgreich einzusetzen. Nutzen Sie die Regression, um datengestützte Entscheidungen zu treffen und wertvolle Einblicke zu gewinnen. Entfesseln Sie das Potenzial Ihrer Daten und entdecken Sie die Muster, die bisher im Verborgenen lagen. Werden Sie zum Regressions-Experten und meistern Sie die Kunst der statistischen Modellierung. Erschließen Sie neue Erkenntnisse und treffen Sie präzisere Vorhersagen mit diesem unverzichtbaren Leitfaden zur Regressionsanalyse. Statistische Methoden werden so einfach, dass jeder sie verstehen kann. Verpassen Sie nicht die Chance, Ihre analytischen Fähigkeiten zu erweitern und sich einen Wettbewerbsvorteil zu verschaffen.
Inhaltsverzeichnis
1. Was ist Regression?
2. Lineare Regression
2.1 Berechnung mit Formel
2.2 Berechnung mit Excel
3. Multiple Regression
3.1 Was ist die multiple Regressionsanalyse?
3.2 Berechnung mit der vorwärtsgerichteten Variablenauswahl
3.3 Berechnung mit der rückwärtsgerichteten Variablenauswahl
3.4 Berechnung mit SPSS
Literaturverzeichnis
Einleitung
Im Anschluss an die Thematik der Korrelation der vorangegangenen Arbeit wird nun die Regression behandelt. Diese Arbeit beschreibt zunächst die Regression und ihren Unterschied zur Korrelation (Kap. 1), bevor die lineare Einfachregression und ihre rechnerische Bestimmung anhand von Beispielen erklärt wird (Kap. 2). Zuletzt wird anhand eines Rechenbeispiels und Hinweisen auf den Einsatz von EDV-Systemen die darauf aufbauende, kompliziertere multiple Regression bearbeitet (Kap. 3).
1. Was ist Regression?
Der direkte Vergleich zwischen der Korrelation und der zu behandelnden Regression zeigt interessante Gemeinsamkeiten in den Zielen, Voraussetzungen und Methoden; jedoch bestehen auch deutliche Unterschiede. Die Grundidee der Korrelation, die in der Bestimmung des Zusammenhangs zwischen zwei oder mehr Variablen besteht, ist auch das Ziel der Regression. Eine weitere Gemeinsamkeit ist die Voraussetzung an das Skalenniveau der auszuwertenden Daten: sowohl Korrelation wie auch Regression benötigen intervall- oder rational skalierte Daten.
Der wichtigste Unterschied zwischen Korrelation und Regression besteht darin, dass die Korrelation den Zusammenhang zwischen je zwei Variablen lediglich zu quantifizieren versucht und somit seine Stärke bestimmt. Die Regression versucht zusätzlich, durch die Regressionsgerade ein Mittel der gestreuten Werte zu finden, das sich auch außerhalb der vorhandenen Daten prognostizieren lässt. Die Prognose nicht vorhandener Daten ist ein zentraler Teil der Regression: ist beispielsweise ein X-Wert bekannt und dessen zugehöriger wahrscheinlichster Y-Wert zu ermitteln, kann er anhand der Regressionsgeraden auf einem hohen Wahrscheinlichkeitsniveau geschätzt werden (siehe Abb. 1).
Abbildung in dieser Leseprobe nicht enthalten
Die Regressionsgerade wird mathematisch durch die Gleichung y = bx + a ausgedrückt. Demnach wird sie durch ihre Steigung b und den Y-Achsenabschnitt a definiert. Die Regressionsgerade macht also keine Aussage über die Stärke des Zusammenhangs zwischen den Werten einer Punktwolke. Dieser wesentliche Unterschied bzw. diese gegenseitige Notwendigkeit von Korrelation und Regression wird neben Abb. 1 auch in Abb. 2 ausgedrückt: Die Stärke des Zusammenhangs kann maximal sein (links oben), sie kann nur groß oder sogar nur mäßig sein (rechts oben) – die Regressionsgerade wird bei entsprechender Punkteverteilung stets die selbe Formel haben. Nur die Korrelation quantifiziert das Punkteverhältnis. Lediglich, wenn der Zusammenhang gleich Null ist (rechts unten), stellt die Regressionsgleichung diesen Umstand ebenso fest wie die Korrelationsformel.
Abbildung in dieser Leseprobe nicht enthalten
2. Lineare Regression
2.1 Berechnung mit Formel
Die lineare Regression versucht, mathematisch eine Punktwolke durch eine Gerade bestmöglich anzunähern. Diese Punktwolke entsteht durch Eintragen der Variablenwerte in ein Streudiagramm. Bei der Berechnung der Regressionsgeraden wird versucht, die Punkte innerhalb des Streudiagramms optimal zu repräsentieren, indem mathematisch der Abstand sämtlicher Punkte zu ihr minimiert wird. Dies geschieht mit Hilfe des Prinzips der kleinsten Quadrate: Die summierten Quadrate der Residuen, also der senkrechten (Y-Achsen-parallelen) Abweichungen der Werte von der Schätzgeraden, werden minimiert (siehe Abb. 3). Ein Residuum gibt somit die Differenz zwischen der Regressionsgeraden bxi + a und den Messwerten yi an.
Abbildung in dieser Leseprobe nicht enthalten
Mit Hilfe einer einfachen Formel, für die zunächst die arithmetischen Mittelwerte von x und y benötigt werden, können die Regressionskoeffizienten der Geraden bestimmt werden. Zuerst wird die Steigung b der gesuchten Regressionsgeraden bestimmt. Dazu wird die Kovarianz von x und y durch die Varianz von x dividiert (siehe Abb. 4).
Zur Erinnerung:
Die Varianz ist der Erwartungswert der quadrierten Abweichung vom Erwartungswert. Die Kovarianz ist der Erwartungswert des Produkts der Abweichungen zweier Zufallsvariablen von ihrem Erwartungswert.
Abbildung in dieser Leseprobe nicht enthalten
Ist b ermittelt, wird es im zweiten Schritt in die allgemeine Geradengleichung eingesetzt, wobei die arithmetischen Mittelwerte von x und y verwendet werden (siehe Abb. 5). Dadurch wird der Y-Achsenabschnitt a der Regressionsgeraden bestimmt.
Abbildung in dieser Leseprobe nicht enthalten
Die Regressionsgerade mit der Gleichung y = bx + a ist damit ermittelt. Dies soll nun anhand eines kleinen Beispiels vorgerechnet werden.
Rechenbeispiel:
Ein Weinhändler verkauft in sechs Geschäften Wein zu unterschiedlichen Preisen, um den besten Preis zu ermitteln. Sein Ergebnis sieht nach einiger Zeit folgendermaßen aus:
Abbildung in dieser Leseprobe nicht enthalten
Zuerst werden die arithmetischen Mittelwerte für x und y bestimmt. Diese lauten: Abbildung in dieser Leseprobe nicht enthalten und Abbildung in dieser Leseprobe nicht enthalten. Nun wird die Geradensteigung b mit Hilfe der in Abb. 4 dargestellten Formel ermittelt, indem die Formelteile einzeln errechnet werden.
Abbildung in dieser Leseprobe nicht enthalten
Durch die errechneten Einzelwerte lässt sich nun die Steigung der Regressionsgeraden bestimmen: Abbildung in dieser Leseprobe nicht enthalten
Durch Einsetzen von b in die Geradengleichung ergibt sich für den Y-Achsenabschnitt a:
a = 5 + 0,98 x 15 = 19,7
Die Regressionsgerade für das Beispiel lautet also y = -0,98 + 19,7
2.2 Berechnung mit Excel
Dieser Teil soll hier nur kurz beschrieben werden. Im Referat wurde anhand eines Beispiels die Möglichkeit vorgeführt, von Microsoft Excel Regressionsgeraden berechnen, darstellen und auch für weitere Werte prognostizieren zu lassen.
Mit Hilfe des integrierten Diagramm-Assistenten lässt sich von Excel für zwei Variablen, im vorgeführten Beispiel den Werten von Körpergröße und Lebensalter der deutschen Männer, ein Diagramm darstellen. Im Fall des Beispiels ist ein Streudiagramm mit einfacher Einzeichnung der Punkte sinnvoll. Klickt man einen der Punkte mit der rechten Maustaste an und klickt dann auf „Trendlinie hinzufügen“, kann man im folgenden Fenster unter „Trend-/Regressionstyp“ das Feld „Linear“ auswählen. Dies ist die einfachste Variante der Regressionsgeraden, deren Berechnung auch in Kap. 2.1 aufgezeigt wurde. Mit Hilfe der Registerkarte „Optionen“ lassen sich nun die Gleichung der Regressionsgeraden und das Bestimmtheitsmaß im Diagramm darstellen und unter „Trend“ auch Prognosen außerhalb des gegebenen Wertebereichs fortführen. Mit einem Klick auf „OK“ kann die fertige Regressionsgerade in Excel betrachtet werden.
3. Multiple Regression
3.1 Was ist die multiple Regressionsanalyse?
Die multiple Regressionsanalyse hat zum Ziel, den Einfluss mehrerer unabhängiger Variablen X auf eine abhängige Variable Y zu bestimmen. Sie stellt also eine Erweiterung der linearen Regressionsanalyse dar, da sie nicht nur eine, sondern beliebig viele unabhängige Variablen einbeziehen kann. Die unabhängigen Variablen beeinflussen dabei jedoch stets nur eine abhängige. Bei zwei unabhängigen Variablen kann demnach anstelle einer Geraden eine Regressionsfläche als Ergebnis ausgegeben werden (siehe Abb. 6); bei noch mehr unabhängigen Variablen ist eine grafische Darstellung aufgrund der Vieldimensionalität nicht mehr möglich; in diesem Fall spricht man von einer Hyperfläche.
Abbildung in dieser Leseprobe nicht enthalten
Die Formel der multiplen Regressionsfläche/Hyperfläche lautet allgemein:
Abbildung in dieser Leseprobe nicht enthalten
Im Gegensatz zur linearen Regression werden hier griechische Buchstaben verwendet. Diese entsprechen jedoch den lateinischen Buchstaben der linearen Regression: Alpha als Y-Achsenabschnitt bzw. Regressionskonstante entspricht a, Beta den partiellen Regressionskoeffizienten ihrer jeweiligen X und damit in der Summe b. Epsilon taucht in der linearen Gleichung in der Regel nicht auf; auch in der multiplen Regressionsanalyse lässt es sich nicht quantifizieren. Es stellt den Zufallsfehler dar, der beispielsweise durch Messungenauigkeiten bei der Datenaufnahme oder zufälligen Abweichungen bei kleinen Stichproben das Ergebnis verändern kann.
Ziel der multiplen Regressionsanalyse ist also die Bestimmung von Alpha sowie der einzelnen Beta. Epsilon wird nicht rechnerisch bestimmt. Im Folgenden werden zwei Möglichkeiten vorgestellt, Alpha und Beta zu berechnen.
3.2 Berechnung mit der vorwärtsgerichteten Variablenauswahl
Ein Verfahren zur Bestimmung der multiplen Regressionsgleichung ist die vorwärtsgerichtete Variablenauswahl. Bei ihr werden nach und nach die unabhängigen Variablen mit dem größten Einfluss auf die abhängige Variable ausgewählt, bis von den verbleibenden ein selbst gewähltes Signifikanzniveau nicht mehr erreicht wird.
Im Referat wurde ein Beispiel von Bahrenberg (1990) verwendet, um die vorwärtsgerichtete Variablenauswahl vorzuführen. In diesem Beispiel beeinflussen sieben Variablen, darunter beispielsweise die Arbeitslosigkeit in einem bestimmten Zeitraum, den Wanderungssaldo eines Teils von Norddeutschland. Die Variablenwerte liegen auf der Ebene der Landkreise vor; hier wird jedoch aufgrund der rein mathematischen Zielsetzung nicht weiter auf ihre Bedeutung eingegangen, sondern sie lediglich mit X1 bis X7 angesprochen.
Im ersten Schritt wird die partielle Korrelation jedes einzelnen X mit Y bestimmt, wenn alle sieben X einbezogen werden. Es ergeben sich folgende Werte:
Abbildung in dieser Leseprobe nicht enthalten
[Abbildung in dieser Leseprobe nicht enthalten] hat demnach die stärkste partielle Korrelation mit Y. Es wird daher als erste Variable in die Regressionsgleichung aufgenommen. Nun wird anstelle des Korrelationskoeffizienten von [Abbildung in dieser Leseprobe nicht enthalten] dessen Regressionskoeffizient mit der in Kap. 2 eingeführten Formel errechnet. Die entstehende Regressionsgleichung, die noch eine Gerade darstellt, lautet nun:
Y = 36,62 – 0,08[Abbildung in dieser Leseprobe nicht enthalten]
Im folgenden Schritt werden erneut die partiellen Korrelationskoeffizienten aller X berechnet, allerdings ohne [Abbildung in dieser Leseprobe nicht enthalten]. Dadurch ergeben sich folgende, stark veränderte Werte:
Abbildung in dieser Leseprobe nicht enthalten
Der Vergleich der partiellen Korrelationskoeffizienten aller X mit und ohne den Einfluss von X5 deuten auf ein wichtiges Phänomen der multiplen Regression: Multikollinearität heißt der Einfluss der X untereinander (siehe Abb. 7). X5 erklärt bereits große Teile des Einflusses der Variablen X1, X4, X6 und X7, so dass deren partielle Korrelationskoeffizienten ohne den Einfluss von X5 stark absinken.
Abbildung in dieser Leseprobe nicht enthalten
Die zweite Berechnung der partiellen Korrelation der X ergibt für X3 den höchsten Koeffizienten. Deshalb kann X3 als zweites X in die Regressionsgleichung aufgenommen werden, die nun eine Regressionsfläche darstellt:
Y = 52,76 – 0,08X5 – 1,06X3
Man beachte hier auch die Veränderung der Regressionskonstanten. Ebenso besteht die Möglichkeit, dass sich bei Hinzunehmen weiterer X in die Regressionsgleichung auch die Regressionskoeffizienten der bisherigen X verändern; dies ist ebenfalls durch die Multikollinearität zu erklären. Bei erneuter partieller Korrelation der verbleibenden X mit Y, die hier nicht dargestellt wird, ergeben sich veränderte Koeffizienten, bei denen nun X2 am stärksten ist. X2 wird ebenso in die Regressionsgleichung aufgenommen, welche nun eine Hyperfläche darstellt und folgendermaßen lautet:
Y = 53,63 – 0,08X5 – 0,92X3 + 0,82X2
Eine letzte partielle Korrelation der verbleibenden X ergibt für alle sehr geringe Werte. Daher kann die Regressionsgleichung ohne sie mit fast gleich hohem Bestimmtheitsmaß die Werte erklären. Das Bestimmtheitsmaß der oben genannten Gleichung beträgt bereits 66,92%, d.h. dass auch die Gleichung 66,92% der Werte erklärt. Das Verfahren ist an dieser Stelle abgeschlossen, da die Regressionsgleichung auf selbst gewähltem Signifikanzniveau bestimmt wurde. In Textform gefasst, ließe sie sich beispielsweise folgendermaßen interpretieren: Hält man X2 und X3 konstant und erhöht X5 um eine Einheit, nimmt Y um 0,08 Einheiten ab. Dies lässt sich ähnlich mit allen anderen X fortsetzen.
3.3 Berechnung mit der rückwärtsgerichteten Variablenauswahl
Im Gegensatz zur vorwärtsgerichteten werden bei der rückwärtsgerichteten Variablenauswahl zunächst alle unabhängigen Variablen Xn in die Analyse mit einbezogen. Das bedeutet, dass im ersten Schritt die Regressionsgleichung mit allen unabhängigen Variablen berechnet wird. Danach werden schrittweise einzelne Variablen eliminiert, deren Regressionskoeffizienten nicht signifikant von null verschieden sind. Dieses Verfahren wird so lange wiederholt, bis die Regressionskoeffizienten aller noch in der Gleichung vorhandenen unabhängigen Xn nach dem vom Anwender gewählten Signifikanzniveau signifikant sind (Bahrenberg 1990: 35ff). Aufgrund des Umfangs der Berechnungen für diese Variablenauswahl wird es hier nicht am Beispiel vorgeführt. Es würde jedoch im für die vorwärtsgerichtete Auswahl verwendeten Beispiel zum gleichen Endergebnis für die Regressions-Hyperfläche führen.
Als Fazit für die Variablenauswahlverfahren wäre also festzuhalten, dass beide meist zum gleichen Ergebnis führen, was aber nicht zwingend ist. In einigen Fällen kann die Wahl des Verfahrens von Bedeutung sein, da sich die Ergebnisse unterscheiden. Der Anwender sollte sich in keinem Fall von sich von Schritt zu Schritt verändernden Regressionskoeffizienten und Bestimmtheitsmaß verwirren lassen, was immer dann geschieht, wenn Multikollinearität im Spiel ist. Die Wahl des Signifikanzniveaus, das letztendlich über die Anzahl der miteinbezogenen X entscheidet, ist natürlich in beiden Verfahren subjektiv, daher können die Ergebnisse bei unterschiedlichen Versuchen voneinander abweichen.
3.4 Berechnung mit SPSS
In diesem Kapitel wird kurz abschließend erklärt, wie SPSS selbsttätig und ohne aufwändige Bestimmung von Variablen mittels Auswahlverfahren bei richtiger Bedienung den Regressionskoeffizienten von je zwei Variablen ermittelt, was auch mit drei oder mehr Variablen gleichzeitig stattfinden kann. Im Referat wurde ein Beispiel mit fünf Studierenden aus dem Kurs vorgeführt, in dem zu den beiden aus Kap. 2.2 bekannten Variablen Lebensalter und Körpergröße auch noch das Gewicht hinzukam. Mit Hilfe von SPSS sollte nun nach willkürlicher Festsetzung des Gewichts als abhängiger Variable bestimmt werden, welche der beiden anderen, also der Körpergröße oder des Lebensalters, einen größeren Einfluss auf die abhängige Variable hat.
Nach Eintragen der empirischen Werte in SPSS kann im Menü „Analysieren“ und in dessen Untermenü „Regression“ auf „Linear“ geklickt werden. Im nun erscheinenden Fenster muss an oberster Stelle die abhängige Variable in ein Feld eingefügt werden, was mit Hilfe eines einfachen Klicks auf einen Pfeil geschieht. Die übrigen Variablen, deren Einflüsse auf die abhängige bestimmt werden sollen, werden mit einem anderen Pfeil in das Feld der unabhängigen Variablen eingefügt. Nach einem Klick auf „OK“ gibt der SPSS-Prozessor zahlreiche Berechnungen in Tabellenform aus, wobei für die multiple Regression besonders die Tabelle „Koeffizienten“ wichtig ist. Hier werden standardisierte und unstandardisierte Koeffizienten ausgegeben. Im Beispiel konnte unter „Unstandardisierte Koeffizienten“ und dessen Unterfeld „B“ die Steigung der jeweiligen Einzel-Regressionsgeraden abgelesen werden. Es ergab sich in der kleinen Personenauswahl eine Steigung von -1,28 für das Alter und +0,98 für die Körpergröße. Dies entspricht dem logischen Empfinden der Realität: die Körpergröße hat einen fast linearen Einfluss auf das Gewicht einer Person, während das Alter in der Regel in keinem Zusammenhang damit steht. SPSS berechnet also wie andere Statistikprogramme die Regressionskoeffizienten, ohne dass man selbst zu tief in die langwierigen Formeln einsteigen muss. Die elektronische Datenverarbeitung stellt damit eine wesentliche Erleichterung bei der Erledigung statistischer Aufgaben dar.
Literaturverzeichnis
Bahrenberg, G. et al. (1990): Statistische Methoden in der Geographie 3., überarbeitete Auflage. Stuttgart: Teubner Studienbücher.
Häufig gestellte Fragen
Was ist Regression?
Regression wird im Vergleich zur Korrelation behandelt. Während die Korrelation lediglich den Zusammenhang zwischen Variablen quantifiziert, versucht die Regression zusätzlich, durch eine Regressionsgerade oder -fläche ein Mittel der gestreuten Werte zu finden, das sich auch außerhalb der vorhandenen Daten prognostizieren lässt. Die Prognose ist ein zentraler Aspekt der Regression.
Was ist der Unterschied zwischen Korrelation und Regression?
Die Korrelation bestimmt die Stärke des Zusammenhangs zwischen zwei oder mehr Variablen. Die Regression geht darüber hinaus und versucht, durch die Regressionsgerade oder -fläche ein Modell zu erstellen, das auch zur Prognose verwendet werden kann.
Was ist lineare Regression?
Die lineare Regression versucht, eine Punktwolke durch eine Gerade bestmöglich anzunähern. Dabei wird das Prinzip der kleinsten Quadrate verwendet, um die Abstände der Punkte zur Geraden zu minimieren.
Wie wird die lineare Regression berechnet?
Die lineare Regression kann mit einer Formel berechnet werden, die die arithmetischen Mittelwerte der Variablen und die Kovarianz verwendet, um die Steigung und den Y-Achsenabschnitt der Regressionsgeraden zu bestimmen.
Wie kann die lineare Regression mit Excel berechnet werden?
Excel bietet einen Diagramm-Assistenten, mit dem Regressionsgeraden berechnet und dargestellt werden können. Über die Option "Trendlinie hinzufügen" kann eine lineare Trendlinie erstellt und deren Gleichung sowie das Bestimmtheitsmaß angezeigt werden.
Was ist multiple Regression?
Die multiple Regressionsanalyse dient dazu, den Einfluss mehrerer unabhängiger Variablen auf eine abhängige Variable zu bestimmen. Sie ist eine Erweiterung der linearen Regression, die beliebig viele unabhängige Variablen einbeziehen kann.
Was ist eine Regressionsfläche/Hyperfläche?
Bei zwei unabhängigen Variablen entsteht anstelle einer Geraden eine Regressionsfläche. Bei mehr unabhängigen Variablen spricht man von einer Hyperfläche. Diese stellen die Beziehung zwischen den unabhängigen Variablen und der abhängigen Variable dar.
Wie wird die multiple Regression berechnet?
Es gibt verschiedene Verfahren zur Berechnung der multiplen Regression, darunter die vorwärtsgerichtete und die rückwärtsgerichtete Variablenauswahl. Beide Verfahren zielen darauf ab, die relevantesten unabhängigen Variablen auszuwählen und eine Regressionsgleichung zu erstellen.
Was ist die vorwärtsgerichtete Variablenauswahl?
Bei der vorwärtsgerichteten Variablenauswahl werden nach und nach die unabhängigen Variablen mit dem größten Einfluss auf die abhängige Variable ausgewählt, bis ein bestimmtes Signifikanzniveau nicht mehr erreicht wird.
Was ist die rückwärtsgerichtete Variablenauswahl?
Bei der rückwärtsgerichteten Variablenauswahl werden zunächst alle unabhängigen Variablen in die Analyse einbezogen. Anschließend werden schrittweise Variablen eliminiert, deren Regressionskoeffizienten nicht signifikant von null verschieden sind.
Was ist Multikollinearität?
Multikollinearität bezeichnet den Einfluss der unabhängigen Variablen untereinander. Sie kann die Interpretation der Regressionskoeffizienten erschweren und zu Veränderungen der Koeffizienten führen, wenn weitere Variablen in die Gleichung aufgenommen werden.
Wie wird die multiple Regression mit SPSS berechnet?
SPSS bietet eine Funktion zur automatischen Berechnung der Regressionskoeffizienten. Über das Menü "Analysieren" und "Regression" kann die abhängige und die unabhängigen Variablen ausgewählt werden. SPSS gibt dann die Regressionskoeffizienten in Tabellenform aus.
- Arbeit zitieren
- Benjamin Pape (Autor:in), 2007, Lineare Einfachregression und Multiple Regression, München, GRIN Verlag, https://www.grin.com/document/111289