In der Statistik ist die multiple lineare Regression, auch mehrfache lineare Regression (kurz: MLR) oder lineare Mehrfachregression genannt, ein regressionsanalytisches Verfahren und ein Spezialfall der linearen Regression. Die multiple lineare Regression ist ein statistisches Verfahren, mit dem versucht wird, eine beobachtete abhängige Variable durch mehrere unabhängige Variablen zu erklären. Das dazu verwendete Modell ist linear in den Parametern, wobei die abhängige Variable eine Funktion der unabhängigen Variablen ist. Diese Beziehung wird durch eine additive Störgröße überlagert. Die multiple lineare Regression stellt eine Verallgemeinerung der einfachen linearen Regression bzgl. der Anzahl der Regressoren dar.
Im Folgenden wird von linearen Funktionen ausgegangen. Es ist dann keine weitere Beschränkung der Allgemeinheit, dass diese Funktionen direkt aus den unabhängigen (erklärenden, exogenen) Variablen bestehen und es ebenso viele zu schätzende Regressionsparameter gibt wie unabhängige Variablen (Index ). Zum Vergleich: In der einfachen linearen Regression ist und konstant gleich , der zugehörige Regressionsparameter also der Achsenabschnitt.
Das Modell für Messungen der abhängigen (endogenen) Variablen ist also
,
mit Störgrößen, die rein zufällig sind, falls das lineare Modell passt. Für das Modell wird weiterhin angenommen, dass die Gauß-Markow-Annahmen gelten. In einem stichprobentheoretischen Ansatz wird jedes Stichprobenelement als eine eigene Zufallsvariable interpretiert, ebenso jedes .
Das multiple lineare Regressionsmodell (selten und doppeldeutig allgemeines lineares Modell) lässt sich in Matrixschreibweise wie folgt formulieren
.
Dies ist das zugrundeliegende Modell in der Grundgesamtheit und wird auch als „wahres Modell“ bezeichnet. Hierbei stehen , und für die Vektoren bzw. Matrizen:
und
und eine -Matrix (Versuchsplan- oder Datenmatrix):
, wobei
Aufgrund der unterschiedlichen Schreibweisen für lässt sich erkennen, dass sich das Modell auch darstellen lässt als:
mit
,
hierbei ist die beobachtete abhängige Variable für Beobachtung und , sind die unabhängigen Variablen. Wie gewöhnlich ist, das Absolutglied und sind unbekannte skalare Steigungsparameter. Die Störgröße für Beobachtung ist eine unbeobachtbare Zufallsvariable. Der Vektor ist der transponierte Vektor der Regressoren und wird auch als linearer Prädiktor bezeichnet.
Die wesentliche Voraussetzung an das multiple lineare Regressionsmodell ist, dass es bis auf die Störgröße das „wahre Modell“ beschreibt. Dabei wird in der Regel nicht genau spezifiziert, von welcher Art die Störgröße ist; sie kann beispielsweise von zusätzlichen Faktoren oder Messfehlern herrühren. Jedoch nimmt man als Grundvoraussetzung an, dass dessen Erwartungswert (in allen Komponenten) 0 ist: (Annahme 1). Diese Annahme bedeutet, dass das Modell grundsätzlich für korrekt gehalten wird und die beobachtete Abweichung als zufällig angesehen wird oder von vernachlässigbaren äußeren Einflüssen herrührt. Typisch ist die Annahme, dass die Komponenten des Vektors unkorreliert sind (Annahme 2) und dieselbe Varianz besitzen (Annahme 3), wodurch sich mit Hilfe klassischer Verfahren wie der Methode der kleinsten Quadrate (englischordinary least squares, kurz: OLS) einfache Schätzer für die unbekannten Parameter und ergeben. Die Methode wird daher auch (multiple lineare) KQ-Regression (englischOLS regression) genannt.
Zusammenfassend wird für die Störgrößen angenommen, dass
Hierbei bezeichnet den Nullvektor und die Einheitsmatrix der Dimension . Die oben genannten Annahmen sind die Annahmen der klassischen linearen Regression. Das Modell (die Gleichung zusammen mit obigen Annahmen) wird daher das klassische Modell der linearen Mehrfachregression genannt.
Über diese grundlegende Annahme hinaus sind grundsätzlich alle Verteilungsannahmen an erlaubt. Wird zudem vorausgesetzt, dass der Vektor mehrdimensional normalverteilt ist, lässt sich ferner zeigen, dass die beiden Schätzer Lösungen der Maximum-Likelihood-Gleichungen sind (siehe #Statistische Inferenz). In diesem Modell ist die Unabhängigkeit der Störgrößen dann gleichbedeutend mit der der .
Schätzung des Parametervektors mit der Kleinste-Quadrate-Schätzung
Auch im multiplen linearen Regressionsmodell wird der Vektor der Störgrößen mithilfe der Kleinste-Quadrate-Schätzung (KQ-Schätzung) minimiert, das heißt, es soll so gewählt werden, dass die euklidische Norm minimal wird. Im Folgenden wird der Ansatz benutzt, dass die Residuenquadratsumme minimiert wird. Dazu wird vorausgesetzt, dass den Rang hat. Dann ist invertierbar und man erhält als Minimierungsproblem:
Wenn der Rang von kleiner als ist, dann ist nicht invertierbar, also das Normalgleichungssystem nicht eindeutig lösbar, mithin nicht identifizierbar, siehe hierzu aber den Begriff der Schätzbarkeit. Da die Residuenquadratsumme minimiert, wird auch Kleinste-Quadrate-Schätzer (kurz: KQ-Schätzer) genannt.[3] Alternativ kann der Kleinste-Quadrate-Schätzer durch Einsetzen des wahren Modells auch dargestellt werden als[4]
Man erhält mit Hilfe des Kleinste-Quadrate-Schätzers das Gleichungssystem
,
wobei der Vektor der Residuen und die Schätzung für ist. Das Interesse der Analyse liegt oft in der Schätzung oder in der Vorhersage der abhängigen Variablen für ein gegebenes Tupel von . Der Vorhersagevektor berechnet sich als
Im multiplen Fall kann man genauso wie im einfachen Fall zeigen, dass der Kleinste-Quadrate-Schätzvektor erwartungstreu für ist. Dies gilt allerdings nur, wenn die Annahme der Exogenität der Regressoren gegeben ist. Dies ist der Fall, wenn die möglicherweise zufälligen Regressoren und die Störgrößen unkorreliert sind, d. h. wenn gilt. Wenn man also hier voraussetzt, dass die exogenen Variablen keine Zufallsvariablen sind, sondern wie in einem Experiment kontrolliert werden können, gilt bzw. und damit ist erwartungstreu für .
Beweis
Falls die Exogenitätsannahme nicht zutrifft, , ist der Kleinste-Quadrate-Schätzer nicht erwartungstreu für . Es liegt also eine Verzerrung (englischbias) vor, d. h., „im Mittel“ weicht der Parameterschätzer vom wahren Parameter ab:
Nach dem Satz von Gauß-Markow ist der Schätzer , bester linearer erwartungstreuer Schätzer (BLES bzw. englischBest Linear Unbiased Estimator, kurz: BLUE), das heißt, er ist derjenige lineare erwartungstreue Schätzer, der unter allen linearen erwartungstreuen Schätzern die kleinste Varianz bzw. Kovarianzmatrix besitzt. Für diese Eigenschaften der Schätzfunktion braucht keine Verteilungsinformation der Störgröße vorzuliegen. Wenn die Störgrößen normalverteilt sind, ist Maximum-Likelihood-Schätzer und nach dem Satz von Lehmann-Scheffé beste erwartungstreue Schätzung (BES bzw. englischBest Unbiased Estimator, kurz: BUE).
Der KQ-Schätzer ist unter den bisherigen Annahmen erwartungstreu für (), wobei die Stichprobengröße keinen Einfluss auf die Erwartungstreue hat (schwaches Gesetz der großen Zahlen). Ein Schätzer ist genau dann konsistent für den wahren Wert, wenn er in Wahrscheinlichkeit gegen den wahren Wert konvergiert (englischprobability limit, kurz: plim). Die Eigenschaft der Konsistenz bezieht also das Verhalten des Schätzers mit ein, wenn die Anzahl der Beobachtungen größer wird.
Für die Folge gilt, dass sie in Wahrscheinlichkeit gegen den wahren Parameterwert konvergiert
oder vereinfacht ausgedrückt bzw.
Die Grundlegende Annahme, um die Konsistenz des KQ-Schätzers sicherzustellen lautet
,
d. h. man geht davon aus, dass das durchschnittliche Quadrat der beobachteten Werte der erklärenden Variablen auch bei einem ins Unendliche gehendem Stichprobenumfang endlich bleibt (siehe Produktsummenmatrix#Asymptotische Resultate). Außerdem nimmt man an, dass
Hierbei wurde das Slutsky-Theorem und die Eigenschaft verwendet, dass wenn deterministisch bzw. nichtstochastisch ist gilt.
Folglich ist der Kleinste-Quadrate-Schätzer konsistent für . Die Eigenschaft besagt, dass mit steigender Stichprobengröße die Wahrscheinlichkeit, dass der Schätzer vom wahren Parameter abweicht, sinkt. Weiterhin lässt sich durch das Chintschin-Theorem zeigen, dass für die durch die KQ-Schätzung gewonnene Störgrößenvarianz gilt, dass sie konsistent für ist, d. h. .
Beweis
Dazu schreibt man zunächst die geschätzte Störgrößenvarianz wie folgt um
Unter Berücksichtigung von Varianzen (Unsicherheiten oder Gewichte) und Kovarianzen (Korrelationen) verallgemeinert sich die multiple lineare Regression zur gewichteten multiplen linearen Regression
Bei Parameterbestimmungen mithilfe der Methode der kleinsten Quadrate werden die Residuen benötigt, welche oft als Differenz der Schätzer und der Modellfunktion ausgedrückt werden. In vielen praktischen Anwendungen ist die Modellfunktion jedoch nicht analytisch bekannt, oder kann nicht für beliebige Parameterwerte angegeben werden. In diesem Fall kann die Modellfunktion durch eine (multiple) lineare Regression der bekannten Funktionswerte näherungsweise ausgedrückt werden und direkt in der Methode der kleinsten Quadrate verwendet werden. Der beste Schätzwert wird dann analytisch mithilfe der Gleichung des linearen Template Fits bestimmt.[8]
Die Schätzwerte der berechnen sich mithilfe des KQ-Schätzers als
,
wobei man dies auch kürzer als
mit
schreiben kann. Die Projektionsmatrix ist die Matrix der Orthogonalprojektion auf den Spaltenraum von und hat maximal den Rang. Sie wird auch Prädiktionsmatrix genannt, da sie die vorhergesagten Werte (-Werte) generiert wenn man die Matrix auf die -Werte anwendet. Die Prädiktionsmatrix beschreibt numerisch die Projektion von auf die durch definierte Ebene.
Der Residualvektor lässt sich mittels der Prädiktionsmatrix darstellen als: .
Die Matrix wird auch als Residualmatrix bezeichnet und mit abgekürzt. Ferner ist die Residuenquadratsumme als nichtlineare Transformation Chi-Quadrat-verteilt mit Freiheitsgraden. Dies zeigt folgende Beweisskizze:
Obwohl manchmal angenommen wird, dass die Störgrößenvarianz bekannt ist, muss man davon ausgehen, dass sie in den meisten Anwendungsfällen unbekannt ist (beispielsweise bei der Schätzung von Nachfrageparametern in ökonomischen Modellen, oder Produktionsfunktionen). Ein naheliegender Schätzer des Vektors der Störgrößen ist der Residualvektor , der aus der Regression gewonnen wird. Die in den Residuen steckende Information könnte also für einen Schätzer der Störgrößenvarianz genutzt werden. Aufgrund der Tatsache, dass gilt, ist aus frequentistischer Sicht der „Mittelwert“ von . Die Größe ist aber unbeobachtbar, da die Störgrößen unbeobachtbar sind. Wenn man statt nun das beobachtbare Pendant benutzt, führt dies zum Schätzer:
Für die statistische Inferenz (Schätzen und Testen) wird noch die Information über die Verteilung des Vektors der Störgrößen gefordert. Bedingt auf die Datenmatrix sind die unabhängig und identisch verteilt und folgen einer -Verteilung. Äquivalent ist (bedingt auf ) mehrdimensional normalverteilt mit dem Erwartungswert und der Kovarianzmatrix , d. h.
Hier sind stochastisch unabhängige Zufallsvariablen auch unkorreliert. Weil der Störgrößenvektor mehrdimensional normalverteilt ist folgt daraus, dass auch der Regressand mehrdimensional normalverteilt ist (). Aufgrund der Tatsache, dass beim KQ-Schätzer die einzige zufällige Komponente ist, folgt für den Parametervektor , dass er ebenfalls normalverteilt ist: .
Das Bestimmtheitsmaß ist eine Maßzahl für die Güte (Bestimmtheit) einer multiplen linearen Regression. In der multiplen linearen Regression, lässt sich das Bestimmtheitsmaß darstellen als[11]
.
oder
.
Die Besonderheit beim multiplen Bestimmtheitsmaß ist, dass es nicht wie in der einfachen linearen Regression dem quadrierten Korrelationskoeffizienten zwischen und , sondern dem Quadrat des Korrelationskoeffizienten zwischen den Messwerten und den Schätzwerten entspricht (für einen Beweis, siehe Matrixschreibweise).
Hat man eine Regression ermittelt, ist man auch an der Güte dieser Regression interessiert. Im Fall für alle wird häufig als Maß für die Güte das Bestimmtheitsmaß verwendet. Generell gilt, je näher der Wert des Bestimmtheitsmaßes bei liegt, desto besser ist die Güte der Regression. Ist das Bestimmtheitsmaß klein, kann man seine Signifikanz durch das Hypothesenpaar
testen (siehe Bestimmtheitsmaß#Test auf Gesamtsignifikanz eines Modells). Die Prüfgröße ist F-verteilt mit und Freiheitsgraden. Überschreitet die Prüfgröße bei einem Signifikanzniveau den kritischen Wert , das -Quantil der F-Verteilung mit und Freiheitsgraden, wird abgelehnt. ist dann ausreichend groß, mindestens ein Regressor trägt also vermutlich genügend viel Information zur Erklärung von bei.
Unter den Voraussetzungen des klassischen linearen Regressionsmodells ist der Test ein Spezialfall der einfachen Varianzanalyse. Für jeden Beobachtungswert ist die Störgröße und damit -verteilt (mit der wahre Regressionswert in der Grundgesamtheit), d. h., die Voraussetzungen der Varianzanalyse sind erfüllt. Sind alle -Koeffizienten gleich null, so ist dies äquivalent zur Nullhypothese der Varianzanalyse: .
Die Residualanalyse, bei der man die Residuen über den unabhängigen Variablen aufträgt, gibt Aufschluss über
die Richtigkeit des angenommenen linearen Zusammenhangs,
Ein Ziel bei der Residualanalyse ist es, die Voraussetzung der Residuen zu überprüfen. Hierbei ist es wichtig zu beachten, dass
gilt. Das Residuum ist mit der Formel berechenbar. Im Gegensatz hierzu ist die Störgröße nicht berechenbar oder beobachtbar. Nach den oben getroffenen Annahmen soll für alle Störgrößen gelten
Es liegt somit eine Varianzhomogenität vor. Dieses Phänomen wird auch als Homoskedastizität bezeichnet und ist auf die Residuen übertragbar. Dies bedeutet: Wenn man die unabhängigen Variablen gegen die Residuen aufträgt, sollten keine systematischen Muster erkennbar sein.
Beispiel 1 zur Residualanalyse
Beispiel 2 zur Residualanalyse
Beispiel 3 zur Residualanalyse
In den obigen drei Grafiken wurden die unabhängigen Variablen gegen die Residuen abgetragen, und im Beispiel 1 sieht man, dass hier tatsächlich kein erkennbares Muster in den Residuen vorliegt, d. h., dass die Annahme der Varianzhomogenität erfüllt ist. In den Beispielen 2 und 3 dagegen ist diese Annahme nicht erfüllt: Man erkennt ein Muster. Zur Anwendung der linearen Regression sind daher hier zunächst geeignete Transformationen durchzuführen. So ist im Beispiel 2 ein Muster zu erkennen, das an eine Sinus-Funktion erinnert, womit hier eine Daten-Transformation der Form denkbar wäre, während im Beispiel 3 ein Muster zu erkennen ist, das an eine Parabel erinnert, in diesem Fall also eine Daten-Transformation der Form angebracht sein könnte.
Beitrag der einzelnen Regressoren zur Erklärung der abhängigen Variablen
Man ist daran interessiert, ob man einzelne Parameter oder Regressoren aus dem Regressionsmodell entfernen kann, ob also ein Regressor nicht (oder nur gering) zur Erklärung von beiträgt. Dies ist dann möglich, falls ein Parameter gleich null ist, somit testet man die Nullhypothese. Das heißt, man testet, ob der -te Parameter gleich Null ist. Wenn dies der Fall ist, kann der zugehörige -te Regressor aus dem Modell entfernt werden. Der Vektor ist als lineare Transformation von wie folgt verteilt:
Wenn man die Varianz der Störgrößen schätzt, erhält man für die geschätzte Kovarianzmatrix des Kleinste-Quadrate-Schätzers
.
Die geschätzte Varianz eines Regressionsparameters steht als -tes Diagonalelement in der geschätzten Kovarianzmatrix. Es ergibt sich die Prüfgröße
Die Prüf- bzw. Pivotstatistik ist t-verteilt mit Freiheitsgraden. Ist größer als der kritische Wert , dem -Quantil der -Verteilung mit Freiheitsgraden, wird die Hypothese abgelehnt. Somit wird der Regressor im Modell beibehalten und der Beitrag des Regressors zur Erklärung von ist signifikant groß, d. h. signifikant von null verschieden.