In der Statistik ist die (durch die Regression) erklärte Quadratsumme, bzw. erklärte Abweichungsquadratsumme, kurz SQE für Summe der Quadrate der Erklärten Abweichungen (englisch sum of squared explained deviations, kurz SSE oder explained sum of squares, kurz ESS), Summe der Abweichungsquadrate der -Werte, kurz , bzw. SAQErklärt, oft auch Modellquadratsumme oder Regressionsquadratsumme, die Quadratsumme der Schätzwerte bzw. Regresswerte. Sie wird berechnet als Summe der Quadrate der zentrierten Schätzwerte und kann als „Gesamtvariation der Schätzwerte “ („erklärte Variation“) interpretiert werden. Über die genaue Bezeichnung und ihre Abkürzungen gibt es international keine Einigkeit.[1] In der deutschsprachigen Literatur wird manchmal die deutsche Bezeichnung mit englischen Abkürzungen gebraucht.[2]

Diese Grafik zeigt die Quadratsummenzerlegung, d. h. die Zerlegung der totalen Quadratsumme in die erklärte Quadratsumme und die Residuenquadratsumme. Die Summe der grünen Abweichungsquadrate ist die erklärte Quadratsumme, die der roten die Residuenquadratsumme, die der blauen die totale Quadratsumme.

Definition

Bearbeiten

Die erklärte (Abweichungs-)Quadratsumme bzw. Regressionsquadratsumme ist definiert als Quadratsumme der durch die Regressionsfunktion erklärten Abweichungen  :[1]

 

Manchmal findet sich auch die Abkürzung   bzw.  . Dieser Ausdruck, kann allerdings leicht mit der „Residuenquadratsumme“ (englisch sum of squared residuals) verwechselt werden, die ebenfalls mit   abgekürzt wird.

Wenn das zugrundeliegende lineare Modell ein von Null verschiedenes Absolutglied   enthält, stimmt der empirische Mittelwert der Schätzwerte   mit dem der beobachteten Messwerte   überein, also   (für einen Beweis im multiplen Fall siehe Bestimmtheitsmaß#Matrixschreibweise). Die erklärte Quadratsumme misst die Streuung der Schätzwerte   um ihren Mittelwert  . Das Verhältnis der durch die Regression erklärten Quadratsumme zur totalen Quadratsumme wird Bestimmtheitsmaß der Regression genannt.

Einfache lineare Regression

Bearbeiten

In der einfachen linearen Regression (Modell mit nur einer erklärenden Variable)   lässt sich die erklärte Quadratsumme auch wie folgt ausdrücken:

 .

Hierbei stellen die   die vorhergesagten Werte dar und   ist die Schätzung des Absolutglieds und   die Schätzung des Steigungsparameters. Aus dieser Schreibweise lässt sich erkennen, dass sich die erklärte Quadratsumme auch darstellen lässt als Produkt aus dem Quadrat des Bravais-Pearson-Korrelationskoeffizienten   und der totalen Quadratsumme  :[3]

 ,

wobei   der Kleinste-Quadrate-Schätzer für die Steigung   der Quotient aus Produktsumme von   und   und Quadratsumme von   ist. Um dies zu zeigen, muss zunächst gezeigt werden, dass wenn das zugrundeliegende lineare Modell ein von Null verschiedenes Absolutglied   enthält, der empirische Mittelwert der Schätzwerte   mit dem der beobachteten Messwerte   übereinstimmt. Dies gilt, wegen[4]

 

und daher

 ,

wobei der letzte Schritt aus der Tatsache folgt, dass sich   auch schreiben lässt als:

 .

Durch die Quadratsummenzerlegung   bzw.   kann man durch ersetzen von   in   auf diesem Wege ebenfalls die folgende Darstellung für die Residuenquadratsumme   finden:

 .

Matrixschreibweise

Bearbeiten

In Matrixschreibweise kann die erklärte Quadratsumme wie folgt ausgedrückt werden

 .

Hierbei ist   ein Vektor mit den Elementen   und   ist definiert durch  , wobei   den Kleinste-Quadrate-Schätzvektor und   die Datenmatrix darstellt.

Einzelnachweise

Bearbeiten
  1. a b Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 39.
  2. Moosmüller, Gertrud. Methoden der empirischen Wirtschaftsforschung. Pearson Deutschland GmbH, 2008. S. 239.
  3. Werner Timischl: Angewandte Statistik. Eine Einführung für Biologen und Mediziner. 2013, 3. Auflage, S. 315.
  4. Ludwig Fahrmeir, Rita Künstler, Iris Pigeot, Gerhard Tutz: Statistik. Der Weg zur Datenanalyse. 8., überarb. und erg. Auflage. Springer Spektrum, Berlin/Heidelberg 2016, ISBN 978-3-662-50371-3, S. 151.