In der Statistik, und dort insbesondere in der Regressionsanalyse, ist die gesamte bzw. totale Quadratsumme (Summe der Quadrate der Totalen Abweichungen, kurz SQT bzw. englisch sum of squared total deviations, kurz SST oder total sum of squares, kurz TSS), auch als totale Abweichungsquadratsumme, oder Gesamtabweichungsquadratsumme bezeichnet und mit SAQy (für Summe der Abweichungsquadrate der y-Werte) bzw. SAQGesamt abgekürzt, die Quadratsumme der abhängigen Variablen.[1] Sie wird berechnet als Summe der Quadrate der zentrierten Messwerte der abhängigen Variablen und kann als „Gesamtvariation“ bzw. „totale Variation der abhängigen Variablen “ interpretiert werden. Die totale Quadratsumme wird im Kontext der Quadratsummenzerlegung auch als zu erklärende Abweichungsquadratsumme bezeichnet. Über die genaue Bezeichnung und ihre Abkürzungen gibt es international keine Einigkeit.[2] In der deutschsprachigen Literatur wird manchmal die deutsche Bezeichnung mit englischen Abkürzungen gebraucht.[3]
Definition
BearbeitenBerechnet wird die totale Quadratsumme durch die Summe der Quadrate der totalen Abweichungen (die Abweichungen der Messwerte von ihrem Mittelwert)[4]
- ,
wobei für das arithmetische Mittel steht. Die totale Quadratsumme erfasst die „Gesamtvariation“ in der abhängigen Variablen. Dividiert man die gesamte bzw. totale Quadratsumme durch die Anzahl der Freiheitsgrade , erhält man als empirische Varianz die Gesamtvarianz bzw. totale Varianz:[5]
- .
Der Name totale Varianz rührt daher, dass sich die „totale Varianz“ in die „erklärte Varianz“ und die „Restvarianz“ zerlegen lässt.
Zerlegung der totalen Quadratsumme
BearbeitenDie Quadratsummenzerlegung, auch Zerlegung der Summe der Abweichungsquadrate, Zerlegung der totalen Quadratsumme oder Streuungszerlegung genannt, beschreibt eine Zerlegung der gesamten Abweichungsquadratsumme. Gegeben ein multiples oder einfaches lineares Regressionsmodell mit Achsenabschnitt , welches auf der Stichprobe basiert und Beobachtungen umfasst. Die totale Quadratsumme
lässt sich dann zerlegen in die erklärte Quadratsumme
und die Residuenquadratsumme
- :
- ,
was äquivalent ist zu
- bzw. .
Die Quadratsummenzerlegung bzw. Streuungszerlegung besagt, dass sich die „Gesamtvariation in “ als Summe der „Gesamtvariation in “ und der „Gesamtvariation in “ ergibt.
Beweis
Bearbeitenwobei die Eigenschaft benutzt wurde, dass die Residuen mit den prognostizierten Werten unkorreliert sind, d. h. . Diese Unkorreliertheit der prognostizierten Werte mit den Residuen kann so interpretiert werden, dass in der Prognose bereits alle relevante Information der erklärenden Variablen bezüglich der abhängigen Variablen steckt.[6] Zudem wurde die Eigenschaft verwendet, dass die Summe und damit das arithmetische Mittel der Residuen Null ist (wenn das Modell den Achsenabschnitt enthält) (siehe statistische Eigenschaften der Kleinste-Quadrate-Schätzer).[7] Die Quadratsummenzerlegung kann als „Streuungszerlegung“ interpretiert werden.
Das Verhältnis der erklärten Abweichungsquadratsumme zur gesamten Abweichungsquadratsumme wird Bestimmtheitsmaß genannt. Die Quadratsumme der Residuen wird auch Residuenquadratsumme genannt (oder nicht erklärte Quadratsumme). Verschiedene statistische Analyseverfahren wie etwa die Regressionsanalyse versuchen ein Modell zu finden, das vorhandene Beobachtungswerte besser erklärt als ihr Mittelwert .
Literatur
Bearbeiten- Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015
Einzelnachweise
Bearbeiten- ↑ Andy Field: Discovering statistics using SPSS. Sage publications, 2009, S. 202.
- ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 39.
- ↑ Gertrud Moosmüller: Methoden der empirischen Wirtschaftsforschung. Pearson Deutschland GmbH, 2008, S. 239.
- ↑ Jeffrey Marc Wooldridge: Introductory econometrics: A modern approach. 4. Auflage. Nelson Education, 2015, S. 38.
- ↑ Peter Hackl: Einführung in die Ökonometrie. 2., aktualisierte Auflage. Pearson Deutschland GmbH, 2008, ISBN 978-3-86894-156-2, S. 79.
- ↑ Rainer Schlittgen: Regressionsanalysen mit R. ISBN 978-3-486-73967-1, S. 27 (abgerufen über De Gruyter Online).
- ↑ Ludwig Fahrmeir, Thomas Kneib, Stefan Lang, Brian Marx: Regression: models, methods and applications. Springer Science & Business Media, 2013, ISBN 978-3-642-34332-2, S. 112.