Gegeben sei ein typisches multiples lineares Regressionsmodell
y
=
X
β
+
ε
{\displaystyle \mathbf {y} =\mathbf {X} {\boldsymbol {\beta }}+{\boldsymbol {\varepsilon }}}
(wahres Modell ), mit
β
{\displaystyle {\boldsymbol {\beta }}}
dem
(
p
×
1
)
{\displaystyle (p\times 1)}
-Vektor der unbekannten Regressionsparameter , der
(
n
×
p
)
{\displaystyle (n\times p)}
-Versuchsplanmatrix
X
{\displaystyle \mathbf {X} }
, dem
(
n
×
1
)
{\displaystyle (n\times 1)}
-Vektor der abhängigen Variablen
y
{\displaystyle \mathbf {y} }
und dem
(
n
×
1
)
{\displaystyle (n\times 1)}
-Vektor der Störgrößen
ε
{\displaystyle {\boldsymbol {\varepsilon }}}
. Der verallgemeinerte Kleinste-Quadrate-Schätzer (VKQ-Schätzer) kann auf unterschiedliche Art und Weise ausgedrückt werden. Jede dieser Ausdrucksweisen hat ihre eigene Interpretation. Eine bekannte Spezifikation ist die sogenannte zweistufige Kleinste-Quadrate-Schätzung , die von Henri Theil entwickelt wurde. Für die Herleitung des zweistufigen Kleinste-Quadrate-Schätzers lässt sich der verallgemeinerte Kleinste-Quadrate-Schätzer
δ
~
i
{\displaystyle {\tilde {\boldsymbol {\delta }}}_{i}}
wie folgt ausdrücken:
δ
~
i
=
(
Z
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
Z
i
)
−
1
Z
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
y
i
=
(
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
Y
i
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
X
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
Y
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
X
i
)
−
1
⋅
(
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
y
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
y
i
)
{\displaystyle {\tilde {\boldsymbol {\delta }}}_{i}=(\mathbf {Z} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Z} _{i})^{-1}\mathbf {Z} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} _{i}={\begin{pmatrix}\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} _{i}&\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {X} _{i}\\\\\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} _{i}&\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {X} _{i}\\\\\end{pmatrix}}^{-1}\cdot {\begin{pmatrix}\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} _{i}\\\\\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} _{i}\\\\\end{pmatrix}}}
Die reduzierte Form lautet
Y
=
X
Π
+
V
{\displaystyle \mathbf {Y} =\mathbf {X} \mathbf {\Pi } +\mathbf {V} }
. Die
i
{\displaystyle i}
-te Gleichung der reduzierten Form kann wie folgt partitioniert werden:
[
y
i
Y
i
Y
i
∗
]
=
X
[
π
i
Π
Π
i
∗
]
+
[
v
i
V
i
V
i
∗
]
{\displaystyle [\mathbf {y} _{i}\;\;\mathbf {Y} _{i}\;\;\mathbf {Y} _{i}^{*}]=\mathbf {X} [\pi _{i}\;\;\mathbf {\Pi } \;\;\mathbf {\Pi } _{i}^{*}]+[\mathbf {v} _{i}\;\;\mathbf {V} _{i}\;\;\mathbf {V} _{i}^{*}]}
,
wobei
y
i
{\displaystyle \mathbf {y} _{i}}
der
(
T
×
1
)
{\displaystyle (T\times 1)}
-Vektor der
i
{\displaystyle i}
-ten gemeinsam abhängigen Variablen ist,
Y
i
∗
{\displaystyle \mathbf {Y} _{i}^{*}}
die anderen gemeinsam abhängigen Variablen in der
i
{\displaystyle i}
-ten Gleichung beinhaltet,
Y
i
∗
{\displaystyle \mathbf {Y} _{i}^{*}}
die
(
T
×
m
i
∗
)
{\displaystyle (T\times m_{i}^{*})}
-Matrix der gemeinsam abhängigen Variablen ist, die nicht in der
i
{\displaystyle i}
-ten Gleichung auftauchen, und
[
π
i
Π
Π
i
∗
]
{\displaystyle [\pi _{i}\;\;\mathbf {\Pi } \;\;\mathbf {\Pi } _{i}^{*}]}
die partitionierte Matrix von Koeffizienten der reduzierten Form ist. Der Kleinste-Quadrate-Schätzer von
Π
i
{\displaystyle \mathbf {\Pi } _{i}}
lautet
Π
^
i
=
(
X
⊤
X
)
−
1
X
⊤
Y
i
{\displaystyle {\hat {\mathbf {\Pi } }}_{i}=(\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} _{i}}
und daher gilt durch Zuhilfenahme der Prädiktionsmatrix
X
(
X
⊤
X
)
−
1
X
⊤
Y
i
=
X
Π
^
i
=
Y
^
i
=
Y
i
−
V
^
i
{\displaystyle \mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} _{i}=\mathbf {X} {\hat {\mathbf {\Pi } }}_{i}={\hat {\mathbf {Y} }}_{i}=\mathbf {Y} _{i}-{\hat {\mathbf {V} }}_{i}}
, wobei
Y
^
i
{\displaystyle {\hat {\mathbf {Y} }}_{i}}
die
(
T
×
(
m
i
−
1
)
)
{\displaystyle (T\times (m_{i}-1))}
-Matrix der vorhergesagten Werte von
Y
i
{\displaystyle \mathbf {Y} _{i}}
ist. Durch die Tatsache, dass
(
X
⊤
X
)
−
1
(
X
⊤
X
)
=
I
{\displaystyle (\mathbf {X} ^{\top }\mathbf {X} )^{-1}(\mathbf {X} ^{\top }\mathbf {X} )=\mathbf {I} }
, kann man auch schreiben:[ 1]
δ
~
i
=
(
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
(
X
⊤
X
)
−
1
(
X
⊤
X
)
Y
i
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
X
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
Y
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
X
i
)
−
1
⋅
(
Y
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
y
i
X
i
⊤
X
(
X
⊤
X
)
−
1
X
⊤
y
i
)
{\displaystyle {\tilde {\boldsymbol {\delta }}}_{i}={\begin{pmatrix}\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }(\mathbf {X} ^{\top }\mathbf {X} )^{-1}(\mathbf {X} ^{\top }\mathbf {X} )\mathbf {Y} _{i}&\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {X} _{i}\\\\\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {Y} _{i}&\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {X} _{i}\\\\\end{pmatrix}}^{-1}\cdot {\begin{pmatrix}\mathbf {Y} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} _{i}\\\\\mathbf {X} _{i}^{\top }\mathbf {X} (\mathbf {X} ^{\top }\mathbf {X} )^{-1}\mathbf {X} ^{\top }\mathbf {y} _{i}\\\\\end{pmatrix}}}
bzw.
δ
~
i
=
(
Y
^
i
⊤
Y
^
i
Y
^
i
⊤
X
i
X
i
⊤
Y
^
i
X
i
⊤
X
i
)
−
1
⋅
(
Y
^
i
⊤
y
i
X
i
⊤
y
i
)
{\displaystyle {\tilde {\boldsymbol {\delta }}}_{i}={\begin{pmatrix}{\hat {\mathbf {Y} }}_{i}^{\top }{\hat {\mathbf {Y} }}_{i}&{\hat {\mathbf {Y} }}_{i}^{\top }\mathbf {X} _{i}\\\\\mathbf {X} _{i}^{\top }{\hat {\mathbf {Y} }}_{i}&\mathbf {X} _{i}^{\top }\mathbf {X} _{i}\\\\\end{pmatrix}}^{-1}\cdot {\begin{pmatrix}{\hat {\mathbf {Y} }}_{i}^{\top }\mathbf {y} _{i}\\\\\mathbf {X} _{i}^{\top }\mathbf {y} _{i}\\\\\end{pmatrix}}}
Wenn man
Z
^
i
=
[
Y
^
i
X
i
]
{\displaystyle {\hat {\mathbf {Z} }}_{i}=[{\hat {\mathbf {Y} }}_{i}\;\;\mathbf {X} _{i}]}
definiert, dann kann der zweistufige Kleinste-Quadrate-Schätzer wie folgt spezifiziert werden
δ
~
i
=
(
Z
^
i
⊤
Z
^
i
)
−
1
Z
^
i
⊤
y
i
{\displaystyle {\tilde {\boldsymbol {\delta }}}_{i}=({\hat {\mathbf {Z} }}_{i}^{\top }{\hat {\mathbf {Z} }}_{i})^{-1}{\hat {\mathbf {Z} }}_{i}^{\top }\mathbf {y} _{i}}
.[ 2]
George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl , T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4 .
↑ George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl , T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4 , S. 645.
↑ George G. Judge, R. Carter Hill, W. Griffiths, Helmut Lütkepohl, T. C. Lee. Introduction to the Theory and Practice of Econometrics. 2. Auflage. John Wiley & Sons, New York/ Chichester/ Brisbane/ Toronto/ Singapore 1988, ISBN 0-471-62414-4 , S. 645.