Eine quadratische Form von
n
{\displaystyle n}
reellen Zufallsvariablen
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
, die eine gemeinsame Wahrscheinlichkeitsverteilung besitzen, ist eine Zufallsvariable, die sich additiv aus Summanden der Form
a
i
j
X
i
X
j
{\displaystyle a_{ij}X_{i}X_{j}}
mit reellen Konstanten
a
i
j
{\displaystyle a_{ij}}
für
i
,
j
=
1
,
…
,
n
{\displaystyle i,j=1,\dots ,n}
zusammensetzt.
X
=
(
X
1
,
…
,
X
n
)
T
{\displaystyle \mathbf {X} =(X_{1},\dots ,X_{n})^{T}}
sei ein Zufallsvektor mit Werten in
R
n
{\displaystyle \mathbb {R} ^{n}}
.
A
∈
R
n
×
n
{\displaystyle \mathbf {A} \in \mathbb {R} ^{n\times n}}
sei eine quadratische Matrix mit Elementen
a
i
j
{\displaystyle a_{ij}}
für
i
,
j
=
1
,
…
,
n
{\displaystyle i,j=1,\dots ,n}
. Dann heißt
X
T
A
X
=
∑
i
=
1
n
∑
j
=
1
n
a
i
j
X
i
X
j
{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} =\sum _{i=1}^{n}\sum _{j=1}^{n}a_{ij}X_{i}X_{j}}
quadratische Form der reellen Zufallsvariablen
X
1
,
…
,
X
n
{\displaystyle X_{1},\dots ,X_{n}}
.[ 1]
X
T
A
X
{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} }
ist eine reelle Zufallsvariable.
Falls
A
{\displaystyle \mathbf {A} }
eine positiv semidefinite Matrix ist, gilt
X
T
A
X
≥
0
{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} \geq 0}
.
Es gilt
X
T
A
X
=
X
T
A
T
X
{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} =\mathbf {X} ^{T}\mathbf {A} ^{T}\mathbf {X} }
. Daher gilt auch
X
T
A
X
=
X
T
B
X
{\displaystyle \mathbf {X} ^{T}\mathbf {A} \mathbf {X} =\mathbf {X} ^{T}\mathbf {B} \mathbf {X} }
für die symmetrische Matrix
B
=
(
A
+
A
T
)
/
2
{\displaystyle \mathbf {B} =(\mathbf {A} +\mathbf {A} ^{T})/2}
. Für viele Eigenschaften quadratischer Formen von Zufallsvariablen stellt daher die Beschränkung auf symmetrische Matrizen
A
{\displaystyle \mathbf {A} }
keine Einschränkung dar.
Es gilt
X
T
I
n
X
=
∑
i
=
1
n
X
i
2
.
{\displaystyle \mathbf {X} ^{T}\mathbf {I} _{n}\mathbf {X} =\sum _{i=1}^{n}X_{i}^{2}\;.}
Satz :
X
{\displaystyle \mathbf {X} }
sei ein
n
{\displaystyle n}
-dimensionaler Zufallsvektor mit dem Erwartungswertvektor
μ
=
(
μ
1
,
…
,
μ
n
)
T
∈
R
n
{\displaystyle {\boldsymbol {\mu }}=(\mu _{1},\dots ,\mu _{n})^{T}\in \mathbb {R} ^{n}}
und der Kovarianzmatrix
Σ
∈
R
n
×
n
{\displaystyle {\boldsymbol {\Sigma }}\in \mathbb {R} ^{n\times n}}
. Für jede Matrix
A
∈
R
n
×
n
{\displaystyle \mathbf {A} \in \mathbb {R} ^{n\times n}}
gilt
E
[
X
T
A
X
]
=
Spur
(
A
Σ
)
+
μ
T
Σ
μ
.
{\displaystyle \mathbb {E} [\mathbf {X} ^{T}\mathbf {A} \mathbf {X} ]=\operatorname {Spur} (\mathbf {A} {\boldsymbol {\Sigma }})+{\boldsymbol {\mu }}^{T}{\boldsymbol {\Sigma }}{\boldsymbol {\mu }}\;.}
[ 2]
Diese Aussage gilt unabhängig davon, ob
A
{\displaystyle \mathbf {A} }
symmetrisch ist und ob
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
invertierbar ist. Unmittelbar aus diesem Satz ergeben sich die folgenden Spezialfälle:
Der zentrierte Zufallsvektor
X
−
μ
{\displaystyle \mathbf {X} -{\boldsymbol {\mu }}}
hat den Erwartungswertvektor
0
=
(
0
,
…
,
0
)
T
∈
R
n
{\displaystyle \mathbf {0} =(0,\dots ,0)^{T}\in \mathbb {R} ^{n}}
und dieselbe Kovarianzmatrix
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
wie der Zufallsvektor
X
{\displaystyle \mathbf {X} }
, so dass sich
E
[
(
X
−
μ
)
T
A
(
X
−
μ
)
]
=
Spur
(
A
Σ
)
{\displaystyle \mathbb {E} [(\mathbf {X} -{\boldsymbol {\mu }})^{T}\mathbf {A} (\mathbf {X} -{\boldsymbol {\mu }})]=\operatorname {Spur} (\mathbf {A} {\boldsymbol {\Sigma }})}
ergibt.
Eine wichtiger Spezialfall ergibt sich, wenn die Kovarianzmatrix
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
invertierbar ist. Dann gilt
E
[
(
X
−
μ
)
T
Σ
−
1
(
X
−
μ
)
]
=
n
{\displaystyle \mathbb {E} [(\mathbf {X} -{\boldsymbol {\mu }})^{T}{\boldsymbol {\Sigma }}^{-1}(\mathbf {X} -{\boldsymbol {\mu }})]=n}
,
denn
Spur
(
Σ
−
1
Σ
)
=
Spur
(
I
n
)
=
n
{\displaystyle \operatorname {Spur} ({\boldsymbol {\Sigma }}^{-1}{\boldsymbol {\Sigma }})=\operatorname {Spur} (\mathbf {I_{n}} )=n}
.
Für einen Vektor
b
∈
R
n
{\displaystyle \mathbf {b} \in \mathbb {R} ^{n}}
hat der Zufallsvektor
X
−
b
{\displaystyle \mathbf {X} -\mathbf {b} }
den Erwartungswertvektor
μ
−
b
{\displaystyle {\boldsymbol {\mu }}-\mathbf {b} }
und dieselbe Kovarianzmatrix
Σ
{\displaystyle {\boldsymbol {\Sigma }}}
wie der Zufallsvektor
X
{\displaystyle \mathbf {X} }
, so dass sich
E
[
(
X
−
b
)
T
A
(
X
−
b
)
]
=
Spur
(
A
Σ
)
+
(
μ
−
b
)
T
Σ
(
μ
−
b
)
{\displaystyle \mathbb {E} [(\mathbf {X} -\mathbf {b} )^{T}\mathbf {A} (\mathbf {X} -\mathbf {b} )]=\operatorname {Spur} (\mathbf {A} {\boldsymbol {\Sigma }})+({\boldsymbol {\mu }}-\mathbf {b} )^{T}{\boldsymbol {\Sigma }}({\boldsymbol {\mu }}-\mathbf {b} )}
ergibt.
Satz :
X
{\displaystyle \mathbf {X} }
sei ein
n
{\displaystyle n}
-dimensionaler Zufallsvektor mit dem Erwartungswertvektor
μ
∈
R
n
{\displaystyle {\boldsymbol {\mu }}\in \mathbb {R} ^{n}}
und der Kovarianzmatrix
Σ
∈
R
n
×
n
{\displaystyle {\boldsymbol {\Sigma }}\in \mathbb {R} ^{n\times n}}
. Es sei
b
∈
R
n
{\displaystyle \mathbf {b} \in \mathbb {R} ^{n}}
und die quadratischen reellen Matrizen
B
j
∈
R
n
×
n
{\displaystyle \mathbf {B} _{j}\in \mathbb {R} ^{n\times n}}
für
j
=
1
,
…
,
m
{\displaystyle j=1,\dots ,m}
seien positiv semidefinit. Mit positiven Konstanten
δ
j
>
0
{\displaystyle \delta _{j}>0}
für
j
=
1
,
…
,
m
{\displaystyle j=1,\dots ,m}
seien die
m
{\displaystyle m}
Ereignisse
A
j
:=
{
(
X
−
b
)
T
B
j
(
X
−
b
)
≤
δ
j
}
,
j
=
1
,
…
,
m
{\displaystyle A_{j}:=\{(\mathbf {X} -{\boldsymbol {b}})^{T}\mathbf {B} _{j}(\mathbf {X} -{\boldsymbol {b}})\leq \delta _{j}\},\quad j=1,\dots ,m}
definiert. Dann gilt
P
(
⋂
j
=
1
m
A
j
)
≥
1
−
(
γ
1
δ
1
+
⋯
+
γ
m
δ
m
)
{\displaystyle P\left(\bigcap _{j=1}^{m}A_{j}\right)\geq 1-\left({\frac {\gamma _{1}}{\delta _{1}}}+\dots +{\frac {\gamma _{m}}{\delta _{m}}}\right)}
mit
γ
j
=
Spur
(
B
j
Σ
)
+
(
μ
−
b
)
T
B
j
(
μ
−
b
)
,
j
=
1
,
…
,
m
.
{\displaystyle \gamma _{j}=\operatorname {Spur} (\mathbf {B} _{j}{\boldsymbol {\Sigma }})+({\boldsymbol {\mu }}-{\boldsymbol {b}})^{T}{\boldsymbol {\mathrm {B} }}_{j}({\boldsymbol {\mu }}-{\boldsymbol {b}}),\quad j=1,\dots ,m.}
[ 3] [ 4]
Ein wichtiger Spezialfall ergibt sich für
m
=
1
{\displaystyle m=1}
,
b
=
μ
{\displaystyle {\boldsymbol {b}}={\boldsymbol {\mu }}}
,
B
1
=
Σ
−
1
{\displaystyle \mathbf {B} _{1}={\boldsymbol {\Sigma }}^{-1}}
und
δ
1
=
δ
>
0
{\displaystyle \delta _{1}=\delta >0}
. Dann gelten die Ungleichungen
P
(
(
X
−
μ
)
T
Σ
−
1
(
X
−
μ
)
≤
δ
)
≥
1
−
n
δ
{\displaystyle P\left((\mathbf {X} -{\boldsymbol {\mu }})^{T}{\boldsymbol {\Sigma }}^{-1}(\mathbf {X} -{\boldsymbol {\mu }})\leq \delta \right)\geq 1-{\frac {n}{\delta }}}
und
P
(
(
X
−
μ
)
T
Σ
−
1
(
X
−
μ
)
>
δ
)
≤
n
δ
.
{\displaystyle P\left((\mathbf {X} -{\boldsymbol {\mu }})^{T}{\boldsymbol {\Sigma }}^{-1}(\mathbf {X} -{\boldsymbol {\mu }})>\delta \right)\leq {\frac {n}{\delta }}\;.}
Die letzte Ungleichung wurde bereits 1962 von Samuel Stanley Wilks angegeben[ 5] und ist eine multivariate Verallgemeinerung der Tschebyscheffschen Ungleichung , die für eine reelle Zufallsvariable
X
{\displaystyle X}
mit dem Erwartungswert
μ
{\displaystyle \mu }
und der Varianz
0
<
σ
2
<
∞
{\displaystyle 0<\sigma ^{2}<\infty }
in der Form
P
(
(
X
−
μ
)
2
σ
2
>
δ
)
≤
1
δ
,
δ
>
0
{\displaystyle P\left({\frac {(X-\mu )^{2}}{\sigma ^{2}}}>\delta \right)\leq {\frac {1}{\delta }},\quad \delta >0}
geschrieben werden kann.
A. M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables – Theory and Applications (= Statistics: Textbooks and Monographs . Band 126 ). Dekker, New York / Basel /Hong Kong 1992, ISBN 0-8247-8691-2 .
D. R. Jensen: Joint Distributions of Quadratic Forms . In: SIAM Journal on Applied Mathematics . Band 42 , Nr. 2 , 1982, S. 297–301 , JSTOR :2101213 .
↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables . Definition 3.1.1 , S. 25 .
↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables . Corollary 3.2b.1 , S. 51 .
↑ D. R. Jensen: Joint Distributions of Quadratic Forms . Theorem 1 , S. 297 .
↑ A.M. Mathai, Serge B. Provost: Quadratic Forms in Random Variables . Theorem 4.8.1 , S. 188 .
↑ S. S. Wilks: Mathematical Statistics . Wiley, New York 1962, S. 92 (referenziert nach D. R. Jensen: Joint Distributions of Quadratic Forms , S. 298).