Die Box-Cox-Transformation ist ein mathematisches Instrument der Regressionsanalyse und der Zeitreihenanalyse, mit dem eine Stabilisierung der Varianz erreicht werden soll. Die Formel lautet:
![{\displaystyle Y_{t}^{(\lambda )}=\left\{{\begin{matrix}{\dfrac {(Y_{t}+c)^{\lambda }-1}{\lambda }}&\quad \mathrm {f{\ddot {u}}r\;\;} \lambda \neq 0\\[10pt]\ln(Y_{t}+c)&\quad \mathrm {f{\ddot {u}}r\;\;} \lambda =0\end{matrix}}\right.}](https://wikimedia.org/api/rest_v1/media/math/render/svg/af70d1e923b10a14272e95fe2c678f3c7dc1a0dd)
Es gibt verschiedene Methoden, um geeignete Werte für
zu finden. Zum Beispiel kann
zusammen mit anderen Modellparametern mittels Maximum-Likelihood-Schätzung oder durch visuellen Vergleich der transformierten Daten bestimmt werden.
- George E. P. Box und David R. Cox: An analysis of transformations. Journal of the Royal Statistical Society Series B 26(2). 1964. S. 211–252. JSTOR:2984418