ARMA-Modell

autoregressive Modelle der gleitenden Mittel
(Weitergeleitet von Autoregressiver Prozess)

ARMA-Modelle (ARMA, Akronym für: AutoRegressive-Moving Average, deutsch autoregressiver gleitender Durchschnitt, oder autoregressiver gleitender Mittelwert) bzw. autoregressive Modelle der gleitenden Mittel und deren Erweiterungen (ARMAX-Modelle und ARIMA-Modelle) sind lineare, zeitdiskrete Modelle für stochastische Prozesse. Sie werden zur statistischen Analyse von Zeitreihen besonders in den Wirtschafts-, Sozial- und Ingenieurwissenschaften eingesetzt. Die Spezifikation, Schätzung, Validierung und praktische Anwendung von ARMA-Modellen werden im Box-Jenkins-Ansatz behandelt. Als wichtigste Anwendung gilt die kurzfristige Vorhersage. Diese Modelle haben die Form von linearen Differenzengleichungen und dienen dazu, lineare stochastische Prozesse abzubilden bzw. komplexere Prozesse zu approximieren.

Mathematische Darstellung

Bearbeiten

Fließen in ein ARMA-Modell sowohl vergangene Rauschterme als auch vergangene Werte der Zeitreihe selbst ein, spricht man auch von einem gemischten ARMA-Modell. Sind es nur aktuelle und vergangene Rauschterme, handelt es sich um ein (reines) Moving-Average- oder MA-Modell. Wenn neben dem aktuellen Rauschterm nur vergangene Werte der Zeitreihe selbst einfließen, handelt es sich um ein (reines) autoregressives oder AR-Modell.

Moving-Average- oder MA-Modell

Bearbeiten
 

Das zu modellierende Signal   ist durch ein gewichtetes, gleitendes Mittel (Moving Average) von Rauschtermen   in der aktuellen und den   Vorperioden sowie einer Konstanten   gegeben. Die sogenannten MA-Koeffizienten   geben an, mit welchem Gewicht der Rauschterm in das Signal einfließt.

Bezüglich der Rauschterme   wird angenommen, dass sie zeitlich voneinander unabhängig und identisch (meist Gauß-)verteilt sind, mit Erwartungswert 0 und der Varianz  .

Autoregressives oder AR-Modell

Bearbeiten
 

Das Signal setzt sich aus einer Konstanten, einem Rauschterm und einem gewichteten, gleitenden Mittel der   vorhergehenden Signalwerte zusammen, wobei die AR-Koeffizienten   die Gewichte sind.

ARMA-Modell

Bearbeiten
 

Dieses Modell wird auch als ARMA(p, q)-Modell bezeichnet, wobei p und q, jeweils die autoregressive und die Moving-Average-Ordnung des Prozesses angeben. Reine AR(p)- bzw. MA(q)-Modelle sind also spezielle ARMA-Modelle mit q=0 bzw. p=0.

Mit Hilfe des sogenannten Verschiebungs- oder Lag-Operators   (von lag, „Zeitverschiebung“)

 

schreibt man kürzer auch

 

wobei   und   jeweils Polynome (der Grade p und q) sind

 ,
 .

Alternative Darstellungen

Bearbeiten

Reine MA-Darstellung

Bearbeiten

Haben   und   keine gemeinsamen Nullstellen, so kann man einen ARMA-Prozess genau dann als einen MA( )-Prozesses auszudrücken, wenn   für alle Nullstellen   von  . Das heißt, unter diesen Voraussetzungen hat der Prozess eine Darstellung der Form

 

wobei der Erwartungswert von   durch   und die Koeffizienten der reinen MA-Darstellung   durch das Polynom   gegeben sind.

Reine AR-Darstellung

Bearbeiten

Analog zur reinen MA-Darstellung ist die reine AR-Darstellung. Sie erfordert, dass der Prozess invertierbar ist, also die Nullstellen des MA-Polynoms   größer eins sind. Dann gilt

 

bzw.

 

Spezialfälle

Bearbeiten

Weißes Rauschen

Bearbeiten

Einen ARMA(0,0)-Prozess  , wobei es sich bei   um den Rauschterm (möglicherweise plus einer Konstanten) handelt, nennt man Weißes Rauschen.

Random Walk

Bearbeiten

Ein Random Walk ist ein AR-Prozess erster Ordnung (p=1), bei dem der AR-Koeffizient den Wert 1 hat, also

 

Gilt für die Konstante  , dann spricht man auch von einem Random Walk mit Drift, andernfalls von einem Random Walk ohne Drift. Ein Random Walk ist stets integriert von der Ordnung 1.

Modellierung

Bearbeiten

Die ARMA-Modellierung folgt in der Praxis meist der Box-Jenkins-Methode, die aus den Schritten Modellidentifikation, -schätzung, -validierung und -anwendung besteht.

Identifikation

Bearbeiten

Ziel der Identifikation ist es, die ARMA-Spezifikationsparameter d, p und q zu bestimmen. Zur Bestimmung von d, der notwendigen Differenzenordnung, können Einheitswurzeltests verwendet werden. Für die ARMA-Ordnungen p und q werden häufig die Autokorrelationsfunktion (AKF) und die partielle Autokorrelationsfunktion herangezogen sowie Kriterien zur Modellselektion, wie das Akaike-Informationskriterium oder das bayessche Informationskriterium.

Schätzung

Bearbeiten

Die Schätzung der Modellparameter erfolgt meist durch Maximum-Likelihood-Schätzung oder Kleinste-Quadrate-Schätzung. Im Fall von reinen AR-Modellen ist der Kleinste-Quadrate-Schätzer ein linearer Schätzer; ansonsten ist eine nichtlineare Kleinste-Quadrate-Schätzung erforderlich.

Validierung

Bearbeiten

Um die Geeignetheit eines geschätzten Modells zu beurteilen, können verschiedene Kriterien herangezogen werden. In der Regel wird geprüft, ob die Residuen, also die geschätzten   unkorreliert sind und sich wie weißes Rauschen verhalten. Darüber hinaus kann auch die Prognosegüte evaluiert werden. Erscheint ein Modell nicht adäquat, kann ein erneutes Durchlaufen des Identifikations- und Schätzschrittes ggf. Abhilfe schaffen.

Anwendung

Bearbeiten

Nach erfolgreicher Validierung kann die Modellanwendung betrieben werden. Häufig ist das die Kurzfristprognose. Eine Einschritt-Prognose erhält man zum Beispiel, indem man die Differenzengleichung des geschätzten ARMA-Modells eine Periode in die Zukunft schiebt und den bedingten Erwartungswert berechnet. Für Mehrschritt-Prognosen kann dies rekursiv wiederholt werden.

Erweiterungen

Bearbeiten

ARMA-Modelle werden in Anwendungen typischerweise als Modelle für stationäre stochastische Prozesse und von diesen erzeugten Zeitreihen verwendet. Verschiedene Erweiterungen dienen der Modellierung nicht-stationärer stochastischer Prozesse oder multivariater stochastischer Prozesse. Stationarität bedeutet in diesem Zusammenhang, dass Erwartungswert und Varianz zeitunabhängig sind.

ARIMA-Modell

Bearbeiten

Bei nicht-stationären Zeitreihen kann unter Umständen durch Differenzenbildung Stationarität induziert werden. Die erste Differenz von   ist durch   definiert, wobei   der sogenannte Differenzen-Operator ist. Modelliert man nicht  , sondern die d-te Differenz   als ARMA(p, q)-Modell, dann spricht man von einem integrierten ARMA-Modell der Ordnungen p, d, und q, oder kurz: einem ARIMA(p,d,q)-Modell. Werte für die ursprüngliche, undifferenzierte Zeitreihe erhält man durch d-faches Integrieren („Anti-Differenzenbildung“) von  .

ARMAX-Modell

Bearbeiten

Werden eine oder mehrere exogene Variablen benötigt, um die Zeitreihe   zu modellieren, dann spricht man von einem ARMAX-Modell. Im Falle einer exogenen Variable   gilt dann:

 

wobei das Polynom   die Lag-Struktur beschreibt, mit der die exogene Variable   die zu erklärende Variable   beeinflusst.

Saisonale ARMA- und ARIMA-Modelle

Bearbeiten

In Wirtschafts- aber auch anderen Zeitreihen treten häufig saisonale Effekte auf. Beispiele sind monatliche Arbeitslosenzahlen, quartalsweise Einzelhandelsumsätze etc. Um diese zu berücksichtigen, können zusätzlich saisonale AR- bzw. MA-Komponenten spezifiziert werden. Liegen Daten mit einer saisonalen Spanne   (z. B.   für Monatsdaten und   für Quartalsdaten) vor, dann hat das saisonale ARMA-Modell die Form

 

wobei

 

das saisonale AR-Polynom der Ordnung   ist und

 

das saisonale MA-Polynom der Ordnung  .

In Kurzform:  . Die Kombination von ARIMA-Modellen mit saisonalen Modellen führt zu SARIMA-Modellen.

VARMA-Modell

Bearbeiten

VARMA-Modelle sind eine mehrdimensionale Verallgemeinerung der ARMA-Modelle. VAR-Modelle sind lineare, zeitdiskrete Modelle für stochastische Prozesse mit   endogenen Variablen: Jede Variable hängt von   vorhergehenden Signalwerte zusammen ab. VMA-Modelle sind die Verallgemeinerung von MA-Modellen und sie sind nützlich für Impuls-Antwort-Funktion-Analyse. Ein VAR-Modell (Ordnung  ) ist

 

mit   als einem konstanten Vektor,   als einem Vektor aus weißem Rauschen und   als  -Matrizen.

Die Erweiterung eines ARMA-Modells durch beobachtbare exogene Variablen führt zu VARMAX-Modellen.

Siehe auch

Bearbeiten

Literatur

Bearbeiten
  • G. E. P. Box, G. M. Jenkins: Time series analysis: Forecasting and control. Holden-Day, San Francisco 1970.
  • R. McCleary, R. A. Hay: Applied Time Series Analysis for the Social Sciences. Sage Publications, Beverly Hills 1986.
  • James D. Hamilton: Time Series Analysis. Princeton University Press, Princeton 1994.
  • W. Enders: Applied Econometic Time Series. John Wiley & Sons, 1995.
  • Terence C. Mills: The Econometric Modelling of Financial Time Series. 2nd Edition, Cambridge University Press, 1999.
  • Ruey S. Tsay: Analysis of Financial Time Series. 2. Auflage. Wiley Series in Prob. and Statistics, 2005.
  • W. Stier: Methoden der Zeitreihenanalyse. Springer, 2001.
  • M. Guidolin, M. Pedio: Essentials of Time Series for Financial Applications. Academic Press, 2018.