Ausreißer

Messwert oder Befund, der nicht in eine erwartete Messreihe passt oder nicht den Erwartungen entspricht

In der Statistik nennt man einen Messwert, der stark von der gesamten Messreihe abweicht, Ausreißer. Dies passiert, wenn ein Messwert einer Messreihe, die zur Ermittlung der Verteilung einer Zufallsgröße dienen soll, nicht aus dieser, sondern aufgrund eines Störeinflusses aus einer anderen Zufallsgröße stammt. Hierdurch würde die Berücksichtigung dieses Messwertes zu einer Verfälschung führen, da so Stichproben zweier verschieden verteilter Zufallsgrößen gemischt würden. Die robuste Statistik beschäftigt sich mit der Ausreißerproblematik. Auch im Data-Mining beschäftigt man sich mit der Erkennung von Ausreißern. Von Ausreißern zu unterscheiden sind einflussreiche Beobachtungen.

Ein Ausreißer-Messwert. Die blaue Gerade wurde ohne Einbeziehung des Ausreißers erstellt, die violette mit der Einbeziehung.
Der Boxplot auf einem Zahlenstrahl dargestellt.

Überprüfung auf Messfehler

Bearbeiten

Liegt ein Ausreißer vor, muss überprüft werden ob es sich bei dem Ausreißer tatsächlich um ein verlässliches und echtes Ergebnis handelt oder ob ein Messfehler vorliegt.

Beispiel: So wurde das Ozonloch über der Antarktis einige Jahre zwar bereits gemessen, die Messwerte aber als offensichtlich falsch gemessen bewertet (d. h. als „Ausreißer“ interpretiert und ignoriert) und dadurch nicht in ihrer Tragweite erkannt.[1]

Ausreißertests

Bearbeiten

Ein anderer Ansatz wurde u. a. von Ferguson im Jahr 1961 vorgeschlagen.[2] Danach wird davon ausgegangen, dass die Beobachtungen aus einer hypothetischen Verteilung stammen. Ausreißer sind dann Beobachtungen, die nicht aus der hypothetischen Verteilung stammen. Die folgenden Ausreißertests gehen alle davon aus, dass die hypothetische Verteilung eine Normalverteilung ist und prüfen, ob einer oder mehrere der Extremwerte nicht aus der Normalverteilung stammen:

Der Ausreißertest nach Walsh basiert hingegen nicht auf der Annahme einer bestimmten Verteilung der Daten. Im Rahmen der Zeitreihenanalyse können Zeitreihen, bei denen ein Ausreißer vermutet wird, darauf getestet werden und dann mit einem Ausreißermodell modelliert werden.

Unterschiede zu Extremwerten

Bearbeiten

Ein beliebter Ansatz ist es, den Boxplot zu nutzen, um Ausreißer zu identifizieren. Die Beobachtungen außerhalb der Whisker werden dabei willkürlich als Ausreißer bezeichnet. Für die Normalverteilung kann man ausrechnen, dass knapp 0,7 % der Masse der Verteilung außerhalb der Whiskers liegen. Bereits ab einem Stichprobenumfang von   würde man daher mindestens eine Beobachtung außerhalb der Whiskers erwarten (oder auch   Beobachtungen außerhalb der Whiskers bei  ). Sinnvoller ist es daher, statt von Ausreißern von Extremwerten zu sprechen.

Multivariate Ausreißer

Bearbeiten
 
Ausreißer rechts unten im Streudiagramm und Boxplots für jede einzelne Variable.

In mehreren Dimensionen wird die Situation noch komplizierter. In der Grafik rechts kann der Ausreißer rechts unten in der Ecke nicht durch Inspektion jeder einzelnen Variable erkannt werden; er ist in den Boxplots nicht sichtbar. Trotzdem wird er eine lineare Regression deutlich beeinflussen.

Andrews’ Kurven

Bearbeiten
 
Andrews’ Kurven mit unterschiedlich eingefärbten Daten

Andrews (1972) schlug vor, jede multivariate Beobachtung   durch eine Kurve zu repräsentieren:[3]

 

Damit wird jede multivariate Beobachtung auf eine zweidimensionale Kurve im Intervalls   abgebildet. Aufgrund der Sinus- und Kosinusterme wiederholt sich die Funktion   außerhalb des Intervalls  .

Für jeweils zwei Beobachtungen   und   gilt:

 

Der Ausdruck (1) links neben dem Gleichheitszeichen entspricht (zumindest approximativ) der Fläche zwischen den beiden Kurven, und der Ausdruck (2) rechts ist (zumindest approximativ) der multivariate euklidische Abstand zwischen den beiden Datenpunkten.

Ist also der Abstand zwischen zwei Datenpunkten klein, dann muss auch die Fläche zwischen den Kurven klein sein, d. h., die Kurven der Funktionen   und   müssen nahe beieinander verlaufen. Ist jedoch der Abstand zwischen zwei Datenpunkten groß, muss auch die Fläche zwischen den Kurven groß sein, d. h., die Kurven der Funktionen  und   müssen sehr unterschiedlich verlaufen. Ein multivariater Ausreißer würde als Kurve sichtbar sein, die sich von allen anderen Kurven in ihrem Verlauf deutlich unterscheidet.

Andrews’ Kurven haben zwei Nachteile:

  • Wenn der Ausreißer in genau einer Variable sichtbar ist, nimmt der Mensch die unterschiedlichen Kurven umso besser wahr, je weiter vorne diese Variable auftaucht. Am besten sollte sie die Variable   sein. D.h., es bietet sich an, die Variablen zu sortieren, z. B.   wird die Variable mit der größten Varianz, oder man nimmt die erste Hauptkomponente.
  • Wenn man viele Beobachtungen hat, müssen viele Kurven gezeichnet werden, sodass der Verlauf einer einzelnen Kurve nicht mehr sichtbar wird.

Stahel-Donoho Outlyingness

Bearbeiten

Stahel (1981) und David Leigh Donoho (1982) definierten die sog. Outlyingness. "Um die Maßzahl zu erhalten, die aussagt, wie weit ein Beobachtungswert von der Masse der Daten entfernt liegt,[4][5] müssen alle möglichen Linearkombinationen  berechnet werden. Das heißt die Projektion des Datenpunktes auf den Vektor  , mit   ergibt die Outlyingness:

 ,

Wobei der Median der projizierten Punkte ( ) und die mittlere absolute Abweichung der projizierten Punkte ( ), als robustes Streuungsmaß angegeben wird. Der Median dient dabei als robustes Lage-, die mittlere absolute Abweichung als robustes Streuungsmaß.   ist eine Normalisierung.

In der Praxis wird die Outlyingness berechnet, indem für mehrere hundert oder tausend zufällig ausgewählte Projektionsrichtungen   das Maximum   bestimmt wird.

Ausreißererkennung im Data-Mining

Bearbeiten

Unter dem englischen Begriff Outlier Detection (deutsch: Ausreißererkennung) versteht man den Teilbereich des Data-Mining, bei dem untypische und auffällige Datensätze identifiziert werden. Anwendung hierfür ist beispielsweise die Erkennung von (potentiell) betrügerischen Kreditkartentransaktionen in der großen Menge der validen Transaktionen. Die ersten Algorithmen zur Ausreißererkennung waren eng an den hier erwähnten statistischen Modellen orientiert, jedoch haben sich aufgrund von Berechnungs- und vor allem Laufzeitüberlegungen die Algorithmen davon entfernt.[6] Ein wichtiges Verfahren hierzu ist der dichtebasierte Local Outlier Factor.

Ausreißer lassen sich auch durch den Vergleich mit Prognoseintervallen entdecken.[7]

Siehe auch

Bearbeiten

Literatur

Bearbeiten
  • Ausreißerproblem (outlier problem). In: P. H. Müller (Hrsg.): Lexikon der Stochastik – Wahrscheinlichkeitsrechnung und mathematische Statistik. 5. Auflage. Akademie-Verlag, Berlin 1991, ISBN 978-3-05-500608-1, S. 16–18.
  • Vic Barnett, Toby Williams: Outliers in Statistical Data (= Wiley Series in Probability and Mathematical Statistics). 3. Auflage. Wiley, Chichester 1994, ISBN 0-471-93094-6.
  • R. Khattree, D. N. Naik: Andrews Plots for Multivariate Data: Some New Suggestions and Applications. In: Journal of Statistical Planning and Inference. Band 100, Nr. 2, 2002, S. 411–425, doi:10.1016/S0378-3758(01)00150-1.
Bearbeiten
Wiktionary: Ausreißer – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen

Einzelnachweise

Bearbeiten
  1. Karl-Heinz Ludwig: Eine kurze Geschichte des Klimas: Von der Entstehung der Erde bis heute. 2. Auflage. Beck Verlag 2007, ISBN 978-3-406-56557-1, S. 149.
  2. T. S. Ferguson: On the Rejection of outliers. In: Proceedings of the Fourth Berkeley Symposium on Mathematical Statistics and Probability. Band 1, 1961, S. 253–287 (projecteuclid.org [PDF]).
  3. D. Andrews: Plots of high-dimensional data. In: Biometrics. 28, 1972, S. 125–136, JSTOR:2528964.
  4. W. A. Stahel: Robuste Schätzungen: infinitesimale Optimalität und Schätzungen von Kovarianzmatrizen. PhD thesis, ETH Zürich, 1981.
  5. D. L. Donoho: Breakdown properties of multivariate location estimators. Qualifying paper, Harvard University, Boston 1982.
  6. H.-P. Kriegel, P. Kröger, A. Zimek: Outlier Detection Techniques. Tutorial. In: 13th Pacific-Asia Conference on Knowledge Discovery and Data Mining (PAKDD 2009). Bangkok, Thailand 2009 (lmu.de [PDF; abgerufen am 26. März 2010]).
  7. Leying Guan, Rob Tibshirani: Prediction and Outlier Detection in Classification Problems. In: Journal of the Royal Statistical Society Series B: Statistical Methodology. 2022, Band 84, Nummer 2, S. 524–546 doi:10.1111/rssb.12443.