Unüberwachtes Lernen

Zweig des maschinellen Lernens

Unüberwachtes Lernen (englisch unsupervised learning) bezeichnet maschinelles Lernen ohne im Voraus bekannte Zielwerte sowie ohne Belohnung durch die Umwelt. Die (Lern-)Maschine versucht, in den Eingabedaten Muster zu erkennen, die vom strukturlosen Rauschen abweichen.[1] Ein Lernalgorithmus, beispielsweise ein künstliches neuronales Netz, berechnet Ähnlichkeiten zwischen verschiedenen Inputwerten und erstellt daraus ein Modell, das an die Daten angepasst ist. Mit Hilfe des Modells kann man danach verschiedene Zusammenhänge in den Daten erkennen und weiter untersuchen. Typische Anwendungsgebiete sind die automatische Segmentierung (Clustering) oder die Hauptkomponentenanalyse von Daten zur Dimensionsreduktion.

Vorteile des unüberwachten Lernens

Bearbeiten

Das unüberwachte Lernen kann einen entscheidenden Beitrag zum maschinellen Lernen liefern, wenn aus Eingabedaten gelernt werden soll, die keine Zielwerte enthalten. Das unüberwachte Lernen kann dabei unterstützen, Eingabedaten für das überwachte Lernen vorzubereiten.

Das überwachte Lernen ist auf gut strukturierte Eingabedaten mit Zielwerten angewiesen, um das Modell gut an die Daten anpassen zu können. Das unüberwachte Lernen bietet hier den Vorteil, dass es weniger gut strukturierten Daten verarbeiten kann.[2]

Durch die geringeren Anforderungen an die zu verwendenden Daten kann das unüberwachte Lernen auch bisher unbekannte Strukturen in den Eingabedaten identifizieren. Hierbei werden aus den vorhandenen Daten Rückschlüsse bezüglich immer wieder auftretender Muster gezogen, sodass über diese Rückschlüsse in Zukunft weitere Daten strukturiert werden können.[2]

Clusteranalyse

Bearbeiten

Eine der Hauptaufgaben des unüberwachten Lernens ist die Findung von Clustern in unstrukturierten Daten.

Hierbei wird versucht zwischen den einzelnen Einträgen eines Datensatzes Gemeinsamkeiten zu finden und basierend auf die Gemeinsamkeiten Cluster zu bilden.

Hierbei existieren verschiedene Vorgehen wie die Einteilung in diese Cluster geschehen kann. Die Clusteranalyse unterscheidet hierbei unter anderem zwischen hierarchischem, partitionierendem, dichtebasierendem und gitterbasierendem Clustering.

Diese Vorgehen unterschieden sich hierbei teilweise deutlich in ihrem Ergebnis in Bezug auf die betrachteten Daten, sodass der optimale Algorithmus immer auf eine Einzelfallentscheidung hinaus läuft.

Zur Analyse der Güte der erstellten Cluster existieren verschiedene Metriken, um die einzelnen Algorithmen zu evaluieren.[3]

Beispiele:

Hierarchisches Clustering:

  • Minimum Linkage
  • Maximum Linkage
  • Ward Linkage

Partitionierendes Clustering

Dichtebasierendes Clustering

Gitterbasierendes Clustering

  • STING
  • CLIQUE

Anomalieerkennung

Bearbeiten

Neben der Einteilung in einzelne Cluster können mittels unüberwachtem Lernen auch einzelne Ausreißer in einem Datensatz erkannt werden. Hierbei sollen Daten identifiziert werden, die sich von vorher definiertem normalem Verhalten unterschieden.[4]

Die Umsetzung dieser Ausreißererkennung unterscheidet sich dabei stark zwischen den einzelnen Algorithmen. Ein beliebter Algorithmus in diesem Bereich ist der Isolation Forest Algorithmus. Diese Algorithmen des unüberwachten Lernens finden sich in unterschiedlichen Anwendungsszenarien in der Praxis wieder.

Im Bereich der Sicherheit werde sie zum Beispiel innerhalb von Intrusion Detection System angewendet. Hierbei sollen sie Angreifer mittels eines von der Norm abweichenden Verhalten erkennen. Die Modelle wurde dabei zuvor anhand des normalen Datenverkehrs trainiert.[5]

Beispielalgorithmen:

Hauptkomponentenanalyse

Bearbeiten

Hierbei ist das Ziel der Analyse eine Vielzahl einzelner Datenpunkte auf die wenigen aussagekräftigen Punkte zu reduzieren. Dieses Vorgehen wird oftmals mit der Clusteranalyse kombiniert, um die Anzahl betrachteter Punkte in dieser zu reduzieren.[1]

Hierzu werden die einzelnen Spalten eines Datensatzes auf ihren Informationsgehalt geprüft. Spalten, die einen niedrigen Informationsgehalt besitzen werden eliminiert, bis eine vorher definierte Anzahl an übrigen Spalten erreicht wurde.[1]

Siehe auch

Bearbeiten

Literatur

Bearbeiten

Einzelnachweise

Bearbeiten
  1. a b c Zoubin Ghahramani: Unsupervised Learning. In: Advanced Lectures on Machine Learning. 3176. Jahrgang, 16. September 2004, S. 72–112, doi:10.1007/978-3-540-28650-9_5 (cam.ac.uk [PDF]).
  2. a b Ankur A. Patel: Hands-On Unsupervised Learning Using Python. O’Reilly, Sebastopol 2019, ISBN 978-1-4920-3564-0, S. 7–8.
  3. Darius Pfitzner, Richard Leibbrandt, David Powers: Characterization and evaluation of similarity measures for pairs of clusterings. In: Knowledge and Information Systems. Band 19, Nr. 3, 1. Juni 2009, ISSN 0219-3116, S. 361–394, doi:10.1007/s10115-008-0150-6.
  4. Varun Chandola, Arindam Banerjee, Vipin Kumar: Anomaly detection: A survey. In: ACM Computing Surveys. Band 41, Nr. 3, 30. Juli 2009, ISSN 0360-0300, S. 15:1–15:58, doi:10.1145/1541880.1541882.
  5. Aggarwal, Charu: Outlier Analysis. Springer Publishing Company, Incorporated., 2017, ISBN 3-319-47577-0.