Diskussion:Selbstorganisierende Karte

Letzter Kommentar: vor 7 Jahren von 37.120.18.82 in Abschnitt Verständlichkeit
Bearbeiten

http://www.cse.dmu.ac.uk/Courses/MScHCS/AI/SNNS/kohonen-snns.html - entfernt, scheint tot zu sein

Formale Beschreibung der SOM

Bearbeiten

Da die Beschreibung abstrakt formuliert ist, könnte ein möglichst (aber nicht zu) einfaches Beispiel mit direktem Bezug auf die im Formalismus erwähnten Parameter das Verständnis dieser Materie wesentlich erleichtern. Ich werde selbst versuchen, mir eins auszudenken; kommt mir jemand zuvor, wäre ich nicht böse drum.--Slow Phil 12:50, 19. Apr 2005 (CEST)--

Verständlichkeit

Bearbeiten

Ich beschäftige mich jetzt seit einem Jahr mit Neuronalen Netzen, vor allem mit MLP's, aber dieser Artikel ist wirklich sehr schwer geschrieben und sogar für mich, als "Nicht-Anfänger", schwer zu verinnerlichen. Wäre erfreut wenn sich ein erfahrener Benutzer mit diesem Thema auseinandersetzen würde. Danke!

Dem kann ich nur beipflichten. Saetze ergeben teilweise garkeinen Sinn: "Die folgende Tabelle zeigt ein Netz, dessen Neuronen in einem Gitter angeordnet sind und zu Beginn zufällig im Raum verteilt sind. Es wird mit Eingabereizen aus dem Quadrat trainiert, die gleichverteilt sind."

- Sind die Neuronen nun in einem Gitter angeornet oder im Raum zufaellig verteilt?

- Was heist ueberhaupt Neuronen sind in einem Gitter angeordnet? Neuronale Netze sind Graphen mit gewichteten Kanten. Die Anordnung der Neuronen spielt also garkeine Rolle. Nur die Verbindungen sind wichtig.

- Es wird mit Eingabereizen aus dem Quadrat trainiert. What?? (nicht signierter Beitrag von 37.120.18.82 (Diskussion) 21:15, 16. Mär. 2017 (CET))Beantworten

englische Version

Bearbeiten

Die englische Version dieses Artikels ist viel leichter verständlich.

Tja das ist leider irgendwie Wikipedia-typisch, zumindest was die "Mathe"-Artikel anbelangt...

Formale Beschreibung unsinnig

Bearbeiten

Die "formale Beschreibung", die hier verwendet wird, ist unnötigerweise mit mengentheoretischen Ausdrücken und griechischen Variablen (die auch noch indiziert werden) aufgebläht. Ich kann mir wirklich keinen anderen Grund vorstellen, als dass die Sache schlau aussehen soll. Es ist lächerlich, wenn davon gesprochen wird, dass "eine Metrik auf dem Inputraum und der Karte gegeben sei". *Selbstverständlich* sind die gegeben, denn wir rechnen im R^n, sonst könnten wir das alles auch gleich lassen. Und was soll überhaupt der "Inputraum"? Es gibt nicht viele andere Möglichkeiten als R^n. Der Vogel wird abgeschossen, als der Artikel zum Schluss noch mit Topologie-erhaltenden Abbildungen und der Nachbarschaft h_si^t kommt, nur um zu sagen, dass der Lernradius im Laufe der Zyklen verringert werden soll. (So interpretiere ich das wenigstens. Analog bei der sog. "Adaptionsstärke" Epsilon^t.) Anstatt sprechende Bezeichner zu benutzen wie "dist" (ich dachte, es geht um Metrik!?) oder vielleicht auch Normstriche, wird ein "d" gesetzt -- wäre ja sonst zu einfach zu lesen. Letztlich wird schließlich in dem ganzen Geschreibsel nicht viel gesagt, das aber unverständlich. Da es das Ziel einer Enzyklopädie ist, etwas zu *erklären*, verfehlt dieser Artikel sein Ziel deutlich. Ich schlage daher eine mehr oder weniger vollständige Neufassung der "formalen" Beschreibung vor. (Beteilige ich mich auch gern dran.)

offensichtlich hat hier jemand die bedeutung des wortes "Formal" nicht ganz verstanden. Formal soll nicht schlau aussehen, sondern vollstaendig und eindeutig sein. Gut moeglich dass man es auf dieser Seite an manchen stellen vereinfachen koennte, aber es (bspw.) als laecherlich hinstellen, dass eine metrik gegeben ist - mit der begruendung dass sie *selbstverstaendlich* gegeben ist - aehm. In einer formalen beschreibung ist zunaechst einmal *nichts* selbstverstaendlich gegeben. im uebrigen ist es fuer die map ein entscheidender parameter, welche art von metrik benutzt wird, und bei einer SOM haben wir sogar 2 verschiedene metriken (die auf dem inputraum und die auf dem kartenraum) ich wuerde vorschlagen du beteiligst dich lieber nicht an irgendwelchen formalen neuverfassungen des abschnittes :-) (nichts fuer ungut) (nicht signierter Beitrag von 80.136.201.57 (Diskussion | Beiträge) 22:05, 20. Nov. 2009 (CET)) Beantworten

Ich denke die (angebliche) Topologieerhaltung muss bewiesen werden (oder eine Referenz angegeben werden). Von einen höherdimensionalen Raum in einen mit weniger Dimensionen zu mapen ist sicher nicht (immer ode eher nie :) topoligieerhaltend möglich. Wäre schön, wenn man den den Beweis für z.B. R2 nach R2 zeigen könnte. (nicht signierter Beitrag von Malvers (Diskussion | Beiträge) 16:34, 26. Mai 2011 (CEST)) Beantworten

Für mich verständliche Quelle

Bearbeiten

Ich hab etwas gegoogelt... http://cs.uni-muenster.de/Professoren/Lippe/lehre/skripte/wwwnnscript/strfx/koh_algorithmus.html

Ich finde, daß die Kohon-Lernregel dort leicht verständlich ist. Zeigt auch, daß die Wahl des dort gegebenen Alphas ganz anders aussehen kann als die im Artikel gegebene Verwirrung.

Meiner Ansicht sind in dem eh schon verwirrenden Artikel mindestens zwei grobe Fehler drin: 1. d_x(x^t_j,w^t_s)=min... muss wohl gegen d_x(n^t_s) ersetzt werden. 2. w^(t+1)_i=w^t_i+a^t*d_x(x^t_j,w^t_i) ist meiner Ansicht nach Käse, da w_i ein R^n ist, aber a^t (ersatzweise für den Formelberg aus dem Artikel) und d_x Zahlen sind. Eine Addition zwischen einem Skalar und einem R^n ist mir unbekannt. (:P)

Ich versuche es auch grade erst zu lernen...

-- Constantus2000 16:24, 11. Mai 2010 (CEST)Beantworten

Beim Adaptionsschritt wird der Fehler pro Dimension des Inputraumes berechnet, hier wird nicht die Vektordistanz genommen. Habs angepasst. --178.195.229.105 00:13, 24. Aug. 2012 (CEST)Beantworten