Diskussion:Satz von Bernstein-von-Mises
Der Verfasser..
Bearbeiten..des Artikel mag ja verstehen, was er da geschrieben hat. Hier fehlt zumindest eine verständliche Einleitung šùþërmØhî (Diskussion) 20:30, 18. Mai 2013 (CEST)
Hoffentlich...
Bearbeitenist jetzt klarer geworden worum es geht. Das Theorem bildet die Grundlage für viele Lernalgorithmen und erklärt, warum einige in gewissen Zusammenhängen erfolgreich "funktionieren" oder halt auch nicht... - Der Verfasser (nicht signierter Beitrag von 84.168.144.41 (Diskussion) 01:18, 19. Mai 2013 (CEST))
- nein, sorry aber an der Verständlichkeit hat sich nichts Wesentliches verbessert. Bitte versuch doch, eine Einleitung zu formulieren, in der das Lemma kurz und für Laien verständlich angerissen wird. Ich trage den Artikel im Portal Mathematik ein und hoffe, dass sich dort jemand des Artikels annimmt. Gruß šùþërmØhî (Diskussion) 06:33, 19. Mai 2013 (CEST)
- Hallo, ich finde den Artikel in der aktuellen Fassung ziemlich gelungen. Lediglich die im Kontext unübliche Notation von Theta als ϑ anstatt θ empfinde ich als etwas störend. Desweiteren würde ich im Anwendungsbeispiel statt Neuronalen Netzen eher Expectation Maximization erwähnen da das Beispiel ja genau den E-Schritt wiedergibt. --DownAnUp (Diskussion) 14:38, 12. Jul. 2013 (CEST)
- nein, sorry aber an der Verständlichkeit hat sich nichts Wesentliches verbessert. Bitte versuch doch, eine Einleitung zu formulieren, in der das Lemma kurz und für Laien verständlich angerissen wird. Ich trage den Artikel im Portal Mathematik ein und hoffe, dass sich dort jemand des Artikels annimmt. Gruß šùþërmØhî (Diskussion) 06:33, 19. Mai 2013 (CEST)
Neuronale Netze
BearbeitenDass bayessches Lernen „von neuronalen Netzen praktiziert wird“, ist ja wohl mal so was von citation needed, von der Personifikation (neuronale Netze betreiben gar nichts) bis hin zur Frage, ob die Lernverfahren (moderner) neuronaler Netze (Backpropagation = Gradientenabstieg) in irgendeiner Weise „bayessch“ sind. Okay, klar, Lossfunktionen sind heutzutage stochastisch motiviert (Maximum-Likelihood-Schätzung), nachdem man festgestellt hat, dass mittlerer quadratischer Fehler & Co zu zu vielen „schlechten“ lokalen Minima führen. Aber streng genommen macht das neuronale Netze nicht zu stochastischen Modellen und erst recht nicht zu irgendwas Bayesschem. Meint Sabrieleauftistik (Diskussion) 19:19, 14. Mai 2022 (CEST)
Inkonsistente Notation
BearbeitenMan kann unterschiedliche Funktionen nicht durch den Namen der Argumente unterscheiden, auch wenn dieser Fehler von Anwendern "zur Vereinfachung der Notation" gerne gemacht wird. Wenn und zwei unterschiedliche Funktionen sein sollen, was ist dann ?--Sigma^2 (Diskussion) 12:22, 30. Mär. 2023 (CEST)