Diskussion:Entropie/Archiv
Korrekte Literaturangaben
Was soll Ueber die Bestimmung der Energie und Entropie eines Körpers von Clausius 1865 in Fußnote 13 sein ?, wenn das ein Aufsatz ist (nur 15 S.) dann bitte mit korrekter Angabe von Zeitschrift, Band, Seite etc. Ich sehe auch nicht was google books Angaben da sollen, da sie nicht einsehbar sind.--Claude J (Diskussion) 08:31, 23. Jan. 2015 (CET)
- Ich habs mal selbst korrigiert. Ganz anderer Titel.--Claude J (Diskussion) 09:17, 23. Jan. 2015 (CET)
Energieübertragung
Nachdem Pyrrhocorax wegen einer völligen Lappalie einen Editwar vom Zaun gebrochen hat nach seinen wiederholt unbegründeten Edits nun ein Seitenschutz eingesetzt werden musst, wäre doch mal noch daran interessiert, seine Rechtfertigung dafür zu erfahren. -- 2A02:1203:ECB3:33C0:3D1D:E779:C08E:BE49 13:29, 22. Feb. 2015 (CET)
- Ich habe keinen Edit-War vom Zaun gebrochen. Ich habe auch nicht "unbegründet" gehandelt und schon gar nicht "wiederholt unbegründet". Der Seitenschutz musste nicht wegen mir eingesetzt werden (dazu gehören immer zwei) und "rechtfertigen" muss ich mich hier schon gar nicht. Also mäßige Deinen Tonfall bitte. Meiner Meinung nach ist die Aussage, dass man Energieübertragung als Arbeit dW oder Wärme dQ bezeichnet, nicht auf "diesen Kontext" beschränkt. Oder besser: Der Kontext für diese Aussage ist die gesamte Physik, weshalb Deine Hinzufügung inhaltsleer ist. --Pyrrhocorax (Diskussion) 13:45, 22. Feb. 2015 (CET)
- Oha. Nur dass wir uns richtig verstehen: Der Satz ("Eine Energieübertragung – also die Arbeit (...) oder die Wärme (...)") eröffnet also nicht nur - wie ich ursprünglich dachte - dem Leser das potentielle Missverständnis, dass Energieübertragungen immer sinnvoll den dichotonen Camps "Arbeit" und "Wärme" zugeordnet werden können, sondern er soll sogar dem Leser genau das vermitteln: dass dies in der "gesamten Physik" (sic) der Fall sei. Verstehe ich Dich da richtig? -- 2A02:1203:ECB3:33C0:3D1D:E779:C08E:BE49 14:26, 22. Feb. 2015 (CET)
- Nur dass wir uns richtig verstehen: Hier ist nicht der Ort, um Herumzupolemisieren, zu provozieren und sich provozieren zu lassen. Ich habe meine Sicht der Dinge dargelegt. Ich glaube nicht, dass man diese Begründung missverstehen kann. Wenn Du anderer Ansicht bist, kannst Du ja gerne Deine begründete Meinung zum besten geben.--Pyrrhocorax (Diskussion) 15:51, 22. Feb. 2015 (CET)
- Gut, dann wüsste ich von Dir mal gern Folgendes:
- Ist die Energieübertragung, die gerade zwischen der Steckdose und Deinem Computer stattfindet, Arbeit oder Wärme?
- Welche Art der Energieübertragung liegt vor, wenn ich in der Nähe eines Radiosenders eine Glühbirne durch einen geschickt in die Luft gehaltenen Draht zum Leuchten bringe?
- Welche Art der Energieübertragung beschreibt ein Feynman-Diagramm einer Elektron-Positron-Annihilation?
- Welche Art der Energieübertragung ist verantwortlich für das Zustandekommen des Leuchtens eines Knicklichts?
- Wie siehts aus bei der Abstrahlung von Gravitationswellen? Arbeit oder Wärme?
- -- 2A02:1203:ECB3:33C0:58BB:91FC:DF6E:39D8 16:05, 22. Feb. 2015 (CET)
- Arbeit, Arbeit, keine Energieübertragung, keine Energieübertragung, Arbeit. Und nun? Ende der Diskussion. --Pyrrhocorax (Diskussion) 17:48, 22. Feb. 2015 (CET)
- Gut, dann wüsste ich von Dir mal gern Folgendes:
- Nur dass wir uns richtig verstehen: Hier ist nicht der Ort, um Herumzupolemisieren, zu provozieren und sich provozieren zu lassen. Ich habe meine Sicht der Dinge dargelegt. Ich glaube nicht, dass man diese Begründung missverstehen kann. Wenn Du anderer Ansicht bist, kannst Du ja gerne Deine begründete Meinung zum besten geben.--Pyrrhocorax (Diskussion) 15:51, 22. Feb. 2015 (CET)
- Oha. Nur dass wir uns richtig verstehen: Der Satz ("Eine Energieübertragung – also die Arbeit (...) oder die Wärme (...)") eröffnet also nicht nur - wie ich ursprünglich dachte - dem Leser das potentielle Missverständnis, dass Energieübertragungen immer sinnvoll den dichotonen Camps "Arbeit" und "Wärme" zugeordnet werden können, sondern er soll sogar dem Leser genau das vermitteln: dass dies in der "gesamten Physik" (sic) der Fall sei. Verstehe ich Dich da richtig? -- 2A02:1203:ECB3:33C0:3D1D:E779:C08E:BE49 14:26, 22. Feb. 2015 (CET)
Vielleicht hilft ein Blick in Energieübertragung und der möglichen Erkenntnis, dass die Aussage nicht auf das Lemma beschränkt sein muss. Herzl. --Rehnje Suirenn (Diskussion) 14:04, 22. Feb. 2015 (CET)
Wärme, thermische Energie, Reibung
In der Einleitung steht: "Reale Zustandsänderungen sind immer mit Energieumwandlungen (z. B. Wärme durch Reibung) verbunden, wodurch sich die Entropie erhöht." Dazu ist zu bemerken: 1. Da das nur für geschlossene Systeme gilt, diese Einschränkung hier aber noch nicht gemacht wird, ist es missverständlich. Den Satz einfach ans Ende des Abschnitts verschieben? 2. meine ich, dass durch Reibung mechanische Energie in thermische Energie umgewandelt wird. Wärme ist doch etwas anderes. Das Beispiel ist deswegen nicht so hilfreich. Gruß, --Usteinhoff (diskUSsion) 10:16, 27. Feb. 2015 (CET)
- Ich finde, dass Du mit Deinen Einwänden überwiegend recht hattest. Aber: Der betreffende Abschnitt ist im wesentlichen eh eine Wiederholung des zweiten Abschnitts. Daher habe ich ihn ganz gelöscht und Deine Formulierungen zur Energieumwandlung übernommen. --Pyrrhocorax (Diskussion) 15:22, 27. Feb. 2015 (CET)
Logarithmen
Ich habe den Eindruck, dass sämtliche Logarithmen im Artikel eigentlich natürliche Logarithmen, also ln, sein müssten. Oder sehe ich das falsch? Xaggi (Diskussion) 00:52, 12. Mai 2015 (CEST)
- +1. Bitte ändern. --jbn (Diskussion) 16:57, 13. Mai 2015 (CEST)
Einleitung
Der jetzige Satz "Die in einem System vorhandene Entropie ändert sich bei Aufnahme oder Abgabe von Wärme." ist zwar logisch nicht falsch, als 3. Satz der Einleitung aber verfehlt, denn er wird hier als Fortsetzung der Definition gelesen. Mein Änderungsvorschlag (ab dem 3. Satz) strebt an, die drei wichtigsten Informationen auf gleicher Ebene zu nennen:
- (...) Die in einem System vorhandene Entropie kann sich auf zwei Weisen ändern:
- Nimmt das System Wärme von außen auf oder gibt welche nach außen ab ab, wächst bzw. verringert sich seine Entropie.
- Nähert sich das System durch interne Prozesse dem Zustand des thermodynamischen Gleichgewichts, wächst seine Entropie.
- Die Entropie ändert sich hingegen nicht, wenn dem System in Form von Arbeit, die seine äußeren Parameter ändert, Energie zugeführt oder entzogen wird.
(...) Die weitere Einleitung wäre dem dann anzupassen. (Außerdem: überall ln statt log - ok?) --jbn (Diskussion) 23:24, 8. Jun. 2015 (CEST)
Vorschlag 20150609
(hier ohne Bild zur Diskussion gestellt:)
Die Entropie (altgr. Kunstwort ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße. Ihre SI-Einheit ist Joule pro Kelvin, also J/K.
Die in einem System vorhandene Entropie kann sich auf zwei Weisen ändern:
- Die Entropie wächst bei jedem internen Prozess, der das System dem Zustand des thermodynamischen Gleichgewichts näher bringt.
- Die Entropie wächst bzw. verringert sich, wenn dem System von außen Wärme oder Materie zugeführt bzw. entzogen wird.
Die Entropie ändert sich hingegen nicht, wenn dem System Energie nicht in Form von Wärme zugeführt oder entzogen wird, sondern in Form von Arbeit, bei der die äußeren Parameter des Systems sich ändern.
Die erstgenannte Eigenschaft ist Gegenstand des Entropiesatzes: In einem in idealer Weise abgeschlossenen System, für das es keinen Energie- oder Materieaustausch mit der Umgebung gibt, kann die Entropie höchstens in Form von kurzzeitigen statistischen Fluktuationen abnehmen, aber nicht dauerhaft. Denn alle inneren Prozesse, die spontan ablaufen, gehen in Richtung des thermodynamischen Gleichgewichts und lassen die Entropie anwachsen. Bei gegebenen Werten der äußeren Parameter des abgeschlossenen Systems gilt: Ist der Gleichgewichtszustand erreicht, besitzt das System die maximal mögliche Entropie.
Die Vorgänge bei der Annäherung an den Gleichgewichtszustand werden auch als Relaxationsprozesse bezeichnet und sind irreversibel. Eine Umkehrung würde Verringerung der Entropie bedeuten und kann daher nicht spontan erfolgen. Die Verringerung kann nur unter Ausnutzung der zweitgenannten Eigenschaft der Entropie im Kontakt zu einem zweiten System bewirkt werden. Da man beide Systeme zusammen als ein einziges abgeschlossenes System ansehen kann, für das wieder die erste der beiden oben genannten Eigenschaft gilt, nimmt die Entropie des zweiten Systems dabei mindestens um so viel zu, wie die des ersten abnimmt.
Mit anderen Worten: Entropie kann entstehen, danach aber nicht wieder vernichtet werden. Damit erlaubt die Entropie eine physikalische Definition des Fortschreitens der Zeit (Zeitpfeil). Entropie entsteht z. B. durch Wärmeleitung vom heißeren zum kälteren System, oder dadurch, dass mechanische Arbeit durch Reibung in Wärme umgewandelt wird. Da die Umkehrung dieser Prozesse nicht möglich ist, spricht man auch von einer „Energieentwertung“. Hingegen sind reversible Prozesse solche, bei den keine Entropie erzeugt wird, weshalb sie umkehrbar sind.
In der klassischen Thermodynamik wird die Entropie auf der Basis von reversiblen Prozessen mithilfe der zweiten genannten Eigenschaft durch das Verhältnis von übertragener Wärme zur Temperatur definiert. In der statistischen Mechanik wird die Entropie eines Zustands durch die Wahrscheinlichkeit definiert, mit der die Gesamtheit der Teilchen einen derjenigen Mikrozustände bildet, die nach Energie und allen äußeren Parametern denselben Makrozustände darstellen. Beide Entropiebegriffe stimmen im Ergebnis überein. Makrozustände höherer Entropie haben mehr Mikrozustände als Makrozustände niedrigerer Entropie und sind allein daher wahrscheinlicher. Folglich strebt ein sich selbst überlassenes System aus einem Makrozustand geringerer Entropie wahrscheinlich einem Zustand höherer Entropie entgegen. Das Gegenteil ist bei den Teilchenzahlen in einer normalen Menge makroskopischer Materie so überwältigend unwahrscheinlich, dass es gewöhnlich nur als unvorhersagbare statistische Fluktuation auftritt. Ein Beispiel ist die Brownsche Bewegung, die erstmals zu Anfang des 20. Jahrhunderts richtig gedeutet werden konnte und dann als erster physikalischer Beweis für die Existenz der Moleküle gewertet wurde.
Der Entropiebegriff der statistischen Physik wird häufig, aber ungenau, so interpretiert, dass Entropie ein „Maß für Unordnung“ sei. Besser ist es, die Entropie als ein „Maß für das Unwissen über die mikroskopische Struktur“ zu begreifen.
Gruß! --jbn (Diskussion) 17:28, 9. Jun. 2015 (CEST)
- Mir gefällt die aktuelle Einleitung besser. Sie ist wesentlich kürzer und bleibt schärfer bei dem durchs Lemma bezeichneten Begriff. In welcher Reihenfolge man bestimmte Aspekte der Entropie bespricht, ist wahrscheinlich einfach eine Geschmacksfrage. Da kann man durch kleinere Änderungen vielleicht eine Verbesserung herbeiführen. Aber ich finde, dass Dein Entwurf deutlich über das hinausgeht, was ich mir unter einer guten Einleitung vorstelle.--Pyrrhocorax (Diskussion) 22:56, 9. Jun. 2015 (CEST)
- (Beim BK hab ich meinen Nachtrag gerade gelöscht.) Kurz: Da ist wirklich noch viel zu tun. OMA zB steigt schon beim ersten Satz aus, braucht stattdessen einleitend eine Beschreibung, welchen Sinn und Bedeutung die Entropie hat, statt einer angedeuteten Definition und Ableitung ihrer Eigenschaften. ergo: Zurück auf LOS. --jbn (Diskussion) 23:15, 9. Jun. 2015 (CEST)
Alternativer Ansatz, die Nicht-Physiker im Blick. Zur Veranschaulichung mal ein Entwurf:
Die Entropie (altgr. Kunstwort ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine physikalische Größe aus dem Gebiet der Thermodynamik. Mit ihr lässt sich ermitteln, welche Prozesse in der makroskopischen Natur von allein ablaufen können und welche nicht, obwohl sie unter den gegebenen Bedingungen nach den physikalischen Grundgesetzen im Prinzip möglich wären.[1] Alltagsbeispiele für die zahllosen spontan ablaufende Prozesse, deren Umkehrung nicht vorkommt, sind:
- das Herunterfallen und anschließende Liegenbleiben eines Gegenstands
- die Abbremsung einer Bewegung durch Reibung
- die Wärmeleitung, die nur von hoher zu niedriger Temperatur von allein abläuft
- die Auflösung von Salz, falls es in eine genügend große Wassermenge gebracht wird
- die Kristallisation von Salz, wenn die Salzlösung übersättigt wurde, die Bedingungen gegenüber der Auflösung also geändert wurden
- die Verbrennung von Gas zu Abgas.
Die Entropie ist eine Zustandsgröße, d. h. jedes thermodynamische System hat in jedem Zustand eine bestimmte Entropie, die allein vom momentanen Zustand abhängt, aber nicht von der Art, wie er erreicht wurde. Die SI-Einheit der Entropie ist Joule pro Kelvin, also J/K. (... usw, aber nicht zu ausführlich)
- ↑ Klaus Stierstadt, Günther Fischer: Thermodynamik: Von der Mikrophysik zur Makrophysik (Kap. 5). Springer, Berlin, New York 2010, ISBN 978-3-642-05097-8 (eingeschränkte Vorschau in der Google-Buchsuche).
--jbn (Diskussion) 19:22, 10. Jun. 2015 (CEST)
- Ich kann mir nicht helfen, aber ich finde den aktuellen Einleitungsabschnitt nicht so schlecht, zwar an manchen Stellen verbesserungsfähig, aber insgesamt von der Ausrichtung okay. Was stört Dich denn so sehr daran? Die einzige Begründung, die Du weiter oben gibst, bezieht sich lediglich auf einen kleinen Teil der Einleitung. Man kann das sicherlich umstellen und zunächst sagen, wie Entropie entsteht und dann erklären, wie sie übertragen wird. Man kann es aber auch so lassen. Deinen zweiten Vorschlag finde ich auch nicht besser als die aktuelle Artikelversion: Er hat weniger den Charakter einer Definition als ein Drumherum-Reden und Beispiele geben, wobei dem unbedarften Leser verborgen bleiben muss, was die Gemeinsamkeit der Beispiele ist, die durch die Entropie quantifiziert wird. --Pyrrhocorax (Diskussion) 11:56, 11. Jun. 2015 (CEST)
- Du hast schon recht; wirklich schlecht oder gar falsch finde ich die bestehende Einleitung auch gar nicht. Sie ist nur völlig nutzlos für jemanden ohne reichliches Vorwissen. Der möchte (meines Erachtens) zuerst wissen, wozu diese Größe zu brauchen ist, bevor er die formale Qualifizierung ("thermodyn. Zustandsgr.") und die für die Berechnung und die Definition praktische Eigenschaft ("ändert sich bei...") liest, denn spätestens bei diesen, ihm wenig hilfreichen Informationen dürfte er aussteigen. Ähnlich lief übrigens die Diskussion um die ersten Sätze von Atom: soll man mit Elektronen, Protonen und Neutronen anfangen was formal richtig und überhaupt die gültige Defiition ergibt - oder mit dem Teil der Bedeutung, der vermutlich am häufigsten gesucht wird und den Begriff am besten beleuchtet - was ich stark befürwortet habe. Bis in Lehrbücher hinein hat das seinen guten Sinn, zur Entropie ist da das Buch von Stierstadt (oben zitiert) zu loben, allerdings als die positive Ausnahme unter den Lehrbüchern. Im Einzelnen: versuch mal, die jetzige Einleitung von Entropie mit den Augen des Nicht-Physikers zu lesen und prüfe, ob Du die Sätze (nicht nur einzeln, sondern auch in ihrer Abfolge) für nachvollziehbar hältst. Wenn ja, dann muss ich mir wohl mal die Zeit nehmen, sie gründlich zu zerpflücken. --jbn (Diskussion) 12:38, 11. Jun. 2015 (CEST)
- +1: Die Einleitung "ist völlig nutzlos für jemanden ohne reichliches Vorwissen". Gruß -- Dr.cueppers - Disk. 21:27, 14. Jun. 2015 (CEST)
- (Bei einer Excursion mit Prof Otto Kraemer - haben wir mal die Dr.-Eisenbart-Verse umgedichtet in "Dr.-Hammerschlag-Verse":
- Man rief mich nach Connecticut, da war ein Frigidaire kaputt; ich schraubte ab die Entropie, nun heizt das Luder wie noch nie.)
- Gruß -- Dr.cueppers - Disk. 21:27, 14. Jun. 2015 (CEST)
- +1: Die Einleitung "ist völlig nutzlos für jemanden ohne reichliches Vorwissen". Gruß -- Dr.cueppers - Disk. 21:27, 14. Jun. 2015 (CEST)
- Du hast schon recht; wirklich schlecht oder gar falsch finde ich die bestehende Einleitung auch gar nicht. Sie ist nur völlig nutzlos für jemanden ohne reichliches Vorwissen. Der möchte (meines Erachtens) zuerst wissen, wozu diese Größe zu brauchen ist, bevor er die formale Qualifizierung ("thermodyn. Zustandsgr.") und die für die Berechnung und die Definition praktische Eigenschaft ("ändert sich bei...") liest, denn spätestens bei diesen, ihm wenig hilfreichen Informationen dürfte er aussteigen. Ähnlich lief übrigens die Diskussion um die ersten Sätze von Atom: soll man mit Elektronen, Protonen und Neutronen anfangen was formal richtig und überhaupt die gültige Defiition ergibt - oder mit dem Teil der Bedeutung, der vermutlich am häufigsten gesucht wird und den Begriff am besten beleuchtet - was ich stark befürwortet habe. Bis in Lehrbücher hinein hat das seinen guten Sinn, zur Entropie ist da das Buch von Stierstadt (oben zitiert) zu loben, allerdings als die positive Ausnahme unter den Lehrbüchern. Im Einzelnen: versuch mal, die jetzige Einleitung von Entropie mit den Augen des Nicht-Physikers zu lesen und prüfe, ob Du die Sätze (nicht nur einzeln, sondern auch in ihrer Abfolge) für nachvollziehbar hältst. Wenn ja, dann muss ich mir wohl mal die Zeit nehmen, sie gründlich zu zerpflücken. --jbn (Diskussion) 12:38, 11. Jun. 2015 (CEST)
Detailkritik der Einleitung
Mir scheint's, die Befürworter der bisherigen Einleitung warten auf mehr Kritik. Hier bitte:
Die Entropie (altgr. Kunstwort ἐντροπία entropía, von ἐν en ‚an‘, ‚in‘ und τροπή tropḗ ‚Wendung‘) ist eine fundamentale thermodynamische Zustandsgröße. (Nichtphysiker müssen thermodynamisch und Zustandsgröße nachschlagen oder aussteigen.) Ihre SI-Einheit ist Joule pro Kelvin, also J/K. (Redundant zur Infobox gleich daneben.)
Die in einem System vorhandene Entropie ändert sich bei Aufnahme oder Abgabe von Wärme. (1. fehlt: ändert sich bei Aufnahme/Abgabe von Materie. 2. fehlt die wichtigste Eigenschaft, die auch zuerst zu nennen wäre: wächst bei allen makroskopischen Prozessen, die spontan ablaufen.) In einem abgeschlossenen System, bei dem es keinen Wärme- oder Materieaustausch mit der Umgebung gibt, kann die Entropie nach dem zweiten Hauptsatz der Thermodynamik nicht abnehmen.
Mit anderen Worten: (Dieser Anschluss verwirrt, denn der folgende Text ergibt sich keineswegs aus dem vorstehenden.) Entropie kann nicht vernichtet werden. Es kann im System (warum der Hinweis im System? Nichtphysiker denken leicht, das könnte eine geheimnisvolle zusätzliche Bedingung sein.) jedoch Entropie entstehen. Prozesse, bei denen dies geschieht, (Das liest sich, als ob man unter den Prozessen eine Auswahl zu treffen habe, dabei gilt das für sämtliche realen Prozesse. Die reversiblen sind bekanntlich eine Fiktion, für Physiker wichtig, für den Nichtphysiker irrelevant.) werden als irreversibel bezeichnet, d. h. sie sind – ohne äußeres Zutun – unumkehrbar. (Die Formulierung ohne äußeres Zutun unumkehrbar klingt erstmal wie ein weißer Schimmel, denn ein Wort wie "unumkehrbar" deutet sprachlich schon eine Tätigkeit an. Außerdem ist die Aussage ungenau, denn irreversible Prozesse lassen sich überhaupt nicht umkehren (denn sie hinterlassen Spuren ).) Entropie entsteht z. B. (Ein einziges solches Beispiel für die ganze Entropie ist hier deutlich zu wenig.) dadurch, dass mechanische Energie durch Reibung in thermische Energie ( Begriff trifft nicht genau, s. thermische Energie. Wenn man "in Wärme umgewandelt" nicht haben will, müsste man hier wohl "thermalisiert" (um)schreiben.) umgewandelt wird. Da die Umkehrung dieses Prozesses nicht möglich ist, spricht man auch von einer „Energieentwertung“.(Energieentwertung in allen Ehren, ist aber wohl nicht die wichtigste Folge der Entropiezunahme.)
In der statistischen Mechanik stellt die Entropie ein Maß für die Zahl der zugänglichen, energetisch gleichwertigen Mikrozustände dar. Makrozustände höherer Entropie haben mehr Mikrozustände und sind statistisch wahrscheinlicher als Zustände niedrigerer Entropie. (Das sollte man, gerade für Nichtphysiker, weniger unverständlich ausdrücken.) Folglich strebt( Falsch, vgl. Wiederkehreinwand - oh, Rotlink!.) ein sich selbst überlassenes System stets nach einem Zustand höherer Entropie. Diese Interpretation des Entropiebegriffs wird häufig ungenau dadurch ausgedrückt, dass Entropie als ein „Maß für Unordnung“ angesehen wird. Besser ist es, die Entropie als ein „Maß für das Unwissen (Sehr vermenschlicht. Wie soll Nichtphysiker verstehen, dass eine "objektive" Eigenschaft (Zustandsgröße!) eines Systems von unserem Wissensstand abhängen soll?) über die mikroskopische Struktur“ (Welche "Struktur"??) zu begreifen.
Bitte versteht mich nicht so, dass mein Gegenentwurf weitr oben nicht auch noch solche Detailkritik verdient hätte. Aber alles lassen wie es ist, wäre mir nicht recht.--jbn (Diskussion) 23:31, 14. Jun. 2015 (CEST)
- Gegenrede Punkt für Punkt:
- ... thermodynamische Zustandsgröße ...: Dass man deswegen "aussteigen" müsse, halte ich für übertrieben. Der Begriff Thermodynamik lässt sich kaum vermeiden und taucht daher auch in vielen alternativen Formulierungen auf. "Zustandsgröße" ist auch ohne Erklärung zumindest intuitiv anschaulich. Wenn man die volle Tiefe des Begriffes noch nicht voll erfasst, bleibt der Rest trotzdem verständlich und im Hauptteil wird ohnehin erklärt, warum die Entropie eine Zustandsgröße ist und was damit gemeint ist.
- Einheit redundant zur Infobox: Ist das in anderen Artikeln anders?
- ... wächst bei Aufnahme von Arbeit ... (Materieaustausch fehlt), Reihenfolge falsch, etc.: Die Idee, die dieser Formulierung zugrunde liegt, ist in etwa folgende: Entropie entsteht bei irreversiblen Prozessen und kann zwischen Körpern ausgetauscht werden. Bei einem Leser, der keine Vorstellung von Entropie hat, soll dies propädeutisch die hilfreiche Modellvorstellung einer Entropie-"substanz" schaffen. Vielleicht hast Du recht, dass es besser ist, zuerst über die Entropieproduktion und dann über die Vorgänge der Entropieübertragung zu sprechen. Dennoch sollte man es nicht komplizierter machen als es ist: Wenn Materie Entropie enthält, wird mit Materie natürlich Entropie übertragen. Das stellt den Leser vor keinerlei Schwierigkeiten.
- ... mit anderen Worten ...: Das ist überhaupt nicht verwirrend. Im Zusammenhang steht da " kann die Entropie nach dem zweiten Hauptsatz der Thermodynamik nicht abnehmen. Mit anderen Worten: Entropie kann nicht vernichtet werden."
- Unterscheidung von reversiblen und irreversiblen Prozessen: Man muss halt eine Entscheidung treffen. Entweder man führt die Entropie mit der Formel dS = dQ/T im Hinterkopf ein. Dann spricht man über reversible Prozesse und muss dann danach erklären, was irreversible Prozesse sind. Dies ist das übliche Vorgehen in Thermodynamik-Vorlesungen. Oder man geht (zumindest implizit) von der Formel dS ≥ 0 aus. Dann spricht man zunächts über irreversible Prozesse und muss danach die reversiblen einführen. Wie ich schon sagte: Für welche Variante man sich entscheidet, halte ich für bloße Geschmackssache und ich kann mit beiden Vorgehenswesen leben. Man kann aber der aktuellen Einleitung nicht vorwerfen, dass sie die irreversiblen Prozesse als zweiten Aspekt beschreibt, denn sie hat sich für die Einführung über die Wärmeübergabe entschieden.
- ... ohne äußeres Zutun unumkehrbar ...: "ohne äußeres Zutun" bedeutet hier "isentrop". Solange ein System nach außen isentrop abgeschlossen ist, sind dissipative Prozesse in seinem Inneren unumkehrbar. Öffnet man das System jedoch insofern, dass Entropie abgeführt werden kann, dann ist es zumindest denkbar, dass diese Prozesse dadurch doch umgekehrt werden. Die Spuren, von denen Du sprichst, treten dann ausschließlich in der Peripherie auf. Im System sind keine Spuren erkennbar. Wenn man also ein System vor Augen hat, dann ist diese Formulierung keineswegs falsch. Ich lese zwischen den Zeilen, dass Du lieber auf den Systembegriff verzichten möchtest. Das halte ich aber in diesem Zusammenhang nicht für ratsam.
- ... ein Beispiel zu wenig ...: Ich halte ein Beispiel für Entropieproduktion in einer Einleitung für mehr als genug.
- ... Energieentwertung ...: Es mag sein, dass es nicht die wichtigste Eigenschaft der Entropie ist, aber für viele Leser wird es der Grund sein, warum sie überhaupt in diesem Artikel landen. Populärwissenschaftlich wird das oft so geschrieben, um auf die Entropie ganz verzichten zu können und auch in der Schul-Didaktik wird dieser Begriff unter Umständen verwendet. Es gibt übrigens einen Artikel Energieentwertung, den wir daher auch verlinken sollten.
- ... thermalisiert ...: Dieses Wort ist gänzlich unanschaulich. Mit den alternativen Formulierungen "Umwandlung in thermische Energie" und "Umwandlung in Wärme" bin ich aber ebenso unglücklich. "thermische Energie" ist ungenau, wie Du richtig sagst, und "Wärme" trifft es nicht, weil es sich um eine Prozessgröße handelt.
- ... Unwissen ...: D'accord. Allerdings steht das so in der Quelle. Ich finde es wichtig, diesen Aspekt der Entropie in der Einleitung anzugeben: Je höher die Entropie ist, desto weniger kann man wissen welcher Mikrozustand vorliegt. Mir fällt leider keine inhaltlich scharfe und zugleich anschauliche Formulierung für das unreine desto weniger kann man wissen ein.
- Zusammenfassung: Ich teile Deine Kritik zwar in manchen Punkten, aber nicht in der Mehrzahl der Punkte. Vor allem habe ich bisher noch keinen Einleitungsvorschlag gehört, wo ich sagen könnte: "Ja, das ist besser als das, was wir haben." Der Hauptpunkt ist die Frage, ob man von der Irreversibilität von Vorgängen oder von Entropie- bzw. Wärmeübertragungen ausgeht. Für Deine Idee spricht, dass sie näher an der Alltagserfahrung ist. Für die aktuelle Version der Einleitung spricht, dass sie sich näher an den üblichen Einführungen ist und besser zum Artikel-Hauptteil passt. --Pyrrhocorax (Diskussion) 10:53, 15. Jun. 2015 (CEST)
Gut gebrüllt, Alpenkrähe ;-). Aber mir scheint, Du hast die schockierende Erfahrung noch vor Dir, wie schnell ein OMA-Leser hier viele Stellen zum Aussteigen findet. "Zustand" und "Thermodynamik" müssen natürlich kommen, aber nicht als Hürde im 1. Satz. Beispiele in der Einleitung - sind die nicht ausdrücklich erwünscht? "mit anderen Worten" bleibt falsch, denn es folgt nicht die erneute Feststellung des vorherigen mit anderen Worten (weil da entgegen Deiner Intention das Substanzartige der Entropie noch gar nicht ausgedrückt wurde). usw usf. Naja, es gibt Schlimmeres in Wikipedia. Ich muss das hier nicht unbedingt ganz umschreiben, denke aber an kleine Verbesserungen.--jbn (Diskussion) 17:03, 15. Jun. 2015 (CEST)
- Ich möchte es mir verbitten, als Alpenkrähe Pyrrhocorax pyrrhocorax diffamiert zu werden. Mein Name stammt selbstverständlich von der Alpendohle Pyrrhocorax graculus. ;-) Ansonsten: Mit kleinen Änderungen rennst Du bei mir offene Türen ein, aber ich finde die Einleitung nicht sooo schlecht, dass Neuschrieb angesagt wäre. --Pyrrhocorax (Diskussion) 22:49, 15. Jun. 2015 (CEST)
- Verzeihung, ich will's nie wieder tun, das kommt vom einfach nur googeln. - Dann ist also jetzt adiabatisches Vorgehen angesagt. Ich melde mich, wenn ich was vorzuschlagen hab. Gruß! --jbn (Diskussion) 23:50, 15. Jun. 2015 (CEST)
- Ich möchte es mir verbitten, als Alpenkrähe Pyrrhocorax pyrrhocorax diffamiert zu werden. Mein Name stammt selbstverständlich von der Alpendohle Pyrrhocorax graculus. ;-) Ansonsten: Mit kleinen Änderungen rennst Du bei mir offene Türen ein, aber ich finde die Einleitung nicht sooo schlecht, dass Neuschrieb angesagt wäre. --Pyrrhocorax (Diskussion) 22:49, 15. Jun. 2015 (CEST)
schräge Stellen, Fehlstellen
Im Abschnitt "Mischungsentropie" tritt der Autor wieder die Schwierigkeiten breit, die er mit dem Zweiflüssigkeiten-Modell hat. Ob die höher entropische Flüssigkeit verrührt wurde oder nicht, spielt keine Rolle. Schon gar nicht, ob die Vollständigkeit des Prozesses irgend jemandem "ordentlich" vorkommt. Ebenso märchenhaft mutet die Definition von Entropie als Wissenshaltigkeit oder Unwissenshaltigkeit an. Wissen ist ein psychologischer Begriff. Er triff nicht zu und stiftet Verwirrung. Klarer wäre, die Negentropie als Informationshaltigkeit zu definieren. Entsprechend verhielte sich Entropie reziprok zur Informationsdichte. Wie überhaupt dieses Begriffspaar in keinem lexikalischen Artikel über Entropie fehlen darf. 178.19.228.18 19:45, 26. Dez. 2015 (CET)
- Das Subjekt "der Autor" gibt es bei Wikipedia nicht, weil jeder (auch Du) an einem Artikel mitschreiben kann. Trotzdem kann ich Deine Kritik nachvollziehen, denn der angesprochene Abschnitt ist wahrlich kein Aushängeschild für die Wikipedia. Sei mutig und ändere, was Du für verbesserungswürdig hältst. Nur einen Gedanken solltest Du nicht ganz aus den Augen verlieren: "Negentropie" und "Informationshaltigkeit" sind für einen Laien-Leser überhaupt nicht anschaulich. Von daher muss man einem ahnungslosen Leser auch eine Brücke bauen und man sollte auch erklären, warum ein vollkommen durchmischtes, homogenes System als "unordentlich" gilt. Übrigens: "Entropie als Maß für Unwissenheit" mag man kritisieren, aber es wurde nicht von einem kleinen Wikipedianer ausgesponnen. Die Formulierung stammt aus der Feder von (ich weiß nicht mehr) Boltzmann, Planck oder einer ähnlichen Koryphäe. --Pyrrhocorax (Diskussion) 22:08, 28. Dez. 2015 (CET)
- In der Tat schraeg - das Bsp. waere im uebrigen sogar geeignet, ein bischen Klarheit reinzubringen (im Sinne von "Von daher muss man einem ahnungslosen Leser auch eine Brücke bauen und man sollte auch erklären, warum ein vollkommen durchmischtes, homogenes System als "unordentlich" gilt."). Als erstes muesste man mal "Ordnung" (und nicht via durchmischt) definieren (wahrscheinlich ist sie sogar weiter oben - habe aber nicht reingeschaut). Ordnung im spez. Fall des Bildes waere die Moeglichkeit, aus der Eigenschaft (orange oder durchsichtig) eines Objektes an einem beliebigen Ort auf die Eigenschaft eines Objektes in einer bestimmten Entferning zu schliessen (sprich Nahordnung !). Sprich, das linke Bild weist eine hoehere Ordnung auf, weil die Eigenschaft des Nachbarobjekts mit der eigenen Eigenschaft korreliert (daher schlecht durchmischt). Insoweit kann man auch sagen, in einem System max. Entropie kann keine Information gespeichert werden .... z.B. man kommt in einen Raum hinein mit dem linken Glas - man weis sofort, dass vor noch kurzer Zeit eine andere Person im Raum war, weil die Durchmischung nicht vollstanedig ist - es ist also eine Zeitinformation durch die Verteilung gegeben. "Negentropie" habe ich noch nie gehoert ebenso Mass der Unwissenheit. Obwohl letzteres fast nachvollziehbar ist. Wenn das mal so von einer bekannten Person beschrieben wurde, so gehoert a) ne Quelle hin und b) gehoert dass dann doch eher zu Anekdoten. "reziprok zur Informationsdichte" bzw. "Informationshaltigkeit" ist ja nicht falsch - das kann und sollte man auch in einem allgmeinen Artikel einbauen - aber (siehe Vorredner) man muss da sicherlich sehr vorsichtig agieren, damit der Laie nicht verloren geht. --DAsia (Diskussion) 06:56, 29. Dez. 2015 (CET)
Messbarkeit der Entropie
Der Abschnitt "Messbarkeit der Entropie" enthält im Wesentlichen die Aussage, dass die Entropie mit den dort beschriebenen Methoden nicht präzise gemessen werden kann. Ich schlage vor, den gesamten Abschnitt ersatzlos zu streichen. --Pyrrhocorax (Diskussion) 14:11, 13. Mär. 2016 (CET)
- Stimme zu. --jbn (Diskussion) 23:02, 15. Mär. 2016 (CET)
Stimme ebenfalls zu. Auch können mit thermodynamischen Mitteln nur Entropiedifferenzen gemessen werden. Der statistische Entropiebegriff geht jedoch von der Anzahl W der Mikrozustände aus und ermöglicht damit eine absolute Bestimmung von S, stößt jedoch auf das praktische Problem, dass eine Mol einer Substanz eine außerordentlich hohe Anzahl von Mikrozuständen bilden kann. Eine deutlich kleinere Zahl von Mikrozuständen findet sich jedoch in folgendem Experiment: Die Feinstruktur eines Kernresonanzspektrums zeigt Linien unterschiedlicher Intensität. Diese lässt für jede Feinstrukturkomponente erkennen, wie viele Konfigurationen benachbarter Kernspins dieselbe Wirkung auf den beobachteten Kern ausüben, in der Praxis sind es meist einige wenige, ihre Anzahl sei W. In der Terminologie der statistischen Entropie stellen diese gleichwertigen Konfigurationen einzelne Mikrozustände dar, und sie bilden zusammen einen Makrozustand mit dem statistischen Gewicht W (bzw. Ω). Damit bildet die relative Intensität einer Feinstrukturkomponente ein Maß für die Entropie (S= kB ln W) des energetischen Kernzustands im Magnetfeld.--WA Reiner (Diskussion) 17:51, 13. Apr. 2016 (CEST)
Neue Vektorgrafik: Entropie als "Maß der Unordnung"
Inspiriert von einer Vorlesung von Prof. Tremel (AC an der JGU Mainz) hab ich die folgende Grafik erstellt. Ich finde sie aussagekräftiger als die Becherglasgrafik. Die 126 Permutation habe ich mit dem Computer generiert und nochmals überprüft. Ich bitte um Rückmeldung. --Johannes Schneider (Diskussion) 09:01, 23. Jul. 2016 (CEST)
- In der Grafik steht 9 über 4 mit Bruchstrich. Der Bruchstrich sollte da nicht stehen. Muss es nicht 4 über 9 heißen? Bitte nochmal mit dem Binomialkoeffizienzen vergleichen. (nicht signierter Beitrag von 109.193.27.72 (Diskussion) 13:03, 23. Jul. 2016 (CEST))
Den Bruchstrich habe ich entfernt.Bei genauerem Hinsehen ist mir dann auch aufgefallen, dass die Aufloesung des Koeffizienten natuerlich falsch ist, es muss heissen 9!/(4! (9-4)!), dazu reichen meine inkscape-Kenntnisse aber schon wieder nicht aus. --Wrongfilter ... 15:23, 23. Jul. 2016 (CEST)- @Wrongfilter: Ja stimmt habe beide Fehler korrigiert. Bitte nochmal überprüfen.
- Was soll die Grafik genau aussagen? Was unterscheidet die blauen Zustaende von den roten? Die Antwort "sie sind geordnet" taugt mir nicht, da dem ein willkuerlicher Ordnungsbegriff zugrundeliegt, der aus dem Versuch, Muster zu erkennen, entspringt. Tatsaechlich unterscheidet sich der erste blaue Mikrozustand in nichts von dem roten, der direkt daneben liegt. Das linke System kann man vielleicht so interpretieren, dass eine Wechselwirkung zwischen den Teilchen bewirkt, dass sich diese nur im Block bewegen koennen, so dass das System nur die gezeigten vier Mikrozustaende hat und damit niedrigere Entropie als das wechselwirkungsfreie System im rechten Bild. Waere es da nicht verstaendlicher, auf diese Weise die Zunahme der Entropie durch Volumenvergroesserung zu zeigen, indem man links 2x2 Kaestchen zeigt mit dem einen moeglichen Mikrozustand? --Wrongfilter ... 15:18, 23. Jul. 2016 (CEST)
- +1 wrongfilter. Zudem verstehe ich nicht, was die Beschriftung der Abbildung soll. Sie erklärt vielleicht (aber völlig unübersichtlich), warum die als "geordnet" bezeichneten Zustände verhältnismäßig unwahrscheinlich sind. Sie erklärt aber überhaupt nicht, was das mit der Entropie zu tun hat. Derlei Erklärungen habe ich schon viele gesehen. Sie bestehen in meist aus einer tautologischen Aussage "Etwas ist wahrscheinlicher, weil es wahrscheinlicher ist." Sie schlagen aber nicht die Brücke zwischen einem rein statistischen Begriff und dem zugeordneten thermodynamischen Begriff. Wir sollten hier nicht dem häufig gemachten Fehler unterliegen, ein Postulat (Entropie als Maß für "Unordnung") als selbstverständlich zu erachten. --Pyrrhocorax (Diskussion) 17:41, 23. Jul. 2016 (CEST)
- @Wrongfilter: @Pyrrhocorax: Ich les mich mal ein was mit dem Modell genau ausgesagt werden soll. Uns wurde damit vermittelt, dass die Tendenz zur Unordnung "rein statistisch" begründet werden kann. Aber wirklich eindeutig und zufriedenstellend finde ich das selbst jetzt auch nicht mehr. -Benutzer:Johannes Schneider--- (Diskussion) 21:08, 23. Jul. 2016 (CEST)
Kleine Nebenbemerkung, da es für "Ordnung" bzw. "Unordnung" allgemein ja gar keine andere quantifizierende Definition gibt als die über die Entropie: Ganz allgemein gilt aber, dass ein (beliebig wählbares) Kriterium für Ordnung unter den möglichen Zuständen eines Systems immer eine gewisse (echte) Untermenge auswählt. Diese per def. "geordneten Zustände" sind damit immer in der Minderzahl (gegenüber den möglichen Zuständen). Dann ist es trivial, dass bei gleicher a priori-Wahrscheinlichkeit aller Zustände (u/o? Ergodenhypothese) die Besetzung der geordneten Zusände abnehmen muss. --jbn (Diskussion) 13:46, 24. Jul. 2016 (CEST)
Expansionsversuch von Gay-Lussac
Um mir selbst das hier beschriebene Gedankenexpermient deutlicher zu machen: Auf der rechten Seite der Trennwand ist Vakuum. Gegen welchen Druck wird die Trennwand unter Arbeitsleistung verschoben? Vielleicht sollte man da noch etwas einfügen. (nicht signierter Beitrag von WA Reiner (Diskussion | Beiträge) 18:20, 6. Sep. 2016 (CEST))
- Gegen keinen Druck. Praktisch könnte man es sich so vorstellen, dass für die Verschiebung der Wand eine Kraft erforderlich ist, etwa weil die Wand dabei an den Wänden reibt. Dabei wird Expansionsarbeit zu Wärme dissipiert, die wiederum dem Gas zugute kommt, so dass unter dem Strich die Innere Energie konstant bleibt. --Pyrrhocorax (Diskussion) 17:24, 7. Sep. 2016 (CEST)
- Deswegen schreiben vorsichtig formulierte Bücher auch, die Wand werde seitwärts herausgezogen (reibungslos, versteht sich). --jbn (Diskussion) 18:28, 7. Sep. 2016 (CEST)
- Ich fürchte, da liegst Du falsch. Ja, das Öffnen des Ventils wird manchmal auch durch ein seitliches Herausziehen einer Wand beschrieben. Das ist aber nicht der Punkt. Im Artikel ist die Bewegung eines Kolbens in einem Zylinder gemeint. "Links" vom Kolben ist das Gas (Druck p), "rechts" Vakuum (Druck 0). Wenn der Kolben nicht gebremst würde, dann würde er beschleunigt nach rechts fliegen und die gesamte verrichtete Arbeit würde danach in der kinetischen Energie des Kolbens stecken. Da aber dU=0 ist, wird keine Energie abgegeben. Also wird der Kolben gebremst, indem die Arbeit dissipiert und an das Gas zurückgegeben wird. --Pyrrhocorax (Diskussion) 20:23, 7. Sep. 2016 (CEST)
- Du hast recht. Meine bloße Erinnerung hatte mich zum Durchmischungsversuch zweier getrennter Gase geführt (Gibbssches Paradox). - Zum Gay-Lussac-V. möchte ich meine Erinnerung an den Pohlschen Demonstrationsversuch beisteuern: ein Ventil wird geöffnet, dann wird erst das Gas in den leeren Behälter hinein beschleunigt und dann komprimiert. Anfangs gibt es eine beträchtliche Temperaturdifferenz zwischen beiden Teilen, nach (thermisch isoliertem) Ausgleich ist dann alles gleich der Anfangstemperatur. - Aber der Text ist im 2. Satz falsch: U=const kann man nicht aus T=const schließen, sondern nur aus der Versuchsanordnung. Dass U (bei T=const) nicht von V abhängt, ist gerade die durch den Versuch bewiesene Eigenschaft des idealen Gases. Für das Gas als ganzes gilt Q=W=0, für Teilmengen des Gases allerdings vorübergehend nicht. --jbn (Diskussion) 10:24, 8. Sep. 2016 (CEST)
- Stimmt, darüber war ich auch gestolpert. Mich störte auch, dass der Artikel in der vorherigen Fassung Empirie und Gedankenexperiment vermischt, was ich für unzulässig halte. So besser? --Pyrrhocorax (Diskussion) 21:02, 8. Sep. 2016 (CEST)
Es gibt zwei Gedankenexperimente, in denen, vom gleichen Anfangszustand ausgehend, der gleiche Endzustand erreicht wird und bei Verdopplung des Volumens dieselbe Entropieänderung eintritt. Eines, der Expansionsversuch nach Gay-Lussac, dient als Modell für die Vorstellung von Boltzmann, nach der die Moleküle im größeren Volumen mehr Mikrozustände bilden, so dass der expandierte Zustand wahrscheinlicher ist. Hier wird keine Arbeit geleistet, weder gegen eine Anziehung der Teilchen (ideales Gas) noch gegen eine äußere Kraft (starre Wände). Die Moleküle prallen zwar gegen die Wand, verlieren dabei aber keine Energie. Es wird auch keine Wärme auf das System übertragen. Dieses ist abgeschlossen und während des Überströmens nicht im Gleichgewicht. Der Vorgang ist irreversibel. Das zweite Experiment, das Clausius vor Augen hatte, ist die isotherme Ausdehnung, der erste Schritt im Carnot-Zyklus. Wärme wird von außen auf die Substanz übertragen. Damit wird Arbeit geleistet und die ihr entsprechende Energie im Lauf der Expansion abgegeben an eine angeschlossene Mechanik, die sie in Form von potenzieller Energie extern speichert. Davon verbleibt nichts im Medium. Das System ist stets im Gleichgewicht. Der Vorgang ist reversibel.
Wurden in der vorliegenden Argumentation diese beiden Experimente gedanklich wirklich genau getrennt? (Expansionsversuch nach Gay-Lussac: Ausdehnung gegen keinen Druck, aber dennoch Arbeit; Arbeit wird an einem fiktiven Kolben geleistet, wohl unter Abkühlung des Gases, der nach einer Beschleunigung wieder gebremst wird, wobei wohl Wärme entsteht.) Allerdings strömen nach Öffnen des Ventils – im Mittel – erst die schnelleren Moleküle in das Vakuum. Und dieser Anteil des Gases hätte dann auch vorübergehend eine höhere Temperatur als der Rest. Eine Arbeitsleistung ist damit nicht verbunden. Vergleichen kann man das Ergebnis der beiden Experimente erst nach Einstellung des Gleichgewichts. Ein reales Gas kühlt bei der Expansion durch Arbeitsleistung ab (Joule-Thomson-Versuch). --WA Reiner (Diskussion) 13:14, 23. Sep. 2016 (CEST)
- @WA Rainer: Erstmal danke für die Ergänzung des Abschnitts. Prinzipiell ist nichts gegen den Text einzuwenden, aber ich finde, dass er zum einen unter der Überschrift "Expansionsversuch von Gay-Lussac" stehen sollte. Zum anderen hätte der Versuch einen eigenen Artikel verdient, denn ich finde die Erläuterungen für den Artikel Entropie zu ausführlich. Den nachfolgenden Abschnitt Biomembrane finde ich übrigends genauso deplaziert, vielleicht kann man ihn ja in den Artikel Biomembran aufnehmen. Eigentlich habe ich mir bei dieser Diskussion: Wikipedia:Redaktion_Physik/Qualitätssicherung/Unerledigt/2016#Entropie sowiso vorgenommen den Artikel entsprechend zu überarbeiten, habe es aber noch nicht geschafft.--Debenben (Diskussion) 16:57, 25. Sep. 2016 (CEST)
- Noch eine Antwort an @WA Rainer:: Da stimmt nicht alles. 1. Auf jeden Fall ist der Unterschied Gedankenexperiment/reales Experiment zu beachten. Der Gay-Lussac-Versuch wurde wirklich ausgeführt. Gedankenexperimente sind die beiden genannten idealisierten Prozese hin zum selben Endzustand. 2. Beim Gay-Lussac wurde keine "Arbeit bei Verschiebung einer reibenden Wand" geleistet, jedenfalls nicht vom Gas. 3. Nach Öffnen des Ventils strömen nicht erst die schnelleren Moleküle rüber, sondern die Moleküle im Teilvolumen nahe dem Ventil, und zwar beschleunigt aufgrund der Druckdifferenz. Das übrige Gas leistet Verdrängungsarbeit und kühlt ab, das schon übergeströmte Gas wird abdiabatisch komprimiert und daher erwärmt. Nachdem (bei 2 gleichen Behältern) die halbe Gasmenge rübertransportiert ist, kann der Temperaturunterschied schon mal 14° betragen. Nach Abwarten des Gleichgewichts (bei möglichst totaler Wärmeisolierung) ist er dann praktisch Null. 4. Beim Joule-Thomson-Effekt kann je nach Gasart und Temperatur Abkühlung oder Erwärmung eintreten. Die Einleitung von Joule-Thomson-Effekt ist hierin falsch, wie man auch dem Abschnitt Joule-Thomson-Effekt#Joule-Thomson-Inversionskurve entnehmen kann. Konstant ist hier die Enthalpie. --jbn (Diskussion) 20:50, 25. Sep. 2016 (CEST)
- Dass es sich auch um ein reales Experiment handelt wusste ich nicht. Genau genommen ist dann schon ideales Gas falsch und eine quasistatische Zustandsänderung beim reversiblen Prozess geht ja auch nur näherungsweise, ergo noch ein weiteres Argument für Auslagern des Versuchs.--Debenben (Diskussion) 21:33, 25. Sep. 2016 (CEST)
- Ich bin auch für einen Artikel Gay-Lussac-Versuch.--jbn (Diskussion) 10:38, 26. Sep. 2016 (CEST)
Maß für Unordnung und Unkenntnis
Die Formulierung am Schluss der Einleitung finde ich (Nicht-Fachmann) einleuchtend, aufschlussreich und geradezu entzückend:
- Allerdings ist Unordnung kein physikalischer Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen, obwohl auch Unkenntnis kein physikalisch definierter Begriff ist.
Endlich geben Fachleute einmal zu, dass ihnen etwas rätselhaft ist. Ich selber verdeutliche mir Entropie mit dem Ersten Haupsatz der Trägheitslehre: Ordnung schaffen nützt nichts, weil man damit woanders in der Welt das Chaos vergrößert. Gruß --Lesabendio (Diskussion) 22:15, 14. Sep. 2016 (CEST)
- Ein schönes Bonmot! --jbn (Diskussion) 23:13, 14. Sep. 2016 (CEST)
Zum Überstromversuch
Die Bestimmung der Entropieänderung beim Überstromversuch gilt so doch nur bei Verdoppelung des Volumens, wenn ich das richtig sehe. Das sollte dann auch erwähnt werden.
Außerdem muss man relativ lange nach "nebenstehender Abbildung" suchen, die weiter oben zu finden ist.
--79.230.94.188 04:52, 22. Jan. 2015 (CET)
- Danke für den Hinweis. Ich habe es repariert. --Pyrrhocorax (Diskussion) 13:40, 22. Jan. 2015 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: Pyrrhocorax (Diskussion) 13:40, 22. Jan. 2015 (CET)
Entropie vs. Wärme (jetzt: Ein einfacher Zugang zur Entropie)
Der erste (!) Abschnitt des Artikels beschäftigt sich mit der Frage, wie der Begriff der Wärme abzugrenzen sei. Dabei kommt er zu der Aussage, dass der Alltagsbegriff der Wärme mit der Entropie gleichzusetzen sei.
Ich habe diesen Abschnitt aus folgenden Gründen gelöscht:
- Im Artikel Entropie ist nicht über falsche Präkonzepte zum Thema Wärme zu diskutieren. Wenn überhaupt, dann wäre doch der Artikel Wärme der richtige Ort dafür.
- Die Entropie kommt nur an einer Stelle vor (s. o.). Diese Aussage ist eher zweifelhaft. Meint der Alltsagssprachler mit "Wärme" nicht viel eher eine Energieform (genauer: thermische Energie)?
- Die drei Beispielsätze, die die Identität von Entropie und Wärme in der Alltagssprache belegen sollen, sind ziemlich schlecht: Der erste gilt auch für die Begriffe der thermischen Energie und der inneren Energie. Der zweite spricht über den physikalischen Begriff Wärme. Und der dritte ist einfach falsch. Man denke an das Schmelzen von Eis oder an isotherme Zustandsänderungen idealer Gase.
Benutzer:Dogbert66 hat diesen Abschnitt wieder eingeführt, mit der Begründung, es handele sich um eine wichtige bequellte Informaiton.
Dazu möchte ich entgegnen:
- Wichtig ist die Information nicht, denn der Abschnitt beschreibt nur die Motivation des Karlsruher Physikkurses, die Entropie an den Anfang der Wärmelehre zu stellen. Ob dieses Ansinnen richtig ist oder nicht, möchte ich hier nicht erörtern. Wenn die Didaktik des Entropiebegriffes einen Abschnitt des Artikels werden sollte, könnte oder müsste man diesen Abschnitt natürlich wieder mit aufnehmen. So, wie es jetzt jedoch im Artikel steht, suggeriert es, dass das die Definition des Entropiebegriffes sei.
- bequellt ist ebenfalls nicht korrekt: Zwar sind drei (!) Quellen zu der Aussage angegeben. Es handelt sich aber nicht etwa um etablierte Lehrbücher der Physik. Stattdessen stammen alle Literaturbelege aus der Feder von Vertretern des KPKs, der (wie bekannt) in der Physik ziemlich umstritten ist.
Deswegen: Ich bin dafür, den Abschnitt komplett aus dem Artikel zu entfernen. Sollte man einen Abschnitt "Didaktik des Entropiebegriffes" einfügen, dann dürfte der Inhalt des Abschnitts in veränderter Form dort stehen (aber an einer deutlich weniger prominenten Stelle). Dann müssten aber auch andere didaktische Zugänge zum Entropiebegriff beleuchtet werden. --Pyrrhocorax (Diskussion) 20:55, 8. Jan. 2015 (CET)
- Obiger Diskussionsbeitrag von Diskussion:Entropie (Begriffsklärung) hierher verschoben, weil er dort nicht hingehört hat. --Dogbert66 (Diskussion) 00:32, 9. Jan. 2015 (CET)
- Hallo Pyrrhocorax, der Artikel Entropie stand unter dem Namen Entropie (Thermodynamik) seit 2009 in der QS Physik. Den Vorschlag des Neuaufbaus habe ich in der zugehörigen QS-Disk am 1. Jan. 2013 gepostet und den Umbau Anfang Dezember 2014 dann wie in der QS-Disk erkennbar auch offen kommuniziert. Von daher überrascht es etwas, dass Du Dich jetzt darüber wunderst, das ich den frisch eingebauten, lange vorbereitet und begründeten Abschnitt natürlich geschützt und Deine schlecht begründete Streichung revertiert habe. Man kann vom Karlsruher Physikkurs halten was man will, aber zu behaupten, der Falk-Ruppel wäre kein etabliertes Lehrbuch ist grenzwertig. Die von Georg Job dargestellte Gleichsetzung der Entropie als der umgangssprachlichen "Wärme" hat auch nichts mit den Kritikpunkten zu tun, die am KPK geäußert werden - seine Argumente werden nicht dadurch schlecht oder falsch, dass der KPK, der diese Darstellung übernommen hat, aus anderen Gründen kritisiert wird. --Dogbert66 (Diskussion) 00:32, 9. Jan. 2015 (CET)
- (Danke, dass Du es hierher verschoben hast. Das war wohl ein Missgeschick). Es ist falsch, dass die "Gleichsetzung der Entropie als der umgangssprachlichen 'Wärme' [...] auch nichts mit den Kritikpunkten zu tun [hat], die am KPK geäußert werden." Genau das ist ein wesentlicher Kritikpunkt im bekannten Gutachten der DPG. Ich zitiere wörtlich: "Aber deshalb ist Entropie noch lange nicht mit der Wärme gleichzusetzen, auch nicht mit einer 'umgangssprachlich' so bezeichneten." (Seite 7) Falk/Ruppel sei ein etabliertes Lehrbuch? Ich kenne das Buch selbst nicht. Aber es ist zuletzt 1976 erschienen, also vor 39 Jahren. Gibt es denn kein Lehrbuch aus neuerer Zeit, das die zweifelhafte Aussage stützt, dass der Entropiebegriff mit dem Alltagsbegriff Wärme zu identifizieren sei? Warum verwenden die aktuelleren Lehrbücher diesen Zugang nicht? Leider bist Du mit keiner Silbe auf meinen Hauptkritikpunkt eingegangen: Der Abschnitt "Entropie vs. Wärme" beschäftigt sich gar nicht mit der Entropie, sondern mit Präkonzepten zur Wärme. Was hat das in diesem Artikel verloren? --Pyrrhocorax (Diskussion) 10:22, 9. Jan. 2015 (CET)
- Ok, Du hast recht, der von mir dargestellte Hintergrund hat wenig mit Deinem Kritikpunkt zu tun, allerdings ist der auch in einen etwas ausschweifenden Kommentar gepackt, so dass er dort nicht ganz klar lokalisierbar war - beides hat nichts mit der inhaltlichen Fragestellung zu tun, auf die wir uns hier konzentrieren sollten. --Dogbert66 (Diskussion) 13:55, 9. Jan. 2015 (CET)
- (Danke, dass Du es hierher verschoben hast. Das war wohl ein Missgeschick). Es ist falsch, dass die "Gleichsetzung der Entropie als der umgangssprachlichen 'Wärme' [...] auch nichts mit den Kritikpunkten zu tun [hat], die am KPK geäußert werden." Genau das ist ein wesentlicher Kritikpunkt im bekannten Gutachten der DPG. Ich zitiere wörtlich: "Aber deshalb ist Entropie noch lange nicht mit der Wärme gleichzusetzen, auch nicht mit einer 'umgangssprachlich' so bezeichneten." (Seite 7) Falk/Ruppel sei ein etabliertes Lehrbuch? Ich kenne das Buch selbst nicht. Aber es ist zuletzt 1976 erschienen, also vor 39 Jahren. Gibt es denn kein Lehrbuch aus neuerer Zeit, das die zweifelhafte Aussage stützt, dass der Entropiebegriff mit dem Alltagsbegriff Wärme zu identifizieren sei? Warum verwenden die aktuelleren Lehrbücher diesen Zugang nicht? Leider bist Du mit keiner Silbe auf meinen Hauptkritikpunkt eingegangen: Der Abschnitt "Entropie vs. Wärme" beschäftigt sich gar nicht mit der Entropie, sondern mit Präkonzepten zur Wärme. Was hat das in diesem Artikel verloren? --Pyrrhocorax (Diskussion) 10:22, 9. Jan. 2015 (CET)
Kritikpunkt von Pyrrhocorax: "Der Abschnitt "Entropie vs. Wärme" beschäftigt sich gar nicht mit der Entropie, sondern mit Präkonzepten zur Wärme."
- Entgegnung Dogbert: Es ist die in der ersten Quelle belegte Aussage von Georg Job, dass der umgangssprchliche Wärme-Begriff (er kennzeichnet ihn in seinem Buch mit einem *) eben mit der Entropie gleichzusetzen sei. Daraus resultiert ein deutlich verständlicherer und didaktisch leichter zu vermittelnder Umgang mit der Größe Entropie, als Definitionen wie "Maß der Unordnung" oder "Adiabatisch erreichbarer Phasenraum". Bei den genannten Sätzen handelt es sich daher nicht um "Präkonzepte zur Wärme", sondern um Entropie. Der geschichtliche Hintegrund wieseo Job's Wärme* eben Clausius' Entropie entspricht, ist im Falk/Ruppel dargelegt - siehe auch den entsprechenden Abschnitt Entropie#Geschichtlicher Überblick, in dem es tatsächlich bei der Zeit vor Clausius um "Präkonzepte zur Wärme" (wie Wärmemenge, Caloricum etc.) geht (!). --Dogbert66 (Diskussion) 13:55, 9. Jan. 2015 (CET)
- Gegen die Begriffsgeschichte habe ich überhaupt nichts, ganz im Gegenteil. Diesen Abschnitt hatte ich auch nicht gelöscht. Man kann allerdings noch darüber diskutieren, an welcher Stelle der Abschnitt im Artikel steht. Gleiches gilt für den Abschnitt über die Analogien. Die drei Sätze hingegen beziehen sich nicht eindeutig auf die Entropie:
- in einem heißen Gegenstand ist "Wärme" enthalten, die von dort auf einen kalten Gegenstand fließen kann. - Warum steht Wärme hier für Entropie und nicht etwa für thermische Energie? Gegenfrage: In einem Stoffgemisch ist mehr Entropie enthalten als in zwei Reinstoffen. Warum spricht der Umgangssprachler hier nicht von Wärme? Offensichtlich meint er mit "Wärme" doch nicht das, was der Autor dieses Satzes gemeint hatte.
- ein kalter Gegenstand kann von seiner Umgebung "Wärme" aufnehmen. Klar kann ein kalter Gegenstand Entropie aufnehmen. Aber wäre es falsch, hier den alltagssprachlichen Begriff Wärme mit dem Fachbegriff Wärme zu assoziieren?
- fließt "Wärme" von einem warmen auf einen kalten Gegenstand, so erhöht sich dessen Temperatur. Wenn Entropie in einen Eiswürfel fließt, erhöht sich dessen Temperatur nicht, sondern er schmilzt. Die Temperatur steigt und fällt mit dem Gehalt von thermischer Energie und mit nichts anderem!
- (Hier folgt ein späterer Einschub, der die Diskussion etwas verwirrt, und den ich deshalb in <klein> umsetze . --jbn (Diskussion) 22:04, 22. Jul. 2015 (CEST)): Wenn man thermische Energie in einen Eiswürfel an Gefrierpunkt steckt, dann schmilzt er auch. Und und zwar OHNE Temperaturerhöhung, Kristallisationsenergie wird aufgenommen. Umgekehrt muss Wasser im Zeitpunkt des Gefrierens Wärme entzogen werden, damit es gefriert, die Temperatur fällt jedoch nicht, bevor das Gefrieren nicht abgeschlossen ist...134.247.251.245 13:44, 20. Jul. 2015 (CEST)
- Wie Du siehst, sind alle drei Sätze nicht geeignet, um eine Identität des Fachbegriffes Entropie mit dem Alltagsbegriff Wärme zu belegen. Noch viel weniger sind sie geeignet, eine korrekte Definition für den Begriff Entropie zu geben. Sie sind genau das, was Du beschreibst: "ein deutlich verständlicherer und didaktisch leichter zu vermittelnder Umgang mit der Größe Entropie". Als solcher gehören sie aber nicht an den Anfang des Artikels, sondern - wenn überhaupt - in einen neu zu schreibenden Abschnitt: "Didaktik des Entropiebegriffs".--Pyrrhocorax (Diskussion) 18:12, 9. Jan. 2015 (CET)
- Gegen die Begriffsgeschichte habe ich überhaupt nichts, ganz im Gegenteil. Diesen Abschnitt hatte ich auch nicht gelöscht. Man kann allerdings noch darüber diskutieren, an welcher Stelle der Abschnitt im Artikel steht. Gleiches gilt für den Abschnitt über die Analogien. Die drei Sätze hingegen beziehen sich nicht eindeutig auf die Entropie:
- Nun, das ist aber ein anderer Kritikpunkt, nämlich, ob die drei genannten Beispiele wirklich geeignet sind, die Entropie zu definieren. Deine spezielle Kritik am letzten Satz lässt sich eventuell durch eine Fußnote "Ausnahme sind Phasenübergänge" heilen. Ansonsten ist es natürlich richtig, dass in allen drei dieser Fälle zusammen mit der Entropie dS auch die "thermische Energie" TdS übertragen wird. Leider würdest Du aber vermutlich bei allen anderen Energieformen sagen "es fließt die Ladung von einem Potential zum andern und deshalb wird Energie transportiert", wohingegen im Fall Wärmetransport nur gesagt wird "es fließt thermische Energie, die eigentliche fließende Ladung (i.e. die Entropie) verstehen wir hierbei nicht und die Temperatur als Potential aufzufassen ist uns zu umständlich". Dabei ist das Verständnis der Entropie eben einfacher, wenn man diesen Gedankensprung hinbekommt.
- Eigentlich hätte ich in dem Absatz auch Job/Rüffler (dort Kapitel 2) zitieren sollen: dort sind die entsprechenden Formulierungen etwas abgemilderter enthalten.
- Ich lasse Deine Kritik insofern gelten, dass die derzeitige Formulierung so klingt, als würde nur Entropie fließen und keine thermische Energie, und dass daher nachgebesert werden sollte. Bitte verstehe aber auch, dass ich diesen Absatz gerne als ersten Absatz stehen lassen will, weil a) (imho) er ein deutlich einfacheres (und oma-taugliches) Verständnis der Entropie beinhaltet, und weil er b) den Folgeabsatz vorbereitet (mit dem er ggf. kombiniert werden kann/sollte). --Dogbert66 (Diskussion) 16:25, 10. Jan. 2015 (CET)
- Ich darf die beiden geschätzten Kollegen daran erinnern, dass die Klärung der Frage, ob denn Entropie nun mit dem Gleichzusetzen ist, was umgangssprachlich mit Wärme bezeichnet ist, nicht innerhalb der WP geklärt werden kann. Bei aller Kritik an der Kritik der DPG - aber wenn der erste Abschnitt „Entropie versus Wärme“ so oder so ähnlich im Artikel bleibt, positionieren wir uns in diesem Streit. Und das geht so nicht, Pyrrhocorax hat das DPG-Gutachten ja schon verlinkt.
- Ich kann dem Vorschlag einiges abgewinnen, einen Abschnitt „zur Didaktik“ (oder weniger Lehrerhaft „zum anschaulicheren Verständnis“) des Entropiebegriffs im Artikel zu haben. Der Abschnitt „Entropie als 'Maß der Unordnung'“ gehört dann gleich dazu. Eine Umsortierung des Artikels könnte für omA sicherlich einiges bringen, solche Verständnis-Aspekte gehören hier nicht ans Ende - aber auch nicht vor der eigentlichen Klärung... Kein Einstein (Diskussion) 17:08, 10. Jan. 2015 (CET)
- @Kein Einstein: Die Übschriften „zur Didaktik“ bzw. „zum anschaulicheren Verständnis“ stünden aber über verschiedenen Inhalten und würden sich an verschiedene Adressaten richten. Letzterer würde für omA geschrieben und es könnte letztlich alles darunter fallen, was das Verständnis erleichtern könnte. Zur Didaktik würde sich eher an Lehrende richten. Darin würde eher beleuchtet, wie der Begriff in verschiedenen didaktischen Konzepten eingeführt wird, welche Unterschiede es zwischen Schule und Uni gibt, welche Präkonzepte vorhanden sind, wie sich die Vermittlung der Entropie entwickelt hat, usw. Darin hat der KPK natürlich eine ziemlich gewichtige Rolle, weil in diesem Konzept die gesamte Thermodynamik um die Entropie herum aufgebaut wird, während in anderen didaktischen Konzepten (zurecht oder zuunrecht) die Entropie eher ein Schattendasein führt. --Pyrrhocorax (Diskussion) 14:50, 11. Jan. 2015 (CET)
- Ja, das ist richtig. Ich könnte mir beides vorstellen (vielleicht sogar gleichzeitig), präferiere aber einen Abschnitt für omA. Kein Einstein (Diskussion) 16:07, 11. Jan. 2015 (CET)
- @Kein Einstein: Die Übschriften „zur Didaktik“ bzw. „zum anschaulicheren Verständnis“ stünden aber über verschiedenen Inhalten und würden sich an verschiedene Adressaten richten. Letzterer würde für omA geschrieben und es könnte letztlich alles darunter fallen, was das Verständnis erleichtern könnte. Zur Didaktik würde sich eher an Lehrende richten. Darin würde eher beleuchtet, wie der Begriff in verschiedenen didaktischen Konzepten eingeführt wird, welche Unterschiede es zwischen Schule und Uni gibt, welche Präkonzepte vorhanden sind, wie sich die Vermittlung der Entropie entwickelt hat, usw. Darin hat der KPK natürlich eine ziemlich gewichtige Rolle, weil in diesem Konzept die gesamte Thermodynamik um die Entropie herum aufgebaut wird, während in anderen didaktischen Konzepten (zurecht oder zuunrecht) die Entropie eher ein Schattendasein führt. --Pyrrhocorax (Diskussion) 14:50, 11. Jan. 2015 (CET)
- @Dogbert66: Ich halte durchaus sehr viel davon, die Analogie zwischen dem Entropiebegriff und anderen extensiven Größen und den Zusammenhang zu Energieströmen darzustellen. Das ist nützlich und lehrreich. Deswegen aber zu behaupten, dass die Entropie identisch mit dem alltäglichen Wärmebegriff sei, halte ich für falsch. Meiner Meinung nach wird diese Behauptung nur von Vertretern des KPK geäußert, um ihr didaktisches Konzept zu propagieren. Ich habe jedenfalls noch nirgends eine schlüssige Begründung gehört, die diese Behauptung rechtfertigt. Mal eine kurze Analyse des Alltagsbegriffs der Wärme: Der Alltagssprecher meint mit Wärme eine hypothetische Substanz, die (wenn man sie auf einen Körper überträgt) dessen Temperatur steigen lässt. Ebenso glaubt der Alltagssprecher, dass er eine ebensolche Substanz gibt, die den gegenteiligen Effekt hat, nämlich die Kälte. Diese Sichtweise ist zwar naheliegend, aber physikalisch gesehen falsch. Wenn man nun einfach ignoriert, dass es in der Alltagssprache den Begriff "Kälte" gibt, und wenn man andererseits ignoriert, dass die Alltagssprache Mischungsvorgänge, Phasenübergänge, usw. anders erklärt als die Physik (nämlich ohne Wärme bzw. Kälte), und dann folgert, dass der Rest identisch mit dem Begriff der Entropie sei, dann hat man mutwillig die Alltagssprache so hingebogen, wie es in das eigene Konzept passt. Tatsächlich sind sowohl die Entropie als auch die Wärme nicht mit Alltagsbegriffen zu verstehen. Der einzige thermodynamische Begriff, der halbwegs äquivalent zur Alltagssprache ist, ist die Temperatur . --Pyrrhocorax (Diskussion) 14:50, 11. Jan. 2015 (CET)
- @Pyrrhocorax: Wie schon oben zugegeben: in der vorherigen Allgemeinheit kann man das nicht stehen lassen, weil auch parallel Energie fließt, die ja auch mengenartig ist. Ich habe die betreffende Formulierung daher mal korrigiert und hoffe, dass wir darauf aufbauen können.
- Den Absatz zur Kontinuitätsgleichung habe ich etwas nach unten verschoben: "Entropiestromstärke" an den Anfang des Abschnitts zu setzen wäre dann doch zu sehr KPK (dass ich Dir das jetzt hier vorwerfe ... ). An der jetzigen Position enthält er noch eine Redundanz zum Folgeabsatz (was nicht heißt, dass die beiden Absätze redundant zu einander wären!), d.h. auch da müsste noch etwas verfeinert werden.
- In der Hoffnung, dass Du beide Änderungen schonmal als Schritt in die richtige Richtung bezeichnest, --Dogbert66 (Diskussion) 09:44, 12. Jan. 2015 (CET)
- @Dogbert66: Ich halte durchaus sehr viel davon, die Analogie zwischen dem Entropiebegriff und anderen extensiven Größen und den Zusammenhang zu Energieströmen darzustellen. Das ist nützlich und lehrreich. Deswegen aber zu behaupten, dass die Entropie identisch mit dem alltäglichen Wärmebegriff sei, halte ich für falsch. Meiner Meinung nach wird diese Behauptung nur von Vertretern des KPK geäußert, um ihr didaktisches Konzept zu propagieren. Ich habe jedenfalls noch nirgends eine schlüssige Begründung gehört, die diese Behauptung rechtfertigt. Mal eine kurze Analyse des Alltagsbegriffs der Wärme: Der Alltagssprecher meint mit Wärme eine hypothetische Substanz, die (wenn man sie auf einen Körper überträgt) dessen Temperatur steigen lässt. Ebenso glaubt der Alltagssprecher, dass er eine ebensolche Substanz gibt, die den gegenteiligen Effekt hat, nämlich die Kälte. Diese Sichtweise ist zwar naheliegend, aber physikalisch gesehen falsch. Wenn man nun einfach ignoriert, dass es in der Alltagssprache den Begriff "Kälte" gibt, und wenn man andererseits ignoriert, dass die Alltagssprache Mischungsvorgänge, Phasenübergänge, usw. anders erklärt als die Physik (nämlich ohne Wärme bzw. Kälte), und dann folgert, dass der Rest identisch mit dem Begriff der Entropie sei, dann hat man mutwillig die Alltagssprache so hingebogen, wie es in das eigene Konzept passt. Tatsächlich sind sowohl die Entropie als auch die Wärme nicht mit Alltagsbegriffen zu verstehen. Der einzige thermodynamische Begriff, der halbwegs äquivalent zur Alltagssprache ist, ist die Temperatur . --Pyrrhocorax (Diskussion) 14:50, 11. Jan. 2015 (CET)
- Auch wenn es so geklungen haben mag: Ich bin kein entschiedener Gegner des KPK. Ich habe überhaupt nichts gegen eine mengenartige Entropie und Entropieströme. Aber wenn, dann muss man die Definition der Mengenartigkeit schon an den Anfang des betreffenden Abschnitts stellen (so wie ich es nun wieder korrigiert habe). Bauchschmerzen bereitet mir immer noch die Gleichsetzung von Wärme und Entropie. Die darf meiner Meinung nach nicht so stehen bleiben. Aber da wir uns ja kein Edit-War liefern wollen, lasse ich das so stehen, bis dazu auch eine 3. oder 4. Meinung vorliegt. --Pyrrhocorax (Diskussion) 13:22, 12. Jan. 2015 (CET)
Im Moment steht am Anfang des Abschnitts zum anschaulichen Verständnis:
- In vielen alltäglichen Redewendungen über Wärme ist nicht von der physikalischen Wärme die Rede:
- in einem heißen Gegenstand ist "Wärme" enthalten, die von dort auf einen kalten Gegenstand fließen kann.
- ein kalter Gegenstand kann von seiner Umgebung "Wärme" aufnehmen.
- fließt "Wärme" von einem warmen auf einen kalten Gegenstand, so erhöht sich dessen Temperatur.
- Bei dieser umgangssprachlichen "Wärme" handelt es sich um eine Eigenschaft, die den Zustand des Systems charakterisiert (also um eine Zustandsgröße). Wenn man ein System halbiert, so teilt sich die "Wärme" auf beide Teile gleich auf, d. h. diese Zustandsgröße ist mengenartig (oder extensiv). Damit ist sie vom physikalischen Begriff der Wärme zu trennen, die nicht einen Zustand beschreibt, sondern wie die Arbeit eine Übertragungsform zwischen zwei Zuständen ist (also eine Prozessgröße).
- Ein Vergleich mit elektrischer Ladung auf einem Kondensator, bei dem die elektrische Ladung elektrische Energie transportiert, die als Arbeit in andere Energieformen umgewandelt wird, veranschaulicht, dass bei den oben genannten Vorgängen, außer der thermischen Energie noch eine andere mengenartige Größe übertragen wird. Bei dieser zweiten mengenartige Zustandsgröße handelt es sich um die Entropie ; sie entspricht im Vergleichsbeispiel der elektrischen Ladung.
Stattdessen möchte ich folgendes vorschlagen, um die Gleichsetzung von Wärme und Entropie zu vermeiden:
- In der Alltagssprache sind mit den Wörtern warm bzw. Wärme unter Umständen ganz verschiedene physikalische Dinge gemeint:
- Ein warmer Gegenstand enthält Wärme. Er kann diese Wärme an einen kalten Gegenstand abgeben und diesen dadurch erwärmen.
- Je nach Zusammenhang ist also von einer der physikalischen Größen Temperatur, Wärme oder thermische Energie die Rede. Es gibt jedoch eine Größe, die alle Phänomene miteinander verbindet: Die Entropie.
- Ein Körper kann mehr oder weniger Entropie enthalten.
- Je mehr Entropie er enthält, umso höher ist seine Temperatur und damit auch seine thermische Energie.
- Die Entropie kann von einem Ort hoher Temperatur zu einem Ort niedriger Temperatur fließen.
- Gemeinsam mit der Entropie wird Wärme übertragen.
- Von manchen Autoren wird der Begriff der Entropie mit dem Alltagsbegriff der Wärme gleichgesetzt. (hier Ref) Allerdings ist zu bedenken, dass sich einerseits der Alltagsbegriff der Wärme deutlich von der physikalischen Prozessgröße Wärme unterscheidet und dass andererseits die physikalische Größe Entropie nicht alle Bedeutungsebenen des Alltagsbegriffs Wärme abbildet.
Was meint Ihr dazu? (nicht signierter Beitrag von Pyrrhocorax (Diskussion | Beiträge) 12. Januar 2015, 17:02:37 Uhr)
- Das wäre eine Verbesserung. Kein Einstein (Diskussion) 17:47, 12. Jan. 2015 (CET)
- a) Also von der Idee her entspricht das ungefähr dem was ich mit mein (zugegebenermaßen minimalen) Änderung heute vormittag vorhatte, daher keine prinzipielle Ablehnung. Allerdings ist der konkrete Textvorschlag imho bei weitem noch nicht in Ordnung (un teilweise sogar schlichtweg falsch), weshalb ich derzeit meine Formulierung immer noch bevorzuge. "Ein warmer Körper enthält Wärme" ist eben falsch, weil die physikalische Wärme keine mengenartige Zustandsgröße, sondern eine Prozessgröße ist. b) Deine heutige Verschiebung finde ich nicht richtig (und erstmal nicht mit der genannten Begründung notwendig), da der Begriff mengenartig schon im Absatz vorher eingeführt wurde. Er gehört inhaltlich dorthin, wo ich ihn heute morgen hinverschoben habe.
- Aber ich denke mal, wir werden uns einig. --Dogbert66 (Diskussion) 21:26, 12. Jan. 2015 (CET)
- Zu a): Natürlich ist das fachsprachlich falsch, aber es geht ja gerade darum herauszuarbeiten, wo sich die Alltagssprache von der Fachsprache unterscheidet. Und es ist übrigens nicht nur ein Unterschied in den Vokabeln. Die Alltagssprache macht keinen Unterschied zwischen intensiven und extensiven Größen, zwischen Zustands- und Prozessgrößen. Genau das wollte ich durch den Einzeiler andeuten, der vier Wörter enthält, die sich von "warm" ableiten. Zu b): Die Mengenartigkeit wird gegenwärtig in dem vorhergehenden Abschnitt erwähnt, aber nicht definiert. Außerdem finde ich, dass sich der Abschnitt mit dem Vergleich mit der Ladung weit aus dem Fenster lehnt. Im Prinzip sagt der Abschnitt: "S verhält sich wie Q. Daraus folgt, dass alles, was für Q gilt, auch für S gilt." Das ist ein ordentlicher Zirkelschluss! Vergiss nicht: Die Vorstellung, dass die Entropie eine Substanz ist, die Energie transportiert, ist zwar nützlich. Es ist aber nichtsdestotrotz nichts weiter als eine Vorstellung. --Pyrrhocorax (Diskussion) 21:57, 12. Jan. 2015 (CET)
- Nein, Du hast meine (durchaus vereinfachte) Erklärung des Begriffs mengenartig (allerdings mit der Verlinkung zu extensiv) anscheinend überlesen, das ist noch ein Absatz drüber; nur so kann ich Deine Kritik zu b) verstehen.
- Es geht hier aber auch nicht darum, den Begriff mengenartig zu definieren (dazu sind wir im falschen Artikel). Vom Leser den Band 1 des KPK vorauszusetzen, damit er den Begriff Entropiestromstärke verstehen kann, der im KPK erst in Band 2 vorkommt, ist NICHT omafreundlich. So wie es jetzt steht ist insbesondere die Reihenfolge im Analogieteil von den (vermuteterweise) unstrittigen Energieformen über Kontinuitätsgleichung auf Zweiten und Dritten Hauptsatz hin aufbauend. Es wäre schön, wenn diese m.E. sinnvolle Lesereihenfolge beibehalten würde.
- Ich habe aber mal versucht, die Vorteile Deiner Formulierung in den Artikel einzubauen. Auch habe ich versucht, die jeweiligen Absätze etwas präziser den jeweiligen Quellen zuzuordnen. --Dogbert66 (Diskussion) 02:09, 13. Jan. 2015 (CET)
@Pyrrhocorax: Danke für die konstruktive Diskussion, die den Artikel durchaus verbessert hat. Passt das jetzt von Deiner Seite? --Dogbert66 (Diskussion) 15:56, 13. Jan. 2015 (CET)
- Die Blumen für den konstruktiven Diskussionsstil gebe ich gerne auch an Dich, auch (oder gerade) weil wir in einigen Punkten nicht einer Meinung sind und uns trotzdem nicht in den Haaren liegen.
- Ich sehe doch noch erheblichen Änderungsbedarf. Mit dem Einleitungsabschnitt (Wärme und Entropie) bin ich nach wie vor nicht glücklich, weil er sich die (meiner Meinung nach) fragwürdige Argumentation des KPK zueigen macht. Ich habe einen Alternativvorschlag gegeben. Kein Einstein hat ihn gelobt. Du hast es vorgezogen, an Deinem Entwurf festzuhalten. Da sind wir meiner Meinung nach nicht fertig. Alle weiteren Änderungen, die ich vorgenommen habe, sollen wenigstens die gröbsten Ungereimtheiten glätten. Nach wie vor bin ich der Ansicht, dass eine präzise Definition der Mengenhaftigkeit an den Anfang gehört. Übrigens ist "mengenartig" und "extensiv" nicht dasselbe, auch wenn es im Moment so im Artikel steht. Das Volumen ist beispielsweise extensiv, aber nicht mengenartig. Oder hast Du es schon einmal erlebt, dass Volumen von einem Körper auf einen anderen übertragen wird? Um "mengenartig" erklären zu können, brauchen wir diese Gleichung: . Dies ist nicht die Kontinuitätsgleichung, da letzere nur für Erhaltungsgrößen ( ) gilt. Und wir brauchen sie nur an dieser Stelle. Entropieströme spielen sonst im Artikel nirgends eine Rolle. Es macht also keinen Sinn, diese Gleichung erst einzuführen, wenn die Mengenartigkeit von der Entropie schon vorausgesetzt wird. Schließlich habe ich die Sache mit dem 2. Hauptsatz aus dem Artikel gelöscht, weil das schon oft genug an anderer Stelle im Artikel steht.--Pyrrhocorax (Diskussion) 18:22, 13. Jan. 2015 (CET)
- Nun, diese Argumentation ist sachlich nicht ganz richtig: Dem Abschnitt legt eben gerade nicht die Argumentation des KPK, sondern die von Job zugrunde. Was tatsächlich vom KPK entliehen ist, ist vielmehr die von Dir in den Artikel eingeführte Entropiestromdichte, die imho nicht unbedingt erwähnt werden muss.
- Warum Du hingegen den Zweiten Hauptsatz gestrichen hast ist mir völlig schleierhaft. Insofern ist Deine Änderung von gerade eben m.E. eine Verschlechterung. --Dogbert66 (Diskussion) 18:38, 13. Jan. 2015 (CET)
- Ich habe den Zweiten Hauptsatz (in einer zum jetzigen Absatz hoffentlich besser passenden Formulierung) wieder eingefügt (weil wichtig!). Ich halte die "Erklärung, was mengenartig ist" tatsächlich nach wie vor für im Artikel nicht notwendig, zumal genau dieser Satz mit der Entropiestromstärke unnötigerweise angreifbare KPK-Formulierungen enthält. Die jetzige Form ist jedoch ein in sich sinnvoll aufgebauter Text, sie enthält meines Wissens keine falschen Aussagen und meines Erachtens nach auch nichts, was als purer POV kritisiert werden kann. --Dogbert66 (Diskussion) 11:55, 14. Jan. 2015 (CET)
- Also meinetwegen, dann lassen wir halt den 2. HS drin, auch wenn das redundant zur Einleitung und zum Abschnitt klassische Thermodynamik ist. Aber, erstens: Die Entropie ist nicht in reversiblen Vorgängen eine Erhaltungsgröße, sondern Vorgänge mit ΔS = 0 sind reversibel. Zweitens: ΔS≥0 folgt nicht aus dem 2. HS. Diese Ungleichung IST der 2. HS. --Pyrrhocorax (Diskussion) 15:57, 14. Jan. 2015 (CET)
- Nun zu Deinem anderen Punkt. Der KPK kann nicht dafür angegriffen werden, dass er Entropiestromstärken definiert. Jeder darf nach Gutdünken physikalische Größen definieren und Stromstärken sind ja auch gängige Praxis. Man denke nicht nur an die elektrische Stromstärke, sondern beispielsweise auch an den Massenstrom, den Wärmestrom usw. Dass für den Entropiestrom und nicht etwa geschrieben wird, hat auch einen guten Grund: Es soll nicht mit der Änderungsrate der Entropie in einem System verwechselt werden. Angreifbar wird der KPK unter anderem durch folgendes: Es werden Einheiten und Bezeichnungen verwendet, die es außerhalb des KPK nicht gibt ("Carnot" als Einheit der Entropie, "Impulsstromdichte" für Druck, ...). Es werden didaktische Scheinargumente erfunden, um die eigene Vorgehensweise zu propagieren (Entropie = "Wärme". Impulsströme seien anschaulicher als Kräfte. ...). Es werden Größen verwendet, die experimentell schwer zugänglich sind, nur weil sie eben besser in das didaktische Konzept passen als die bekannten Größen ("Entropiekapazität" statt Wärmekapazität). Es werden Modellvorstellungen propagiert, deren einziger Vorzug darin besteht, dass sie konsistent mit anderen Fachbereichen ist, ohne dass sie eine Begründung in den Naturgesetzen finden (Entropie ist die "Ladung", die Energie transportiert. Tatsächlich kann man nur sagen, dass Entropie gemeinsam mit Wärme übertragen wird). Usw. Meine Argumentation schweift hier etwas vom Thema ab, aber ich denke, es ist wichtig, dass Du weißt, worum es mir geht: Ich halte das Modell des KPK durchaus für lehrreich und nichts spricht dagegen, sich von ihm leiten zu lassen. Man sollte aber darüber nicht die "echte" Physik aus den Augen verlieren. --Pyrrhocorax (Diskussion) 16:23, 14. Jan. 2015 (CET)
- Ich kritisiere ja auch nicht den KPK dafür, dass er die Entropiestromstärke definiert, sondern kritisiere, dass seit Deinem Edit der Artikel diese (für den Lesefluss unnötige und außerhalb des KPK ungebräuchliche) Größe enthält. Dafür sind ΔS≥0 und reversibel jetzt an der Stelle nicht mehr erwähnt, an der sie in der einfachen Darstellung verstanden werden könnten. --Dogbert66 (Diskussion) 20:19, 16. Jan. 2015 (CET)
- Hallo an euch "konstruktive Kritiker".Ich bin zwar neu in der WP aber im Zuge der Diskussion ist mir ein weiterer Änderungsgedanke gekommen. Mir gefällt folgender Satz (etwas weiter unten im Absatz) sehr gut, da er IMHO sehr schön beschreibt wie man den gesellschaftlich verwendeten Alltagsbegriff Wärme richtig einordnen kann. Je mehr von der extensiven Größe man in ein offenes System steckt, um so mehr steigt der Wert der entsprechenden intensiven Größe, also: Je mehr Ladung man auf einen Kondensator lädt, um so mehr steigt die Potentialdifferenz, also die Spannung zwischen den Platten. Je mehr Impuls man einem Körper erteilt, um so größer wird seine Geschwindigkeit. Je mehr Volumen man einem Gas lässt, um so niedriger (wegen des Minuszeichens!) wird sein Druck. Auf die Entropie übertragen bedeutet dies: Je mehr Entropie man in einen Körper steckt, um so höher wird seine Temperatur, d. h. um so heißer wird er.Könnte man diesen Satz nicht weiter nach oben verschieben (möglicherweise leicht modifiziert) etwa nach dem Absatz der mit "Bei der umgangssprachlichen "Wärme" handelt es sich um eine Eigenschaft[...]" beginnt? Damit würde sich aus meiner Sicht (Student der Verfahrenstechnik) das Verständnis verbessern. Aus meiner Sicht ist der Vergleich mit einem Kondensator zwar richtig, aber als erste Erklärung für diesen komplexen Begriff Entropie zu prüfen, weil doch ein gewisses Grundverständnis in der Elektrotechnik/Physik dafür notwendig ist der dem "Alltagsmenschen" möglicherweise fehlt. Weiterhin konstruktives Gelingen an uns alle. Grüße Ramses_II --10:55, 23. Jan. 2015 (CET) (ohne Benutzername signierter Beitrag von 195.135.145.59 (Diskussion))
- Ich kritisiere ja auch nicht den KPK dafür, dass er die Entropiestromstärke definiert, sondern kritisiere, dass seit Deinem Edit der Artikel diese (für den Lesefluss unnötige und außerhalb des KPK ungebräuchliche) Größe enthält. Dafür sind ΔS≥0 und reversibel jetzt an der Stelle nicht mehr erwähnt, an der sie in der einfachen Darstellung verstanden werden könnten. --Dogbert66 (Diskussion) 20:19, 16. Jan. 2015 (CET)
- Ich habe den Zweiten Hauptsatz (in einer zum jetzigen Absatz hoffentlich besser passenden Formulierung) wieder eingefügt (weil wichtig!). Ich halte die "Erklärung, was mengenartig ist" tatsächlich nach wie vor für im Artikel nicht notwendig, zumal genau dieser Satz mit der Entropiestromstärke unnötigerweise angreifbare KPK-Formulierungen enthält. Die jetzige Form ist jedoch ein in sich sinnvoll aufgebauter Text, sie enthält meines Wissens keine falschen Aussagen und meines Erachtens nach auch nichts, was als purer POV kritisiert werden kann. --Dogbert66 (Diskussion) 11:55, 14. Jan. 2015 (CET)
- Bin nur gerade ueber diesen Artikel gestolpert - und der besagte Abschnitt ist in der Tat abscheulich, irrefuehrend - und sollte ersatzlos gestrichen werden. Ins. bei Ref 4 biegen sich die Balken - da koennte man fats die Bibel nehmen, um die Welt zu erklaeren mit dem Verweis, dass die Bibel ein etabliertes Werk sei -- Kopfschuettel --DAsia (Diskussion) 03:05, 10. Feb. 2015 (CET)
- Am spannendsten ist, wenn man sich Ref. 4 anschaut - und die Lobhuldigungen .... und dann versucht, die beiden Autoren der beiden Lobhuldigungen zu finden .... bei einem Prof. sollte es ja nicht zu schwer sein. .... da hinterlassen sich auch bei Amazon dieselben Lobhuldigungen ..... aber einen Prof. Jakob Fuchs in Aachen ist nicht auffindbar .... ??? --DAsia (Diskussion) 10:24, 11. Feb. 2015 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: --Pyrrhocorax (Diskussion) 13:47, 22. Feb. 2015 (CET)
Hilfestellung in Latex
Ich weiß, dass das geht, aber ich weiß nicht wie. Vielleicht kann das jemand anderes für mich erledigen: Im Abschnitt "Analogie zu anderen Energieformen" stehen vier Gleichungen. Der Leser könnte die Analogie dieser Gleichungen besser erkennen, wenn die Gleichheitszeichen senkrecht untereinander stünden. --Pyrrhocorax (Diskussion) 15:05, 11. Jan. 2015 (CET)
- Meinst du es so? --JakeG313 (Diskussion) 17:07, 11. Jan. 2015 (CET)
- Ich denke mal, dass das prinzipiell ist, worum es Pyrrhocorax ging. Kannst Du dabei aber bitte die linken Seiten linksbündig gestalten, so dass die "d"s wieder untereinanderstehen. Vorher war es lesbarer, auch wenn ich Pyrrhocorax' Einwand teile. --Dogbert66 (Diskussion) 09:59, 12. Jan. 2015 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: Pyrrhocorax (Diskussion) 16:00, 14. Jan. 2015 (CET)
einfacher Zugang
Besser wäre es, wenn bei dem Differential für die elektrische Arbeit usw. das Symbol für ein unvollständiges Differential steht, um es von den vollständigen auf der rechten Seite zu unterscheiden.
Abgesehen davon: Intensive/extensive Größen und die differentiellen Beziehungen stehen so in jedem Standard-Lehrbuch. Inwiefern stellen diese plötzlich Schlussfolgerungen aus der vom Standard abweichenden KPK-Auffassung von Wärme da, wie die Formulierung „Geht man jedoch davon aus…“ nahelegt?
Nicht-Standard ist nur die Aufnahme der Beschleunigungsarbeit in diese Liste, mit der im KPK der Impuls als strömende Größe eingeführt werden soll (siehe PDF von Fußnote 3). Da diese Ansicht aber gelinde gesagt etwas umstritten ist, sollte hier nochmal ein Hinweis auf das DPG Gutachten gesetzt werden. --(nicht signierter Beitrag von 91.7.69.80 (Diskussion) 20:10, 27. Jan. 2015 (CET))
- Zu der Formulierung "Geht man jedoch davon aus...": Hier soll die Idee dargestellt werden, Entropie als strömende Substanz zu beschreiben. Natürlich kann man auch durch andere Betrachtungsweisen zu diesen Schlussfolgerungen kommen. Dass das in "jedem Standard-Lehrbuch" steht, kann ja kein Argument dagegen sein, es in diesem Abschnitt zu bringen. Was den Impuls als strömende Größe anbetrifft: Bevor wir hier wieder das umstrittene DPG-Gutachten bringen, nehmen wir ihn doch lieber ganz raus. Er hilft nicht beim Verständnis und ist (wie Du sagst) KPK in Reinform.--Pyrrhocorax (Diskussion) 00:17, 28. Jan. 2015 (CET)
- Hinweis: dieser Abschnitt wird gerade hier diskutiert. Ich teile Eure Ansicht nicht, dass man das aus der Liste entfernen sollte, weil wir an der betreffenden Stelle eben gerade nicht über die KPK-Terminologie mit "Strömen" sprechen. Zerfällt ein Schneeball/Asteroid/beliebiges anderes System in zwei Teile, so bleibt die Geschwindigkeit der beiden Teilsysteme erst einmal dieselbe, aber der Impuls teilt sich auf die beiden Teilsysteme auf. Solange man hier nur zuordnet, welcher Begriff extensiv/mengenartig und welcher intensiv ist, so handelt es sich um allgemeingültige Aussagen. --Dogbert66 (Diskussion) 15:15, 31. Jan. 2015 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: --Pyrrhocorax (Diskussion) 13:46, 22. Feb. 2015 (CET)
Ich finde den ganzen ersten Teil sehr problematisch, weil er letztlich nur KPK-Vorstellungen zur Entropie wiedergibt. Leider enthält er einige Formulierungen, die in der dargestellten Allgemeinheit nicht richtig sind, denn
- Die Entropie ist i.a. keine monotone Funktion der inneren Energie. Das weiß man, seit in den fünfziger Jahren der Maser erfunden wurde: Purcell, Pound: "A nuclear spin system at negative temperature". Siehe z.B. http://www.physics.umd.edu/courses/Phys404/Anlage_Spring11/Ramsey-1956-Thermodynamics%20and%20S.pdf
- Die Herrmann-Job-Gleichsetzung "Entropie = (umgangssprachliche) Wärme", wobei der Zusatz "umgangssprachlich" dann häufig vergessen wird, widerspricht z.B. dem sog. "Heiz-Paradoxon". Dieses besagt, dass beim Erwärmen eines Zimmers zwar die Temperatur steigt, die innere Energie aber konstant bleibt und die Entropie abnimmt.
Deshalb würde ich vorschlagen, den ganzen ersten Teil wegzulassen--Physiker52 (Diskussion) 14:20, 1. Mär. 2015 (CET)
- Zum ersten Gegenargument: Besetzungsinversion ist ein ziemlich exotischer Zustand. Ich finde, dass dieser Ausnahmefall zwar vielleicht irgendwo im Artikel erwähnt werden sollte. Man sollte aber dafür nicht einen verständlichen Zugang zum Thema opfern.
- Zum zweiten Gegenargument: Es ist in diesem Teil des Artikels stets von "Körpern" oder "abgeschlossenen Systemen" die Rede. Beides verbietet nach meinem Verständnis den Materieaustausch. Das Heizparadoxon ist also zwar ein nettes Gedankenexperiment. Es widerspricht aber keineswegs den Dingen, die in Einstiegsabschnitt gesagt wurden. --Pyrrhocorax (Diskussion) 19:23, 1. Mär. 2015 (CET)
@Pyrrhocorax Besetzungsinversion ist insoweit exotisch, als "normalerweise" die tieferen Niveaus stärker besetzt sind. Aber Laser findet man bei jeder Supermarktkasse, in jedem CD-Spieler, in der Ophtalmologie und Dermatologie usw.. --Physiker52 (Diskussion) 22:54, 1. Mär. 2015 (CET)
Entropie als mengenartige Größe
Nach einer längeren Diskussion auf der Qualitätssicherungsseite Physik befinden wir uns nun an einem Scheideweg (meiner Meinung nach).
Die Frage ist, was der erste Abschnitt des Hauptteils leisten soll. Soll es sich um eine omA-taugliche Einführung in das abstrakte Fachgebiet der Entropie geben oder soll er fachlich einwandfrei zeigen, welche Konsequenzen sich daraus ergeben, dass die Entropie eine extensive Größe ist?
Meine Meinung dazu: Wenn es für omA geschrieben wird, soll die Analogie zu einer strömenden Substanz in den Vordergrund gestellt werden. Es kann sich meinetwegen dabei um die elektrische Ladung handeln, muss aber nicht. Dann sind Begriffe wie "extensiv" oder Differentiale nach Möglichkeit zu vermeiden. Wenn aber ein fachwissenschaftlich sauberer Text entstehen soll, der sich an ein Fachpublikum richtet und die Entropie als extensive Größe vorstellt, dann gehört der ganze Wust von "Entropie ist Wärme" bis "Stellen wir uns einen Kondensator vor" raus. Ein Spagat zwischen beiden Ansätzen ist meiner Meinung nach weder sinnvoll noch machbar. Ich finde, dass der erste Abschnitt kurz, schlank und knackig sein und sich an omA richten sollte. Alle theoretischen Aspekte gehören in den weiter unten positionierten Abschnitt "Klassische Thermodynamik". --Pyrrhocorax (Diskussion) 10:59, 3. Feb. 2015 (CET)
- Ich finde Deinen mehrfachen Wechsel des Diskussionsorts irritierend und nicht zielführend. Es wird dem Leser erschwert zu verstehen, auf welchen Diskussionsstand und Artikelstand sich Deine Fragestellung bezieht. Ich werde Dir weiterhin auf der von Dir in die QS-Physik verschobenen Disk antworten, solange dort noch Fragen offen sind. --Dogbert66 (Diskussion) 11:33, 3. Feb. 2015 (CET)
- Die Diskussion wurde nicht von mir verschoben. Mein dortiger Thread beginnt mit den Worten: "Vielleicht mag mal jemand über den Artikel Entropie drüberschauen und sich an der dortigen Diskussion zu beteiligen." Daran, dass die Diskussion auf zwei Orte verteilt ist, trägst Du genausoviel Verantwortung wie ich. --Pyrrhocorax (Diskussion) 16:49, 3. Feb. 2015 (CET)
Es gibt eine sehr launige Erklärung, was Entropie ist, die allerdings nur die Entropie in Verbindung mit physikalischer Wärme erfasst. Man findet sie bei C. Strunk: Moderne Thermodynamik, S. 45:
"Anschaulich gesprochen ist die Entropie das, woran wir uns die Finger verbrennen, wenn wir versehentlich auf eine heiße Herdplatte fassen. Der dabei auftretende Schmerz ist klar von dem zu unterscheiden, der auftritt, wenn wir uns beim Einschlagen eines Nagels mit dem Hammer auf den Finger klopfen. In beiden Fällen wird dem Finger mehr Energie zugeführt, als wir als angenehm empfinden. Der Unterschied in der sinnlichen Wahrnehmung ist jedoch nicht mit der zugeführten Energie verknüpft, sondern kommt daher, dass neben Energie im ersten Fall Entropie, im zweiten Fall aber Impuls zugeführt wird."
Das Buch von Strunk ist das erste KPK-Unibuch außerhalb von Karlsruhe, das ich kenne. Strunk hat sich in der Auseinandersetzung mit der DPG auch entsprechend positioniert. Die DPG-Gutachter und alle KPK-Gegner werden natürlich entgegen halten, dass damit nur ein Teilaspekt erfasst wird und die Mischungsentropie und die Entropie durch Volumenänderung sich unter dieser Vorstellung nicht subsumieren lassen. Mich würde interessieren, was ein Biologe oder Mediziner zu Strunks Vorschlag meint. --Physiker52 (Diskussion) 23:59, 1. Mär. 2015 (CET)
- Archivierung dieses Abschnittes wurde gewünscht von: --Pyrrhocorax (Diskussion) 13:46, 22. Feb. 2015 (CET)
Entropie als Maß der 'Unordnung'
Ordnung und Unordnung
Unter Ordnung (umgangssprachlich etwa: aufgeräumt) versteht man eine Positionierung von Elementen nach einem als nützlich eingestuften System. Ein Beispiel ist die alphabetische Ordnung in einer Bibliothek, oder auch eine Organisationsstruktur. Dass sich Elemente zufällig zu solchen funktionierenden Strukturen zusammenfinden, ist extrem unwahrscheinlich. Deshalb assoziiert man Ordnung nicht nur mit etwas Nützlichem, sondern auch mit etwas Seltenem. Und so kommt ein seltener Makrozustand (Elemente auf einer Seite versammelt; niedrige Entropie) zum Ehrentitel „geordnet“, wobei dieser Zustand wohl auch nicht nützlicher ist als ein „ungeordneter“, bei dem die Elemente gleichmäßiger verstreut sind. --WA Reiner (Diskussion) 15:41, 18. Mär. 2016 (CET)
- Deine Anmerkung ist sicher nicht falsch, aber wie soll sie zur Verbesserung des Artikels beitragen? Da steht schon in der Einleitung:
- Diese Interpretation des Entropiebegriffs wird häufig ungenau dadurch ausgedrückt, dass Entropie als ein „Maß für Unordnung“ angesehen wird. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen.
- die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen ?? - die Unkenntnis ist weder ein hinreichende noch notwendige Bedingung -auch ist die Entropie nicht auf atomare Systeme begrenzt. Das besagte Zitat stammt aus einem Buch, dass insbesondere die Verbindung zur QM stricken moechte - und es hat innerhalb seiner Hauptaussage ja auch recht - die Kenntnis des atomaren Zustands ist nicht notwendig und der Begriff der Entropie ist auch auf solche Systeme sinnvoll anwendbar. Aber der Umkehrschluss ist nicht richtig - und insoweit ist dieses Zitat in diesem Zusammenhang als erleuchtendes Beispiel vollkommen fehl am Platz --DAsia (Diskussion) 07:54, 8. Apr. 2016 (CEST)
- Hast Du einen Vorschlag für eine bessere Formulierung? Ich finden den Satz ja auch nicht besonders geglückt.
- die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen ?? - die Unkenntnis ist weder ein hinreichende noch notwendige Bedingung -auch ist die Entropie nicht auf atomare Systeme begrenzt. Das besagte Zitat stammt aus einem Buch, dass insbesondere die Verbindung zur QM stricken moechte - und es hat innerhalb seiner Hauptaussage ja auch recht - die Kenntnis des atomaren Zustands ist nicht notwendig und der Begriff der Entropie ist auch auf solche Systeme sinnvoll anwendbar. Aber der Umkehrschluss ist nicht richtig - und insoweit ist dieses Zitat in diesem Zusammenhang als erleuchtendes Beispiel vollkommen fehl am Platz --DAsia (Diskussion) 07:54, 8. Apr. 2016 (CEST)
- Diese Interpretation des Entropiebegriffs wird häufig ungenau dadurch ausgedrückt, dass Entropie als ein „Maß für Unordnung“ angesehen wird. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des atomaren Zustands“ zu begreifen.
--jbn (Diskussion) 12:10, 8. Apr. 2016 (CEST)
- Ich stimme zu, mit dem "Maß für die Unkenntnis des atomaren Zustands" soll wohl etwas kryptisch ausgedrückt werden, dass man nicht weiß oder auch nicht zu wissen braucht, wie die einzelnen Mikrozustände im Detail aussehen, welchen Verteilungen der Moleküle im Raum oder auf einzelne Energieniveaus sie entsprechen. Und je größer die Zahl der Mikrozustände, über deren Details man nichts weiß, desto größer die "Unkenntnis". Ich verstehe diese "Unkenntnis" als das W eines Makrozustands. Dahinter steht wohl auch die Vorstellung, dass bei "geringerer Unkenntnis" einige Konfigurationen unterschiedliche Bedeutungen haben, also eine bestimmte Information tragen. --WA Reiner (Diskussion) 19:12, 13. Apr. 2016 (CEST)
- Und ein ganzer Abschnitt weiter unten ist demselben Thema gewidmet. M.E. kann alles so bleiben, und weitere Diskussion würde dann besser in einem anderen Forum stattfinden. --jbn (Diskussion) 17:49, 18. Mär. 2016 (CET)
Der Laie wäre sicher dankbar, wenn das gern zitierte „Maß für die Unkenntnis des atomaren Zustands“ an einem griffigen Beispiel klar gemacht würde. Weiter unten wird dann erwähnt, dass ordentlich und unordentlich durchaus subjektiv interpretiert werden können. Das gilt umso mehr für sehr große Teilchenzahlen, etwa wenn großräumig verteilte Moleküle die Konturen der Mona Lisa nachbilden. Auch fragt man sich bei den Begriffen Ordnung und Unordnung, ob sie im naturwissenschaftlichen Sinn objektivierbar sind.
In der statistischen Thermodynamik wird die Entropie eines Makrozustands über das statistische Gewicht W oder Ω ermittelt. Vorausgesetzt ist dabei, dass soundso viele Anordnungen oder Mikrozustände, jeder für sich, einer Substanz dieselben thermodynamischen Eigenschaften verleihen. Darin sind diese Anordnungen gleichwertig. Würde man jetzt unter denselben Mikrozuständen eine zusätzliche Unterscheidung nach mehr oder weniger geordnet oder ungeordnet treffen, wäre nicht mehr gesichert, ob sie noch gleichwertig sind, denn neue Bewertungskriterien tragen Information in das System ein. Das wäre dann nicht mehr allein eine Angelegenheit des statistischen Entropiebegriffs. Darum bitte möglichst wenig Ordnung in der Entropie. Als subjektive Merkhilfe kann sie durchaus taugen.--WA Reiner (Diskussion) 21:22, 22. Mär. 2016 (CET)
Entropie als Maß für "Unwissenheit" oder "Unordung"
Ich weiß auch nicht, wie man die Entropie "endlich" mal didaktisch so zu fassen kriegen könnte, dass man nicht mit Beispielen und Analogien herumspielen muss. Denn diese sind für den Leser nicht unbedingt zielführend. Es ergeben sich für den Leser aus dem Text durchaus gedankliche Stilblüten. Beispiel, bei dem ich gerade "hängen" geblieben bin:
Abschnitt "Mischungsentropie":
"Die Entropie ist ein Maß der Unwissenheit, d. h. der Unkenntnis darüber, in welchem mikroskopischen Zustand sich das betrachtete System befindet."
Daraus habe kann ich als Leser also klar schlußfolgern: Wenn ich den Zustand im linken Glas betrachte und jemand schiebt zwischen mir und dem Glas eine undurchsuchtige Scheibe dazwischen, steigt für mich mit jedem Moment (also fortschreitender Zeit) die "Unwissenheit". Für mich als Betrachter nimmt also ab diesem Zeitpunkt die Entropie des betrachteten Objektes stetig zu. Sieht eine zweite Person ohne Abdeckung das Glas, ist deren Unwissenheit über den Zustand der Verteilung geringer. Es ergibt sich für ihn eine andere Entropie.
Dass das natürlich Blödsinn ist, ist mir klar. Aber damit ist mir auch klar, dass Entropie nichts mit Unwissenheit zu tun hat. Demzufolge aber auch nichts mit "Unordnung". Denn Ordung ist, wenn das betrachtete Objekt mittels eines vom Betrachter vorgegebenen, zwischengeschalteten Schemas mit möglicht wenigen zusätzlich Parametern (neben der Beschreibung des Schemas) beschrieben werden kann! Was meine ich damit?
Beispiel aufgeschnittene Kaffeetasse. Links wird Sahne zugekippt.
Wenn der Beobachter eine vertikal in der Mitte geteilte Maske/Trennebene als Betrachtungs-Schema zufügt und er erkennt, dass nur links die Sahne zu sehen ist und rechts nicht, ist für ihn das Maß der Unordnung dann am größten, wenn sich die Sahne gleichmäßig verteilt ist.
Wenn ein anderer Beobachter statt dessen als Schema eine Maske mit gleichmäßig verteilten Löchern verwendet und die Sahneverteilung in den Löchern betrachtet, ist für ihn das Maß der ORDNUNG am größten, wenn die Sahne gleichmäßig verteilt ist.
Damit ist gezeigt: Weder der Begriff "Unkenntnis" noch der Begriff "Unordnung" eigenen sich überhaupt zur Charakterisierung der Entropie. Denn beide Maße sind beobachterabhängig.
Allerdings habe ich auch noch keine bessere Lösung. Also: bleibt dran, am Thema. Vielleich kommt jemand mit der zündenden Idee.Frank Herbrand (Diskussion) 22:31, 13. Sep. 2017 (CEST)
- Mit "Unkenntnis" oder "Unwissenheit" ist in diesem Zusammenhang nicht gemeint, über welches praktische Wissen man tatsächlich verfügt, sondern wie viel man theoretisch wissen kann. In einem perfekten, reinen Kristall ohne thermische Bewegung ist die Entropie minimal, weil man aus den makroskopischen Größen direkt schließen kann, wie die Atome angeordnet sind. In einem heißen Gasgemisch gehören zu jeder Konstellation von makroskopischen Messgrößen unzählige, prinzipiell gleichermaßen mögliche Mikrozustände. Selbst wenn man alle makroskopischen Größen präzise misst, weiß man über den Momentanzustand daher immer noch recht wenig. Wenn Dich die verkürzte Schreibweise stört, kannst Du ja gerne versuchen, es zu präzisieren. Leider gehen solche Erklärungsversuche oft zu Lasten der Lesbarkeit. --Pyrrhocorax (Diskussion) 08:16, 14. Sep. 2017 (CEST)
- Daraus sollte eine Ergänzung des Textes hervorgehen, etwa wie "Mit Unkenntnis/Unwissenheit" ist hier die mehr oder weniger große Sicherheit gemeint, mit der man aus der Kenntnis allein der makroskopischen Größen darauf schließen kann, welche Zustände die einzelnen Teilchen einnehmen. Die Formulierung ist sicher verbesserungsfähig, deshalb habe ich sie noch nicht eingefügt, aber der Gedanke kann wohl verbreitete Verständnisbarrieren abbauen helfen. --jbn (Diskussion) 14:16, 14. Sep. 2017 (CEST)
Veraltet nicht belegt
Im Abschnitt Entropie#Grundlagen wird für eine überaus verbreitete Formel für die Entropieänderung ohne Beleg behauptet: sie sei veraltet. Mir fehlt ein Beleg hierfür. Genauso wird nicht gesagt, warum die andere Formel präziser sein soll. Ich halte die beiden Formel einfach für zwei Darstellungsmöglichkeiten, wo der eine Lehrbuchautor diese, ein anderer die andere Formel benutzt; letzlich kommt es auf den Kontext an, in den die jeweilige Formel eingebettet ist. Auf jeden Fall einfach zu sagen - die eine Formel sei veraltet - geht mir in dieser Allgemeinheit zu weit. ArchibaldWagner (Diskussion) 21:44, 21. Sep. 2017 (CEST)
- Das ist richtig, die Formel (3a) ist nicht veraltet , sondern richtig, Sie ist eine summarische Form der Gl. (3). Mir scheint (3a) auch gar nicht so allgemein wie behauptet. Oder wie beschreibt mit ihr die Entropiezunahme durch Wärmeleitung durch einen endlichen Temperaturunterschied? --jbn (Diskussion) 18:19, 22. Sep. 2017 (CEST)
- Die wertenden Passagen habe ich mal rausgenommen, ohne sonst viel am Text zu verändern. Natürlich hast Du mit Deiner zweiten Bemerkung völlig recht. Die korrekte Fassung des Textes würde sich aber wahrscheinlich ziemlich von der aktuellen Fassung unterscheiden und ich habe es daher mal behutsamer versucht. --Pyrrhocorax (Diskussion) 10:18, 11. Dez. 2017 (CET)
Einfacher Zugang zur Entropie
Der Temperaturausgleich zwischen 2 Körpern stellt in der reputablen Literatur zum Thema ein Standardbeispiel für Irreversibilität dar. Die angeblich einfache Betrachtungsweise der Entropie als mengenartige fließende Größe unterschlägt den Entropiezuwachs und wurde unter anderem deswegen von der DPG in ihrer Stellungnahme kritisiert. Das in den Abschnitt einzubauen stellt natürlich eine "Verkomplizierung" dar. In der jetzt wiederhergestellten Version wird aber eine vom Mainstream der Physik abgelehnte Ansicht unwidersprochen dargestellt, zumal der Abschnitt nur mit einschlägiger Literatur belegt ist.--2003:63:2B0C:12A0:A569:F28F:7083:A5CA 21:29, 8. Dez. 2017 (CET)
- Die in der von Benutzer:Denalos wiederhergestellten Version gegebene Erklärung wird nicht nur weithin abgelehnt, sondern ist hier sogar völlig irreführend. Gerade beim Temperaturausgleich verhält sich die Entropie NICHT wie eine mengenartige, insgesamt erhaltene Größe (wie die elektrische Ladung im Beispiel weiter unten). Ich hab den K. Physikkurs gerade nicht zur Hand, kann mir aber kaum vorstellen, dass dort dieses Beispiel so steht. Die revertierte Ergänzung von 2003:63:2B0C:12A0:A569:F28F:7083:A5CA war mehr als nötig. Bei der Karlsruher Erklärung muss die Einschränkung auf reversible Zustände herausgestellt werden, sonst ist sie schlicht falsch. Ich bin für erneutes Revertieren (und komm gerade nicht dazu, da selbst was neues, noch deutlicheres zu machen.) --Bleckneuhaus (Diskussion) 22:47, 8. Dez. 2017 (CET)
- Die Revertierung habe ich nicht vorgenommen, weil das falsch war, sondern - und das hatte ich auch in der Begründung geschrieben - weil es sich eben nicht um eine einfache Erklärung handelt, genau das soll jedoch die Intention des Absatzes sein. --Denalos(quatschen) 23:14, 8. Dez. 2017 (CET)
- Der Abschnittstitel war aber schon passend abgeändert, Deine Erklärung ist also nicht sehr überzeugend. Übrigens sagt Einstein wohl: Man soll alles so einfach zu erklären versuchen wie möglich, ABER NICHT NOCH EINFACHER. Am besten, Du nimmst Deinen eigenen revert einfach zurück, finde ich. Weitere Verbesserung kann dann ja noch kommen. --Bleckneuhaus (Diskussion) 23:31, 8. Dez. 2017 (CET)
- Ich habe sehr wohl gesehen, dass der Abschnittstitel verändert wurde, aber sowohl damit als auch mit dem im Abschnitt folgenden Inhalt ist die WP genau dem nicht mehr gerecht geworden, für was sie eigentlich steht. Einen komplexen Sachverhalt möglichst einfach darzustellen. Wenn die Aufgabe (aka Überschrift) "Einfacher Zugang" lautet und man diese Aufgabe nicht erfüllen kann, dann erfüllt man sie auch nicht dadurch, dass man die Aufgabe (aka Überschrift) ändert und dann eine korrekte Erklärung zur geänderten Aufgabe liefert. Ich habe kein Problem damit, einen komplexen Zusammenhang auf etwas möglichst einfaches "runterzubrechen", für einen Fachmann stellt sich dabei nur eine Frage: Führt das Weglassen oder Vereinfachen zu Ungenauigkeiten (damit kann man in der Regel leben) oder führt es dazu, dass die Gesamtaussage "knüppelhart" falsch wird (das ist schlecht, dann muss man sich überlegen, wodurch der Fehler entstanden ist). Die Neigung von Physikern eine Aufgabenstellung (bei vermeindlicher Unlösbarkeit) einer dann gefundenen Lösung anzupassen, erinnert mich immer an den Witz mit dem Bauern und seinen Hühnern: "Ein Bauer hat alles getan, damit seine Hühner mehr Eier legen, er hatte keinen Erfolg. Glücklicherweise hatte der Bauer einen genialen Physiker als Freund, der sich gerne des Problems angenommen hat. Der Physiker forschte, probierte und experimentierte und nach einer längerem zeit kam der Physiker zu seinem Bauern-Freund mit einer Lösung des Eierlege-Problems zurück. Als er seine Lösung vorstellte sagte er noch dazu, dass die von ihm gefundene Lösung jedoch nur mit "kugeligen Hühnern im Vakuum funktioniert". --Denalos(quatschen) 12:27, 9. Dez. 2017 (CET)
- Nachtrag: Ich stehe zu meiner Meinung mit der einhergehenden Revertierung, wenn das jemand anders sieht oder besser machen kann, kann diese(r) Andere gerne neu formulieren. --Denalos(quatschen) 12:28, 9. Dez. 2017 (CET)
- Ich habe sehr wohl gesehen, dass der Abschnittstitel verändert wurde, aber sowohl damit als auch mit dem im Abschnitt folgenden Inhalt ist die WP genau dem nicht mehr gerecht geworden, für was sie eigentlich steht. Einen komplexen Sachverhalt möglichst einfach darzustellen. Wenn die Aufgabe (aka Überschrift) "Einfacher Zugang" lautet und man diese Aufgabe nicht erfüllen kann, dann erfüllt man sie auch nicht dadurch, dass man die Aufgabe (aka Überschrift) ändert und dann eine korrekte Erklärung zur geänderten Aufgabe liefert. Ich habe kein Problem damit, einen komplexen Zusammenhang auf etwas möglichst einfaches "runterzubrechen", für einen Fachmann stellt sich dabei nur eine Frage: Führt das Weglassen oder Vereinfachen zu Ungenauigkeiten (damit kann man in der Regel leben) oder führt es dazu, dass die Gesamtaussage "knüppelhart" falsch wird (das ist schlecht, dann muss man sich überlegen, wodurch der Fehler entstanden ist). Die Neigung von Physikern eine Aufgabenstellung (bei vermeindlicher Unlösbarkeit) einer dann gefundenen Lösung anzupassen, erinnert mich immer an den Witz mit dem Bauern und seinen Hühnern: "Ein Bauer hat alles getan, damit seine Hühner mehr Eier legen, er hatte keinen Erfolg. Glücklicherweise hatte der Bauer einen genialen Physiker als Freund, der sich gerne des Problems angenommen hat. Der Physiker forschte, probierte und experimentierte und nach einer längerem zeit kam der Physiker zu seinem Bauern-Freund mit einer Lösung des Eierlege-Problems zurück. Als er seine Lösung vorstellte sagte er noch dazu, dass die von ihm gefundene Lösung jedoch nur mit "kugeligen Hühnern im Vakuum funktioniert". --Denalos(quatschen) 12:27, 9. Dez. 2017 (CET)
- Der Abschnittstitel war aber schon passend abgeändert, Deine Erklärung ist also nicht sehr überzeugend. Übrigens sagt Einstein wohl: Man soll alles so einfach zu erklären versuchen wie möglich, ABER NICHT NOCH EINFACHER. Am besten, Du nimmst Deinen eigenen revert einfach zurück, finde ich. Weitere Verbesserung kann dann ja noch kommen. --Bleckneuhaus (Diskussion) 23:31, 8. Dez. 2017 (CET)
- Ich finde, wie 2003:63:2B0C:12A0:A569:F28F:7083:A5CA und Bleckneuhaus, dass eine tendenziell irreführende Vereinfachung kein Dienst am Leser ist. Man kann nicht einfach "einfach" schreiben und die Probleme ausblenden. Die Version von 2003... bildet das Problem gut ab, ohne hier zu sehr ins Detail zu gehen. Den KPK könnte man etwas versteckter erwähnen, aber das ist Geschmackssache.
- Zugespitzt gesagt: Wenn es keinen "einfachen" Zugang gibt, dann sollte es auch keinen solchen Abschnitt hier geben. Wir brechen hier nicht im Stile von Schulbüchern etwas runter, wir versuchen eine Enzyklopädie mit den Asprüchen von omA („ohne mindeste Ahnung“) und opA („ordentliche physikaische Ausbildung“) gleichzeitig hinzubekommen. Kein Einstein (Diskussion) 12:39, 9. Dez. 2017 (CET)
- Also ich sehe den Mehrwert von "Ein alternativer Zugang zur Entropie" irgendwie mal so gar nicht. Den Nichtphysiker läßt diese Darstellung mit einem großen Fragezeichen im Gesicht zurück und für den Physiker ist das einfach mal trivial uninteressant. Das Problem in der Formulierung des Absatzes ist schlicht, dass er Entropie als vollkommen abstrakte Größe darstellt ("...so fließt Entropie vom wärmeren zum kälteren Körper..."). Der Unbedarfte kann damit nichts anfangen. Entsprechend wird der Unbedarfte versuchen das im Geiste umzuformulieren in "Es fließt Wärme von a nach b" und sich fragen "warum schreiben die das nicht gleich so"). Es bringt einem nichts, wenn man Formulierungen wählt, die den Nichtfachmann auf den falschen Dampfer führen, er (sie) dann der Ansicht ist, einen Zusammenhang verstanden zu haben, obwohl er eben genau nicht verstanden wurde. Ich spreche da aus überaus leidvoller Erfahrung. --Denalos(quatschen) 13:48, 9. Dez. 2017 (CET)
(nach BK): Mir scheint, es gibt zwei Baustellen hier: 1. "Mengenartige Größe" ist zwar schon richtig verlinkt, wird aber wohl leicht missverstanden, denn es liest wohl niemand dort nach, dass damit nicht unbedingt eine Größe mit Erhaltungssatz gemeint ist. Das in dieser Hinsicht kommentarbedürftige Beispiel mit der elektrischen Ladung muss abgegrenzt werden. Und "... Gegensatz zu anderen mengenartigen Größen" weiter unten ist leicht irreführend. 2. Auf dem Boden dieser Klärungen: Das Wort "einfach" im Abschnittstitel ist eine eher subjektive Wertung, die manchen auf eine falsche Spur lenken kann. Ich wäre für "Entropie als mengenartige Größe ". --Bleckneuhaus (Diskussion) 14:24, 9. Dez. 2017 (CET)
(nach BK + BK): Obwohl ich kein Freund des KPK bin, wie ich schon mehrfach betonte, sehe ich mich immer wieder in der Situation, ihn zu verteidigen, weil ihm Sachen unterstellt werden, die er gar nicht behauptet. Im Wesentlichen gründet stützt sich die Kritik in dem hiesigen Fall auf zwei Argumente: 1) Die Entropie ist keine Erhaltungsgröße, obwohl das der KPK behaupte oder zumindest suggeriere. 2) Die Aussage, dass die Entropie bei der Vereinigung von zwei Teilsystemen addiert werden müsse, sei falsch, weil der Wärmeaustausch mit Temperaturausgleich immer zur Entropiezunahme führe. Zu 1): Der KPK sagt ausdrücklich, dass die Entropie keine Erhaltungsgröße ist. Wenn jemand das vorwirft, so nur deswegen, weil der KPK die Entropie als "mengenmäßig" bezeichnet und der KPK-Kritiker stillschweigend annimmt, dass alle mengenmäßigen Größen Erhaltungsgrößen sind. Das ist aber nicht zwangsläufig der Fall. Zu 2): Es stimmt, dass der Temperaturausgleich eine Entropiezunahme zur Folge hat. Aber: In der Aussage, dass die Entropien addiert werden müssen steht von Temperaturausgleich gar nichts drin. Wenn ich einen warmen Eimer Wasser habe, enthält er viel Entrotpie S1. Wenn ich keinen kalten Eimer Wasser habe, so enthält er wenig Entropie S2. Wenn ich beide Eimer betrachte, so beträgt die Entropie S = S1 + S2. Niemand wird wiedersprechen, und das allein wird hier gesagt. Der KPK-Kritiker sagt: Wie groß ist die Entropie, wenn ich beide Eimer zusammen in eine Badewanne schütte? Natürlich ist die größer - aber das war ja gar nicht das Thema! Vielleicht muss man den Leser deutlicher darauf hinweisen, dass hier nur die Bilanzierung gemeint ist, unabhängig von irgendwelchen Prozessen. Unabhängig davon sollte man nicht so tun, als kämen die so hoch gelobten einschlägigen Lehrbücher ohne vergleichbare Vereinfachungen aus. Man denke nur an die Herleitung des Carnotschen Wirkungsgrades, wo stets davon ausgegangen wird, dass sich die Temperatur der beiden Wärmereservoirs durch die Wärmekraftmaschine nicht ändert. Im Übrigen halte ich den Artikel für Entropie nicht für den richtigen Ort, um Für und Wider des KPK zu diskutieren. Die Betrachtungsweise des KPK, nämlich Entropie als eine (zwar nicht erhaltene, aber dennoch additive) Substanz zu verstehen, ist extrem hilfreich und weittragend und sollte im Artikel auch entsprechend dargelegt werden. --Pyrrhocorax (Diskussion) 14:40, 9. Dez. 2017 (CET)
- ...und genau letzteres kann man in einer einfachen Aussage zusammenfassen und so einen "leichteren Zugang" vermitteln. Um sich nicht dem Vorwurf der Unkorrektheit auszusetzen, kann man ja noch eine Formulierung in der Art von "dies ist eine vereinfachte Darstellung, die einige Aspekte des Geseamtzusammenhangs nicht berücksichtigt". --Denalos(quatschen) 14:55, 9. Dez. 2017 (CET)
- Nachtrag: Die letzte Änderung von Kein Einstein ändert die Kapitelüberschrift und damit sowohl die Bedeutung als auch den Inhalt des Kapitels quasi vollständig. Das mag alles korrekt sein, es fehlt jetzt jedoch leider ein kleiner Absatz in der Form von "Einfacher Zugang zur Entropie". --Denalos(quatschen) 14:58, 9. Dez. 2017 (CET)
- Die Einordnung durch KE gefällt mir, auch im Lichte des gesamten Artikels. Die nötigen Änderungen am Text habe ich eben vorgenommen. Ich hoffe, ich war nicht zu schnell bei der Hand - bitte gegenlesen. --Bleckneuhaus (Diskussion) 15:32, 9. Dez. 2017 (CET)
- Grundsätzlich gefällt mir die Herausstellung der Besonderheit der Zunahme der Entropie bei der Wärmeabgabe. Das sollte man in jedem Falle darstellen, ich bin jedoch der Ansicht, dass das in dem Abschnitt nichts zu suchen hat, denn gerade die titelgebende Mengenbetrachtung dürfte die meisten Leute hier wirklich verwirren. --Denalos(quatschen) 15:41, 9. Dez. 2017 (CET)
- Die Entropiebildung bei der Wärmeleitung NICHT zu erwähnen, ist aber noch verwirrender. (Das hat mich an der alten Textfassung sehr gestört.) Es dürfte aber auch schwer sein, ein gutes Beispiel für die Mengenartigkeit ohne diesen Schönheitsfehler zu finden, denn KEIN thermodynamischer Prozess läuft im Alltag ohne Entropiebildung. Sonst würde er nämlich gar nicht laufen. Auch die Wärmeleitung wird ja recht eigentlich nicht durch die Temperaturdifferenz angetrieben (wie der elektrische Strom durch die Potentialdifferenz), sondern durch die Möglichkeit, die Entropie zu vermehren. --Bleckneuhaus (Diskussion) 16:42, 9. Dez. 2017 (CET)
- Das ist eine interessante Betrachtung, bringt sie doch gewissermaßen subkutan (irgendwie durch die Art der Formulierung) eine Form des Willens hinein "die Vergrößerung der Entropie als Antriebsfeder". Das ist sicherlich eine sehr spezielle Sprachempfindung, die ich da habe, aber mich beschleicht bei dieser Formulierung ein metaphysisches Gruseln. --Denalos(quatschen) 16:52, 9. Dez. 2017 (CET)
- Du sagst es. Keine Physik ohne Metaphysik, das fängt schon beim Kraftbegriff an. Frag die Philosophen. Schon gruselig, aber was soll man machen. --Bleckneuhaus (Diskussion) 17:04, 9. Dez. 2017 (CET)
- Nachtrag für Denalos: Dass die Entropieänderung als antreibende Kraft angesehen wird, dafür gibt es etablierte Quellen: zB das immer noch gute Lehruch von Becker [1] -Bleckneuhaus (Diskussion) 17:27, 11. Dez. 2017 (CET)
- @Bleckneuhaus: Mit genau diesen Ansichten habe ich schon seit Jahrzehnten Probleme (seit meinen Anfängen mit der Physik). Einerseits hat die Physik gewissermaßen einen Welterklärungsanspruch und grenzt sich sehr deutlich von der Religion ab, andererseits bringt sie aber an bestimmten Punkten immer "so'ne" esotherische Komponente rein. Mittlerweile habe ich mich damit abgefunden :-) --Denalos(quatschen) 17:44, 11. Dez. 2017 (CET)
- Nachtrag für Denalos: Dass die Entropieänderung als antreibende Kraft angesehen wird, dafür gibt es etablierte Quellen: zB das immer noch gute Lehruch von Becker [1] -Bleckneuhaus (Diskussion) 17:27, 11. Dez. 2017 (CET)
- Du sagst es. Keine Physik ohne Metaphysik, das fängt schon beim Kraftbegriff an. Frag die Philosophen. Schon gruselig, aber was soll man machen. --Bleckneuhaus (Diskussion) 17:04, 9. Dez. 2017 (CET)
- Das ist eine interessante Betrachtung, bringt sie doch gewissermaßen subkutan (irgendwie durch die Art der Formulierung) eine Form des Willens hinein "die Vergrößerung der Entropie als Antriebsfeder". Das ist sicherlich eine sehr spezielle Sprachempfindung, die ich da habe, aber mich beschleicht bei dieser Formulierung ein metaphysisches Gruseln. --Denalos(quatschen) 16:52, 9. Dez. 2017 (CET)
- Die Entropiebildung bei der Wärmeleitung NICHT zu erwähnen, ist aber noch verwirrender. (Das hat mich an der alten Textfassung sehr gestört.) Es dürfte aber auch schwer sein, ein gutes Beispiel für die Mengenartigkeit ohne diesen Schönheitsfehler zu finden, denn KEIN thermodynamischer Prozess läuft im Alltag ohne Entropiebildung. Sonst würde er nämlich gar nicht laufen. Auch die Wärmeleitung wird ja recht eigentlich nicht durch die Temperaturdifferenz angetrieben (wie der elektrische Strom durch die Potentialdifferenz), sondern durch die Möglichkeit, die Entropie zu vermehren. --Bleckneuhaus (Diskussion) 16:42, 9. Dez. 2017 (CET)
- Grundsätzlich gefällt mir die Herausstellung der Besonderheit der Zunahme der Entropie bei der Wärmeabgabe. Das sollte man in jedem Falle darstellen, ich bin jedoch der Ansicht, dass das in dem Abschnitt nichts zu suchen hat, denn gerade die titelgebende Mengenbetrachtung dürfte die meisten Leute hier wirklich verwirren. --Denalos(quatschen) 15:41, 9. Dez. 2017 (CET)
- Die Einordnung durch KE gefällt mir, auch im Lichte des gesamten Artikels. Die nötigen Änderungen am Text habe ich eben vorgenommen. Ich hoffe, ich war nicht zu schnell bei der Hand - bitte gegenlesen. --Bleckneuhaus (Diskussion) 15:32, 9. Dez. 2017 (CET)
- Nachtrag: Die letzte Änderung von Kein Einstein ändert die Kapitelüberschrift und damit sowohl die Bedeutung als auch den Inhalt des Kapitels quasi vollständig. Das mag alles korrekt sein, es fehlt jetzt jedoch leider ein kleiner Absatz in der Form von "Einfacher Zugang zur Entropie". --Denalos(quatschen) 14:58, 9. Dez. 2017 (CET)
Ich habe jetzt mal das im Artikel getan, was die meisten Lehrbücher auch machen, egal ob sie dem KPK nahestehen oder nicht: Ich habe den Unterschied zwischen reversiblen Vorgängen in der Nähe des thermischen Gleichgewichts von irreversiblen Vorgängen fernab des thermischen Gleichgewichts hervorgehoben. Ich glaube, dass es einfacher zu Verstehen ist, wenn man diese Fallunterscheidung macht und nicht gleich beide Fälle parallel denken muss. Außerdem habe ich den Satz über die Additivität der Entropie nach oben geschoben, wo er hingehört (zu den Eigenschaften der Entropie und nicht zu Wärmeleitungsvorgängen). Schließlich habe ich noch ein paar Dopplungen aufgeräumt. Das war zu viel für die Änderungsbegründungszeile, deshalb hier in ausführlich.
Nun habt Ihr einen neuen Punkt aufgeworfen, nämlich die Frage nach Henne und Ei. Da bin ich tatsächlich sehr bei Denalos: Es wäre unschön zu sagen, dass ein System einen Zustand maximaler Entropie anstrebt, denn diesem Streben fehlt das Motiv (Wozu? Und: wer lenkt das System?): Besser ist es zu sagen, dass man beobachtet, dass viele thermodynamische Prozesse eine Richtung haben, und dass man die Entropie eingeführt hat, um diese "Bewegung" zu quantifizieren. Die Natur tut nicht etwas, damit menschengemachte Gesetze erfüllt werden, sondern die Naturgesetze versuchen das zu beschreiben, was in der Natur vorgeht. --Pyrrhocorax (Diskussion) 15:08, 10. Dez. 2017 (CET)
- Nachtrag: Okay, offensichtlich wurde der Vorschlag von jbn schon wieder kassiert, bevor ich mit der Begründung fertig war. Was für eine schnelllebige Zeit! Ich halte die Begründung für den Revert übrigens für falsch: Die Behauptung gilt nicht nur für infinitesimal Temperaturunterschiede, sondern auch für endliche, aber kleine Temperaturunterschiede. Das ist ein wesentlicher Unterschied. Beispielrechnung: Ich gebe 1200 J bei einer Temperatur von 300 K ab. Das entspricht einer übergebenen Entropie von 4 J/K. Wenn die Temperaturdifferenz 1 K beträgt, dann werden dem kalten Körper 1200 J/299 K zugefügt. Das sind 4,013 J/K. Die entstandene Entropiemenge ist als 13 mJ/K oder 0,3%.--Pyrrhocorax (Diskussion) 15:19, 10. Dez. 2017 (CET)
- Hallo Pyrrhocorax, mit meiner Schnelligkeit hat ich mich selber überrascht, aber das war reiner Zufall. Mein revert richtet sich lediglich gegen die Aussage, bei kleinen T-differenzen könnte man die Wärmeleitung auch umkehren (so liest sich Dein Text ja), alle anderen Aspekte kann ich gut teilen. Die Entropieproduktion ist bei infinitesimalem delta-T nicht Null, sondern von höherer Ordung klein (nämlich ~ (delta-T)^2), das ist die Legitimation für die übliche Vernachlässigung (oder für die Formel ). - Also irgendwie besser formulieren! --Bleckneuhaus (Diskussion) 16:22, 10. Dez. 2017 (CET)
- Pyrrhocorax' Beispiel (das ich total revertiert hatte) folgend, habe ich die Argumentation etwas umgestellt, aber den Aspekt der Ir-Reversibilität gar nicht mehr betont, weil er mE die Begriffsentwicklung hier unnötig schwierig macht. Das kann später passend hinzugetan werden. Was auch noch fehlt: dass der Energieumsatz als Folge bzw. Begleiterscheinung des Entropiestroms dargestellt wird, aber nicht nur so angehängt ans elektrische Beispiel. Das mach ich später. --Bleckneuhaus (Diskussion) 23:03, 10. Dez. 2017 (CET)
Stil
Geht es nur mir so oder "klingt" der Artikel nicht etwas komisch? Ich finde er ist wenig enzyklopädisch und sehr dozierend. Ich finde, das passt nicht so recht zur Wikipedia. --Pyrrhocorax (Diskussion) 10:22, 11. Dez. 2017 (CET)
- +1 genau das war für mich der Grund meiner ursprünglichen Revertierung. Maximale Genauigkeit und tiefenphilosophische Physikdiskussionen bringen dem Leser eigentlich nichts. --Denalos(quatschen) 12:03, 11. Dez. 2017 (CET)
- Kann ich beim Überfliegen nicht finden. Welche Stellen meinst du zum Beispiel ?--Claude J (Diskussion) 12:12, 11. Dez. 2017 (CET)
- "Komisch" klingt der Artikel insgesamt für mich nicht, aber schon recht ausführlich und nicht überall so knapp wie möglich (zB am Ende von Geschichte). In der Einleitung hab ich gleich mal ein paar Sachen verbessert (denke ich). Der Beginn des Abschnitts Quantenmechanik enthält Fehler (zB dim von H). Vom Anspruch "Maximaler Genauigkeit" sollten wir aber keine Abstriche machen, schon allein wegen der leidigen Erlebnisse mit den Wortklaubern unter den Nutzern (wobei ich dankend anerkenne, dass ich durch deren Gemecker schon oft zu kleinen Verbesserungen angeregt wurde). Claude J fand kürzlich manche Artikel peinlich. Ich auch, aber wir können uns freuen, dass Wikipedia einen Standard erreicht (hat), bei dem sowas störend auffällt. --Bleckneuhaus (Diskussion) 16:41, 11. Dez. 2017 (CET)
- Kann ich beim Überfliegen nicht finden. Welche Stellen meinst du zum Beispiel ?--Claude J (Diskussion) 12:12, 11. Dez. 2017 (CET)
Verständlichkeit und Bezug
Ich habe vor ein paar Wochen folgenden Absatz in die Einleitung eingefügt, um den Artikel zum einen vollständiger zu machen, aber zum anderen auch verständlicher, denn genau diese Beispiele illustrieren sehr schön, welche fassbaren Phänomene genau hinter dem physikalischen Fachbegriff stecken:
Sie bestimmt den Ordnungszustand eines Systems: Je zufälliger die Objekte im System verteilt sind – das heißt, je geringer der Vernetzungsgrad ist und je weniger Einzelfunktionen existieren –, desto größer ist seine Entropie. Sie nimmt demnach bei jeglicher Art von Verfall zu: Etwa bei der geologischen Erosion von Gesteinen, der chemischen Zersetzung oder der Verwesung und Verrottung toter organischer Stoffe.
Wie in der vorhergehenden Diskussion angedeutet, hat Bleckneuhaus genau diesen Absatz mit der Begründung „hier gehts um den physikalischen Begriff, andere Beispiele stören die Darstellung“ auf einen Satz reduziert.
Ich würde das gern zur Diskussion stellen, denn das Thema Entropie ist zu wichtig, um es fast ausschließlich auf die physikalischen Zusammenhänge zu reduzieren und ich wüsste nicht, unter welchem anderen Entropie-Lemma die von mir eingefügten Zusammenhänge sinnvoller wären. Ich kenne den Begriff Entropie vor allem aus Ökologie und Systemwissenschaften. --Fährtenleser (Diskussion) 07:15, 6. Jan. 2018 (CET)
- Die erste Zeile über dem Artikel: "Dieser Artikel beschreibt den physikalischen Begriff aus der Thermodynamik. Für andere Bedeutungen siehe Entropie (Begriffsklärung)." Der Entropiebegriff in Ökologie und Systemwissenschaften ist sicher nicht deckungsgleich mit dem physikalischen sondern eine analoge Erweiterung, wie die anderen in der BKS angeführten Artikel auch. Weder "Vernetzungsgrad " noch "Einzelfunktionen" werden im Artikel weiter erwähnt und sind auch keine in der Thermodynamik üblichen Begriffe, haben also in der Einleitung nichts zu suchen. Wenn die anderen Artikel das auch nicht abdecken sollten, dann muss wohl ein neuer Artikel her. WP:SM --Bleckneuhaus (Diskussion) 12:17, 6. Jan. 2018 (CET)
- Da gibt es nichts zu Diskutieren @Fährtenleser. Das in einem naturwissenschaftlichen Artikel derartiger Humbug so lange stehen blieb ist erstaunlich. Manchmal wünsche ich mir dass die Schuster bei ihren Leisten bleiben würden. --77.243.183.100 13:01, 7. Jan. 2018 (CET)
- @77.243.183.100: Nana, das stand gerade mal 2 Tage drin : vom 24. bis 26.12. Oder meinst Du etwa einen anderen Humbug? --Bleckneuhaus (Diskussion) 15:58, 7. Jan. 2018 (CET)
- Wie kommst du darauf, dass der Begriff in Ökologie und Systemwissenschaften nicht deckungsgleich ist? In dieser Quelle steht etwa auf S. 293, dass der Entropiebegriff ein Fundament der Physik, Chemie und später der Biologie sei. Auch wenn ich dort weiter stöbere, sehe ich keine andere als die physikalische Bedeutung – nur eben bis zur ökologischen Ebene „hochgedacht“. Dass im Artikel nichts weiter dazu steht, ist korrekt und sollte mE ergänzt werden. Ich bin also noch nicht überzeugt, dass ein Lemma Entropie (Biologie) o.ä. notwendig wäre. --Fährtenleser (Diskussion) 07:26, 8. Jan. 2018 (CET)
- Das finde ich einen guten Ansatz: Abschnitt(e) "Biologie/Ökologie". Aber bitte erst den entsprechenden Text entwerfen, damit die Einleitung keine leeren Ankündigungen macht. --Bleckneuhaus (Diskussion) 09:54, 8. Jan. 2018 (CET)
- Wobei zu beachten ist dass bereits die Artikel Entropie in Informationstheorie und Sozialwissenschaften existieren, wenn das also auf eine Verwendung des informationstheoretischen Entropiebegriffs hinausläuft (wie bei dem Ökologen John Harte wäre es dort besser aufgehoben.--Claude J (Diskussion) 10:16, 8. Jan. 2018 (CET)
- link dazu: Entropie (Sozialwissenschaften), Entropie (Informationstheorie) . Ich würde die nächsten Schritte erstmal Fährtenleser überlassen. --Bleckneuhaus (Diskussion) 11:46, 8. Jan. 2018 (CET)
- Wie kommst du darauf, dass der Begriff in Ökologie und Systemwissenschaften nicht deckungsgleich ist? In dieser Quelle steht etwa auf S. 293, dass der Entropiebegriff ein Fundament der Physik, Chemie und später der Biologie sei. Auch wenn ich dort weiter stöbere, sehe ich keine andere als die physikalische Bedeutung – nur eben bis zur ökologischen Ebene „hochgedacht“. Dass im Artikel nichts weiter dazu steht, ist korrekt und sollte mE ergänzt werden. Ich bin also noch nicht überzeugt, dass ein Lemma Entropie (Biologie) o.ä. notwendig wäre. --Fährtenleser (Diskussion) 07:26, 8. Jan. 2018 (CET)
- @77.243.183.100: Nana, das stand gerade mal 2 Tage drin : vom 24. bis 26.12. Oder meinst Du etwa einen anderen Humbug? --Bleckneuhaus (Diskussion) 15:58, 7. Jan. 2018 (CET)
- Da gibt es nichts zu Diskutieren @Fährtenleser. Das in einem naturwissenschaftlichen Artikel derartiger Humbug so lange stehen blieb ist erstaunlich. Manchmal wünsche ich mir dass die Schuster bei ihren Leisten bleiben würden. --77.243.183.100 13:01, 7. Jan. 2018 (CET)
Zum Abschnitt "Entropie als Mass der Unordnung"
Entropie als Mass der Unordnung
Ich finde der Abschnitt ist sehr gut gelungen! --Nihillis (Diskussion) 18:24, 14. Jan. 2018 (CET)
- Ich bin da anderer Ansicht: 1. Die schon in der Einleitung angesprochene Problematik des "Maßes der Unordnung" müsste wieder aufgenommen werden. 2. Der letzte Satz ist sprachlicher Unsinn ("eine Wahrscheinlichkeit ... ist unwahrscheinlich".) 3. etc. --Bleckneuhaus (Diskussion) 20:51, 14. Jan. 2018 (CET)
Entropie im Schriftsatz und anderen Lebenslagen
Nimmt man Entropie als Maß der Langweiligkeit, so lassen sich damit kognitive Effekte deuten und deren Auslöser einordnen – wie etwa bei Geschrieben- oder Gedrucktem. Ich habe das schon vor dreißig Jahren gesagt, siehe z.B. http://www.joern.de/tipsn114.htm. Dort nach Brockhaus: »Vorgänge, bei denen die Entropie zunimmt, verlaufen von selbst, können aber nicht ohne anderweitigen Aufwand von Energie rückgängig gemacht werden.« Schweizer Schreibung mit ss auch für ß wäre ein gutes Beispiel dafür: leicht "richtig" zu schreiben, aber mühsamer zu lesen, besonders in Zweifelsfällen wie bei Maße. – Fritz Jörn (Diskussion) 09:17, 10. Jun. 2018 (CEST)
- Interessante Idee, aber gibt es dazu belastbare wissenschaftliche Diskussion und Publikationen? --Bleckneuhaus (Diskussion) 10:31, 10. Jun. 2018 (CEST)
Geschichtlicher Überblick
Zitat: "Antoine Laurent de Lavoisier unterschied 1864 chaleur (Wärme) von calorique (Caloricum)". Lavoisier lebte von 1743 bis 1794 ! Er wird wohl kaum posthum noch publiziert haben. Die beiden Begriffe tauchen in Carnots "Réflexions" auf. Dort wird aber in einer Fußnote darauf hingewiesen, dass zwischen "chaleur" und "calorique" kein Unterschied besteht: Zitat: "Nous jugeons initule d'expliquer ici ce que c'est que quantité de calorique ou quantité de chaleur (car nous employons indifféremment les deux expressions)..."
Callendar hat nun in unzutreffender Weise behauptet, Carnot unterscheide zwischen den beiden Begriffen, eine Idee, die Falk wieder aufgriff: "Entropy, a resurrection of caloric - a look at the history of thermodynamics" http://www.physikdidaktik.uni-karlsruhe.de/publication/ejp/Entropy_resurrection.pdf .
Dafür bekam Falk aber von J. Walter im Eur. J. Phys. heftigen Widerspruch, der in der Aufforderung gipfelte: "In such a situation an author who wants to be taken seriously by his readers seems to have only two ways out: either he withdraws his thesis or he sticks to it and presents convincing arguments or at least opens the perspective for such arguments to appear in the near future. From G Falk’s ‘Reply’ it does not, however, become clear which of these two possibilities he wants to choose."
Die von G. Falk behauptete Möglichkeit, die Entropie auf das "calorique" zurückführen zu können, war bereits 1954 bis 1956 Gegenstand einer Auseinandersetzung zwischen V. K. LaMer und T. Kuhn:
- - V.K. LaMer: Some current misinterpretations of N. L. Sadi Carnot's memoir and cycle. Am. J. Phys., 22:20.
- - V.K. LaMer: Some current misinterpretations of N. L. Sadi Carnot's memoir and cycle II. Am. J. Phys., 23:95.
- - T. Kuhn: La Mer's Version of “Carnot's Cycle”, Am. J. Phys. 23, 387 (1955)
- - T. Kuhn: Carnot's Version of “Carnot's Cycle”, Am. J. Phys. 23, 2 (1955)
Eine zusammenhängende Darstellung findet man bei Clifford Truesdell: The Tragicomic History of Thermodynamics, 1822-1854
Der geschichtliche Überblick in der gegenwärtigen Form gibt die Geschichte der Entropie aus der KPK-Job-Sicht wieder und sollte m.E. möglichst bald auf eine saubere wissenschaftliche Basis gestellt werden. Dazu eignen sich als frei zugängliche Quellen:
- - Dreyer, Weiss: Geschichten der Thermodynamik und obskure Anwendungen des zweiten Hauptsatzes
- - Uffink: Bluff your way in the Second Law of Thermodynamics
- - Darrigol: The origins of the entropy concept, http://www.bourbaphy.fr/darrigol.pdf
Wir sollten versuchen, den Artikel zu verbessern! --Physiker52 (Diskussion) 20:18, 1. Mär. 2015 (CET)
- Nur zu! wp:SM --Pyrrhocorax (Diskussion) 13:14, 2. Mär. 2015 (CET)
- "Nur zu!" ist zu wenig, konkrete Verbesserungen bitte! Eine erste wäre, den Begriff 'Entropie' physikalisch zu definieren, und darauf hinzuweisen, dass von Laien und Wissenschaftlern oft versucht wird, ihn unphysikalisch zu veranschaulichen, etwa als "Unordnung" oder "Unwissenheit". (Hier aus dem Artikel zitiert: "Allerdings ist Unordnung kein wohldefinierter Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des Zustands aller einzelnen Teilchen“ zu begreifen.") Dem Universum ist es egal, was wir unordentlich finden und was wir über sein Funktionieren wissen oder nicht wissen. Hier ist seit Jahrzehnten subjektive Philosophie (Idealismus) in die Physik eingeflossen. Also bitte die unphysikalischen, idealistischen Definitionen rausnehmen! --hjn1941 (Diskussion) 11:16, 29. Jan. 2019 (CET)
- Jeder, der konkrete Verbesserung für den Artikel hat, darf sie umsetzen. So funktioniert Wikipedia! Wenn ich "Nur zu!" schreibe, meine ich damit: "Wenn Du das so siehst, dann ändere es. Du rennst offene Türen ein." Vielleicht finde ich die Veränderung nur nicht so wichtig wie Du oder finde keine passende Formulierung. Warum sollte ich es dann also machen? Zu Deinem konkreten Punkt: "Unkenntnis" bedeutet hier nicht etwas nicht zu wissen, weil man es nie erfahren hat, sondern etwas nicht zu wissen, weil man es nicht wissen kann. Letzteres ist schon eine objektive Eigenschaft eines Systems. --Pyrrhocorax (Diskussion) 18:21, 29. Jan. 2019 (CET)
- Ich weiß, wie Wikipedia funktioniert (siehe meinen Beitrag in Wikimedia (Hrsg.),"Wikipedia heute", Hamburg: Hoffmann und Campe 2011.) Ich möchte aber keinen Streit anfangen. Gemeint war: den Satz mit der subjektiven Physik streichen, den ich zitiert habe. Du verteidigst den Satz; Bleckneuhaus (s.u.) tut es; Physiker52 (s.u.) tut es. Wenn es in der Physik keine objektive Wahrheit mehr gibt, müssen wir es auch hier, wie in der Politik (UK und USA lassen grüßen) mit Mehrheitsabstimmungen machen. Also 3:1 für euch! Gratuliere! Wie gesagt: Ich möchte keinen Streit anfangen und verschwinde wieder in Welt 3 (falls euch das was sagt). Bye! --hjn1941 (Diskussion) 18:57, 30. Jan. 2019 (CET)
- Da kann ich mir nicht verkneifen, den Kritischen Rationalisten hjn1941 mit einem Satz aus Kritischer Rationalismus zu konfrontieren: "Dennoch war Popper der Auffassung, dass es objektive Erkenntnis gibt. Er meint damit [ -allerdings? -, JBN], dass Forschungsergebnisse intersubjektiv nachprüfbar und reproduzierbar sind." Ist das denn wirklich noch was anderes als Mehrheitsabstimmungen ? - Übrigens hatte ich auch immer ein flaues Gefühl, wie mit dem Ausdruck "Unkenntnis" (im Zusammenhang mit Entropie) umgegangen wird. Nach meinem kurzen Diskussionsbeitrag gestern (hier drunter zu lesen) glaube ich, da klarer zu sehen. Wäre eine solche Präzisierung in Deinem Sinne? --Bleckneuhaus (Diskussion) 21:09, 30. Jan. 2019 (CET)
- Ich will nicht unbelehrbar sein, aber Intersubjektivität bei Popper ist etwas anderes. (Ich bin nun einmal ein Popperspezialist, auch wenn die Mehrheit der Popperianer das wohl anders sehen möchte, ohne sich darum zu kümmern, was ich geschrieben und herausgegeben habe). Also das mit der Intersubjektivität bei Popper verstehe ich so, dass Wissenschaft ohne die weltweite Diskussion der Wissenschaftler nicht möglich wäre. Man soll seine Ergebnisse mit anderen diskutieren, und bei Streit wird sich einstweilen eine Mehrheitsmeinung durchsetzen. Was für Mehrheitensmeinungen hat es da gegeben! Fast alles, was heute in den Lehrbüchern steht, stand einmal ganz anders drin und wurde von der Mehrheit gebilligt. Poppers Einstellung ist: die Objektivität der Physik wird durch diese Arbeitstechnik der 'Intersubjektivität' nicht beeinträchtigt, sondern sogar verbessert! Poppers Wort Intersubjektivität wurde von Habermas gestohlen und in sein Gegenteil verdreht. Und weil in der Mehrheit die Leute Habermas mehr mögen als Popper, wird es heute in dessen Sinn verwendet. Es wurde nun zum Schlag-Wort gegen das Eindringen von Objektivität und Wahrheit in den nicht-wissenschaftlichen Bereich, ein Schlag-Wort, das großen Anklang bei vielen geisteswissenschaftlich Ausgerichteten und Theologen fand, in dem Sinn: Wenn schon die Physik nicht objektiv sein kann, dann darf man das von den Geistes- und Sozialwissenschaften auch nicht verlangen, geschweige denn von Politikern und Journalisten. 50 Jahre geistige Sickerprozesse haben nun dazu geführt, dass diese Auffassung in breiten Kreisen angekommen ist. Eines von Hunderttausend Beispielen ist Donald Trump, der nur noch Fake News kennt und dem die Wahrheit egal ist. Wegen dieser riesigen kulturellen Wirkung fallen mir immer die Stellen auf, wo Physiker sich selbst und uns alle mit subjektivem Gerede in den Fuß schießen. Poppers Vorstellung von Objektivität und Mehrheit ist wie die von Einstein, der über das Buch "Hundert Physiker gegen Einstein" sagte: Einer hätte genügt. Und wie die des Max von Laue (Geschichte der Physik 1947): Wenn man mit zehn völlig verschiedenen Methoden die Lichtgeschwindigkeit gemessen hat, dann wäre die nur zufällig exakte Übereinstimmung der Werte ein extrem unwahrscheinliches Ereignis. Auf dieser Max-von-Laue-Objektivität beruht die Physik. Die Entropie brachte mich hierher, ich muss zurück zu meiner Arbeit (wie es der Zukunft gelingt, auf die Gegenwart zu wirken) --hjn1941 (Diskussion) 14:49, 31. Jan. 2019 (CET)
- Ich glaube, dass es dazu schon noch einiges zu sagen gibt. Zunächst einmal haben das Einstein-Zitat und das von-Laue-Zitat nichts miteinander zu tun. Einstein spricht über Logik: Eine entscheidbare Aussage ist falsch, wenn sie nicht wahr ist. Wie viele Menschen der Ansicht sind, dass eine Aussage wahr oder falsch ist, ist irrelevant. Von Laue spricht aber über Empirie: Wenn mehrere Forscher unabhängig von einander zum selben Ergebnis kommen, scheiden Zufall und Willklür (fast) völlig aus, um die Übereinstimmung zu erklären. Die Frage, die wir hier diskutieren, hat jedoch weder etwas mit Logik noch mit Empirie zu tun. Es geht um die Frage, ob die "Unkenntnis des Mikrozustands" ein objektiver Begriff ist oder nicht. Bleckneuhaus hat das sehr treffend erklärt. Ich versuche es mal so: Stell Dir vor, wir haben beide einen kleinen Kolben mit einem Gas vor uns und sollen Aussagen über das zukünftige Verhalten des Gases zu machen. Es müssen nur relativ wenige Parameter übereinstimmen, damit wir unabhängig von einander zu denselben Schlüssen gelangen. Wäre es jedoch kein Gas, sondern so etwas kompliziertes wie eine Schneeflocke, dann müssten wir noch wesentlich mehr Parameter angeben. Die Unkenntnis, die beim Gas erlaubt ist, bei der Schneeflocke jedoch nicht, wird durch die Entropie ausgedrückt. --Pyrrhocorax (Diskussion) 20:25, 31. Jan. 2019 (CET)
- Ich möchte Dir gerne das letzte Wort lassen; aber Dich auch nicht unhöflich ohne Antwort lassen. Also nur ganz kurz: Ich verstehe, was Du meinst. Nur verstehe bitte auch mich: 'Unkenntnis' bleibt ein subjektiver Begriff, auch wenn man ihn streng objektiv fasst. Er stärkt dann diejenigen, die es nicht so genau mit dem objektiven Sachverhalt nehmen und sich an Worte klammern und die Objektivität der Naturwissenschaften bestreiten wollen. --hjn1941 (Diskussion) 13:00, 10. Feb. 2019 (CET)
- Tatsächlich ist mir das letzte Wort gar nicht so wichtig und tatsächlich klebe ich auch nicht an dem Wort Unkenntnis. Ich verteidige es nicht, weil ich es perfekt finde, um den Sachverhalt auszudrücken, sondern weil mir kein besseres einfällt. (Es ist jedenfalls besser als Unordnung). Nachdem ich das Wort so heftig verteidigt habe, möchte ich Dir auch verraten, welche Probleme ich mit dem Wort habe: Es gibt verschiedene Arten der Unkenntnis: Ich kann etwas nicht wissen, weil ich noch nie dort nachgeschaut habe (Ich habe keine Kenntnis über Aliens), ich kann etwas nicht wissen, weil ich es vergessen habe (Ich habe keine Kenntnis darüber, was genau ich in meinen ersten zwei Lebensjahren gemacht habe) und ich kann etwas nicht wissen, weil etwas objektiv nicht "wissbar" ist (um ein neues Wort in die deutsche Sprache einzuführen). (Vielleicht weiß ich, wie viele Menschen bei der letzten Wahl für die Partei XYZ gestimmt haben, aber ich kenne ihre Namen nicht.) Die Entropie meint diese dritte Art von Entropie. Übrigens muss ich mir das merken: Wahlergebnisse von geheimen Wahlen scheinen ein ziemlich anschauliches Analogon zu den Mikro- und Makrozuständen der statistischen Thermodynamik zu sein. Man könnte nun also (das ist pure TF) die Entropie als die "Unwissbarkeit" bezeichnen. Blöd nur, dass es das Wort nicht gibt. (Nicht stimmt nicht ganz: ca. 160 Google-Treffer in Büchern, vor allem Philosophie und Theologie). --Pyrrhocorax (Diskussion) 21:10, 10. Feb. 2019 (CET)
- Vielleicht kann uns Donald Rumsfeld weiterhelfen: "...as we know, there are known knowns; there are things we know we know. We also know there are known unknowns; that is to say we know there are some things we do not know. But there are also unknown unknowns—the ones we don't know we don't know." --hjn1941 (Diskussion) 17:12, 21. Feb. 2019 (CET)
- Tatsächlich ist mir das letzte Wort gar nicht so wichtig und tatsächlich klebe ich auch nicht an dem Wort Unkenntnis. Ich verteidige es nicht, weil ich es perfekt finde, um den Sachverhalt auszudrücken, sondern weil mir kein besseres einfällt. (Es ist jedenfalls besser als Unordnung). Nachdem ich das Wort so heftig verteidigt habe, möchte ich Dir auch verraten, welche Probleme ich mit dem Wort habe: Es gibt verschiedene Arten der Unkenntnis: Ich kann etwas nicht wissen, weil ich noch nie dort nachgeschaut habe (Ich habe keine Kenntnis über Aliens), ich kann etwas nicht wissen, weil ich es vergessen habe (Ich habe keine Kenntnis darüber, was genau ich in meinen ersten zwei Lebensjahren gemacht habe) und ich kann etwas nicht wissen, weil etwas objektiv nicht "wissbar" ist (um ein neues Wort in die deutsche Sprache einzuführen). (Vielleicht weiß ich, wie viele Menschen bei der letzten Wahl für die Partei XYZ gestimmt haben, aber ich kenne ihre Namen nicht.) Die Entropie meint diese dritte Art von Entropie. Übrigens muss ich mir das merken: Wahlergebnisse von geheimen Wahlen scheinen ein ziemlich anschauliches Analogon zu den Mikro- und Makrozuständen der statistischen Thermodynamik zu sein. Man könnte nun also (das ist pure TF) die Entropie als die "Unwissbarkeit" bezeichnen. Blöd nur, dass es das Wort nicht gibt. (Nicht stimmt nicht ganz: ca. 160 Google-Treffer in Büchern, vor allem Philosophie und Theologie). --Pyrrhocorax (Diskussion) 21:10, 10. Feb. 2019 (CET)
- Ich möchte Dir gerne das letzte Wort lassen; aber Dich auch nicht unhöflich ohne Antwort lassen. Also nur ganz kurz: Ich verstehe, was Du meinst. Nur verstehe bitte auch mich: 'Unkenntnis' bleibt ein subjektiver Begriff, auch wenn man ihn streng objektiv fasst. Er stärkt dann diejenigen, die es nicht so genau mit dem objektiven Sachverhalt nehmen und sich an Worte klammern und die Objektivität der Naturwissenschaften bestreiten wollen. --hjn1941 (Diskussion) 13:00, 10. Feb. 2019 (CET)
- Ich glaube, dass es dazu schon noch einiges zu sagen gibt. Zunächst einmal haben das Einstein-Zitat und das von-Laue-Zitat nichts miteinander zu tun. Einstein spricht über Logik: Eine entscheidbare Aussage ist falsch, wenn sie nicht wahr ist. Wie viele Menschen der Ansicht sind, dass eine Aussage wahr oder falsch ist, ist irrelevant. Von Laue spricht aber über Empirie: Wenn mehrere Forscher unabhängig von einander zum selben Ergebnis kommen, scheiden Zufall und Willklür (fast) völlig aus, um die Übereinstimmung zu erklären. Die Frage, die wir hier diskutieren, hat jedoch weder etwas mit Logik noch mit Empirie zu tun. Es geht um die Frage, ob die "Unkenntnis des Mikrozustands" ein objektiver Begriff ist oder nicht. Bleckneuhaus hat das sehr treffend erklärt. Ich versuche es mal so: Stell Dir vor, wir haben beide einen kleinen Kolben mit einem Gas vor uns und sollen Aussagen über das zukünftige Verhalten des Gases zu machen. Es müssen nur relativ wenige Parameter übereinstimmen, damit wir unabhängig von einander zu denselben Schlüssen gelangen. Wäre es jedoch kein Gas, sondern so etwas kompliziertes wie eine Schneeflocke, dann müssten wir noch wesentlich mehr Parameter angeben. Die Unkenntnis, die beim Gas erlaubt ist, bei der Schneeflocke jedoch nicht, wird durch die Entropie ausgedrückt. --Pyrrhocorax (Diskussion) 20:25, 31. Jan. 2019 (CET)
- Ich will nicht unbelehrbar sein, aber Intersubjektivität bei Popper ist etwas anderes. (Ich bin nun einmal ein Popperspezialist, auch wenn die Mehrheit der Popperianer das wohl anders sehen möchte, ohne sich darum zu kümmern, was ich geschrieben und herausgegeben habe). Also das mit der Intersubjektivität bei Popper verstehe ich so, dass Wissenschaft ohne die weltweite Diskussion der Wissenschaftler nicht möglich wäre. Man soll seine Ergebnisse mit anderen diskutieren, und bei Streit wird sich einstweilen eine Mehrheitsmeinung durchsetzen. Was für Mehrheitensmeinungen hat es da gegeben! Fast alles, was heute in den Lehrbüchern steht, stand einmal ganz anders drin und wurde von der Mehrheit gebilligt. Poppers Einstellung ist: die Objektivität der Physik wird durch diese Arbeitstechnik der 'Intersubjektivität' nicht beeinträchtigt, sondern sogar verbessert! Poppers Wort Intersubjektivität wurde von Habermas gestohlen und in sein Gegenteil verdreht. Und weil in der Mehrheit die Leute Habermas mehr mögen als Popper, wird es heute in dessen Sinn verwendet. Es wurde nun zum Schlag-Wort gegen das Eindringen von Objektivität und Wahrheit in den nicht-wissenschaftlichen Bereich, ein Schlag-Wort, das großen Anklang bei vielen geisteswissenschaftlich Ausgerichteten und Theologen fand, in dem Sinn: Wenn schon die Physik nicht objektiv sein kann, dann darf man das von den Geistes- und Sozialwissenschaften auch nicht verlangen, geschweige denn von Politikern und Journalisten. 50 Jahre geistige Sickerprozesse haben nun dazu geführt, dass diese Auffassung in breiten Kreisen angekommen ist. Eines von Hunderttausend Beispielen ist Donald Trump, der nur noch Fake News kennt und dem die Wahrheit egal ist. Wegen dieser riesigen kulturellen Wirkung fallen mir immer die Stellen auf, wo Physiker sich selbst und uns alle mit subjektivem Gerede in den Fuß schießen. Poppers Vorstellung von Objektivität und Mehrheit ist wie die von Einstein, der über das Buch "Hundert Physiker gegen Einstein" sagte: Einer hätte genügt. Und wie die des Max von Laue (Geschichte der Physik 1947): Wenn man mit zehn völlig verschiedenen Methoden die Lichtgeschwindigkeit gemessen hat, dann wäre die nur zufällig exakte Übereinstimmung der Werte ein extrem unwahrscheinliches Ereignis. Auf dieser Max-von-Laue-Objektivität beruht die Physik. Die Entropie brachte mich hierher, ich muss zurück zu meiner Arbeit (wie es der Zukunft gelingt, auf die Gegenwart zu wirken) --hjn1941 (Diskussion) 14:49, 31. Jan. 2019 (CET)
- Da kann ich mir nicht verkneifen, den Kritischen Rationalisten hjn1941 mit einem Satz aus Kritischer Rationalismus zu konfrontieren: "Dennoch war Popper der Auffassung, dass es objektive Erkenntnis gibt. Er meint damit [ -allerdings? -, JBN], dass Forschungsergebnisse intersubjektiv nachprüfbar und reproduzierbar sind." Ist das denn wirklich noch was anderes als Mehrheitsabstimmungen ? - Übrigens hatte ich auch immer ein flaues Gefühl, wie mit dem Ausdruck "Unkenntnis" (im Zusammenhang mit Entropie) umgegangen wird. Nach meinem kurzen Diskussionsbeitrag gestern (hier drunter zu lesen) glaube ich, da klarer zu sehen. Wäre eine solche Präzisierung in Deinem Sinne? --Bleckneuhaus (Diskussion) 21:09, 30. Jan. 2019 (CET)
- Ich weiß, wie Wikipedia funktioniert (siehe meinen Beitrag in Wikimedia (Hrsg.),"Wikipedia heute", Hamburg: Hoffmann und Campe 2011.) Ich möchte aber keinen Streit anfangen. Gemeint war: den Satz mit der subjektiven Physik streichen, den ich zitiert habe. Du verteidigst den Satz; Bleckneuhaus (s.u.) tut es; Physiker52 (s.u.) tut es. Wenn es in der Physik keine objektive Wahrheit mehr gibt, müssen wir es auch hier, wie in der Politik (UK und USA lassen grüßen) mit Mehrheitsabstimmungen machen. Also 3:1 für euch! Gratuliere! Wie gesagt: Ich möchte keinen Streit anfangen und verschwinde wieder in Welt 3 (falls euch das was sagt). Bye! --hjn1941 (Diskussion) 18:57, 30. Jan. 2019 (CET)
- Jeder, der konkrete Verbesserung für den Artikel hat, darf sie umsetzen. So funktioniert Wikipedia! Wenn ich "Nur zu!" schreibe, meine ich damit: "Wenn Du das so siehst, dann ändere es. Du rennst offene Türen ein." Vielleicht finde ich die Veränderung nur nicht so wichtig wie Du oder finde keine passende Formulierung. Warum sollte ich es dann also machen? Zu Deinem konkreten Punkt: "Unkenntnis" bedeutet hier nicht etwas nicht zu wissen, weil man es nie erfahren hat, sondern etwas nicht zu wissen, weil man es nicht wissen kann. Letzteres ist schon eine objektive Eigenschaft eines Systems. --Pyrrhocorax (Diskussion) 18:21, 29. Jan. 2019 (CET)
- "Nur zu!" ist zu wenig, konkrete Verbesserungen bitte! Eine erste wäre, den Begriff 'Entropie' physikalisch zu definieren, und darauf hinzuweisen, dass von Laien und Wissenschaftlern oft versucht wird, ihn unphysikalisch zu veranschaulichen, etwa als "Unordnung" oder "Unwissenheit". (Hier aus dem Artikel zitiert: "Allerdings ist Unordnung kein wohldefinierter Begriff und hat daher auch kein physikalisches Maß. Besser ist es, die Entropie als ein „Maß für die Unkenntnis des Zustands aller einzelnen Teilchen“ zu begreifen.") Dem Universum ist es egal, was wir unordentlich finden und was wir über sein Funktionieren wissen oder nicht wissen. Hier ist seit Jahrzehnten subjektive Philosophie (Idealismus) in die Physik eingeflossen. Also bitte die unphysikalischen, idealistischen Definitionen rausnehmen! --hjn1941 (Diskussion) 11:16, 29. Jan. 2019 (CET)
Dem Universum dürfte es auch egal sein, welche Begriffe wir uns prägen, wenn wir für uns die Beobachtungen physikalisch ordnen wollen. Entropie ist so ein Begriff, er bezieht sich auf makroskopische Größen (und ist geeignet, deren Verhalten zu beschreiben), also auf Größen, die schon ein Maß an Unkenntnis eingebaut bekommen haben. Wenn ich diese Unkenntnis durch eine genaue Kenntnis des Mikrozustands ersetzen könnte, bräuchte ich keine Entropie, sondern nur eine große Rechenmaschine, um mit den bekannten Bewegungsgleichungen das Verhalten im Einzelnen nachzurechnen und dann hinsichtlich der makroskopischen Größen zu den gleichen Voraussagen zu kommen wie vorher. - Dabei möchte ich gar nicht bestreiten, dass unsere Physik voll von Idealismus ist, und noch voller von Anthromorphismus (dazu gehört sogar der Kraftbegriff). Wenn wir all das "rausnehmen" würden, bliebe nicht viel übrig. Also konkret: wo sollte der Artikel verändert werden?--Bleckneuhaus (Diskussion) 18:48, 29. Jan. 2019 (CET)
- Lass ihn halt so. Ein Lexikon bildet ja auch (wider Willen!) immer den Zeitgeist ab, und spätere Generationen können sich, dank des WP-Archivs, an unserer beider Unkenntnis delektieren.--hjn1941 (Diskussion) 14:49, 31. Jan. 2019 (CET)
- Nein, ich hab ja hier was gelernt und möchte die Formulierung entsprechend verbessern!--Bleckneuhaus (Diskussion) 21:36, 31. Jan. 2019 (CET)
- @hjn1941: Wenn schon nicht bei Entropie, dann sollten Deine Anmerkungen bei Kritischer Rationalismus eingebaut werden. (Da hättest Du auch sicher echte Philosophen als peers, nicht nur Physiker.) Du hast nämlich nicht recht damit, dass wir hier nur den Zeitgeist abbilden (wollen), sondern viel lieber den ganzen Diskurs mit abweichenden Meinungen (sofern nicht Privatmeinung, sondern ernsthaft in der Diskussion). Dann könnte ich sogar Deine despektierlichen Hinweise auf Trump et al. übergehen. --Bleckneuhaus (Diskussion) 23:13, 1. Feb. 2019 (CET)
- @Hjn1941: Kriege ich auch eine Antwort? Mein Vorschlag in Richtung Krit. Rationalismus war durchaus ernst gemeint. --Bleckneuhaus (Diskussion) 14:32, 10. Feb. 2019 (CET)
- @hjn1941: Wenn schon nicht bei Entropie, dann sollten Deine Anmerkungen bei Kritischer Rationalismus eingebaut werden. (Da hättest Du auch sicher echte Philosophen als peers, nicht nur Physiker.) Du hast nämlich nicht recht damit, dass wir hier nur den Zeitgeist abbilden (wollen), sondern viel lieber den ganzen Diskurs mit abweichenden Meinungen (sofern nicht Privatmeinung, sondern ernsthaft in der Diskussion). Dann könnte ich sogar Deine despektierlichen Hinweise auf Trump et al. übergehen. --Bleckneuhaus (Diskussion) 23:13, 1. Feb. 2019 (CET)
- Nein, ich hab ja hier was gelernt und möchte die Formulierung entsprechend verbessern!--Bleckneuhaus (Diskussion) 21:36, 31. Jan. 2019 (CET)
- Lass ihn halt so. Ein Lexikon bildet ja auch (wider Willen!) immer den Zeitgeist ab, und spätere Generationen können sich, dank des WP-Archivs, an unserer beider Unkenntnis delektieren.--hjn1941 (Diskussion) 14:49, 31. Jan. 2019 (CET)
(Nach BK:) @Hjn1941: Die Entropie ist in der Tat abhängig davon was wir über das Universum wissen, siehe QS-Diskussion 2016. Unabhängig von dem Wissen über das System ist sie nur dann, wenn man ein Ensemble definiert und damit alle makroskopischen Zustandsgrößen vorgibt, die sich immer messen lassen und alle anderen, sprich der Mikrozustand als nicht messbar definiert wird. @Physiker52: Die Ergänzung/Überarbeitung klingt sinnvoll, danke für das Finden des Fehlers mit der Jahresangabe bei Antoine Laurent, du kannst den Text warscheinlich am Besten verbessern, nur zu!--Debenben (Diskussion) 19:21, 29. Jan. 2019 (CET)
- Ups, ich sehe gerade, die Jahresangabe ist schon lange verbessert.--Debenben (Diskussion) 19:27, 29. Jan. 2019 (CET)
Verständnisfrage
Die in einem System vorhandene Entropie...
Was für ein System - offen oder geschlossen - ist das genaue Formulieren so schwer, daß man die Nasenzange braucht?--2003:F2:83CF:F601:89B8:9D67:A1F9:6C8C 12:27, 18. Mai 2019 (CEST)
- Gemeint ist ein geschlossenes (jedoch kein agbeschlossenes) System. Ich habe es geändert. Danke für den Hinweis. --Pyrrhocorax (Diskussion) 14:34, 18. Mai 2019 (CEST)
Klassische Thermodynamik - Grundlagen
Im Text steht "Dividiert man durch die Masse des Systems, erhält man die spezifische..."
Im ersten Teil des Satzes fehlt, was man durch die Masse des System dividiert. Bundesstefan @ 12:09, 18. Jul. 2019 (CEST)
- Erledigt. --Bleckneuhaus (Diskussion) 17:18, 13. Aug. 2019 (CEST)
Herleitung von Gleichung (3)
Gibt es für die Gleichung eine Herleitung? --Physiklehrer21 (Diskussion) 17:17, 13. Aug. 2019 (CEST)
- Warum reicht Dir die Erklärung in den folgenden 3 Sätzen nicht? Stell Dir vor, die dissipierte Energie wird erst irreversibel in "Wärmeenergie" (bei der gegegebenen Temperatur) umgewandelt, die anschließend reversibel dem System zugeführt wird. --Bleckneuhaus (Diskussion) 17:54, 13. Aug. 2019 (CEST)
Mir leuchtet nicht ganz ein, warum die dissipierte Energie komplett in Wärme umgewandelt wird. Wenn man z.B. einen Stein auf den Boden fallen lässt müsste, wird die kinetische Energie des Steins dissipiert. Ein Teil dieser Energie kann doch aber auch nach dem Stoß in potentielle Energie umgewandelt worden sein (wenn sich der Boden verformt hat). Oder ist die dissipierte Energie nur der Anteil, der nach dem Stoß in in der ungerichteten Bewegung der Teilchen gespeichert ist? --Physiklehrer21 (Diskussion) 19:54, 13. Aug. 2019 (CEST)
- Formal überzeugend vielleicht so: Nach den grundlegenden Definitionen der Thermodynamik gilt , woraus in "physikalischer" Schreibweise direkt folgt: . Also ist die Erhöhung der Inneren Energie (sei es durch Wärme, sei es durch Reibung etc) immer die angegebene Erhöhung von S. --Bleckneuhaus (Diskussion) 20:40, 13. Aug. 2019 (CEST)
- Die fragliche Formel habe ich bislang vorwiegend in der technischen Literatur gefunden, aber bislang in keinem der mir bekannten Physik-Lehrbücher. Letztlich steht hinter der Herleitungsfrage die Frage: wie die einzelnen Größen dort in welchem Kontext gemeint sind, bzw. zu interpretieren sind. Eine plausible Erläuterung habe ich in dem Buch von H.D. Baehr, S Kabelac "Thermodynamik" 16. Aufl. 2016 im Abschnitt 3.1.2 "Formulierung des 2. Hauptsatzes durch Postulate" S 92 gefunden. Das Problem ist m.E. nicht die Algebra sondern halt die genaue Beschreibung der gemeinten Prozesse und Systeme, und das geht vermutlich nicht ohne viel Text. Ich selber frage mich daher, ob die Formel hier in der Wikipedia nicht eher verwirrt als zum Verständnis beiträgt, zumal sie scheinbar nicht einfach mit den Formeln in den Physik-Lehrbüchern zur Deckung zu bringen ist. (Allerdings ist diese Formel, oder Varianten davon, in der technischen Literatur sehr verbreitet.) Wichtiger als diese Formel erscheint mir eine Erläuterung, wie die Entropie für ein Beispiel-System denn nun konkret bestimmt wird. Wichtig ist hinter der Formel mindestens einen guten Lehrbuch-Nachweis zu erwähnen.ArchibaldWagner (Diskussion) 09:56, 15. Aug. 2019 (CEST)
- Nachtrag: Wenn man so will, ist diese Formel eigentlich nichts anderes als eine Definition von . Den Rest erklärt dann die Energieerhaltung. ArchibaldWagner (Diskussion) 09:59, 15. Aug. 2019 (CEST)
- Warum dann nicht mit begründen (was auch in vielen Lehrbüchern steht)? Und vielleicht noch die Voraussetzungen vom konstanten Volumen und konstanter Teilchenzahl mit erwähnen? Unter diesen Bedingungen (Vol. steht hier für jede Art von äußeren Zustandsgrößen, die durch Arbeit verändert werden können, zB Magnetisierung etc.) ist jede nicht als Wärme zugeführte Energie dissipierte Energie - das kann gerne als strenge Definition verstanden werden. --Bleckneuhaus (Diskussion) 12:00, 15. Aug. 2019 (CEST)
- In dem Lehrbuch Bd IV von Ludwig beginnt auf Seite 89 ein Abschnitt "Der Satz von der Vermehrung der Entropie". Dort wird das folgende Beispiel diskutiert. Zwei vorerst voneinander isolierte Kupferblöcke mit verschiedenen Temperaturen haben jeweils die Entropie bzw. . Das Gesamtsystem aus beiden Blöcken hat dann die Entropie . Die beiden Blöcke werden dann thermisch gekoppelt (der Prozess) und nach Einstellung des Gleichgewichts hat das Gesamtsystems eine größeren Wert, vermehrt, meinet wegen, um . Was ist dabei jetzt in der fraglichen Formel unter zu verstehen? Ich kann auch die Aussage im Artikeltext: "Diese Schreibweise ist unpräzise:" nach Formel (3a) nicht wirklich nachvollziehen, was soll an einer Ungleichung denn unpräzise sein; allenfalls dass nicht genau gesagt wird was unter zu verstehen ist – oder? ArchibaldWagner (Diskussion) 21:55, 15. Aug. 2019 (CEST)
- Da ist , weil keine Arbeit geleistet wird (streng nur bei isochorem Prozess, wenn also keine Wärmeausdehnung erfolgt). Ich hab den Text etwas erweitert, um ihn dahingehend verständlicher zu machen. Besser so? --Bleckneuhaus (Diskussion) 23:09, 15. Aug. 2019 (CEST)
- Nun ja, ich verstehe unter die dem Gesamtsystem von außen zugeführte Wärmeenergie, dann gibt es allerdings mit der Interpretation ein Problem. Aber wir können auch den anderen Fall der Mischungsentropie betrachten. Ein Flasche mit Stickstoff und eine mit Sauerstoff (gleicher Temperatur) werden miteinder verbunden, hier fließt intern auch kein , trotzdem steigt die Entropie. Was ist dann ?
- Weiter finde ich auch den Text "Diese Schreibweise kann vervollständigt werden" noch nicht wirklich überzeugend. Die Ungleichung ist vollständig, man kann allenfalls dem Überschuss einen Namen geben und dann behaupten er sei gleich der dissipierten Arbeitsenergie dividiert durch . In bestimmten Konstellationen ist das sogar richtig, siehe hierzu Bücher der technischen Thermodynamik. ArchibaldWagner (Diskussion) 11:16, 16. Aug. 2019 (CEST)
- Hallo Bleckneuhaus! Ich werde gleich den Text um die fragliche Formel herum überarbeiten, ich hoffe wir kommen uns hier nicht in die Quere! ArchibaldWagner (Diskussion) 20:27, 16. Aug. 2019 (CEST)
- Ich warte dann mal ab. --Bleckneuhaus (Diskussion) 21:58, 16. Aug. 2019 (CEST)
- Änderung für heute Abend abgeschlossen, bin gespannt! ArchibaldWagner (Diskussion) 22:41, 16. Aug. 2019 (CEST)
- Ich warte dann mal ab. --Bleckneuhaus (Diskussion) 21:58, 16. Aug. 2019 (CEST)
- Hallo Bleckneuhaus! Ich werde gleich den Text um die fragliche Formel herum überarbeiten, ich hoffe wir kommen uns hier nicht in die Quere! ArchibaldWagner (Diskussion) 20:27, 16. Aug. 2019 (CEST)
- Da ist , weil keine Arbeit geleistet wird (streng nur bei isochorem Prozess, wenn also keine Wärmeausdehnung erfolgt). Ich hab den Text etwas erweitert, um ihn dahingehend verständlicher zu machen. Besser so? --Bleckneuhaus (Diskussion) 23:09, 15. Aug. 2019 (CEST)
- In dem Lehrbuch Bd IV von Ludwig beginnt auf Seite 89 ein Abschnitt "Der Satz von der Vermehrung der Entropie". Dort wird das folgende Beispiel diskutiert. Zwei vorerst voneinander isolierte Kupferblöcke mit verschiedenen Temperaturen haben jeweils die Entropie bzw. . Das Gesamtsystem aus beiden Blöcken hat dann die Entropie . Die beiden Blöcke werden dann thermisch gekoppelt (der Prozess) und nach Einstellung des Gleichgewichts hat das Gesamtsystems eine größeren Wert, vermehrt, meinet wegen, um . Was ist dabei jetzt in der fraglichen Formel unter zu verstehen? Ich kann auch die Aussage im Artikeltext: "Diese Schreibweise ist unpräzise:" nach Formel (3a) nicht wirklich nachvollziehen, was soll an einer Ungleichung denn unpräzise sein; allenfalls dass nicht genau gesagt wird was unter zu verstehen ist – oder? ArchibaldWagner (Diskussion) 21:55, 15. Aug. 2019 (CEST)
- Warum dann nicht mit begründen (was auch in vielen Lehrbüchern steht)? Und vielleicht noch die Voraussetzungen vom konstanten Volumen und konstanter Teilchenzahl mit erwähnen? Unter diesen Bedingungen (Vol. steht hier für jede Art von äußeren Zustandsgrößen, die durch Arbeit verändert werden können, zB Magnetisierung etc.) ist jede nicht als Wärme zugeführte Energie dissipierte Energie - das kann gerne als strenge Definition verstanden werden. --Bleckneuhaus (Diskussion) 12:00, 15. Aug. 2019 (CEST)
Ich gestehe, dass ich erst jetzt Deine Kritik und Dein Ziel angemessen aufgenommen habe. Bis auf kleine eher stilistische Verbesserungen musste ich die wiederholte Einschränkung auf Gleichgewichte korrigieren. Vielleicht unterscheidet sich hier der Sprachgebrauch von Physik und Technik, aber bei uns fängt jeder irreversible Prozess mit einem System in einem Nichtgleichgewichtszustand an (sonst würde da gar nichts ablaufen). Siehe die üblichen Beispiele. --Bleckneuhaus (Diskussion) 13:26, 17. Aug. 2019 (CEST)
- Hallo Bleckneuhaus! OK Etwas Wesentliches habe ich dann doch wohl vermitteln können. Dein Einwand "sonst würde da gar nichts ablaufen" bzgl. des Gleichgewichts ist zwar richtig. Und tatsächlich hatte er mir früher beim Verständnis der Thermodynamik viel Kopfzerbrechen gemacht. Denn es ist ja wohl wahr: wenn sich der Gleichgewichtszustand einmal eingestellt hat, kann in einem isolierten System nichts mehr passieren. (Bis auf die metastabile Zustände widerspricht alles andere der Definition von Gleichgewicht und isoliert) Aber es ist auch wahr, dass in der klassischen Thermodynamik die Entropie nur für Gleichgewichtszustände definiert ist – das kann man gar nicht genug betonen! Wenn Du Dir die Lehrbücher einmal danach genauer anschaust, wirst Du feststellen, dass da entweder immer von quasistatischen Prozessen die Rede (die es eigentlich gar nicht gibt), weil das System immer praktisch ganz ganz nahe am Gleichgewicht sein soll. Oder es geht um die Kopplung von zwei Systemen (thermischer Ausgleich, Vermischung) dabei werden immer die Entropiewerte vor der Zusammenführung mit denen nach der Zusammenführung (wenn alles passiert ist) verglichen. Letztlich passiert immer eine Manipulation von außen – Wärmezufuhr, Volumenänderung, imaginäre Trennwände herausnehmen, thermische Verbindung herstellen. Darum meine Bemerkung in Klammern, die der Überwindung der erwarteten Verständnis-Schwierigkeiten helfen sollte. Also ist für isolierte Systeme scheinbar eine Trivialität eigentlich müsste es ja sein, weil es passiert im Gleichgewichtszustant ja nicht – wenn – ja wenn da nicht diese klitzekleinen Manipulationen von außen wären (Ventil öffnen, Druck ein ganz klein bißchen erhöhen, etc.). Etwas anderes ist dann die Definition in dem mathematischen Model, da wird etwa für zwei Systeme das kartesische Produkt genommen, dann die Summe der Entropiefunktion differentiert und das Maximum bestimmt und das ist dann der Wert der Entropie im vereinigten System, und alle Hörer im Hörsaal nicken – das war doch ganz einfach. Allerdings wird hier ein vergleichweises einfaches mathematisches Modell genommen (weil man ein anderes nicht kennt), das aber das reale sich gerade vereinigte System (mit all seinen Verwirbelungen) nicht wirklich beschreibt, bis auf dass der Maximalwert tatsächlich richtig herauskommt.
- Also kurzum ich halte meine Änderung in dem einleitenden Abschnitt für ziemlich wesentlich. Auch dass eine Entropie nur für thermodynamische Systeme – und nicht für jedes physikalische System – definiert ist, für ein einzelnes Elektron oder Atom ist keine Entropie definiert. Es müssen schon ein paar davon da sein, damit eine thermodynamische Beschreibung Sinn macht. Auch die Formulierung "bei Vereinigung mehrerer Systeme" hatte ich bewusst geändert, weil mit Vereinigung ja auch verstanden werden kann: ich bringe den kalten und den warmen Kupferblock in Kontakt oder ich verbinde die Flasche Stickstoff mit der mit Sauerstoff, in beiden Fällen gilt dann keine Additivität! Wegen dieses möglichen Missverständnisses hatte ich das anders formuliert. Ich glaube, dass diese Feinheiten ziemlich wichtig sind, sonst kann der Leser ein ziemlich falsches und ihn eher verwirrendes Verständnis von der Thermodynamik bekommen. Leider gibt es da in der Wikipedia im Bereich Thermodynamik noch ganz viele Baustellen.
- Nicht alles lässt sich hier auf der Diskussionsseite ausbreiten. Ein direktes Gspräch würde manches vereinfachen. Es ist daher schade, dass Du nicht auf dem Redaktionstreffen dabei sein kannst. Aber ich hoffe, Dich mit meinen Ausführung doch zur Revertierung der ersten beiden Sätze in dem einleitenden Abschnitt bekehren zu können, falls Dir nicht eine noch bessere Formulierung einfällt. ArchibaldWagner (Diskussion) 16:18, 17. Aug. 2019 (CEST)
- Nachtrag: ich habe eben erst Deinen Eintrag "S=k lnW geht auch für Nichtgleichgewicht" gesehen. Dazu: diese Definition ist die Definition in der statistischen Mechanik (also für das mathematische Modell des Systems) und nicht die nach R. Clausius, aber auch da ist meines Erachtens gar nicht immer klar was lnW für beliebige Prozesszustände wirklich meint. W ist ja die Zahl der möglichen Zustände bei fester Energie, wenn der Zustandsraum aber gar nicht stabil (z.B. das Volumen ändert sich) ist. Ich bin da überfragt, wie dann W zu definieren ist, siehe hierzu etwa das Buch von Stierstadt und dort kann man (in der 1. Auflage) über einige Versuche nachlesen, die Entropie für Nichtgleichgewichtszustände zu definieren. Auf jeden Fall die klassische Definition nach Clausius funktioniert nur für Gleichgewichtszustände. Frage: wie willst Du die Entropie eines thermodynamisches System im Übergang eigentlich per Messung bestimmen? ArchibaldWagner (Diskussion) 18:43, 17. Aug. 2019 (CEST)
- Ich kann leider vor meiner baldigen langen Reise keine Fachliteratur mehr studieren oder welche mitnehmen, auch den Stierstadt nicht, den ich nicht hier habe, aber sehr schätze. Ich argumentiere deshalb aus dem Kopf. Die Richtigkeit und Wichtigkeit der generellen Einschränkung auf Gleichgewichte leuchtet mir nicht ein. Dass ein Nichtgleichgewicht immer durch einen äußeren Eingriff erzeugt werden muss, ist so kategorisch auch falsch, man kann ja auch ein System während eines Relaxationsprozesses auf dem Weg zum Gleichgewicht als Ausgangszustand wählen. Die Vorgeschichte ist bei >Zustands<größen ja unerheblich. (NB: Ich unterscheide stark zwischen Prozess und Zustand, was aber sind "Prozesszustände" in Deinem Satz mit lnW?) Dass letztere Formel nur für größere Teilchenzahlen relevant sei, kann ich auch nicht so gelten lassen. Schließlich wird sie immer mit zwei Händen voll Kugeln in ein Paar Töpfen erläutert (deren Anordnung auch gerne mit der Zeit variieren kann. Auch Kernen zB schreibt man in gewissen Modellen eine Temperatur zu). Noch was Grundsätzliches: der Artikel behandelt die Entropie nach heutigem Verständnis, da sind die Einschränkungen, die Clausius & Co. gemacht haben, nicht mehr alle ausschlaggebend. Damals war die Kontinuumsthermodynamik nur für die Nähe des Gleichgewichts gebildet. Aber die statistische Thermodynamik (oft heißt ja die ganze Thermodynamik nur noch Statistische Physik) ist allgemeiner (siehe auch Statistische Mechanik, Einleitung). Sie steht auch nicht in zweiter Reihe als (nur) "mathematisches Modell". Auch Clausius' Thermodynamik ist "nur" ein mathematisches Modell, das ist seit Newton in der Physik generell so. - Ich verstehe Dich so, dass Du die Sache mit dem Gleichgewicht in ziemlich vielen Artikeln ändern möchtest. Bitte vorher ausführlichst diskutieren (und hoffentlich auch mit anderen, Pyrrhocorax kennt sich da zB hervorragend aus)! Ja, und dass wir uns nicht persönlich begegnen werden, bedaure ich auch sehr. Ich hatte mir so fest vorgenommen, mir keine Eventualität dazwischen kommen zu lassen, aber Familie geht dann doch vor. Wenigstens bleibe ich am Internet. --Bleckneuhaus (Diskussion) 20:56, 17. Aug. 2019 (CEST)
- Danke für Deine Stellungnahme. Ich möchte aber zu meinen Ausführungen noch zwei Zitate hinzufügen; eine Stelle aus Stierstadt Kap. 14.7 Entropieproduktion S 385 zitieren: "Die Frage ist nun: Was bedeutet die Größe im Nichtgleichgewicht? Boltzmanns Entropiedefinition, , können wir hier nicht verwenden, denn wir wissen nicht, wie man die Zustandfunktion in diesem Fall berechnen könnte. Die Überlegungen dazu aus Kap. 2 beruhen nämlich auf der Grundannahme der Gleichgewichtszustände aller erreichbaren Zustände im Gleichgewicht. Auch Clausius' Definition .... hilft uns nicht weiter, denn das Integral ist nur zwischen zwei Gleichgewichtszuständen definiert ...
- Zum Thema ist auch das Kapitel 4.2 "Messung und Berechnung der Entropie" im Stierstadt hilfreich.
- Die klarste Stellungnahme zu dem Dilemma habe ich noch in "Grundlagen der theoretischen Physik" von G. Ludwig Kapitel XIV § 2.3 "Der Satz von der Vermehrung der Entropie" gefunden. Ludwig schreibt: Das Problem der Entropiedefinition für Nichtgleichgewichtszustände ist ein sehr tiefliegendes und wird oft verharmlost, indem man gleich zu "speziellen" Nichtgleichgewichtszuständen übergeht. Auf keinen Fall lässt sich allgemein eine Entropie auf die Art und Weise einführen, wie dies in §1.4 geschehen ist. Dies folgt schon allein daraus, daß es für Nichtgleichgewichtszustände im allgemeinen keine Temperaturdefinition gibt. Was aber bedeutet dann eigentlich der Satz von der Vermehrung der Entropie?..."
- Was den Anwendungsbereich des Begriffs Entropie angeht, kenne ich aus der Literatur nur thermodynamische Systeme – siehe etwa das Stichwort im "Brockhaus abc Physik"
- So jetzt möchte ich Dich vor Deiner Reise nicht länger nerven, aber mittelfristig liegt mir schon am Herzen die Begriffe möglichst klar und nach Literatur belegt in der Wikipedia darzustellen. Aber jetzt einmal gute Reise. ArchibaldWagner (Diskussion) 21:41, 17. Aug. 2019 (CEST)
- Hallo Physiklehrer21! Bist Du mit der Überarbeitung denn nun zufrieden?ArchibaldWagner (Diskussion) 10:21, 18. Aug. 2019 (CEST)
- danke für die gute-Reise-Wünsche, aber da geht noch was. Ich habe zwar den Stierstadt nicht hier, den Ludwig auch nicht, würde aber vermuten, dass es da im sehr grundsätzlichen Sinn darum geht, dass man eine völlig allgemeine strenge Definition von Entropie nicht finden kann. Ich habe bei Ungleichgewichtszuständen bisher auch immer den einfachen Fall gemeint, dass ein System aus stückweise im Gleichgewicht befindlichen Systemen zusammengesetzt ist (zwei Klötze mit unterschiedlichen Temperaturen etc). Das ist wegen der Additivität von S ja sicher erlaubt. --Bleckneuhaus (Diskussion) 13:04, 18. Aug. 2019 (CEST)
- Ja, so ist es. Im Ludwig wird am Anfang von XIV § 2 "Irreversible Prozesse" ausführlich auf diese Problematik der Nichtgleichgewichtsthermodynamik eingegangen und dann auch dieses verbreitete Lehrbuch-Beispiel mit dem Temperaturausgleich zwischen zwei Klötzen bei möglischt schwacher thermischer Kopplung angeführt und durchgerechnet – letztlich ähnlich auch im Stierstadt, allerdings ohne die Problematik zu betonen. Im Brockhaus abc Physik wird davon gesprochen, dass man das System in kleine Parzellen aufteilt, die dann selbst als lokal im Gleichgewicht betrachtet werden können (was nicht immer funktionieren wird).
- Ich selbst bin nach unserer Diskussion und der Lektüre von Ludwig zu dem Schluss gekommen, dass meine Änderung "alles nur auf Gleichgewichtszustände zu beschränken" tatsächlich zu weitgehend ist; insofern ist der Revert an dieser Stelle nun OK für mich. Allerdings wäre ein Abschnitt über die Problematik mit den Nichtgleichgewichtszuständen in dem Artikel m.E. wichtig. Nur das schreibt sich nicht einmal so nebenbei. Ich selbst habe für mich beschlossen von der Nichtgleichgewichts-Problematik erst einmal hier Abstand zu nehmen, vielleicht komme ich später darauf zurück, vielleicht findet sich ein anderer, der sich gut mit der Thematik auskennt und den Sachverhalt in Wikipedia verständlich, kurz und richtig darstellen kann. ArchibaldWagner (Diskussion) 16:26, 18. Aug. 2019 (CEST)
- danke für die gute-Reise-Wünsche, aber da geht noch was. Ich habe zwar den Stierstadt nicht hier, den Ludwig auch nicht, würde aber vermuten, dass es da im sehr grundsätzlichen Sinn darum geht, dass man eine völlig allgemeine strenge Definition von Entropie nicht finden kann. Ich habe bei Ungleichgewichtszuständen bisher auch immer den einfachen Fall gemeint, dass ein System aus stückweise im Gleichgewicht befindlichen Systemen zusammengesetzt ist (zwei Klötze mit unterschiedlichen Temperaturen etc). Das ist wegen der Additivität von S ja sicher erlaubt. --Bleckneuhaus (Diskussion) 13:04, 18. Aug. 2019 (CEST)
- Hallo Physiklehrer21! Bist Du mit der Überarbeitung denn nun zufrieden?ArchibaldWagner (Diskussion) 10:21, 18. Aug. 2019 (CEST)
- Ich kann leider vor meiner baldigen langen Reise keine Fachliteratur mehr studieren oder welche mitnehmen, auch den Stierstadt nicht, den ich nicht hier habe, aber sehr schätze. Ich argumentiere deshalb aus dem Kopf. Die Richtigkeit und Wichtigkeit der generellen Einschränkung auf Gleichgewichte leuchtet mir nicht ein. Dass ein Nichtgleichgewicht immer durch einen äußeren Eingriff erzeugt werden muss, ist so kategorisch auch falsch, man kann ja auch ein System während eines Relaxationsprozesses auf dem Weg zum Gleichgewicht als Ausgangszustand wählen. Die Vorgeschichte ist bei >Zustands<größen ja unerheblich. (NB: Ich unterscheide stark zwischen Prozess und Zustand, was aber sind "Prozesszustände" in Deinem Satz mit lnW?) Dass letztere Formel nur für größere Teilchenzahlen relevant sei, kann ich auch nicht so gelten lassen. Schließlich wird sie immer mit zwei Händen voll Kugeln in ein Paar Töpfen erläutert (deren Anordnung auch gerne mit der Zeit variieren kann. Auch Kernen zB schreibt man in gewissen Modellen eine Temperatur zu). Noch was Grundsätzliches: der Artikel behandelt die Entropie nach heutigem Verständnis, da sind die Einschränkungen, die Clausius & Co. gemacht haben, nicht mehr alle ausschlaggebend. Damals war die Kontinuumsthermodynamik nur für die Nähe des Gleichgewichts gebildet. Aber die statistische Thermodynamik (oft heißt ja die ganze Thermodynamik nur noch Statistische Physik) ist allgemeiner (siehe auch Statistische Mechanik, Einleitung). Sie steht auch nicht in zweiter Reihe als (nur) "mathematisches Modell". Auch Clausius' Thermodynamik ist "nur" ein mathematisches Modell, das ist seit Newton in der Physik generell so. - Ich verstehe Dich so, dass Du die Sache mit dem Gleichgewicht in ziemlich vielen Artikeln ändern möchtest. Bitte vorher ausführlichst diskutieren (und hoffentlich auch mit anderen, Pyrrhocorax kennt sich da zB hervorragend aus)! Ja, und dass wir uns nicht persönlich begegnen werden, bedaure ich auch sehr. Ich hatte mir so fest vorgenommen, mir keine Eventualität dazwischen kommen zu lassen, aber Familie geht dann doch vor. Wenigstens bleibe ich am Internet. --Bleckneuhaus (Diskussion) 20:56, 17. Aug. 2019 (CEST)
- Die Problematik ist wohl komplexer, als ich auf den ersten Blick dachte, aber ich finde die jetzige Version auch gut.--Physiklehrer21 (Diskussion) 20:00, 23. Aug. 2019 (CEST)
- Hier mein zustimmendes Kopfnicken, aus Quito. --Bleckneuhaus (Diskussion) 20:51, 23. Aug. 2019 (CEST)
- Die Problematik ist wohl komplexer, als ich auf den ersten Blick dachte, aber ich finde die jetzige Version auch gut.--Physiklehrer21 (Diskussion) 20:00, 23. Aug. 2019 (CEST)
Unordnung weglassen?
Könnte man nicht bitte den Satz: »Besser ist es, die Entropie als ein objektives Maß für die Menge an Information zu begreifen, die benötigt würde, um von einem gegebenen Makrozustand auf den gerade vorliegenden Mikrozustand des Systems schließen zu können. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.[1]« ersatzlos herausnehmen? 1. Dieses »objektive Maß …« hat »auch kein physikalisches Maß«. 2. Was besser und was schlechter ist, bleibe dahingestellt. 3. Klickt man auf Information landet man im Wald. Die Quelle [1][1] mag hohes Ansehen genießen, bleibt aber mit Körpern aus »ungeheuer vielen Atomen«, »von deren Bewegung wir im einzelnen fast gar nichts wissen« jedenfalls für mich als Informatiker im Nebel bezw. freundlicher gesagt im Philosophischen. Wüssten wir wie Gott, in welcher Richtung jedes Atom sich gerade bewegt, so täte das der Entropie als makroskopische Größe auch nichts weiter an. – Fritz Jörn (Diskussion) 11:13, 18. Sep. 2019 (CEST)
- Ja, als Informatiker genießt Du das Privileg eines direkten praktischen und belastbaren Zugangs zum Begriff Information. Für den Normalleser, den wir zweifellos erreichen wollen, scheint mir das nicht so gegeben. (Was meinst Du, wie es mir als Physiker immer durch Mark und Bein geht, wenn ich normale Leute über Energie oder Druck reden höre. Das reinste Geschwafel, um nicht zu sagen Philosophie!) Ich finde, der fragliche Satz steht sehr schön in den richtigen Zusammenhang eingebettet da. (Der Becker ist schon ziemlich alt. Wenns was Neueres dazu gäbe ...) --Bleckneuhaus (Diskussion) 17:30, 18. Sep. 2019 (CEST)
- Gut und schön. Aber dann muss dieses »objektives Maß für die Menge an Information« für deinen »Normalleser« laienverständlich erklärt werden. Was ist das? Zeilen Quellkode? Da wird am Oktoberfest eine Mass präziser eingeschenkt als hier diese »Informationsmenge«. Zahl der Puzzlestücke? Im Ernst. Wenn Becker schreibt: »Das zugehörige Volumen … ist also unmittelbar ein Maß unserer Unkenntnis«, dann hätte ich gerne eine Maßeinheit für dieses Volumen (m³?) oder eben für unsere Unkenntnis. So ein Maß suche ich schon lange. Becker in historischen Ehren, auch euren schön passenden Satz, aber »besser«? Ich gestatte mir, das für den Laien als Schmarren zu benennen, nichts für ungut … (Die Wikipedia ist nichts für Denkende, Plausibilisierende, Techniker, sie wird immer mehr eine Literatursammlung. Wenn’s wo steht, ist’s richtig. Ich habe da leider in ernsten Fällen schon lange Kämpfe verloren und aufgegeben.) PS. Die amerikanische [Entropy] ist mir da klarer und bringt neue Referenzen, etwa dort Ref.2 von 2017. Entropie wird als logarithmische Größe dargestellt, die »Arten« von Entropie werden auseinandergehalten, in der Referenz 77 finde ich sogar eine Maßeinheit: The units of entropy are J/K. (Joule/Kelvin)! – Fritz Jörn (entropieärmer als »Joern« mit oe :–) (Diskussion) 08:18, 22. Sep. 2019 (CEST)
- Gut und schön, aber schwerlich brauchbar. Schon die Einheit J/K wird im Artikel 2 mal angegeben (Tabelle und Grundlagen), und im Text öfter benutzt. Und was den englischen Artikel angeht: der nimmt den Zugang über die Statistik statt über die Kontinuumsthermodynamik, und unterschlägt dabei alle Fragen, warum die Zahl der Zustände eine Zahl sein kann. Und apropos Unordnung: findest Du den Text
- Gut und schön. Aber dann muss dieses »objektives Maß für die Menge an Information« für deinen »Normalleser« laienverständlich erklärt werden. Was ist das? Zeilen Quellkode? Da wird am Oktoberfest eine Mass präziser eingeschenkt als hier diese »Informationsmenge«. Zahl der Puzzlestücke? Im Ernst. Wenn Becker schreibt: »Das zugehörige Volumen … ist also unmittelbar ein Maß unserer Unkenntnis«, dann hätte ich gerne eine Maßeinheit für dieses Volumen (m³?) oder eben für unsere Unkenntnis. So ein Maß suche ich schon lange. Becker in historischen Ehren, auch euren schön passenden Satz, aber »besser«? Ich gestatte mir, das für den Laien als Schmarren zu benennen, nichts für ungut … (Die Wikipedia ist nichts für Denkende, Plausibilisierende, Techniker, sie wird immer mehr eine Literatursammlung. Wenn’s wo steht, ist’s richtig. Ich habe da leider in ernsten Fällen schon lange Kämpfe verloren und aufgegeben.) PS. Die amerikanische [Entropy] ist mir da klarer und bringt neue Referenzen, etwa dort Ref.2 von 2017. Entropie wird als logarithmische Größe dargestellt, die »Arten« von Entropie werden auseinandergehalten, in der Referenz 77 finde ich sogar eine Maßeinheit: The units of entropy are J/K. (Joule/Kelvin)! – Fritz Jörn (entropieärmer als »Joern« mit oe :–) (Diskussion) 08:18, 22. Sep. 2019 (CEST)
Because it is determined by the number of random microstates, entropy is related to the amount of additional information needed to specify the exact physical state of a system, given its macroscopic specification. For this reason, it is often said that entropy is an expression of the disorder, or randomness of a system, or of the lack of information about it.[2] The concept of entropy plays a central role in information theory.
- wirklich nennenswert verständlicher als den fast gleich lautenden deutschen? ICh würde Dich ja gerne verstehen, aber so geht das nicht. --Bleckneuhaus (Diskussion) 17:03, 22. Sep. 2019 (CEST)
- Entschuldige. Eigentlich gestört hat mich nur das »Besser ist es«. Vielleicht wäre eine andere Einleitung für eine andere Sichtweise auf Entropie neutraler, Alternativvorschlag: »Darum versucht man«. Zumal eben im Folgenden kein »objektives Maß« erscheint. (Ansonsten ist die am. Quelle einfach neuer, und das hattest du dir gewünscht.) Interessant fand ich “Measuring Entropy”[2]– Fritz Jörn (Diskussion) 07:20, 25. Sep. 2019 (CEST)
- Ach so, das alles war nicht so gemeint. Viel Entropieproduktion für wenig Verbesserung. Dem B-Wort ist nun einfache Abhilfe zuteil geworden (Dein Vorschlag stimmt nämlich nicht, ohne einzugrenzen, wer "man" ist.). Für das angeblich fehlende Maß der Information braucht man nur dem Link zu folgen, so ist das bei Wikipedia üblich. Und der Unterschied im Ansatz des englischen Artikels ist für den Aufbau de Artikels relevant. (C&P ist nicht immer gut.) --Bleckneuhaus (Diskussion) 14:32, 25. Sep. 2019 (CEST)
- Merci Bleckneuhaus! Kannt dich ja so mal melden … – Fritz Jörn (Diskussion) 23:46, 25. Sep. 2019 (CEST)
- Ach so, das alles war nicht so gemeint. Viel Entropieproduktion für wenig Verbesserung. Dem B-Wort ist nun einfache Abhilfe zuteil geworden (Dein Vorschlag stimmt nämlich nicht, ohne einzugrenzen, wer "man" ist.). Für das angeblich fehlende Maß der Information braucht man nur dem Link zu folgen, so ist das bei Wikipedia üblich. Und der Unterschied im Ansatz des englischen Artikels ist für den Aufbau de Artikels relevant. (C&P ist nicht immer gut.) --Bleckneuhaus (Diskussion) 14:32, 25. Sep. 2019 (CEST)
- Entschuldige. Eigentlich gestört hat mich nur das »Besser ist es«. Vielleicht wäre eine andere Einleitung für eine andere Sichtweise auf Entropie neutraler, Alternativvorschlag: »Darum versucht man«. Zumal eben im Folgenden kein »objektives Maß« erscheint. (Ansonsten ist die am. Quelle einfach neuer, und das hattest du dir gewünscht.) Interessant fand ich “Measuring Entropy”[2]– Fritz Jörn (Diskussion) 07:20, 25. Sep. 2019 (CEST)
- wirklich nennenswert verständlicher als den fast gleich lautenden deutschen? ICh würde Dich ja gerne verstehen, aber so geht das nicht. --Bleckneuhaus (Diskussion) 17:03, 22. Sep. 2019 (CEST)
Siehe auch: Wärmetod?
´schlage vor * Wärmetod einzufügen.
- Klingt vernünftig. Tus doch! --Bleckneuhaus (Diskussion) 20:51, 2. Mai 2020 (CEST)
Abschnittsüberschrift: Mischung von warmem und kaltem Wasser
Das Wort Mischung finde ich in dem Beispiel des Abschnitts irritierend, geht es doch hier um einen Temperaturausgleich, insbesondere wenn dann später von einer reversiblen Mischung gesprochen wird. Ist diese Wortwahl in der Literatur tatsächlich üblich? ArchibaldWagner (Diskussion) 16:02, 20. Aug. 2021 (CEST)
Da fällt mir als erstes zu diesem Beispiel die Mischbatterie aus dem Sanitärbereich ein. Als ich 2019 den Abschnitt überarbeitet habe, ist von mir an der Überschrift nichts verändert worden. Der Begriff der Mischung von Wassermengen unterschiedlicher Temperatur ist in der Literatur üblich z. B. im Buch Thermodynamik von H. J. Löffler Abb.4.11 „Die isobare Vermischung verschieden warmer Wassermengen ist irreversibel“. H. D. Baehr beschreibt in seinem Buch Thermodynamik Mischungsprozesse und Mischungsentropie. In dem Beispiel geht es um 2 Wassermengen in unterschiedlichen Behältern. Beschrieben wird, wie die Temperaturdifferenz zwischen den Behältern mit einer Carnot-Maschine genutzt werden kann. Erst wenn beide Behälter die gleiche Temperatur haben oder allgemein alle intensiven Zustandsgrößen (siehe H. D. Baehr) den gleichen Wert, können die Wassermoleküle ohne Zunahme der Entropie zusammengeführt werden. Diese Mischung ist dann reversibel.
In meinen damaligen Anmerkungen, warum ich den Abschnitt überarbeitet habe, habe ich bereits darauf hingewiesen, dass dort die Verwendung der Bezeichnung dissipierte Arbeit nicht ganz korrekt ist. XenonX3 hat mir dann empfohlen meine Anmerkungen auf Diskussion:Entropie zu hinterlassen, da sie auf der von mir benutzten Seite keinen Sinn machen würden. Das habe ich mit dem Beitrag „Produzierte Entropie und dissipierte Arbeit“ jetzt getan. --Joachim Poblotzki (Diskussion) 17:14, 22. Aug. 2021 (CEST)
Produzierte Entropie und dissipierte Arbeit
Die bei irreversiblen Prozessen produzierte Entropie führt zur Dissipation von Energie. Der Begriff dissipierte Energie ist nicht so anschaulich wie die Bezeichnung dissipierte Arbeit. Leider ist diese Bezeichnung nicht ganz korrekt. Im Bereich der Thermodynamik wird Arbeit als eine Energieform betrachtet, die eine Systemgrenze überschreitet. Dies ist in diesem Fall nicht gegeben. Zur dissipierten Arbeit hier eine Stellungnahme aus der Sicht der technischen Thermodynamik.
So wie ein Kran eine Masse in einem Gravitationsfeld anhebt, muss die durch irreversible Prozesse in einem System erzeugte Entropie in einem Temperaturfeld angehoben werden. Dazu ist Arbeit erforderlich, die im System verbleibt und von diesem nicht über eine Systemgrenze abgegeben werden kann. Um dies deutlicher zu machen, hier die Gleichung für die dissipierte Arbeit in der Form dWdiss = dSirr * (T - 0). Im Beispiel der "Mischung von warmem und kaltem Wasser" beträgt die produzierte Entropie 2,4 J/kg K. Damit diese Entropie auf die Mischungstemperatur von 293,14 K angehoben werden kann, ist eine Energie von 0,71 kJ/kg erforderlich. Genau um diesen Betrag ist die Enthalpie der Mischung im irreversiblen Fall höher als im reversiblen Fall und steht als Arbeit nicht mehr zur freien Verfügung. Im allgemeinen wird die Temperatur des Systems von der Umgebungstemperatur abweichen. Mit der Temperaturdifferenz zur Umgebung kann dem System noch die Arbeit dSirr * (T - TU) entnommen werden. Der Rest der dissipierten Arbeit (dSirr * TU), verbleibt im System und erhöht dort die innere Energie. Dies ist der Energieteil, der landläufig als „Energieverbrauch“ bezeichnet wird. Der 1. Hauptsatz der Thermodynamik beschreibt die Veränderung der innerer Energie (U) eines Systems durch den Austausch von Arbeit (W) und Wärme (Q). Üblicherweise steht die innere Energie auf der linken Seite der Gleichung, sie ist eine kalorische Zustandsgröße genauso wie Enthalpie und Entropie, durch die Maxwellschen Relationen verknüpft mit den thermischen Zustandsgrößen Druck, Temperatur und spez. Volumen. Damit ist sie qualitativ etwas ganz anderes als Arbeit und Wärme, die auf der rechten Seite der Gleichung stehen. Arbeit und Wärme sind Energiemengen, die über eine Systemgrenze zu- oder abgeführt werden und keine Zustandsgrößen. Die einzelnen Beträge werden durch die jeweiligen Gleichungen bestimmt, sie ändern im System die Zustandsgröße innerer Energie. Anders ausgedrückt, der 1. Hauptsatz beschreibt die Beziehung zwischen Birnen und verschiedenen Apfelsorten. Dissipierte Arbeit wird nicht in Wärme umgewandelt, sie wird zu einem Teil der inneren Energie. Sehr oft wird von Wärme gesprochen, wenn es sich um innere Energie handelt. Das passiert auch bekannten Physikern wie z. B. Carlo Rovelli in seinem lesenswerten Buch „Die Ordnung der Zeit“. Auf S. 30 schreibt er „Wärme ist die mikroskopische Bewegung der Moleküle“. Diese Bewegung gehört eindeutig zur inneren Energie. Je heftiger deren Bewegung, umso höher ist die Zustandsgröße Temperatur des Stoffes. Der Tee, den er als Beispiel anführt, hat eine innere Energie, die im wesentlichen durch Druck und Temperatur gekennzeichnet ist. Aufgrund der Wärmeabgabe an die Umgebung über die Systemgrenze Porzellan (die Tasse möge einen entsprechenden Deckel haben und randvoll sein), verringert sich die innere Energie des Tees und die innere Energie der Umgebung wird erhöht.
Entsprechend der Energiebilanz verhält es sich auch mit der Entropiebilanz. Mit dem Austausch von Wärme werden Entropiemengen über die Systemgrenze transportiert und bei irreversiblen Vorgängen Entropiemengen produziert. Die Summe dieser Beträge verändert dann die Zustandsgröße Entropie im System. Zu den absoluten Entropiewerten von Stoffen gelangt man mit dem III. Hauptsatz der Thermodynamik oder man einigt sich international auf Standardwerte. Bezeichnungen wie Reibungswärme, Reibungsarbeit usw., die auf einen Transport über eine Systemgrenze hinweisen, sind zu vermeiden. Reibung produziert Entropie. Deshalb besser Reibungsentropie, Mischungsentropie, Wärmeleitungsentropie, usw. um die Quellen der partiell produzierten Entropie zu kennzeichnen. Die Summe, der in einem System erzeugten partiellen Entropien, ist dann die total produzierte Entropie. Der Begriff der dissipierten Arbeit kann dann als die Arbeit definiert werden, die erforderlich ist, um die total produzierte Entropie in einem System vom absoluten Nullpunkt auf die jeweilige Systemtemperatur anzuheben. Um einen Bezug zur Systemgrenze zu bekommen könnte argumentiert werden, dass diese Arbeit nicht über die Systemgrenze abgegeben werden kann (Wärmekraftmaschine) bzw. zusätzlich über die Systemgrenze zugeführt werden muss (Arbeitsmaschine). --Joachim Poblotzki (Diskussion) 10:54, 20. Aug. 2021 (CEST) (nicht signierter Beitrag von Joachim Poblotzki (Diskussion | Beiträge) 10:41, 20. Aug. 2021 (CEST))
- Ich verstehe nicht, was die Absicht dieser länglichen Ausführung bezüglich einer Verbesserung des Artikels sein soll. Darüberhinaus habe ich Verständnisschwierigkeiten mit Formulierungen wie: „muss ... erzeugte Entropie in einem Temperaturfeld angehoben werden“. ArchibaldWagner (Diskussion) 15:51, 20. Aug. 2021 (CEST)
- Eine Wärmepumpe nimmt Wärme und damit Entropie aus der Umgebung auf. Diese Entropie wird dann auf das Temperaturniveau der Heizung angehoben und dort abgegeben. --Joachim Poblotzki (Diskussion) 09:09, 24. Aug. 2021 (CEST)
- Das klingt so, als wäre die Entropie ein Gegenstand, welchen man erwärmen und abkühlen kann. Solche Bilder sind m. E. für das Verstehen eher problematisch. Die Entropie ist eine Zustandsgröße, die Temperatur wird dann über deren Abhängigkeit von der inneren Energie definiert! ArchibaldWagner (Diskussion) 09:31, 24. Aug. 2021 (CEST)
- Der Verdampfer einer Wärmepumpe wird von einem Kältemittel durchströmt. Mit den Zustandsgrößen Temperatur und spez. Volumen kann die Entropie des Kältemittels mit einer Zustandsgleichung oder aus Tabellen bestimmt werden. Diese Werte basieren auf eine Standardentropie, deren Wert bei einigen Stoffen auch negativ sein kann. Aus der Umgebung strömt Wärme in den Verdampfer. Die Wärmemenge ergibt sich aus der Oberfläche, dem Wärmedurchgangskoeffizienten und der Temperaturdifferenz zwischen Umgebung und Kältemittel. Mit der Wärme und der Temperatur des Kältemittels kann die Entropiemenge (keine Zustandsgröße) dS = dQ/T berechnet werden, die dem Kältemittel zugeführt wird. Der Verdichter erhöht Druck und Temperatur des Kältemittels und die aufgenommene Entropie wird auf die höhere Temperatur angehoben.--Joachim Poblotzki (Diskussion) 22:02, 25. Aug. 2021 (CEST)
- Nochmal: Entropie hat keine Temperatur, die man z.B. anheben könnte. Es ist immer eine Stoffmenge (i. thermodyn. Gleichgewicht), die eine Temperatur und eine Entropie hat. --Bleckneuhaus (Diskussion) 17:52, 1. Sep. 2021 (CEST)
- In der sehr schönen Animation zum Carnot-Prozess ist die Wirkungsweise der Carnot-Maschine im Temperatur-Entropie-Diagramm dargestellt. Der Zustandspunkt 2 ist gekennzeichnet durch die Entropie 2 und der tiefen Temperatur 2. Nach der isentropen Kompression ist der Zustandspunkt 3 gekennzeichnet durch die höhere Temperatur 3 und der Entropie, deren Wert bereits bei der tieferen Temperatur 2 vorliegt. Danach wird auf dem Weg von 3 nach 4 der Maschine Wärme und damit Entropie zugeführt. Wäre die Entropie 2 nicht auf die Temperatur 3 angehoben worden, hätte die durch die Wärmezufuhr bedingte Zustandsänderung im Punkt 2 beginnen müssen. --Joachim Poblotzki (Diskussion) 10:10, 5. Sep. 2021 (CEST)
- Was für ein grundsätzliches Missverständnis des T/S-Diagramms bzw. der Bedeutung von Zustandsvariablen? Bitte erst einmal in einem Lehrbuch der Thermodynamik informieren, wie solche Diagramme zu lesen sind. ArchibaldWagner (Diskussion) 14:34, 5. Sep. 2021 (CEST)
- Zur Qualifikation anderer äußere ich mich hier nicht. Zu meiner Qualifikation folgendes: Im Jahr 1991 habe ich in der Zeitschrift Brennstoff-Wärme-Kraft, damals das Organ des Nationalen Komitees des Weltenergierates für die BRD, einen Artikel (BWK Bd. 43 (1991) Nr. 6-Juni, S. 327-332) veröffentlich. Dieser Artikel wurde 2001 anscheinend ins türkische übersetzt und auf einer Tagung von Prof. Dr. Ahmet Can vorgetragen. Heute habe ich den Artikel mit Googel und den Suchbegriffen „Poblotzki Exergie“ noch gefunden. Während meines Studiums habe ich im Jahr 1977 in der Literatur nach einer Darstellung des Vuilleumier-Kreisprozess in einem T,s-Diagramm gesucht und nicht gefunden. Daraufhin habe ich die Darstellung im T,s-Diagramm selbst entwickelt. Meine damals gewählte Kennzeichnung der Zustandspunkte im Kälteteil durch ein Hochzeichen ist immer noch zu finden. Die erste Darstellung in der Literatur dürfte in dem Buch Tieftemperaturtechnologie vom VDI-Verlag aus dem Jahr 1981 sein. Dort entsprechen die Bilder genau den Zeichnungen, die ich damals Bewerbungunterlagen beigefügt habe. Im Buch wurde leider „vergessen“ darauf hinzuweisen, dass die Darstellung einer privaten Mitteilung entnommen wurde. Der Schriftverkehr von damals ist bei mir noch vorhanden. Roger Penrose hat ein ganz tolles Buch geschrieben, „Zyklen der Zeit“. Von den höheren Dimensionen habe ich nicht viel verstanden. Meine thermodynamischen Kenntnisse reichen aber immer noch aus, um etwas merkwürdiges in der Berechnung der Entropiezunahme des Badewassers durch „Vermischung von kaltem und heißen Wasser“ auf S. 37 zu entdecken. Statt 21.407 J/K berechne ich nur 1.368 J/K, gleichgültig ob mit den Zustandsgleichungen für Wasser oder aus den logarithmischen Temperaturverhältnissen.--Joachim Poblotzki (Diskussion) 11:57, 7. Sep. 2021 (CEST)
- In der Literatur werden hin und wieder Konzepte und Bilder benutzt (selbst von ausgewiesenen Koryphäen), die sich später als problematisch erweisen. Ich denke, das Problem liegt bei den Vorstellungen zu Wärme und Entropie, die der Karlsruher Physikkurs vermittelte. Siehe hierzu dort den Abschnitt über das Gutachten der DPG zu diesem Kurs. Hierzu ergänzend empfehle ich das Kapitel 14.7 "Entropieproduktion" in dem Buch von Klaus Stierstadt. Dann noch der Hinweis – wir sagen auch nicht: "eine Energie wird auf ein anderes Temperaturniveau angehoben." ArchibaldWagner (Diskussion) 17:07, 7. Sep. 2021 (CEST)
- Dieser Kurs war mir bisher nicht bekannt. Dazu nur soviel: Wer sich Einheiten definiert, die nicht den gesetzlichen Einheiten in Deutschland entsprechen, muss damit rechnen, dass findige Anwälte eine Abmahnung auf Unterlassung schreiben.--Joachim Poblotzki (Diskussion) 21:19, 7. Sep. 2021 (CEST)
- In der Literatur werden hin und wieder Konzepte und Bilder benutzt (selbst von ausgewiesenen Koryphäen), die sich später als problematisch erweisen. Ich denke, das Problem liegt bei den Vorstellungen zu Wärme und Entropie, die der Karlsruher Physikkurs vermittelte. Siehe hierzu dort den Abschnitt über das Gutachten der DPG zu diesem Kurs. Hierzu ergänzend empfehle ich das Kapitel 14.7 "Entropieproduktion" in dem Buch von Klaus Stierstadt. Dann noch der Hinweis – wir sagen auch nicht: "eine Energie wird auf ein anderes Temperaturniveau angehoben." ArchibaldWagner (Diskussion) 17:07, 7. Sep. 2021 (CEST)
- Zur Qualifikation anderer äußere ich mich hier nicht. Zu meiner Qualifikation folgendes: Im Jahr 1991 habe ich in der Zeitschrift Brennstoff-Wärme-Kraft, damals das Organ des Nationalen Komitees des Weltenergierates für die BRD, einen Artikel (BWK Bd. 43 (1991) Nr. 6-Juni, S. 327-332) veröffentlich. Dieser Artikel wurde 2001 anscheinend ins türkische übersetzt und auf einer Tagung von Prof. Dr. Ahmet Can vorgetragen. Heute habe ich den Artikel mit Googel und den Suchbegriffen „Poblotzki Exergie“ noch gefunden. Während meines Studiums habe ich im Jahr 1977 in der Literatur nach einer Darstellung des Vuilleumier-Kreisprozess in einem T,s-Diagramm gesucht und nicht gefunden. Daraufhin habe ich die Darstellung im T,s-Diagramm selbst entwickelt. Meine damals gewählte Kennzeichnung der Zustandspunkte im Kälteteil durch ein Hochzeichen ist immer noch zu finden. Die erste Darstellung in der Literatur dürfte in dem Buch Tieftemperaturtechnologie vom VDI-Verlag aus dem Jahr 1981 sein. Dort entsprechen die Bilder genau den Zeichnungen, die ich damals Bewerbungunterlagen beigefügt habe. Im Buch wurde leider „vergessen“ darauf hinzuweisen, dass die Darstellung einer privaten Mitteilung entnommen wurde. Der Schriftverkehr von damals ist bei mir noch vorhanden. Roger Penrose hat ein ganz tolles Buch geschrieben, „Zyklen der Zeit“. Von den höheren Dimensionen habe ich nicht viel verstanden. Meine thermodynamischen Kenntnisse reichen aber immer noch aus, um etwas merkwürdiges in der Berechnung der Entropiezunahme des Badewassers durch „Vermischung von kaltem und heißen Wasser“ auf S. 37 zu entdecken. Statt 21.407 J/K berechne ich nur 1.368 J/K, gleichgültig ob mit den Zustandsgleichungen für Wasser oder aus den logarithmischen Temperaturverhältnissen.--Joachim Poblotzki (Diskussion) 11:57, 7. Sep. 2021 (CEST)
- Was für ein grundsätzliches Missverständnis des T/S-Diagramms bzw. der Bedeutung von Zustandsvariablen? Bitte erst einmal in einem Lehrbuch der Thermodynamik informieren, wie solche Diagramme zu lesen sind. ArchibaldWagner (Diskussion) 14:34, 5. Sep. 2021 (CEST)
- In der sehr schönen Animation zum Carnot-Prozess ist die Wirkungsweise der Carnot-Maschine im Temperatur-Entropie-Diagramm dargestellt. Der Zustandspunkt 2 ist gekennzeichnet durch die Entropie 2 und der tiefen Temperatur 2. Nach der isentropen Kompression ist der Zustandspunkt 3 gekennzeichnet durch die höhere Temperatur 3 und der Entropie, deren Wert bereits bei der tieferen Temperatur 2 vorliegt. Danach wird auf dem Weg von 3 nach 4 der Maschine Wärme und damit Entropie zugeführt. Wäre die Entropie 2 nicht auf die Temperatur 3 angehoben worden, hätte die durch die Wärmezufuhr bedingte Zustandsänderung im Punkt 2 beginnen müssen. --Joachim Poblotzki (Diskussion) 10:10, 5. Sep. 2021 (CEST)
- Nochmal: Entropie hat keine Temperatur, die man z.B. anheben könnte. Es ist immer eine Stoffmenge (i. thermodyn. Gleichgewicht), die eine Temperatur und eine Entropie hat. --Bleckneuhaus (Diskussion) 17:52, 1. Sep. 2021 (CEST)
- Der Verdampfer einer Wärmepumpe wird von einem Kältemittel durchströmt. Mit den Zustandsgrößen Temperatur und spez. Volumen kann die Entropie des Kältemittels mit einer Zustandsgleichung oder aus Tabellen bestimmt werden. Diese Werte basieren auf eine Standardentropie, deren Wert bei einigen Stoffen auch negativ sein kann. Aus der Umgebung strömt Wärme in den Verdampfer. Die Wärmemenge ergibt sich aus der Oberfläche, dem Wärmedurchgangskoeffizienten und der Temperaturdifferenz zwischen Umgebung und Kältemittel. Mit der Wärme und der Temperatur des Kältemittels kann die Entropiemenge (keine Zustandsgröße) dS = dQ/T berechnet werden, die dem Kältemittel zugeführt wird. Der Verdichter erhöht Druck und Temperatur des Kältemittels und die aufgenommene Entropie wird auf die höhere Temperatur angehoben.--Joachim Poblotzki (Diskussion) 22:02, 25. Aug. 2021 (CEST)
- Das klingt so, als wäre die Entropie ein Gegenstand, welchen man erwärmen und abkühlen kann. Solche Bilder sind m. E. für das Verstehen eher problematisch. Die Entropie ist eine Zustandsgröße, die Temperatur wird dann über deren Abhängigkeit von der inneren Energie definiert! ArchibaldWagner (Diskussion) 09:31, 24. Aug. 2021 (CEST)
- Eine Wärmepumpe nimmt Wärme und damit Entropie aus der Umgebung auf. Diese Entropie wird dann auf das Temperaturniveau der Heizung angehoben und dort abgegeben. --Joachim Poblotzki (Diskussion) 09:09, 24. Aug. 2021 (CEST)
Gay-Lussac-Versuch
Unter dem Kapitel "Entropiezunahme bei irreversiblen und reversiblen isothermer Expansion" habe ich ein paar Anmerkungen. Es handelt sich bei dem Gay-Lussac-Versuch um die freie Expansion eines (bei den Herleitungen als ideal angenommenen)Gases. Im ersten Teil wird dies über die Methoden der klassischen Thermodynamik über die Formel für innere Energieänderung dU=δQ+δW=0 hergeleitet. Bei der freien Gasexpansion wird KEINE Arbeit dem System zugeführt oder vom System geleistet. Dies wird im zweiten Abschnitt (statistische Herleitung) auch so klargestellt. Dafür folgt aber für den Leser, das auch keine Änderung der Wärmemenge stattfindet, in dem Abschnitt aber ein δQ>0 exisitiert, da darüber die folgerichtige Entropiezunahme berechnet wird. Das könnte die Leser irritieren. Auflösen kann m.E. diese Diskrepanz indem man den Leser vor Augen führt, dass der Gay-Lussac-Versuch ein irreversibler Versuch ist, bei denen generell dS>δQ/T gelten, d.h. δQ kann Null sein und trotzdem die Entropie steigen. Prinzipiell korrekter wäre durch die Annahme eines isothermen Prozesses die Hinzufügung eines Wärmebades (Versuch von Joule zur Verfeinerung des Gay-Lussac-Versuches, siehe Wikilinkverweis auf eben diesen). Das Wärmebad würde zum Gesamtsystem gehören, wegen δQ=0 für das System Wärmebad und Gasvolumen wäre die Entropieänderung im Wärmebad gleich Null. Aber die Entropieänderung im Gas ist die im Abschnitt hergeleitete Formel (siehe Nolting, Theoretische Physik, Band 4/2, Thermodynamik, 9. Auflage, S.54-55. Im Prinzip verdeutlicht dieser Versuch, das durch die Irreversibilität des Ablaufes die mögliche Arbeitsleistung (im mechnaischen Sinne Kraft*Weg (F*ds), welches bei Gasen äquivalent ist durch p*dV) "verschenkt" wird, sozusagen "dissipiertes" Arbeitsvermögen (Siehe auch Wiki-Links Exergie und Anergie).
Im zweiten Abschnitt (statistische Herleitung) würde ich für Leser, die tiefer einsteigen wollen, noch auf den Wiki-Link der "Sackur-Tetrode-Gleichung" verweisen. Diese berechnet die Entropie als Funktion der freiwählbaren natürlichen Variabeln (T,V,N) (oder (E,V,N) über Eges=f/3*n*k*T, f= Anzahl der Freiheitsgrade, bei monoatomaren Edelgasen f=3) über die Hamiltonfunktion für freie Gase und anschließender Integration über das Phasenraumvolumen). Hierbei werden die Gasteilchen als NICHT unterscheidbar angenommen, dies löst dann das Gibbsche Paradoxon auf, welches im Kapitel der "Mischungsentropie" erwähnt wird [Nolting, THeoretische Physik 6, Statistische Physik,7. Auflage,S . 57]. Bei der statistischen Herleitung wird nur die Ortsvaraitionen der Gasteilchen diskutiert, der Phasenraum berücksichtigt aber auch die Impulse. Diese könnte man mit einem Hinweis erklären, das den Gasteilchen ein mittlerer Impuls und somit eine mittlere Energie zugewiesen wird. (nicht signierter Beitrag von Markus Vollmann (Diskussion | Beiträge) 12:15, 6. Jan. 2022 (CET))
- @Markus Vollmann: Die Darstellung in dem Abschnitt ist tatsächlich konfus. Um ausgehend von einem Zustand A eines thermodynamischen Systems mit bekannter Entropie mit Hilfe der Definition von Clausius die Entropie in einem Zustand B zu berechnen, muss man einen quasistatischen Prozess finden, bei welchem das System von A nach B geführt wird und dann für diesen Prozess das Wegintegral über berechnen. Das ist aber nichts (!) anderes, als das was in dem übernächsten Abschnitt ausgeführt wird. Die Clausius Formel gilt nur für quasistatische Prozesse! Das sollte auch dem Leser hier nicht vorenthalten werden – leider scheint das vielen gar nicht klar zu sein. Da nun die Entropie, die Temperatur und die innere Energie Zustandsgrößen sind und da nach der "Gay-Lussac_Expansion" sich genau der gleiche Gleichgewichtszustand des Gases einstellt wie der Endzustand nach der weiter unten aufgeführten reversiblen thermischen Expansion, kann der Wert für die Entropie einfach übernommen werden. Der ganze Abschnitt wird leichter begreifbar, wenn man die reversible Änderung zuerst aufführt (und die Berechnung dort evtl. expliziter darstellt), also die Abschnitte vertauscht und weiter im "klassich irreversiblen Abschnitt" die merkwürdige Rechnerei weglässt. Die Formel dort ist ja letztlich nichts anderes, als das was bei der thermisch reversiblen Expansion stehen sollte. – Ja richtig! Die aktuelle Darstellung umseitig irritiert und ist daher überarbeitungsbedürftig. Auch bei der statistischen Darstellung kann man so allgemein bleiben, dass die Übereinstimmung in den Formeln direkt sichtbar wird, ohne dabei auf eine spezielle Stoffmenge einzugehen (sie muss nur groß genug sein, damit die Stirlings Formel anwendbar wird). ArchibaldWagner (Diskussion) 18:23, 6. Jan. 2022 (CET)
- Voll einverstanden mit Dir, ArchibaldWagner. Mach das so. --Bleckneuhaus (Diskussion) 19:08, 6. Jan. 2022 (CET)
- Auch die Ausführung über die statistische Methode ist umseitig etwas abenteuerlich, im Ausgangszustand wäre hier die Entropie = 0! Also entweder man geht hier tatsächlich von der Sackur-Tetrode-Gleichung aus oder man muss besser begründen, warum hier die benutzte Formel für die Entropieänderung und nicht für die abolute Entropie gilt. Siehe hierzu auch den Becker §10 ab S 22 oder §25 ab S 62. Riecht nach ein bisschen mehr Arbeit. ArchibaldWagner (Diskussion) 21:33, 6. Jan. 2022 (CET)
- Lässt sich die Darstellung der statistischen Herleitung nicht relativ einfach dadurch korrigieren, dass man in die Erklärung der Formel für W(n_1,n_2) schreibt, dass hier nur der eine (zweiwertige) Freiheitsgrad linke/rechte Hälfte betrachtet wird, und die Mikrozustände hinsichtlich aller übrigen Raum und Impulskoordinaten dieselben bleiben? --Bleckneuhaus (Diskussion) 22:06, 6. Jan. 2022 (CET)
- Danke für den Tipp! Der Verweis auf eine allgemeinen Zauber-formel, Sackur-Tetrode-Gleichung, liegt einerseits nahe, andrerseits vermittelt die direkte Begründung aus einem einfachen Gedankengang oft eine bessere Einsicht. Wenn Du eine Literaturstelle hierzu als Beleg hast, wäre das schön. ArchibaldWagner (Diskussion) 10:46, 7. Jan. 2022 (CET)
- Fehlanzeige, selbst meine non-Standard Physikbücher zu Hause geben dazu nichts besonderes her, der Punkt wird einfach unterschlagen. Im Demtröder (Standard) hab ich ein etwas breiter ausgeführtes BEispiel gefunden, ich schicke Dir die Seiten per email (falls sie Dir sonst nicht zugänglich sind). - Vielleicht genügt auch ein Satz wie: "Da die Verteilung über alle anderen Koordinaten der 1-Teilchen-zustände die gleichen sind, sind für die Wahrscheinlichkeiten einer Aufteilung auf die zwei Raumhälften allein die jeweiligen Zeilchenzahlen maßgeblich." Gruß! --Bleckneuhaus (Diskussion) 12:21, 7. Jan. 2022 (CET)
- Ich bin im Moment dabei einen neuen Text für den fraglichen Abschnitt zu entwerfen. Ihr findet ihn hier in meiner Werkstatt. Ich brauche allerdings noch etwas Zeit. ArchibaldWagner (Diskussion) 12:07, 9. Jan. 2022 (CET)
- Vielen Dank für die rege Diskussion. Ich denke auch, für den Leser ist bei der klassischen Thermodynamik zuerst der reversible Vorgang (z.B: Volumenexpansion des freien Gases gegenüber einer verschiebbaren Platte mit Federkraft (wie bei Nolting, Bd 4/2 auf den Seiten 58-59, bei Bedarf kann ich den Bereich kopieren)) anschaulicher, wobei dann bei der reversiblen Berechnung als Entropiezuwachs Delta S = nR ln (VEnde/VAnfang) mit nR = KbN erhält Zieht man die Teilchenzahl in den Logarithmus, so ergibt sich ein VN, welches sich gerade bei der Integration der 3N-Ortskoordinaten der N Teilchen ergibt. Hilft uns aber hier auch nicht, weil die Integration der Hamiltonfunktion mit H=Ekin=p2/2m über d3p nicht so trivial ist (Gammafunktion...p ist hier der Teilchenimpuls)) aber dieser Term fällt dann bei der Differenzbildung (Anfangsentropie - Endentropie) weg.
- Fügt man nach diesen beiden Unterabschnitten die statistische Betrachtung ein (gleiche Teilchen) so ist die Anzahl der möglichen Zustände für unterscheidbare Teilchen Omega = N! /(nA! nB!) und bei nichtunterscheidbaren Teilchen Omega = 1/(nA! nB!), Das nA! nB! bei nA=nB= N/2 minimal wird und somit der Quotient maximal wird, ist schnell klar, wenn man als Vergleichsterm (N/2-1)! (N/2+1)! zu Hilfe nimmt, welcher offensichtlich größer ist (ein höherer Multiplikator N/2+1 beim letzten Faktor). Wie bei der wesentlich komplizierteren Herleitung über die Integrations im 6N-dimensionalen Phasenraum muss man hier auch die Stirling-Formel zu Hilfe ziehen: n! ~ (n/e)n. Setzt man dies nun für nA=nB=N/2 so ergibt sich für Omega = eN / (1/2 NN)und mit S = kb ln (Omega)
- gleich SE = kb (N - ln (2 N-N)) als Entropie im finalen Gleichgewichtszustand (im doppelten Anfangsvolumen). Wie komme ich jetzt an die Anfangentropie? Hierzu gehe ich wieder von Verteilungswahrscheinlichkeit aus Omega = 1/(nA! nB!) und NACH Anwendung der Stirlingformel mit nA=N und NB=0 erhält man SA = kb (N - ln (N-N)) als Anfangsentropie, subtrahiert man nun SB - SA erhält wiederum wie in der klassischen Variante für den Entropiegewinn Delta S = kb ln 2. Das entspricht dem gleichen Ergebnis wie beim reversiblen/Irreversiblen freien Gasexpansion. Somit braucht man auch nicht Zahlenwerte für die Entropie zu berechnen sondern sieht gleich die Aquivalenz beider Verfahren, klassische Thermodynamik vs. statistischer Physik/Mechanik. Ich hoffe, ich habe hier keinen Denkfehler drin.....
- Gänzlich auf die Herleitung der "Omega"-Möglichkeiten über die Integration der Hamiltonfunktion im 6N-dimensionalen Phasenraum verzichtet auch der Gerthsen Physik (H. Vogel) im Kapitel 17 (statistische Physik), 18. Auflage S. 933, hier leider nur für die Mischungsentropie und nur für unterscheidbare Teilchen). --Markus Vollmann (Diskussion) 18:44, 9. Jan. 2022 (CET)
- Doch Denkfehler, die angebene Formel für Omega (Anzahl möglicher Mikrozustände eines gleichen Makrozustandes) ist falsch. Ich bin von der falschen Annahme ausgegangen, dass man die Unterscheidbarkeit durch Dividieren von N! herausnimmt, sowie es bei der Herleitung der Sackur-Tetrode Gleichung aus der entsprechenden Gleichung für unterscheidbare Teilchen gemacht wird. Aber die Unterscheidbarkeit bleibt durch die Fakultäten im Nenner bestehen. Man kann die Herleitung aber auch mit der Formel für unterscheidbare Teilchen N! /(nA! nB!) durchführen, man "schleppt" dann den zusätzlichen N!-Term mit welcher sich zum Schluß bei Bildung der Entropiedifferenz herauslöscht, d.h. man kommt auf das gleiche Ergebnis. ABER: Bei der Annahme von nB=0 gilt die Stirling-Formel nicht mehr, diese gilt nur bei großen n bzw. bei n=10 nur noch 1% Abweichung (siehe Wikilink Stirlingformel). Hier könnte man argumentieren das das Ganze bei nA=N-100 und nB=100 (Abweichung 1 Promill) auf das gleiche Ergebnis kommt, verliert aber dann die Einfachheit. Sorry! --Markus Vollmann (Diskussion) 00:50, 10. Jan. 2022 (CET)
- Ich bin im Moment dabei einen neuen Text für den fraglichen Abschnitt zu entwerfen. Ihr findet ihn hier in meiner Werkstatt. Ich brauche allerdings noch etwas Zeit. ArchibaldWagner (Diskussion) 12:07, 9. Jan. 2022 (CET)
- Fehlanzeige, selbst meine non-Standard Physikbücher zu Hause geben dazu nichts besonderes her, der Punkt wird einfach unterschlagen. Im Demtröder (Standard) hab ich ein etwas breiter ausgeführtes BEispiel gefunden, ich schicke Dir die Seiten per email (falls sie Dir sonst nicht zugänglich sind). - Vielleicht genügt auch ein Satz wie: "Da die Verteilung über alle anderen Koordinaten der 1-Teilchen-zustände die gleichen sind, sind für die Wahrscheinlichkeiten einer Aufteilung auf die zwei Raumhälften allein die jeweiligen Zeilchenzahlen maßgeblich." Gruß! --Bleckneuhaus (Diskussion) 12:21, 7. Jan. 2022 (CET)
- Danke für den Tipp! Der Verweis auf eine allgemeinen Zauber-formel, Sackur-Tetrode-Gleichung, liegt einerseits nahe, andrerseits vermittelt die direkte Begründung aus einem einfachen Gedankengang oft eine bessere Einsicht. Wenn Du eine Literaturstelle hierzu als Beleg hast, wäre das schön. ArchibaldWagner (Diskussion) 10:46, 7. Jan. 2022 (CET)
- Lässt sich die Darstellung der statistischen Herleitung nicht relativ einfach dadurch korrigieren, dass man in die Erklärung der Formel für W(n_1,n_2) schreibt, dass hier nur der eine (zweiwertige) Freiheitsgrad linke/rechte Hälfte betrachtet wird, und die Mikrozustände hinsichtlich aller übrigen Raum und Impulskoordinaten dieselben bleiben? --Bleckneuhaus (Diskussion) 22:06, 6. Jan. 2022 (CET)
- Auch die Ausführung über die statistische Methode ist umseitig etwas abenteuerlich, im Ausgangszustand wäre hier die Entropie = 0! Also entweder man geht hier tatsächlich von der Sackur-Tetrode-Gleichung aus oder man muss besser begründen, warum hier die benutzte Formel für die Entropieänderung und nicht für die abolute Entropie gilt. Siehe hierzu auch den Becker §10 ab S 22 oder §25 ab S 62. Riecht nach ein bisschen mehr Arbeit. ArchibaldWagner (Diskussion) 21:33, 6. Jan. 2022 (CET)
- Voll einverstanden mit Dir, ArchibaldWagner. Mach das so. --Bleckneuhaus (Diskussion) 19:08, 6. Jan. 2022 (CET)
- @Bleckneuhaus, Markus Vollmann: schaut Euch bitte einmal meinen aktuellen Entwurf draufhin an, ob er so in den Entropieartikel übertragen werden kann! Teilt mir Eure Einwände und Verbesserungsvorschläge mit! ArchibaldWagner (Diskussion) 22:15, 10. Jan. 2022 (CET)
- Je konkreter es wird, desto mehr Wünsche kommen hoch. Grundsätzlich: Sollte man nicht den ganzen Abschnitt zu Entropiezunahme bei reversibler isothermer und bei irreversibler Expansion umbenennen, um in der Reihenfolge die isotherme Formel schon mal zuerst abzuleiten? Sonst gibt es ziemlich viel Wiederholtes. (Hattest Du auch meine Bemerkung auf Benutzer Diskussion:ArchibaldWagner/Werkstatt gesehen?). Ich hätte dann auch noch ein paar Kleinigkeiten, wo ich versuchen könnte, den Text zu verkürzen und zu verschönern. --Bleckneuhaus (Diskussion) 22:52, 10. Jan. 2022 (CET)
- @Bleckneuhaus: Danke! Deine Bemerkung auf der Diskussionseite habe ich erst heute morgen gelesen. Ja der Text ist ziemlich breit, wohl eher eine Diskussiongrundlage bzgl. Stoffauswahl als schon in den Artikelraum übertragbar. Mir stellt sich hier die Frage, ob hier bei einer Liste von Anwendungsbeispielen in dem Übersichtsaritikel Entropie, eventuell nur eine kurze Erläuterung mit einer Angabe der Entropieänderung stehen sollte und dann ein Verweis auf eine genauere Ausführung in einem anderen Artikel etwa dem für das ideale Gas. Was den Entwurf angeht, bevorzuge ich die Diskussion in meiner Werkstatt. Allerdings, wenn wir hier etwas darstellen, sollte es möglichst klar und unmissverständlich sein; nach meinem Eindruck ist das Verständnis der Entropie doch oft leider diffus, sowohl was die Mathematik angeht als auch die Anwendung auf konkrete Prozesse. ArchibaldWagner (Diskussion) 11:25, 11. Jan. 2022 (CET)
- Ich habe gerade den betreffenden Abschnitt durch den Änderungsentwurf aus meiner Werkstatt ersetzt. Die alte Abschnittsüberschrift habe ich dabei stehen gelassen. Man kann vmtl. den Text noch einkürzen, aber ich halte die jetzige Version schon für deutlich besser als Version vorher. (Textlänge neu - alt = -255 Bytes) ArchibaldWagner (Diskussion) 12:14, 14. Jan. 2022 (CET)
- Richtig so, ich bin mit meinen Ideen nicht so schnell vorangekommen (u.a. wegen diverser anderer Baustellen). Ich habe aber gleich mal den Ball aufgegriffen und eine Straffung vorgenommen. Wir können gerne über alles dikutieren! --Bleckneuhaus (Diskussion) 16:01, 14. Jan. 2022 (CET)
- Ich bin nach einem erstem Überfliegen damit einverstanden. Liest sich für ein Lexikon-Artikel besser, danke. ArchibaldWagner (Diskussion) 19:18, 14. Jan. 2022 (CET)
- Richtig so, ich bin mit meinen Ideen nicht so schnell vorangekommen (u.a. wegen diverser anderer Baustellen). Ich habe aber gleich mal den Ball aufgegriffen und eine Straffung vorgenommen. Wir können gerne über alles dikutieren! --Bleckneuhaus (Diskussion) 16:01, 14. Jan. 2022 (CET)
- Ich habe gerade den betreffenden Abschnitt durch den Änderungsentwurf aus meiner Werkstatt ersetzt. Die alte Abschnittsüberschrift habe ich dabei stehen gelassen. Man kann vmtl. den Text noch einkürzen, aber ich halte die jetzige Version schon für deutlich besser als Version vorher. (Textlänge neu - alt = -255 Bytes) ArchibaldWagner (Diskussion) 12:14, 14. Jan. 2022 (CET)
- @Bleckneuhaus: Danke! Deine Bemerkung auf der Diskussionseite habe ich erst heute morgen gelesen. Ja der Text ist ziemlich breit, wohl eher eine Diskussiongrundlage bzgl. Stoffauswahl als schon in den Artikelraum übertragbar. Mir stellt sich hier die Frage, ob hier bei einer Liste von Anwendungsbeispielen in dem Übersichtsaritikel Entropie, eventuell nur eine kurze Erläuterung mit einer Angabe der Entropieänderung stehen sollte und dann ein Verweis auf eine genauere Ausführung in einem anderen Artikel etwa dem für das ideale Gas. Was den Entwurf angeht, bevorzuge ich die Diskussion in meiner Werkstatt. Allerdings, wenn wir hier etwas darstellen, sollte es möglichst klar und unmissverständlich sein; nach meinem Eindruck ist das Verständnis der Entropie doch oft leider diffus, sowohl was die Mathematik angeht als auch die Anwendung auf konkrete Prozesse. ArchibaldWagner (Diskussion) 11:25, 11. Jan. 2022 (CET)
- Je konkreter es wird, desto mehr Wünsche kommen hoch. Grundsätzlich: Sollte man nicht den ganzen Abschnitt zu Entropiezunahme bei reversibler isothermer und bei irreversibler Expansion umbenennen, um in der Reihenfolge die isotherme Formel schon mal zuerst abzuleiten? Sonst gibt es ziemlich viel Wiederholtes. (Hattest Du auch meine Bemerkung auf Benutzer Diskussion:ArchibaldWagner/Werkstatt gesehen?). Ich hätte dann auch noch ein paar Kleinigkeiten, wo ich versuchen könnte, den Text zu verkürzen und zu verschönern. --Bleckneuhaus (Diskussion) 22:52, 10. Jan. 2022 (CET)
Wahrscheinlichkeit oder statistisches Gewicht?
In den Abschnitten 'Geschichtlicher Überblick' und 'Entropie als 'Maß der Unordnung' ' wird die Gleichung S = k * ln p benutzt. Nach meinem Verständnis und sonstigen Abschnitten wie 'Entropiezunahme bei Expansion, statistisch' wird statt der Wahrscheinlichkeit p das statistische Gewicht W benutzt. --92.226.121.155 21:09, 14. Jun. 2015 (CEST)
Die in den beiden genannten Abschnitten benutzte Gleichung S = kB * ln p ergibt, mit p <1, negative Werte für die thermodynamische Entropie S. Eine ganz ähnliche Formel wird in der Informationstheorie verwendet, und zwar , wobei ein log2 anstelle des ln (und davor noch ein p) steht und die Boltzmannkonstante kB fehlt. Dort hat sie allerdings ein negatives Vorzeichen, liefert also positive Werte und dient dazu, ebenfalls eine Entropie zu berechnen, die dort H heißt, aber eine informationstheoretische Bedeutung hat, nämlich: „mittlerer Informationsgehalt eines Zeichens“. Die in der Thermodynamik gebrauchte Gleichung S=kB* ln W ergibt positive und auch, absolut gesehen, andere Werte als S = kB * ln p. Nimmt man im Abschnitt 'Entropie als Maß der Unordnung' die Situation mit p(N=4)=1/16, in der alle 4 Moleküle in der linken oder rechten Hälfte des Volumen versammelt sind (Bild rechts mit den 16 Mikrozuständen), dann erhält man mit der Gleichung S=kB* ln p = kB* ln(1/16) einen negativen endlichen Wert, aus S=kB* ln W mit W=1 jedoch null. Hier sollte deutlich gemacht werden, welche Gleichung für S was bedeutet.
--WA Reiner (Diskussion) 23:08, 31. Mär. 2016 (CEST)
Revert des Beitrags von Erol2k
Die Antwort von Benutzer:Erol2k auf meinen Revert [2], von meiner Disk-Seite hierher geholt (per c'n'p'):
Der satz *prozzes* war im kontex auf den darüber liegenden Satz bezogen Zitat :Hat ein abgeschlossenes System die maximal mögliche Entropie erreicht, kommen alle spontan darin Kontex start= spontan ablaufenden Prozesse zum Erliegen= kontex ende +zitat ende Wenn das System (im spontanen Prozess) in einen metastabile Gleichgewichtszustand übergeht kommeen die Prozesse früher zum Erliegen. Die Entropie ist somit maximal ,weil sich ja spontan nichts mehr ändert. Jedoch ist der Zustand nur metastabil. Siehe Beitrag metastabilität im Wiki bzw kristallisationverzug .beispuel flüssiges unterkühltes Natriumacetat-Trihydrat kann außerordentlich gut und unbegrenzt im metastabile stabil verbleiben. Es muss eine relativ Kräftige Störung versucht werden um die Kristallisation zu starten.Unterkühltes Wasser reagiert viel empfindlicher auf Störungen . Meine kurz-Begründung lautete: rückgängig gemacht; aus zwei Gründen hier fehl amPlatz: 1. geht es im Satz nur um Prozesse, die wirklich ablaufen. 2. geht es um den Zustand maximaler Entropie, un d 3. hat der Artikel das Lemma Entropie und nicht "Arten von Prozessen")
Soweit Erol2k (unsigniert). So weit ich die zwei Einwände verstehe, hier meine Antwort: (und zu beachten: Wir sind in der Einleitung zum Artikel Entropie):
1. Der Satz vor Erols Einfügung bezieht sich auf ein System im Zustand maximaler Entropie. Wie das System dahin gekommen ist, oder etwa nicht ganz, ist eine ganz andere Geschichte, die anderswo erzählt werden sollte. 2. Logik-Fehler Implikation umgedreht: Richtig ist "Wenn Entropie maximal, dann keine weitere Änderung". Nicht richtig ist "Wenn keine Änderung, dann Entropie maximal." (Das bezieht sich auf Erols "Die Entropie ist somit maximal ,weil sich ja spontan nichts mehr ändert.")
Allfällige weitere Diskussion bitte hier (statt auf meiner Diskseite) und , wenn es geht, ohne sprachliche Fehler. --Bleckneuhaus (Diskussion) 22:33, 1. Jun. 2023 (CEST)
- Die Definitionen bezieht sich klassich explizit auf den zusatz spontane Vorgänge "Wenn keine Spontane Änderung, im System auftritt ist dessen Entropie maximal." Bedeutung: eine Reaktion läuft spontan ab bis die Entropie des Systems maximal ist. Da jedoch die Spontane Reaktion nicht immer am Maximum der Entropie endet sollte verdeutlicht werden. Ich bitte meine sprachliche Fehler zu entschuldigen. --Erol2k (Diskussion) 21:57, 10. Jun. 2023 (CEST)
- Der von Dir kritisierte Satz ("Wenn keine Spontane Änderung, im System auftritt ist dessen Entropie maximal.") kommt meiner Meinung nach in dem Artikel gar nicht vor, auch nicht - mit exakt derselben Bedeutung - in anderer Formulierung. Du scheinst bei Deinem Logikfehler der umgedrehten Schlussfolgerung bleiben zu wollen. --Bleckneuhaus (Diskussion) 23:32, 10. Jun. 2023 (CEST)
- Naja ich lass es gut sein. Das wird mir zu theoretisch . Die Thermodynamik ist eh als "theoretisches Grausamkeit" nicht zu toppen. Ich werde mal aufräumen. Nur eben nicht hier --Erol2k (Diskussion) 23:02, 11. Jun. 2023 (CEST)
- Der von Dir kritisierte Satz ("Wenn keine Spontane Änderung, im System auftritt ist dessen Entropie maximal.") kommt meiner Meinung nach in dem Artikel gar nicht vor, auch nicht - mit exakt derselben Bedeutung - in anderer Formulierung. Du scheinst bei Deinem Logikfehler der umgedrehten Schlussfolgerung bleiben zu wollen. --Bleckneuhaus (Diskussion) 23:32, 10. Jun. 2023 (CEST)
Aber bitte erst klar kriegen, dass "Wenn A, dann B" nicht dasselbe bedeutet wie "Wenn B, dann A"! --Bleckneuhaus (Diskussion) 07:53, 12. Jun. 2023 (CEST)
- Das Problem ist das manchmal aus a ein b resultiert Dann stimmt die Aussage. Wenn es möglicherweise nicht vollständig zu b wird . Stimmt die Aussage noch immer? --Erol2k (Diskussion) 23:30, 12. Jun. 2023 (CEST)
- Nein!! Dann stimmt sie nicht. Wenn B nur manchmal (oder auch meistens) auf A folgt, aber eben nicht immer, dann ist die Aussage "Wann A dann B" eine falsche Aussage. Im Bereich gesichterten Wissens jedenfalls. (Im Alltag gilt das nicht so streng, siehe Satz von Bayes.) --Bleckneuhaus (Diskussion) 08:38, 13. Jun. 2023 (CEST)--Bleckneuhaus (Diskussion) 08:38, 13. Jun. 2023 (CEST)
- Naja das mit den Wahrscheinlichkeit ist auch nicht so einfach. Wie bei der entropie..Eine Information kann dazu benutzt werden um eine wahrscheinlichkeit zu erhöhen. Oder zu erniedrigen. (Ziegenproblem) Wenn der Showmaster die Informationen hatt das der Teilnehmer Mathematiker ist .also sich mit der Wahrscheinlichkeit auskennt ,wird er möglicherweise wenn der Mathematiker zufällig (richtig) das Auto gewählt hatt .
- Eine Tür öffnen um eine Ziege zu zeigen . Mutmaßlich wurde damit wird der Teilnehmer sich veranlasst sehen die Tür zu wechseln um die Wahrscheinlichkeit zu erhöhen...
- Kurz gesagt: wenn Information vorliegen folgt das Spiel nicht unbedingt den statistischen Wahrscheinlichkeiten. Die Fähigkeit die Reaktion des spielers richtig einzuschätzen (Mathematiker oder nicht?) kann die Wahrscheinlichkeit beeinflussen --Erol2k (Diskussion) 20:09, 14. Jun. 2023 (CEST)
- Falls es jemanden interessiert: der Vorname von Mr. Spock ist „Karlheinz“. (Das hat zwar nichts mit Entropie zu tun, aber das Ziegenproblem auch nicht.) — Wassermaus (Diskussion) 11:58, 15. Jun. 2023 (CEST)
- Naja in weitesten Sinne doch. Die entopie wird auch sowohl mithilfe der warscheinlichkeitsrechung Wahrscheinlichkeitsverteilung und Informationenmaß gedeutet.
- Im übrigen ist es bis heute niemand gelungen die universelle Gültigkeit zu beweisen.
- mutmaßlich da die Gravitation das Gegenteil macht wie die Entropie. Es sammelt die Masse und die Energie. wobei die Entropie postuliert das sich alles verteilt und angleichen muss.
- Zitat :universelle Gültigkeit des Entropiegesetzes ist nichtsdestotrotz in der Physik noch umstritten. Prigogine und Stengers [48] weisen darauf hin, daß die theoretische Verbindung des zweiten Hauptsatzes im Maßstab des gesamten Universums (und vor allem auf die Lebensdauer des Universums bezogen) mit der Gravitation noch problembehaftet ist, so daß seine allgemeine Gültigkeit noch nicht bewiesen werden kann. Allerdings betreffen diese möglichen Einschränkungen nicht die praktische Relevanz des Entropiegesetzes für die Menschheit.
- Naja das sind die Abgründe der theoretischen Thermodynamik.
- Quelle:http://web.archive.org/web/20031121130925/www.madeasy.de/2/entropie.htm --Erol2k (Diskussion) 00:56, 16. Jun. 2023 (CEST)
- Falls es jemanden interessiert: der Vorname von Mr. Spock ist „Karlheinz“. (Das hat zwar nichts mit Entropie zu tun, aber das Ziegenproblem auch nicht.) — Wassermaus (Diskussion) 11:58, 15. Jun. 2023 (CEST)
- Nein!! Dann stimmt sie nicht. Wenn B nur manchmal (oder auch meistens) auf A folgt, aber eben nicht immer, dann ist die Aussage "Wann A dann B" eine falsche Aussage. Im Bereich gesichterten Wissens jedenfalls. (Im Alltag gilt das nicht so streng, siehe Satz von Bayes.) --Bleckneuhaus (Diskussion) 08:38, 13. Jun. 2023 (CEST)--Bleckneuhaus (Diskussion) 08:38, 13. Jun. 2023 (CEST)
Einleitender Satz
Was dem Artikel m.E. fehlt, ist ein einleitender klarer Satz, der auf den Wesenskern der Entropie hindeutet und somit kurz und prägnant in das Thema einführt. Der Artikel der engl. Wikipedia beginnt bspw. mit dem Satz: "Entropy is a scientific concept that is most commonly associated with a state of disorder, randomness, or uncertainty." --2003:F7:1703:D600:5C6:A9B2:7341:AFD5 11:29, 28. Okt. 2023 (CEST)
- Ich kann das Anliegen sehr gut nachvollziehen. Vor allem Lernende wollen eine Antwort auf die Frage: "Was darf ich mir darunter vorstellen?" Die vielleicht sachlich korrekte Antwort: "Am besten gar nichts." ist da leider wenig hilfreich. Ich übersetze den mal den zitierten Satz um zu prüfen, ob man ihn übernehmen kann: "Entropie ist ein wissenschaftliches Konzept, das überwiegend mit einem Zustand von Unordnung, Beliebigkeit und Ungewissheit verknüpft wird." Ein paar Dinge daran stören mich: Entropie ist kein "Konzept", sondern eine "Größe", denn sie hat ein Symbol, eine Einheit, eine Definitionsgleichung, ... (Konzepte sind "Felder", "Wellen" und dergleichen). "Unordnung" - ein Begriff, der sehr populär, aber unscharf ist. "Beliebigkeit": sachlich sehr nah dran: Ein System ist umso entropischer, je beliebiger der Mikrozustand ist. Allerdings klingt das in dem Wort "Beliebigkeit" für den unbedarften Leser kaum mit. "Ungewissheit": Gemeint ist: Ein System ist umso entropischer, je ungewisser die Kenntnis über seinen Mikrozustand ist. Ähnliches Problem wie bei "Beliebigkeit". Ein Bild, das ich mir zurechtgelegt habe: "Entropie ist ein Maß dafür, wie weit sich ein System durch irreversible Vorgänge von einem wohl geordneten Ausgangszustand entfernt hat." (Das ist aber nicht zitierfähig, weil es auf meinem Mist gewachsen ist und daher TF in Reinform). Einen Formulierungsvorschlag habe ich noch nicht, aber ich finde es wie die IP wichtig, dass einer gefunden wird. --Pyrrhocorax (Diskussion) 10:50, 29. Okt. 2023 (CET)
- Man sollte beachten, dass es hier um den Entropiebegriff in der Thermodynamik geht; zu Entropie gibt es ja ansonsten auch eine BKS. Ich selbst finde den aktuellen Satz in der Einleitung gut; auch genauer als den in dem korrespondierenden englischen Wikipedia-Artikel.
- Zur Diskussion empfehle ich:
- auch einen Blick auf die zugehörige englische :en:BKS zu werfen.
- Gut finde ich hier den einleitenden Satz: »Entropy, in thermodynamics, is a property originally introduced to explain the part of the internal energy of a thermodynamic system that is unavailable as a source for useful work.«
- beim DWDS Entropie
- auch vielleicht interessant: »physikalische Größe als Bezeichnung für den Grad der Nichtumkehrbarkeit physikalischer Vorgänge«
- und im Physik-Lexikon Entropie
- auch einen Blick auf die zugehörige englische :en:BKS zu werfen.
- Der Zusammenhang mit der Ordnung bzw. Unordnung kommt über die mikroskopischen Modelle der statistischen Physik auf und ist, alles andere als einfach einem Laien zu erklären. Ich sehe hier keine Verbesserung, gleich in der Einleitung mit ins Haus zu fallen. Dies dürfte bei physikalisch Unbedarften m.E. mehr zur Verunsicherung als zu einem echten Verständnis beitragen. --ArchibaldWagner (Diskussion) 13:57, 29. Okt. 2023 (CET)
- Huch, dann bin ich ja beruhigt, dass meine "Privat-Definition" ziemlich gut mit der von DWDS übereinstimmt. Ich bin auch kein Freund davon, gleich mit der statistischen Mechanik anzufangen, weshalb ich die von der anonymen IP vorgeschlagene englische Formulierung etwas kritisch sehe. An der DWDS ist leider etwas unschön, dass sie die Zustandsgröße Entropie über Prozesse (= Vorgänge) erklären will. Beide Erklärungen finden sich bei Stierstadt wieder. Hilfreich wäre eher folgende Überlegung: Ein System kann verschiedene Zustände annehmen, deren Energieinhalt gleich ist. Wenn man ein Whiskey-Glas vereinfacht als adiabatisch abgeschlossen ansieht, so ist der warme Whiskey mit Eiswürfel gleich energiereich wie das kühle Whiskey-Wasser-Gemisch. Wenn man beide Zustände als das jeweilige Ende einer Skala ansieht, dann sagt uns die Entropie, wo wir gerade stehen, denn es ist klar, dass es kein Zurück mehr gibt. (Ich bevorzuge Whiskey übrigens ohne Eis). Aber kann man das in kurze Worte fassen, ohne die Anschaulichkeit zu verlieren?) --Pyrrhocorax (Diskussion) 16:13, 29. Okt. 2023 (CET)
Es dürfte ja ziemlich schwer sein, in einem ersten Satz OMA-verständlich die Entropie zu charakterisieren. Der von der IP empfohlene Satz zählt auch nur auf, womit sie zusammenhängt. Unser derzeitige 1. Satz ("... eine grundlegende Zustandsgröße eines makroskopischen Systems. Ihre SI-Einheit ist Joule pro Kelvin (J/K). ") hilft dem Verständnis allerdings noch weniger, muss ich schon zugeben. Den einleitenden Satz: »Entropy, in thermodynamics, is a property originally introduced to explain the part of the internal energy of a thermodynamic system that is unavailable as a source for useful work.« sehe ich - wenn man das Wort "originally" erstmal überliest - als falsch an, weil der Carnotsche Wirkungsgrad eben von 2 Temperaturen abhängt und bei gegen 100% strebt. Einfach und richtig wäre eine Charakterisierung nahe beim 2. Hauptsatz: "Entropie ist eine physikalische Größe, die in jedem abgeschlossenen physikalischen System aufgrund spontaner innerer Prozesse solange ansteigt, bis sie den für dieses System möglichen Maximalwert erreicht. Dann ist das System im thermodynamischen Gleichgewicht und verändert sich nicht weiter." - Bitte weiter kürzen/ergänzen/etc. --Bleckneuhaus (Diskussion) 21:24, 29. Okt. 2023 (CET) (Achtung: Nachtrag in fett --Bleckneuhaus (Diskussion) 13:16, 30. Okt. 2023 (CET))
- Wir haben hier ein des öfteren anzutreffender Wunsch (oder Ehrgeiz), nämlich einen komplexen physikalischen Begriff in einem oder wenigen Sätzen allgemeinverständlich und korrekt erläutern bzw. charakterisieren zu wollen. Frage: muss das eigentlich immer möglich sein? Kann das nicht bei manchen Lesern zu einem falschen Verständnis führen?
- Ich empfehle euch bzgl. der Entropie die Abschnitte 1-9 "The Basic problem of thermodynamics" und 1-10 "The entropy maximum postulates" p 25 - 32 (evtl. auch 17-1 "Entropy as measure of disorder") in "Thermodynamics and an Introduction to thermodynamics" (2. Aufl.) von Herbert B. Callen anzuschauen. Hier kommt es mir auf die folgenden Sätze an: (p 27)»It must be stressed that we postulate the existence of the entropy only for equilibrium states[...]each of which might also be realized in the presence of a suitable constraint« Es wird damit letztlich weiter angenommen, dass bei allen "Zwischenzuständen" zumindest überall ein lokales thermodynamische Gleichgewicht vorliegt, so dass sich die Entropie als Summe vieler kleiner (nährerungsweise) im Gleichgewicht befindlichen Systeme mit Hilfe des Postulates III berechnen lässt. (p 28) »All problems in thermodynamics are derived from the basic problem formulated in Section 1.9.«
- Nun zu dem Textvoschlag von @Bleckneuhaus, die meisten Physiker haben gegen diesen Vorschlag wahrscheinlich nichts einzuwenden, und doch bin ich nicht glücklich mit diesem Satz, weil er impliziert man könne für alle möglichen Zustände eines Systems die Entropie angeben, aber tatsächlich finden sich dann in (mir bekannten) Lehrbüchern nur Angaben und Formeln für Systeme im Gleichgewicht. Auch die berühmte Boltzmann Formel gilt ja nur für ein System im Gleichgewicht. Der Trick in den Thermodynamik läuft dann immer über das zusammengesetzte System und das Postulat, dass sich die (Ausgangs-)Entropie als die Summe der Entropien der Einzelsysteme ergibt, und nach Entfernen der "Constraints" (siehe Callen 1-9) die (End-)Entropie für dieses neue im Gleichgewicht befindliche System berechnet wird und diese dann größer als die Ausgangsentropie sein muss.
- Aus diesem Grunde neige ich eher dazu, in der Einleitung ein einfaches Beispiel zu nehmen, von mir aus das Whiskey-Eis System von @Pyrrhocorax. Zwei Systeme jeweils im eigenen thermodynamischen Gleichgewicht mit den Entropien 1 und 2 werden zusammengefügt (die "Trennwände" entfernt), nach Einstellen des Gleichgewichts ist die Entropie (3) des Gesamtsystems größer als die Summe der von 1 und 2.
- Auch könnte evtl. ein Satz in der Einleitung über die Motivation zur Einführung angebracht sein. Ich bin allerdings mit der Geschichte und den Arbeiten von Clausius nicht wirklich vertraut, kann mir aber vorstellen, dass ein wesentlicher Grund, die Berechnung des theoretisch erreichbaren maximalen Wirkungsgrades von Wärmekraftmaschinen (Dampfmaschinen) war. --ArchibaldWagner (Diskussion) 17:21, 30. Okt. 2023 (CET)
- Alles bedenkenswert, aber in einem Punkt glaube ich nicht richtig: Entropie ist nicht auf Gleichgewichtszustände beschränkt. Prinzipiell schon deshalb nicht, weil zB beim Temperaturausgleich explizit mit einem System fern des Gleichgewichts begonnen wird. Aber auch die statistische Definition ist ja auf beliebige Zustände anwendbar. Und wie könnte Entropie dann eine additive Größe sein? --Bleckneuhaus (Diskussion) 18:29, 30. Okt. 2023 (CET)
- Das wird so auch nicht behauptet. Der Begriff wird mit dem Postulat für aus mehreren im jeweiligen eigenen Gleichgewicht befindlichen Systemen ja für die Zusammensetzung solcher Systeme erweitert; und darüber laufen dann auch die Rechnungen mit der Bestimmung des Maximums, siehe hierzu etwa im Callen 2.4 Thermal Equilibrium - Temperature, 2.7 Mechanical Equilibrium oder 2.9 Chemical Equilibrium. Bei Stierstadt 2. Auflage Kap. 5.2 Das Prinzip maximaler Entropie (auch hier ein Komposit aus zwei Einzelsystemen). Was behauptet wird, ist, dass die Entropie nur für recht spezielle System (thermodynamische Kopplung zweier oder mehrerer Systeme) explizit angegeben werden kann.
- Lass mich hier noch einmal Ludwig Band IV S 89 zitieren: „Das Problem der Entropiedefinition für Nichtgleichgewichtszustände ist ein sehr tiefliegendes und wird oft verharmlost, indem man gleich zu »speziellen« Nichtgleichgewichtszuständen übergeht. Auf keinen Fall lässt sich allgemein eine Entropie auf die Art und Weise einführen, wie dies in §4.1 geschehen ist. Dies folgt schon allein daraus, dass es für Nichtgleichgewichtszustände im allgemeinen keine Temperaturdefinition gibt.[...]“
- Man löst das Problem, indem man eine allgemeine Entropie-Funktion (mit bestimmten Zusatzeigenschaften) fordert, die Funktion aber in der Regel nicht explizit angeben kann, bis auf die Fälle in welchen zwei Systeme gekoppelt werden, und ihre Entropie unmittelbar nach der Kopplung als Summe ihrer jeweiligen Entropien vor der Kopplung setzt. (Später wird das Verfahren auf kontinuierliche Systeme entsprechend erweitert, siehe hierzu z.B. die Berechnung der Wärmeleitung oder die Navier-Stokessche Gleichungen)
- Was den Temperaturausgleich betrifft ist dieses ja genau der Fall, man hat am Anfang (mindestens) zwei Systeme definierter Temperatur (also jeweils im eigenen Gleichgewicht).
- Sicher gibt es viele die beim Erlernen der Thermodynamik über diese Problematik hinweg sehen bzw. ihrer gar nicht gewahr werden, allerdings gibt es auch solche, die damit in erhebliche Verständnisprobleme kommen. Und ich denke, es ist wichtig, diesen mitzuteilen, dass die Sachlage hier tatsächlich recht komplex ist. (Die einzigen Lehrbücher, die ich kenne und die auf die Problematik explizit hinweisen, sind der Callen und der Ludwig.)
- Letztlich zeigt uns aber die Erfahrung an ungezählten Beispielen, dass das Verfahren in der Praxis zu brauchbaren Ergebnis führt. --ArchibaldWagner (Diskussion) 21:45, 30. Okt. 2023 (CET)
- Ein alternativer Textvorschlag auf der Basis des folgenden Zitates aus dem Buch von Callen S 28:
- »All problems in thermodynamics are derivative from the basic problem formulated in Section 1.9. The basic problem can be completely solved with the aid of a extremum principle if the entropy of the system is known as a function of the extensive parameters. The relation that gives the entropy as a function of the extensive parameters is known as a fundamental relation. It therefore follows that if the fundamental relation of a particular systen is known all conceivable thermodynamic information about the system is ascertainable from it.«
- »The importance of the foregoing statement cannot be overemphasized. The information contained in a fundamental relation is all-inclusive - it is equivalent to all conceivable numerical data, to all charts, and to all imaginable types of descriptions of thermodynamic properties. If the fundamental relation of a system is known, every thermodynamic attribute is completely and precisely determined.«
- Mein Vorschlag: „Die Entropie hat eine zentrale Bedeutung in Thermodynamik, denn: ist die Entropie als Funktion der extensiven Parameter eines thermodynamischen Systems vollständig bekannt, können daraus alle thermodynamischen Größen des Systems berechnet werden.“ --ArchibaldWagner (Diskussion) 11:42, 31. Okt. 2023 (CET)
- Ein alternativer Textvorschlag auf der Basis des folgenden Zitates aus dem Buch von Callen S 28:
- Alles bedenkenswert, aber in einem Punkt glaube ich nicht richtig: Entropie ist nicht auf Gleichgewichtszustände beschränkt. Prinzipiell schon deshalb nicht, weil zB beim Temperaturausgleich explizit mit einem System fern des Gleichgewichts begonnen wird. Aber auch die statistische Definition ist ja auf beliebige Zustände anwendbar. Und wie könnte Entropie dann eine additive Größe sein? --Bleckneuhaus (Diskussion) 18:29, 30. Okt. 2023 (CET)
Dem kann ich mich in der Tendenz anschließen. Weiter ausformuliert etwa:
Die Entropie ist eine physikalische Größe von zentraler Bedeutung in der Thermodynamik. Sämtliche thermodynamischen Größen eines makroskopischen Systems können berechnet werden, wenn die Entropie des Systems als Funktion von dessen äußeren Parametern bekannt ist (Fundamentalgleichung). Ihre SI-Einheit ist ...
Vor dem nächsten Absatz mit dem Anwachsen der Entropie etc. wäre aber noch ein weiterer OMA-verständlicher Satz zum allgemeinen Verständnis als "Maß der Unordnung" (nur Platzhalter hier) gut.--Bleckneuhaus (Diskussion) 12:00, 31. Okt. 2023 (CET)
- Ehrlich gesagt geht mir Diskussion in eine falsche Richtung. Zum einen sind die letzten Gedanken keineswegs allgemeinverständlicher als der aktuelle Zustand des Artikels. Zum anderen ist das Lemma des Artikels "Entropie". Aufgabe des Artikels ist es also zu erklären, was Entropie ist, und nicht, was sich berechnen lässt, wenn man weiß, wie die Entropie von anderen Parametern abhängt. --Pyrrhocorax (Diskussion) 15:59, 31. Okt. 2023 (CET)
- Nun ja, die Entropie ist nichts anderes als eine Funktion gewisser Parameter, die dazu noch die tolle Eigenschaft hat: man kann mit ihr alle thermodynamische Größen berechnen. Was will man als Physiker eigentlich noch mehr. Ich denke, das ist schon eine sehr wichtige Charakterisierung; in meinen Augen deutlich handfester als, die Entropie beschreibt die maximale Unordnung. --ArchibaldWagner (Diskussion) 17:12, 31. Okt. 2023 (CET)
- Oder: Ja, was ist denn Entropie? (Etwa: eine mengenartige, mit der Energie verbundene Größe, die ebensowenig wie die Energie ins Nichts verschwinden kann, im Gegensatz zu dieser aber entsteht, wo immer ein irreversibler Prozess abläuft --?) --Bleckneuhaus (Diskussion) 17:31, 31. Okt. 2023 (CET)
- Ich vermute, was @Pyrrhocorax sucht, ist eher eine anschauliches Bild, eine Methapher für die Entropie; etwas was den Sinnen bzw. der täglichen Erfahrung vieler Menschen näher ist als diese recht abstrakte Größe Entropie. Dies ist verständlich aber nicht unproblematisch, weil es zu einem falschen Verständnis führen kann. Was hier am ehesten weiter helfen könnte, ist dann doch ein einfaches Beispiel aus dem Alltag, das die Anwendungsmöglichkeit der abstrakten Größe Entropie zeigt. Allerdings Beispiele in der Einleitung müssen in wenigen Sätzen darstellbar sein. --ArchibaldWagner (Diskussion) 10:06, 1. Nov. 2023 (CET)
- Nun ja, die Entropie ist nichts anderes als eine Funktion gewisser Parameter, die dazu noch die tolle Eigenschaft hat: man kann mit ihr alle thermodynamische Größen berechnen. Was will man als Physiker eigentlich noch mehr. Ich denke, das ist schon eine sehr wichtige Charakterisierung; in meinen Augen deutlich handfester als, die Entropie beschreibt die maximale Unordnung. --ArchibaldWagner (Diskussion) 17:12, 31. Okt. 2023 (CET)
- Gut @Bleckneuhaus, das kann zu einem Konsens konvergieren.
- Allerdings du hast die extensiven Parameter zu äußeren gemacht (vmtl. wegen Laienverständlichkeit), nun ist das aber m.E. nicht dasselbe, und damit könnte die Aussage falsch werden; ich denke etwa an ein System mit mehreren Phasen.
- Bei dem Link auf das Lemma Fundamentalgleichung sollte dann dort auch die entropische Fundamentalgleichung ergänzt werden. (Ich könnte mich darum kümmern.)
- Was die von vielen gewünschte Unordnung (oder Unwissenheit) betrifft, zitiere ich wieder den Callen 17.1 p 381 "Entropy as a Measure of disorder":
- »For a closed system the entropy corresponds to Shannon's quantitative measure of maximum possible disorder in the distribution of the system over its permissible microstates.«
- oder auch die kanonische Verteilung (Systeme in Kontakt mit einem Wärmereservoir) einschließend: »The entropy is the quantitative measure of disorder in the relevant distribution of the system over its permissible microstates.«
- Damit liegt vielleicht schon ein Satz in der Luft, der die Freunde der Unordnung befriedigen könnte. --ArchibaldWagner (Diskussion) 17:39, 31. Okt. 2023 (CET)
@ArchibaldWagner: Du schreibst: "Ich vermute, was Pyrrhocorax sucht, ist eher eine anschauliches Bild, eine Methapher für die Entropie; etwas was den Sinnen bzw. der täglichen Erfahrung vieler Menschen näher ist als diese recht abstrakte Größe Entropie." So ist es. Ich weiß, dass das schwierig ist (sonst hätte ich schon lange eine entsprechende Formulierung eingefügt, ohne lang zu fragen). Ich halte es aber für unumgänglich. Die Entropie (obwohl sehr abstrakt) ist ein Begriff, der auch omA über den Weg läuft, sei es im Physik-Unterricht der Schule oder in einer populärwissenschaftlichen Veröffentlichung. OmA braucht hier keine vollständige Erklärung des Begriffs, keine mathematisch einwandfreie Definition, sondern etwas, was ihm/ihr hilft, einen Satz zu verstehen, in dem das Wort "Entropie" auftaucht. Ich bin übrigens gar kein Fan von der Unordnungs-Geschichte, denn es ist nicht wirklich einfach den neuen Begriff "Unordnung" korrekt und allgemeinverständlich zu erklären. Wie wäre es mit folgendem Erklärungsversuch: "In physikalischen Systemen laufen Prozesse ab, die sich teilweise umkehren lassen (z. B. das Hin- und Herschwingen eines Pendels) und teilweise unumkehrbar sind (z. B. die Vermischung zweier Flüssigkeiten). Die Entropie ist ein Maß dafür, wie weit die unumkehrbare Veränderung des Systems vorangeschritten ist." (Weiter oben habe ich eine ähnliche Formulierung von mir als TF bezeichnet. Inzwischen habe ich mehr Hoffnung, dass sich dafür ein belastbarer Literaturbeleg finden lässt (Hier in der Diskussion wurde bereits DWDS angeführt). --Pyrrhocorax (Diskussion) 11:11, 1. Nov. 2023 (CET)
- Die von mir vorgeschlagene Formulierung hätte den Charme, dass man dann gleich fortsetzen kann: "Alle reversiblen (= umkehrbaren) Prozesse sind also dadurch gekennzeichnet, dass die Entropie unverändert bleibt, während sie bei allen irreversiblen (= unumkehrbaren) Prozessen zunimmt. Die Entropie kann in einem abgeschlossenen System daher niemals abnehmen."--Pyrrhocorax (Diskussion) 11:15, 1. Nov. 2023 (CET)
- Ohne mich großartig inhaltlich einbringen zu wollen, plädiere ich dafür, Verbindungswörter wie "daher" und "also" wegzulassen, da sie eine Folgerungskette suggerieren, die hier meines Erachtens nicht vorliegt. --Wrongfilter ... 11:49, 1. Nov. 2023 (CET)
- Pyrrhocorax' Formulierung klingt attraktiv, ist aber wohl doch nicht genügend trennscharf, weil OMA mit sich Recht fragen könnte, wie er es denn schafft, die Küche immer wieder sauber zu kriegen. Jedenfalls endete mein Versuch, daraus den Anfang des Artikels zuformen, bislang in folgendem Versuch:
In der Welt laufen ohne äußeren Eingriff physikalische Prozesse ab, die im Idealfall in entgegengesetzter Richtung exakt genauso ablaufen würden (z. B. das Hin- und Herschwingen eines Pendels ohne Reibung). Andere Prozesse sind nur mit fortgesetztem äußeren Eingriff umkehrbar (z. B. das Abbremsen des Pendels in Luft, oder die Vermischung zweier Flüssigkeiten), also für sich genommen unumkehrbar. Die Entropie ist ein physikalisches Maß dafür, wie weit die unumkehrbare Veränderung des Systems vorangeschritten ist. Alle reversiblen (= umkehrbaren) Prozesse sind dadurch gekennzeichnet, dass die Entropie unverändert bleibt, bei allen irreversiblen (= unumkehrbaren) Prozessen nimmt sie zu. Die Entropie kann in einem abgeschlossenen System daher niemals abnehmen. Alle darin spontan ablaufenden Prozesse sind irreversibel.
Wie gesagt, halb fertig. --Bleckneuhaus (Diskussion) 15:39, 8. Nov. 2023 (CET)
- Ohne jetzt auf Deinen Vorschlag einzugehen möchte ich hier zwei Zitate aus dem Becker "Theorie der Wärme" erwähnen:
- »Diejenige Größe, welche die ganze Thermodynamik beherrscht, nämlich die Entropie, erweist sich als ein quantitatives Maß der soeben geschilderten Unkenntnis.« S 63 im Teil II "Statistische Mechanik" § 23 Einleitung
- »Die Thermodynamik macht auf Grund einiger Zahlenangaben, wie Energie, Volumen usw., Aussagen über das Verhalten materieller Körper, welche aus ungeheuer vielen Atomen zusammengesetzt sind und von deren Bewegung wir im einzelnen nichts wissen. [...] und die Entropie eines abgeschlossenen Systems zu interpretieren als « S 253 Im Kap.A "Entropie und Wahrscheinlichkeit" §73 Der allg. Zusammenhang b) Die Entropie als Maß der Uneknntnis
- --ArchibaldWagner (Diskussion) 19:07, 9. Nov. 2023 (CET)
- Ich wünsche mir als einleitenden ersten Satz, eher eine Formulierung wie oben von mir bzw. @Bleckneuhaus vorgeschlagen, vielleicht sogar mit dem Bezug zu Grad der Unwissenheit siehe die Zitate aus Becker bzw. Callen (disorder).
- Einen Bezug zu allgemeinen Alltagserfahrung bzw. Irreversibiltät kann/sollte am Beginn des zweiten Absatz stehen. Aber das muss nicht allumfassend erklärt werden, sondern hier erscheint mir ein konkretes Beispiel sogar besser, etwa die Zunahme der Entropie (mit konkreter Zahl) bei der Mischung von je 1 l kalten und warmen Wasser, oder Auflösung eines Teelöffels Zucker in Wasser, siehe auch Übungsaufgaben in Kap. 4 von Stierstadt, oder Beispielrechnung im Buch von Rainer Müller S 272 (Entropieerzeugung beim Mischen[..]).
- Aktuell beginnt der zweite Absatz im Artikel so: „Die Entropie eines Systems steigt mit jedem makroskopischen Prozess, der innerhalb des Systems spontan abläuft, und mit jeder Zufuhr von Wärme oder Materie von außen. ...“ Hier würde doch so ein Beispiel bzw. die Irreversibiltät eher hin passen als ganz am Anfang. --ArchibaldWagner (Diskussion) 21:15, 9. Nov. 2023 (CET)
Mal ein Entwurf einer neuen Einleitung
Die Entropie ist in der Thermodynamik eine Zustandsgröße eines makroskopischen Systems von fundamentaler Bedeutung. Sie hat unter anderem folgende Eigenschaften:
- In einem abgeschlossenen System, das sich durch spontane innere Prozesse (wie Wärmeleitung, Vermischung durch Diffusion, Erzeugung von Reibungswärme, chemische Reaktion etc.) dem thermodynamischen Gleichgewicht annähert, lassen diese Prozesse die Entropie des Systems anwachsen. Der Gleichgewichtszustand ist erreicht, wenn die Entropie den größtmöglichen Wert erreicht, der mit den gegebenen äußeren Parametern des Systems (wie Volumen, Energie, Teilchenzahlen, äußeres Kraftfeld etc) verträglich ist. Alle spontanen thermodynamischen Prozesse kommen dann zum Erliegen und die Entropie bleibt konstant.
- Entropie kann nicht vernichtet werden. Ein Prozess, bei dem Entropie entstanden ist, kann nicht rückgängig gemacht werden, ohne dass die entstandene Entropie an die Umgebung des Systems abgegeben wird. Selbst wenn der ursprüngliche Zustand des Systems damit wiederhergestellt werden kann, ist nun die Umgebung in einem anderen Zustand als vorher. Eine spurlose Rückkehr zum alten Zustand von System und Umgebung ist unmöglich. Weil alle spontanen thermodynamischen Prozesse Entropie erzeugen, werden sie auch als irreversibel (=unumkehrbar) bezeichnet.
- Das Anwachsen der Entropie durch jeglichen spontanen Prozess definiert in der Physik die Richtung der fortschreitenden Zeit.
- Wird einem System mit der Temperatur T die Wärme Q zugeführt oder abgegeben, wird ihm damit auch die Entropie zugeführt bzw. abgegeben. Auch Zufuhr bzw. Abgabe von Materie erhöht bzw. verringert die Entropie eines Systems. Wird am System nur physikalische Arbeit geleistet, fließt keine Entropie.
- Ist für ein System bekannt, wie sich die Entropie aus seiner inneren Energie, seinem Volumen und den Stoffmengen der einzelnen chemischen Komponenten darin berechnen lässt, dann wird diese Formel als Fundamentalgleichung bezeichnet. Aus ihr lassen sich die Formeln für alle thermodynamischen Eigenschaften des Systems ableiten (z. B. Zustandsgleichungen, Kompressibilität, spezifische Wärmekapazität, Wärmeausdehnungskoeffizient).
Die SI-Einheit der Entropie ist Joule pro Kelvin (J/K).
Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Entropie ist ein logarithmisches Maß für die Anzahl der verschiedenen Mikrozustände, die das System in dem gegebenen Makrozustand haben könnte. Das Anwachsen der Entropie in einem System, das von einem beliebigen Anfangszustand aus sich selbst überlassen bleibt und sich foglich dem Gleichgewichtszustand nähert, erklärt sich dadurch, dass der Zustand des Systems mittels dieser inneren Prozesse sich mit größter Wahrscheinlichkeit demjenigen Makrozustand annähert, der bei gleicher Energie durch die größte Anzahl verschiedener Mikrozustände zu realisieren ist. Dieser Makrozustand hat die höchstmögliche Entropie und stellt den stabilen (makroskopischen) Gleichgewichtszustand des Systems dar. Durch diese spontan ablaufenden Annäherung an den Gleichgewichtszustand, die als Relaxation bezeichnet wird, wird Entropie erzeugt.
Im Rahmen dieser Deutung wird umgangssprachlich die Entropie häufig als ein „Maß für die Unordnung“ bezeichnet. Allerdings ist Unordnung kein definierter physikalischer Begriff und hat daher kein physikalisches Maß. Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können. Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.<ref name="Becker" />
Das habe ich mal entworfen, um die Diskussion wieder zu beleben. --Bleckneuhaus (Diskussion) 15:09, 14. Nov. 2023 (CET)
- Danke @Bleckneuhaus für Deine Arbeit. Die Idee mit einer Liste kurzer Beschreibungen finde ich gut. Bei dem Absatz mit der Fundamentalgleichung sehe ich ein Problem bei „den übrigen thermodynamischen Zustandsgrößen“, evtl. hier konkret die Parameter auflisten: innere Energie, Volumen und die Stoffmengen der einzelnen Komponenten (damit erfasst man dann leider aber nicht alle Systeme, wie etwa bei äußeren Magnetfeldern), siehe hierzu etwa Callen Kap. 2.2. --ArchibaldWagner (Diskussion) 17:07, 14. Nov. 2023 (CET)
- Danke zurück. Ich habe es etwas überarbeitet. Gibt es weitere Stimmen hierzu? --Bleckneuhaus (Diskussion) 18:18, 16. Nov. 2023 (CET)
- @Bleckneuhaus, du bist mir gerade zuvor gekommen, es gab einen Editierkonflikt. Folgendes hatte ich noch mitteilen wollen:
- Änderungvorschlag für den Punkt mit der Fundamentalgleichung:
- »Ist für ein einfaches System bekannt, wie sich die Entropie aus der inneren Energie, dem Volumen und den Stoffmengen der einzelnen chemischen Komponenten berechnen lässt, dann wird diese Formel als Fundamentalgleichung bezeichnet. Aus ihr lassen sich die Formeln für alle thermodynamischen Eigenschaften des Systems ableiten (z. B. Zustandsgleichungen, Kompressibilität, spezifische Wärmekapazität, Wärmeausdehnungskoeffizient), soweit keine äußeren Kraftfelder auf das System einwirken.«
- Dies ist ein Versuch, den Satz weniger angreifbar zu machen. Ich hatte in einigen Lehrbüchern nachgeschaut und sehe mich nicht in der Lage, den Sachverhalt kurz und doch völlig korrekt darzustellen. Ansonsten denke ich: der Entwurf von Bleckneuhaus berücksichtigt den Wunsch der IP gut und mit einer Übernahme in den Artikel kann der obige Diskussionspunkt von meiner Seite abgeschlossen werden. ArchibaldWagner (Diskussion) 18:23, 16. Nov. 2023 (CET)
- Danke, das würde ich so übernehmen. Wenn sich nicht schnell noch merklicher Protest regt, kommt das ganze dann in Kürze in den Artikel. Ob weiter unten neuer Anpassungsbedarf entsteht, müssen wir dann sehen. --Bleckneuhaus (Diskussion) 22:26, 16. Nov. 2023 (CET)
- Änderungvorschlag für den Punkt mit der Fundamentalgleichung:
- @Bleckneuhaus, du bist mir gerade zuvor gekommen, es gab einen Editierkonflikt. Folgendes hatte ich noch mitteilen wollen:
- Danke zurück. Ich habe es etwas überarbeitet. Gibt es weitere Stimmen hierzu? --Bleckneuhaus (Diskussion) 18:18, 16. Nov. 2023 (CET)
Nun habe ich den obigen Entwurf noch einmal verbessert, vor allem den 2. Punkt noch klarer gemacht, denke ich. Im letzten Punkt störte mich der ansonsten undefinierte Begriff "einfaches" System. Damit ist doch nichts anderes gemeint, als durch die folgenden Worte gesagt wird, nämlich dass seine Entropie aus den drei Variablen berechnet werden kann und andere nicht zu betrachten sind. Oder übersehe ich da was? - Beim allerersten Stichpunkt bin ich am Zweifeln, ob eine andere Formulierung der Prozesse nicht schneller eingängig wäre: Temperaturausgleich durch Wärmeleitung, Abbremsen von bewegten Teilen durch Reibung, gleichmäßige Durchmischung durch Diffusion, chemische Reaktion. --Bleckneuhaus (Diskussion) 15:21, 17. Nov. 2023 (CET)
- Dürfte ich vielleicht anmerken, dass ich beim allerersten Satz über das nachgestellte "von fundamentaler Bedeutung" stolpere? Beim ersten Lesen beziehe ich das auf das System und bin verwirrt. Beim zweiten Lesen ist eh klar, dass es sich auf die Zustandsgröße bezieht, dennoch kann man das vielleicht verbessern, indem man den Satz auseinander zieht. Zwei Ansätze:
- 1. Die Entropie ist eine physikalische Größe von fundamentaler Bedeutung in der Thermodynamik. Sie ist eine Zustandsgröße eines makroskopischen Systems und hat unter anderem folgende Eigenschaften:
- 2. Die Entropie ist eine Zustandsgröße eines makroskopischen Systems. Sie ist von fundamentaler Bedeutung in der Thermodynamik und hat unter anderem folgende Eigenschaften:
- Die erste Variante hat im ersten Satz so gar keine Definition und bietet nur eine Einordnung. Ob die zweite Variante für einen Neuling so erhellend ist, weiß ich aber auch nicht. Vielleicht scheint mir gerade deshalb die erste Variante "ehrlicher", weil sie darauf hinarbeitet, dass der eigentliche Gehalt eben in den Eigenschaften steckt. --Wrongfilter ... 16:18, 17. Nov. 2023 (CET)
- Danke Wrongfilter! Dasselbe Gefühl von unklarer Doppel-Aussage hatte ich nämlich auch gerade, und die Lösung liegt wohl in der Teilung, wie Du vorschlägst. Ich mach mal was, aber erst morgen. --Bleckneuhaus (Diskussion) 16:54, 17. Nov. 2023 (CET)
Maß für die Unordnung
Ich habe einen gerade beginnenden Editwar durch Seitenschutz beendet. WinfriedSchneider wollte die Beschreibung mit der Unordnung prominenter in der Einleitung haben. Abgesehen von der Diskussionspflicht auf Seiten dessen, der eine Änderung zum status quo will, hat mich irritiert, dass die hier noch gut sichtbare nicht lange zurückliegende Diskussion gerade dazu von Winfried trotz ZF-Hinweis von Wrongfilter nicht aufgegriffen wurde. Ich hoffe auf Lektüre der obigen Diskussionen und ggf. neuen Argumenten. Geschützt habe ich, da ich inhaltlich nicht involviert war in den Diskussionen - sonst hätte ich das auf VM melden müssen. Gruß Kein Einstein (Diskussion) 21:19, 4. Jan. 2024 (CET)
- Hallo Kein Einstein, danke für deine Aktion, die ich ausdrücklich unterstütze. -- Wassermaus (Diskussion) 22:06, 4. Jan. 2024 (CET)
- Den Seitenschutz kannst Du wieder wieder aufheben, denn „beginnender Editwar“ missversteht mein Interesse an Verbesserung des Artikels und Verteidigung der Revert-Regeln gegen Missbrauch. Ich belasse es bei je einem Versuch, aber erlaube mir den Hinweis, dass es keine „Diskussionspflicht auf Seiten dessen (gibt), der eine Änderung zum status quo will“, nur Wikiquette und das Grundprinzip Sei mutig! Grüße von --Winnie Schneider (Diskussion) 22:22, 4. Jan. 2024 (CET)
- Ich gestehe ein, dass ich den Belege-Aspekt (Punkt 3) hier generalisiert habe - aber auch die von dir zitierte Revert-Regel setzt den status quo, also die frühere Version, als Normalzustand. Daher hat Wrongfilter das verteidigt, was in längeren Diskussionen erarbeitet wurde. Wenn du Argumente für eine Veränderung hast, dann nenne sie hier bitte. Im Vertrauen auf deine gegebene Zusage hebe ich den Seitenschutz auf. Kein Einstein (Diskussion) 22:46, 4. Jan. 2024 (CET)
Bezug zur Informationsmenge
Im Artikel steht derzeit: Richtiger ist es, man begreift die Entropie als ein wohldefiniertes objektives Maß für die Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können. Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt. Dies ist gemeint, wenn die Entropie auch als „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“ umschrieben wird.
Ich denke, hier besteht die Gefahr eines Missverständnisses, die aus der möglichen Assoziation von „viel Entropie = viel Information“ entsteht. Der Bezug auf Makro- und Mikrozustände scheint mir die Verwirrung hervorzurufen (auch bei mir ;) Lässt sich das nicht klarer formulieren? --Fährtenleser (Diskussion) 08:40, 19. Mai 2024 (CEST)
- Aus dem ersten Satz deiner zitierten Textstelle folgt n.m.Verständnis klar: "viel Entropie = viel fehlende Information" und nicht das Gegenteil.
- Was Makro- und Mikrozustand betrifft steht schon im Einleitungstext des Lemmas diese Formulierung: "Eine nähere Deutung der Entropie wird in der statistischen Mechanik gegeben, wo Systeme aus sehr vielen einzelnen Teilchen betrachtet werden. Ein Makrozustand eines solchen Systems, der durch bestimmte Werte der makroskopischen thermodynamischen Größen definiert ist, kann durch eine hohe Anzahl verschiedener Mikrozustände realisiert sein, die durch innere Prozesse ständig ineinander übergehen, ohne dass sich die makroskopischen Werte dabei ändern. Die Entropie ist ein logarithmisches Maß für die Anzahl der verschiedenen Mikrozustände, die das System in dem gegebenen Makrozustand haben könnte.“ mit dieser Erläuterung im Kopf dürfte es leichter sein, den Text richtig zu verstehen.
- Ohne die Begriffe Makro- und Mikrozustand dürfte es schwer werden, die statistische Physik kurz und bündig zu formulieren. Entropie und Information sind beides ziemlich abstrakte Begriffe. Man könnte sie zwar an einfachen Beispielen erläutern, was im Lemma ja auch geschieht, aber ist das an dieser Stelle wirklich angebracht.
- Vielleicht könnte man an den ersten Satz deiner zitierten Textstelle noch die Kurzform anhängen: "; also viel Entropie = viel fehlende Information", um Missverständnissen vorzubeugen.
- Der Flesch-Lesbarkeitsindex liefert immerhin einen Wert von 42 (Niveau: Abiturient, Tageszeitung) für deinen oben zitierten Text, so dass die Aufteilung in Sätze rein formal auch nicht so schlecht gewählt zu sein scheint. --ArchibaldWagner (Diskussion) 09:36, 19. Mai 2024 (CEST)
- @Fährtenleser:, ich schließe mich meinem Vorredner an. Ich war zunächst versucht zu sagen: "Wie kann man aus dem Satz genau das Gegenteil verstehen? Wenn ich sage 'Der Grad der Armut ist dadurch definiert, wieviel Geld man braucht, um normal leben zu können'. versteht doch auch keiner 'Also: je mehr Geld man hat desto ärmer ist man.'" Allerdings: das Thema Entropie ist eines der schwierigsten Konzepte in der Physik, da kann man schnell auf die falsche Spur kommen. Und die Zahl gut gemeinter populärwissenschaftlicher Lehrmaterialien, die daneben gehen, ist Legion.
- Und genau darum möchte ich dich dringend bitten, solche Änderungen, wie du sie vorgenommen hast, nicht ohne vorherige Diskussion zu machen. Zu Glück hat Benutzer:Wrongfilter das schnell wieder rückgängig gemacht.
- Thematisch zu deiner Frage: Heinz Pagels hat in seinem Meisterwerk "The cosmic code" (42 Jahre alt, aber immer noch aktuell) geschrieben: "the motion of individual particles is given by Newton's laws of motion [...] These laws of motion make no distinction between past and future [...] An atom knows nothing about aging. [...] Irreversible time, aging, the rotting of fruit are all illusions from the standpoint of microphysics. But the law of entropy increase in time gives an arrow, a direction which distinguishes the past and the future. [...] It is therefore impossible to derive the second law of thermodynamics [...] from only laws of Newton's mechanics." und dann äußert er sich zur makroskopischen Welt, in der man nicht einzelne Teilchen sondern Durchschnittswerte anschaut (am Beispiel von Rauch, der aus einer Tabakspfeife steigt, aufgenommen mit einer Filmkamera): "we would get suspicious that the film was being shown backwards if we saw wisps of smoke condensing instead of expanding [...] By washing out the microscoping information in favor of macroscopic information - eliminating the individual motion of particles in favor of the average - we have slipped into the extra assumption that connects Newton's mechanics to thermodynamics. There is no way to lose details microscopic information without increasing entropy. [...] our demand itself - the demand that there is a macroworld description, that there be a meaningful averaging of microworld information - that introduces the arrow of time.
- Ich weiß nicht, ob das die Sache klarer macht; mir war es eine Erleuchtung, als ich damals das Buch kaufte. -- Wassermaus (Diskussion) 11:24, 19. Mai 2024 (CEST)
- Es tut mir leid, aber ich bin noch nicht schlauer als vorher… ArchibaldWagner schrieb: „Aus dem ersten Satz deiner zitierten Textstelle folgt n.m.Verständnis klar: "viel Entropie = viel fehlende Information" und nicht das Gegenteil.“ Ganz unphysikalisch, rein logisch betrachtet wird im ersten Satz – mehr oder weniger – Entropie mit der Menge an – mehr oder weniger – Information gleichgesetzt … und daraus folgt dann: „Je größer die Anzahl infrage kommender Mikrozustände ist, desto mehr Information wird benötigt." Daraus „viel Entropie = viel fehlende Information“ zu machen ist nicht logisch, sondern nur das Gegenteil „viel Entropie = viel Information“. Sollte diese logische Konsequenz ggf. doch korrekt sein (und ArchibaldWagners Folgerung verdreht), weil die maximale Entropie eines Systems durch die maximal mögliche Zahl unterschiedlicher Mikrozustände beschrieben wird? Will sagen: Braucht man mehr Informationen bzw. gibt es mehr mögliche Mikrozustände in einem homogenen, vermixten Latte als im getrennten Zustand, der mehr Struktur aufweist? … Nach meinem bisherigen Verständnis hatte ich gedacht: Man braucht eine längere Beschreibung, um den Zustand des „Latte“ darzulegen, wenn er frisch aus der Kaffeemaschine kommt und kommt mit weniger Text aus, um den vermixten Zustand zu beschreiben. Daher meine ursprüngliche Annahme: „Viel Entropie = wenig Information (bwz. viel fehlende Information)“. Ich würde mich freuen, wenn ihr mich weiterhin ernst nehmen würdet und mir auf die Sprünge helft ;) --Fährtenleser (Diskussion) 15:55, 19. Mai 2024 (CEST)
- Nachtrag: Ludwig Boltzmann beschrieb Entropie (nach Spektrum-Lexikon) „durch die Anzahl der unterschiedlichen mikroskopischen Zustände, welche die Teilchen eines Stücks Materie einnehmen können, ohne dass sich dessen makroskopische Eigenschaften verändern.“ Heißt das: Bei einem homogenen Gasgemisch ändern auch extrem viele mikrosokopische Zustände nichts am makroskopischen Zustand, aber bei einem Gehirn reichen schon wenige Änderungen mikroskopischer Zustände, um das gesamte System zu verändern? --Fährtenleser (Diskussion) 16:19, 19. Mai 2024 (CEST)
- Das Gehirn lebt von einer permanenten Energiezufuhr, es ist weit weg von einem thermischen Gleichgewicht, selbiges würde der Tod bedeuten. Wie man hier eine Entropie definieren könnte, würde uns in eine lange Diskussion führen. In der Regel wird auch die Existenz einer Entropiefunktionen für Systeme außerhalb des Gleichgewichts postuliert, aber ihre Berechnung bzw. Definition nirgends expliziert; außer das System kann als Summe von vielen kleineren thermodynamischen Systemen verstanden werdem, die für sich jeweils in einem lokalen thermodynamischen Gleichgewicht stehen. Die Gesamtentropie wird dann als Summe der lokalen Einzelentropien ermittelt. So machen es z.B. die Meteorologen oder die Verfahrenstechniker, oder bei den Problemen aus der irreversiblen Thermodynamik. Man spricht dann auch von Entropiedichte oder Entropiefluss; der Mischprozess deiner mixed Latte liese sich so etwa modellieren (schön kompliziert mit lokalen Stoffströmungen und Partialdichtevariationen). Biophysiker modellieren vmtl. Zellen und Zellverbände als therm Systeme, um damit vmtl. erfolgreich Stoffströme zu beschreiben. Aber das Gehirn? Vielleicht um ein Wärmetransport zu verstehen, aber nicht, um damit gespeicherte Informationen zu erfassen? --ArchibaldWagner (Diskussion) 20:11, 19. Mai 2024 (CEST)
Maß der Unbestimmtheit
Lieber @Wrongfilter:, du hast folgende Ergänzung wieder gelöscht:
Die Entropie – auch als „Maß der Unbestimmtheit“ bezeichnet[3][4][5]
und das mit „Das ist keine Bezeichnung (oder gar Synonym), sondern bestenfalls eine Charakterisierung (siehe auch Diskussionen dazu). Die Belege sind in einem Artikel, der sich auf Entropie in der Physik konzentriert, nicht einschlägig.“ begründet. Ist die Quelle Kafitz nicht "physikalisch" genug? Ich glaube, es gäbe noch sehr viel mehr Quellen, die diese Umschreibung belegen. Ich möchte damit die Allgemeinverständlichkeit erhöhen und da erscheint mit "Unbestimmtheit" sehr gut geeignet (jedenfalls viel besser als "Unordnung"). Ich bezweifle deine Argumentation nicht, sondern möchte nur anregen, in diese Richtung eine Artikelverbesserung anzustreben.
- ↑ https://books.google.de/books?id=KF2CBwAAQBAJ&pg=PA253&dq=thermodynamik+entropie+unkenntnis&hl=de&sa=X&ved=0CCMQuwUwAGoVChMIvcDVjc6TxgIVCbgUCh3WnwDz#v=onepage&q=thermodynamik%20entropie%20unkenntnis&f=false
- ↑ https://www.chem.wisc.edu/deptfiles/genchem/netorial/modules/thermodynamics/entropy/entropy04.htm
- ↑ Sven Hoyer: Die Ordnung der Welt. Wie sich Menschen eine komplexe Welt einfach erklären und in ihr handeln. Inaugural-Dissertation, Otto-Friedrich-Universität Bamberg, 2006, PDF, S. 32.
- ↑ Willi Kafitz: ENTROPIE. Wachsende Bedeutung in Naturwissenschaft und Informationstheorie. Eine Übersicht in Beispielen. Oberhessische Naturwissenschaftlichen Zeitschrift, Volume 68, Gießen 2020, ISSN 0340-4498, PDF, S. 16–17.
- ↑ Victoria Polzer: Das Erhabene in der Philosophie der Gegenwalrt. Vom Text zur Technologie. Inauguraldissertation, Ruprecht-Karls-Universität Heidelberg, 2015, PDF, S. 152
--Fährtenleser (Diskussion) 09:35, 19. Mai 2024 (CEST)
- Wie in meinem Beitrag einen Abschnitt vorher (ich weiß nicht warum du einen neuen angefangen hast) gesagt, begrüße ich Wrongfilters Vorgehensweise ausdrücklich. — Wassermaus (Diskussion) 12:15, 19. Mai 2024 (CEST)
- Nach Sichtung einiger Lehrbücher, hier ein Zitat aus dem Lehrbuch für Lehramtskanditaten "Thermodyanmik .." 2. Auflage (2016) von Rainer Müller, dort findet sich auf S 305: „Kasten 11.1 – Entropie und Information – Es gibt eine weitere Interpretation der Entropie, die sich mit dem Boltzmann-Einstein Modell unmittelbar veranschaulichen lässt: die Entropie als fehlende Information über den Mikrozustand des Systems. [...] Die häufig verwendete Erläuterung des zweiten Hauptsatzes als »unausweichliche Zunahme der Unordnung« leitet in die Irre, wenn sie an Beispielen zur Informationsentropie illustriert wird (z.B. das immer unordentlicher werdende Kinderzimmer als Beispiel einer Entropievermehrung).“
- Das von mir sehr geschätzte Lehrbuch "Thermodynamics and an Introduction to Thermostatistics" (1985) von Herbert B. Callen hat in Kap. 17 einen Unterabschnitt 17.1 "Entropy as Measure of Disorder", wo die fehlende Information Disorder genannt wird. Aber bei diesem Begriff sehe ich wie R. Müller eher eine Verschleierung und keine Verbesserung der Verständlichkeit; wie eben auch bei dem in populärwissenschaftlichen Darstellungen nicht selten zu lesenden und zu hörenden Begriff vom dem Maß der Unbestimmtheit. Ohne ausholende, m.E. überflüssige, zusätzliche Erläuterung wird der Zusammenhang zwischen Information und Entropie dabei eher verschleiert als das Verstehen erleichtert. --ArchibaldWagner (Diskussion) 14:33, 19. Mai 2024 (CEST)
- Nachtrag zur Literatur: In dem Klassiker "Theorie der Wärme" (Nachdruck 1966) von R. Becker findet sich auf S 253 im § 73 der Unterabschnitt b) "Die Entropie als Maß unserer Unkenntnis". Nun steht schon in der Einleitung des Lemmas: „Maß für die Unkenntnis der Zustände aller einzelnen Teilchen“. Frage sollten wir hier wieder darauf Bezug nehmen, evtl. in der Kurzform: "höhere Entropie = mehr fehlende Information = größere Unkenntnis" ?
- Nachtrag: Leider sehe ich gerade, dass in dem Lemma zumindest zweimal der Begriff "Unordnung" bzw. "unordentlicher" gebraucht wird. Ich bezweifele, ob ein Glas mit einer homogenen Mischung im Vergleich zu einem anderen mit einer chaotischen Verteilung wirklich bei allen Lesern mit mehr Unordnung in Verbindung gebracht wird. Auch dürfte der Begriff weniger Information hier nicht sofort evident sein. Also hier wäre m.E. tatsächlich eine Verbesserung wünschenswert, um den Begriff Unordnung eher ganz zu verbannen, nachdem er in der Einleitung ja schon als problematisch dargestellt wurde. --ArchibaldWagner (Diskussion) 14:50, 19. Mai 2024 (CEST)
- Genaueres Nachlesen zeigt mir, dass die Problematik in den fraglichen Abschnitten ganz ordentlich erklärt wird. Ich stelle aber die Frage, ob dieser Bezug zu ordentlicher bzw. unordentlicher wirklich hier sinnvoll und für das Verstehen wichtig ist, oder nicht eher den Text unnötig verlängert und damit den Leser zusätzlich belastet. ArchibaldWagner (Diskussion) 15:39, 19. Mai 2024 (CEST)
- Im ersten Beitrag geht es um die Erklärung von Entropie über die Informationsmenge, in diesem um die konkrete Verwendung des Ausdrucks "Unbestimmtheit" in diesem Zusammenhang. Ist nicht ganz identisch… Übrigens: Ich habe Wrongfilters Vorgehensweise nicht kritisiert. Ich möchte es nur besser verstehen. Wenn du aus einem Lehrbuch zitierst: „Entropie als fehlende Information über den Mikrozustand des Systems“ ist das wieder deckungsgleich mit meinem ursprünglichen Verständnis (vermixter Latte = mehr Entropie = mehr fehlende Information = weniger Information zur Beschreibung nötig), oder? Die drei von mir angeführten Quellen zum Bezug Entropie/Unbestimmtheit sind nicht populärwissenschaftlich (und ich denke, es gibt noch viele mehr davon). Das mit der "Unkenntnis" liest man auch häufig bei Definitionen von Komplexität. Aber sowohl Komplexität als auch Entropie auf ein Wahrnehmungsproblem zu reduzieren ist sicher auch nicht der Weisheit letzter Schluss. Ich glaube, den Absatz Entropie als „Maß der Unordnung“ solltest du nochmals genauer lesen, denn da wird ja gerade die falsche Assoziation von Unordnung ganz richtig thematisiert. --Fährtenleser (Diskussion) 16:10, 19. Mai 2024 (CEST)
- Erst einmal nur ganz kurz zu »= weniger Information zur Beschreibung nötig«: im Gegenteil, hier geht es um die zusätzlich benötigte Information, um den Mikrozustand exakt zu beschreiben; vereinfacht klassisch gesprochen um die genaue Angabe der Positionen und Impulse aller Atome - oder quantenmechanisch um die Spezifikation eines reinen Zustandes in einem "exorbitant großen" Hilbertraumes.
- Weiter ein Zitat aus dem Buch von H. B. Callen p 27: „It must be stressed that we postulate the existence of the entropy only for equilibrium states and that our postulate makes no reference whatsoever to nonequilibrium states. ...“ Dieser Satz ist und war zentral für mein Verstehen der Lehrbuchliteratur, er wird aber leider allzu oft (auch hier im) Lemma unterschlagen. Auch was die statistische Definition mit der Anzahl der Mikrozustände, die mit dem Makrozustand verträglich sind, angeht, gilt dieses für Gleichgewichtszustände - deine mixed Latte ist erst einmal nicht im Gleichgewichtszustand. – Solange Kaffee und Latte getrennt waren, können wir sie uns zumindest jede für sich im therm. Gleichgewicht denken und die Gesamtentropie als Summe der Einzelentropien berechnen. Nach dem Mixen stellt sich mit Geduld nach einer gewissen Zeit ein neues Gleichgewicht deiner mixed Latte ein. Für dieses System ist dann die Entropie größer als die Gesamtsumme der vorher ungemixten beiden Einzelsysteme. Mikroskopisch gesehen ist die Anzahl der Mikrozustände, die mit den makroskopischen Parametern der mixed Latte verträglich sind, größer ist als die Summe aller entsprechenden Mikrozustände der beiden Systeme vor dem Zusammenmischen. Bei Callen finden sich dazu eine Reihe von einfachen Beispielen nachgerechnet, nach meiner Erinnerung. --ArchibaldWagner (Diskussion) 19:06, 19. Mai 2024 (CEST)
- Okay, spannend! Dann ist Entropie ein Maß für die Menge der Gleichgewichszustände in einem System? … Warum ist die Summe der Mikrozustände der beiden im Gleichgewichtszustand definierten Teile des Café latte geringer als beim späteren vermixten Gleichgewichtszustand? Liegt das daran, dass es zwei "getrennte" Bereiche gibt, die als Systemkomponenten zusammen nicht im Gleichgewicht sind, sodass dieser Unterschied sozusagen von der Summe abgezogen wird? Hast du nochmals Lust, zu antworten? ;) Danke schonmal! --Fährtenleser (Diskussion) 07:55, 20. Mai 2024 (CEST)
- Vorsicht! mit: „Dann ist Entropie ein Maß für die Menge der Gleichgewichszustände in einem System?“ das ist so nicht richtig. Die Entropie berechnet sich als Summe der Entropien der lokalen "infinitesimalen" Systeme, die als im Gleichgewicht angenommen werden – Achtung! bei den lokalen Systemen handelt es sich immer noch um Bereiche mit zig-Tausenden und meist noch viel viel mehr atomaren Elementen!. Beachte was @Wassermaus oben schrieb: „Allerdings: das Thema Entropie ist eines der schwierigsten Konzepte in der Physik, da kann man schnell auf die falsche Spur kommen.“
- „Liegt das daran, dass es zwei "getrennte" Bereiche gibt, die als Systemkomponenten zusammen nicht im Gleichgewicht sind“ diese Aussage ist richtig! Nun muss man aber auf die atomare Modellebene gehen (jeweils vor und nach der Mischung) und jeweils die Anzahl der Mikrozustände berechnen, die mit den makroskopischen Nebenbedingungen verträglich sind, z.B. die gleiche innere Energie vor und nach der Mischung. Mit rechnerisch handhabaren Modellen, z.B. ideales Gas, ergeben sich für den gemischten Zustand, dann tatsächlich die viel größere Anzahl von Mikrozuständen für den gemischen Endzustand. Ohne mikroskopische Modellierung kommt der phenomenologische Ansatz aus, beide Verfahren haben in der Praxis ihre Bedeutung.
- Bücher der Thermodynamik brauchen meist ziemlich viel Vorbereitung und Raum, um die Entropie einzuführen. Ein Buch, das konsequent die Thermodynamik auf Grundlage der statistischen Physik entwickelt, ist "Thermodynamik für das Bachelorstudium" (2018) von Klaus Stierstadt. Er führt die Begriffe an wenigen einfachen Beispielen ein. Dort findest Du im Kapitel 2 "Was ist Temperatur" insbesondere im Abschnitt 2.2 "Temperatur und Energieverteilung" eine gut verständliche Darstellung des Zusammenhangs der statischen Verteilung der Mikroszustände und der Temperatur. Dies ist eine gute Vorbereitung, um in Kap. 4 die statistische Definition der Entropie einzuführen.
- Bei H.B. Callen wird im Abschnitt 1-9 "The Basic Problem of Thermodynamics" aufgezeigt, wie man ausgehend von zwei Teilsystemen im Gleichgewicht auf die Entropie des Gesamtsystems schließt und damit auf Aussagen auch über nicht im Gleichgewicht befindliche Systeme schließen kann.
- Zur Warnung und Ermunterung weiterer Lektüre, noch ein Zitat aus dem 4 bändigen Werk "Einführung in die Grundlagen der theoretischen Physik" von Günther Ludwig (Band 4 XIV § 2.3 "Der Satz von der Vermehrung der Entropie" S 89): „Das Problem der Entropiedefinition für Nichtgleichgewichtszustände ist ein sehr tiefliegendes und wird oft etwas verharmlost, indem man gleich zu »speziellen« Nichtgleichgewichtszuständen übergeht. Auf keinen Fall läßt sich allgemein eine Entropie auf die Art und Weise einführen, wie dies in §1.4 [siehe hierzu auch im Lemma Abschnitt 2.2] geschehen ist. Dies folgt schon allein daraus, daß es für Nichtgleichgewichtszustände im allgemeinen keine Temperaturdefinition gibt. Was bedeutet dann eigentlich der Satz von der Vermehrung der Entropie? ...“
- Deine Fragen und Antworten zeigen mir, dass es recht schwierig ist, in einem Lexikon den Begriff der Entropie richtig und allgemeinverständlich darzustellen und dabei die Leser nicht in die Irre zu führen. Der Gebrauch von Entropie in der Umgangssprache dient meist auch nicht einer besseren Aufklärung. Welche physikalische Kenntnisse darf ich bei den Lesern eigentlich voraussetzen?
- M.E. fehlt hier im Lemma ein Abschnitt über das, was bei H.B.Callen unter "The Basic Problem of Thermodynamics" abgehandelt wird. --ArchibaldWagner (Diskussion) 10:21, 20. Mai 2024 (CEST)
- Vielen Dank für deine ausführlichen Schilderungen! Ich verstehe jetzt, dass "Maß der Unbestimmtheit" (vielleicht etwas besser als Unordnung) und "Maß der Unordnung" zu viele Assoziationen auslösen, die dem Konzept der Entropie zuwiderlaufen. Allerdings bin ich nach wie vor der Meinung, dass Wikipedia auch bei solchen sehr spezifischen Fachtermini eine allgemeinverständliche Beschreibung liefern sollte, auch wenn sie die Definition nicht präzise wiedergeben kann. So wird es ja im letzten Abschnitt der Einleitung versucht. Doch hier liegt die Krux am Begriff der Information, der ja wie "Unordnung" mit etlichen irreführenden Assoziationen verbunden ist (wie man bei meinen ursprünglichen Vorstellungen unschwer erkennen kann;) Ich schlage daher mal ganz mutig vor, den Satz „Richtiger ist es, man begreift die Entropie …“ zum Beispiel wie folgt fortzuführen:
- „… als annähernde Berechnung der Wahrscheinlichkeit, wie nahe sich ein System aufgrund der Anzahl und Verteilung energetischer Zustände auf atomarer Ebene am energetischen Gleichgewichtszustand befindet (in dem keine Energieflüsse mehr stattfinden). Je mehr Systemelemente es gibt, die energetische Unterschiede zu benachbarten Elementen aufweisen, desto geringer ist die Entropie. Je weniger unterschiedliche Bereiche abgegrenzt werden können und je größer damit die Verteilungsmöglichkeiten der Energie im System sind, desto größer ist die Entropie.“ --Fährtenleser (Diskussion) 08:00, 21. Mai 2024 (CEST)
- Ich halte es für unmöglich, einen Begriff wie die Entropie für Leser ohne entsprechende Vorkenntnisse korrekt und umfassend in 2-5 Sätzen zu definieren.
- Was ich befürworte, ist jedem Leser zumindest zu erklären, in welchem Kontext der Begriff benutzt wird, und ihm ein paar praktische Anwendungen nahe zu seinem Erfahrungsbereich aufzuzeigen.
- Gerade habe ich mir die Einleitung wieder durchgelesen. Mein Eindruck dabei, die Einleitung macht das ziemlich gut. Für Leser ohne ein besonderes zusätzliches physikalische Interesse sollte die Einleitung ausreichend sein.
- OK, du hälst den letzten Absatz der Einleitung für problematisch. Aber dein Versuch in Ehren, ich sehe da keine Verbesserung. Das liegt wohl daran, dass der letzte Absatz schon detailiertere Vorkenntnisse über die mikroskopische Zustandsbeschreibung eines thermodynamischen Sytems erfordert. Und damit ist er nicht mehr für jeden Leser verständlich. Sollten wir den Absatz daher besser aus der Einleitung entfernen?
- Die Ausführungen nach der Einleitung sind für Leser, die Zeit, den Willen und Vorkenntnisse haben, sich intensiver mit dem Konzept auseinanderzusetzen. Hier wären nach meiner Sicht weitere Verbesserung zur Verständlichkeit und Genauigkeit möglich. --ArchibaldWagner (Diskussion) 09:25, 21. Mai 2024 (CEST)
- Ich denke sogar, gerade der letzte Absatz der Einleitung beschreibt das schwierige Thema gut. Das Wort "Information" ist dem fachlich interessierten Leser durchaus ein Begriff: es ist etwas, was sich mit Bits beschreiben und sogar quantifizieren lässt. Bei Fährtenlesers Vorschlag sehe ich keine Verbesserung, sondern im Gegenteil größere Schwierigkeiten: was heißt "näherungsweise"? Was heißt in diesem Zusammenhang "Wahrscheinlichkeit"? (Volumen des Phasenraums?) Warum die konkrete Beschränkung auf atomare Ebene und auf "Energieflüsse"? Energieflüsse zwischen was? Welche Energie? Was sind "Systemelemente"? Und was sind "benachbarte" Elemente? Hier wäre jede Menge Begriffserklärung erforderlich.
- Übrigens kommt mir "Menge an Information, die benötigt würde, um aus der Kenntnis des vorliegenden Makrozustandes des Systems den tatsächlich vorliegenden Mikrozustand bestimmen zu können" sehr bekannt vor - irgend einer von den Großen (Feynman? Pagels? Penrose?) hat das geschrieben, da bin ich sicher. Ich muss mal sehen ob ich die Quelle finde.
- Fazit: der letzte Abschnitt ist meines Erachtens sehr gut - gerade auch, was die Zielgruppe von Wikipedia betrifft.
- Wassermaus (Diskussion) 11:00, 21. Mai 2024 (CEST)
- Das ist schade! Obwohl du ganz gewiss viel näher am Verständnis des Konzeptes bist als ich, sehe ich das nicht so absolut wie du und halte es für möglich und geraten, eine einfache allgemeine Beschreibung hinzuzufügen … und zwar ohne den Begriff der Information, der hier nur verkompliziert: Entropie entspricht doch – trotz aller Abstraktheit – einem realen Bereich unserer Erfahrungswelt, platt gesagt: Batterie leer, Kaffee kalt, Mensch tot = Entropie total; Batterie halb leer, Kaffee lauwarm, Mensch schwer krank = Entropie nimmt zu usw. Mir ist klar, dass ein Physiker es genau wissen will und muss, was dabei im Innern der Materie vor sich geht, aber solche Begriffe sollten nicht zu „modernem Geheimwissen“ werden. Vielleicht bewusst noch kürzer, um nicht den Anschein einer "echten" Definition zu wecken, etwa wie ich es irgendwo gefunden habe als: „Entropie ist die Anzahl der unterschiedlichen Wege, auf die ein System seine Energie verteilen kann.“ oder aus [3]: „Entropie ist die Wahrscheinlichkeit, mit der Energie in der mikroskopischen Welt verteilt ist.“ Und wie gesagt: Bitte raus mit dem Bezug zur Information (bwz. nach unten verlagern)… --Fährtenleser (Diskussion) 12:32, 21. Mai 2024 (CEST)
- Wassermaus war schneller … egal, Information ist doch nicht weniger erklärungsbedürftig als Wahrscheinlichkeit! Bitte alle nochmals freundlich nachdenken ;) --Fährtenleser (Diskussion) 12:34, 21. Mai 2024 (CEST)
- Okay, spannend! Dann ist Entropie ein Maß für die Menge der Gleichgewichszustände in einem System? … Warum ist die Summe der Mikrozustände der beiden im Gleichgewichtszustand definierten Teile des Café latte geringer als beim späteren vermixten Gleichgewichtszustand? Liegt das daran, dass es zwei "getrennte" Bereiche gibt, die als Systemkomponenten zusammen nicht im Gleichgewicht sind, sodass dieser Unterschied sozusagen von der Summe abgezogen wird? Hast du nochmals Lust, zu antworten? ;) Danke schonmal! --Fährtenleser (Diskussion) 07:55, 20. Mai 2024 (CEST)
- Im ersten Beitrag geht es um die Erklärung von Entropie über die Informationsmenge, in diesem um die konkrete Verwendung des Ausdrucks "Unbestimmtheit" in diesem Zusammenhang. Ist nicht ganz identisch… Übrigens: Ich habe Wrongfilters Vorgehensweise nicht kritisiert. Ich möchte es nur besser verstehen. Wenn du aus einem Lehrbuch zitierst: „Entropie als fehlende Information über den Mikrozustand des Systems“ ist das wieder deckungsgleich mit meinem ursprünglichen Verständnis (vermixter Latte = mehr Entropie = mehr fehlende Information = weniger Information zur Beschreibung nötig), oder? Die drei von mir angeführten Quellen zum Bezug Entropie/Unbestimmtheit sind nicht populärwissenschaftlich (und ich denke, es gibt noch viele mehr davon). Das mit der "Unkenntnis" liest man auch häufig bei Definitionen von Komplexität. Aber sowohl Komplexität als auch Entropie auf ein Wahrnehmungsproblem zu reduzieren ist sicher auch nicht der Weisheit letzter Schluss. Ich glaube, den Absatz Entropie als „Maß der Unordnung“ solltest du nochmals genauer lesen, denn da wird ja gerade die falsche Assoziation von Unordnung ganz richtig thematisiert. --Fährtenleser (Diskussion) 16:10, 19. Mai 2024 (CEST)