Willkommen, Gast
Benutzername: Passwort: Angemeldet bleiben:
  • Seite:
  • 1
  • 2

THEMA:

Entropie 06 Feb 2022 20:48 #99687

In einem kräftefreien geschlossenen Raum befinden sich schön geordnet auf der einen Seite weiße Kugeln und auf der anderen Seite schwarze Kugeln. Würde eine Unordnung entstehen? Nein, denn der Reibungswiderstand ist zu groß. Würde man das gesamte System in Bewegung setzen, z.B. vibrieren, würde bei zunehmender Vibration eine Unordnung bei den Kugeln entstehen. Das ist jedoch lediglich eine Sache der Statistik. Denn wenn die Unordnung am größten ist, wird sie wieder abnehmen. Es könnte sogar wieder die Ordnung eintreten, wie sie am Anfang war. Das hat jedoch, so denke ich, nichts mit Entropie zu tun. Das ist eine statistische Angelegenheit. Jede Variation unter den Kugeln kann ständig entstehen. Jede Variation ist gleichberechtigt mit allen anderen Variationen. Die absolute Ordnung und auch die absolute Unordnung sind nicht bevorzugt relativ zu allen anderen Variationen.

Aber, wie ist das bei Gasen. Wenn man anstatt den Kugeln 2 verschiedene Gase nimmt, dann nimmt die Unordnung zu. Hat sie den höchsten Wert erreicht, bleibt die Unordnung. Oder könnte es auch sein, dass die Gase sich auch wieder anders ordnen, sogar bis zur absoluten Ordnung. Könnte das sein, wenn nicht, warum nicht? Wo unterscheidet verschiedene Gasmoleküle und verschiedene Kugeln?
Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 06 Feb 2022 20:57 #99689

  • Pemrod
  • Pemrods Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Beiträge: 2662
  • Dank erhalten: 719

Wo unterscheidet verschiedene Gasmoleküle und verschiedene Kugeln?


Das Prinzip ist zwar das Gleiche, aber:

The entropy of a substance increases with its molecular weight and complexity and with temperature. The entropy also increases as the pressure or concentration becomes smaller. Entropies of gases are much larger than those of condensed phases.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Pemrod.

Entropie 06 Feb 2022 21:07 #99690

The entropy of a substance increases with its molecular weight and complexity and with temperature. The entropy also increases as the pressure or concentration becomes smaller. Entropies of gases are much larger than those of condensed phases.

Inwieweit beantwortet das die Frage, ob bei Gasen ebenso wieder eine Ordnung entstehen könnte wie bei den Kugeln?
Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 06 Feb 2022 21:25 #99693

  • Pemrod
  • Pemrods Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Beiträge: 2662
  • Dank erhalten: 719

Inwieweit beantwortet das die Frage, ob bei Gasen ebenso wieder eine Ordnung entstehen könnte wie bei den Kugeln?


Könnte schon, aber wenn man sich die Wahrscheinlichkeit dafür ausrechnet kommt man drauf dass die nicht besonders hoch ist, also drauf warten würde ich nicht. Kleinere Druck und Dichteschwankungen können schon eher vorkommen, aber je kleiner der Bereich auf den sich alles komprimieren soll desto unwahrscheinlicher wird es.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Pemrod.

Entropie 06 Feb 2022 21:34 #99694

Auch bei den Kugeln ist die spontane Entstehung einer Ordnung sehr unwahrscheinlich. Bei Gasmolekeln hat man es mit sehr großen Zahlen zu tun. Da ist eine spontane Ordnung noch unwahrscheinlicher. Es läuft immer auf die Anzahl der Realisierungsmöglichkeiten hinaus.

Angenommen du hast 10 Kugeln und 2 Kammern. Wie groß sind die Realisierungsmöglichkeiten für alle Kugeln in Kammer A? Nur eine Realsiserungsmöglichkeit.

9 Kugeln in A und eine in B? 10 Möglichkeiten.
8 Kugeln in A und 2 in B? 10 * 9 / 2 = 45 Möglichkeiten
7 Kugeln in A und 3 in B? 10 * 9 * 8 / (3 * 2) = 120 Möglichkeiten
6 Kugeln in A und 4 in B? 10 * 9 * 8 * 7 / (4 * 3 * 2) = 210 Möglichkeiten
5 Kugeln in A und 5 in B? 10 * 9 * 8 * 7 * 6 / (5 * 4 * 3 * 2) = 252 Möglichkeiten

Entropie S = k * ln omega
k ist die Boltzmann-Konstante und omega die Anzahl der Realisierungsmöglichkeiten. Wenn du deinen Kasten schüttelst und dann inne hältst und zählst, dann wirst du meistens 5 zu 5 oder 6 zu 4 vorfinden.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 06 Feb 2022 21:36 #99695

Das ist jedoch lediglich eine Sache der Statistik.


Ja. Der Begriff der Entropie ist über Statistik definiert. Also nicht lediglich im Sinne von am Rande oder unwichtig, sondern essentiell.

Die absolute Ordnung und auch die absolute Unordnung sind nicht bevorzugt relativ zu allen anderen Variationen.


Das stimmt so nicht. Es geht um die Anzahl Möglichkeiten und dementsprechend um Wahrscheinlichkeiten, also um Statistik bzw. Stochastik. Obwohl alle Verteilungen gleich möglich sind, gibt es viel weniger Anordnungen, wo alle Kugeln gleicher Farbe nebeneinander liegen als es Anordnungen gibt, wo sie farblich durcheinander liegen. Die Wahrscheinlichkeit p nach der Laplace-Formel
p = Anzahl günstiger Möglichkeiten geteilt durch die Anzahl aller Möglichkeiten
ist bei den wenigen, für farbliche Ordnung günstigen Zustände viel kleiner als bei vielen, für farbliche Unordnung günstigen. Daher wird man einen farblich geordneten Zustand viel seltener antreffen als einen ungeordneten.

könnte es auch sein, dass die Gase sich auch wieder anders ordnen, sogar bis zur absoluten Ordnung. Könnte das sein, wenn nicht, warum nicht?


Es könnte sein, ja. Aber es ist nach obiger Formel so extrem unwahrscheinlich, dass es praktisch nie eintritt. Das ist es, was die Entropie ausmacht. Sie nimmt zu, weil es eben viel mehr ungeordnete Zustände gibt als geordnete. Der Zufall wird (fast) immer eine größere Unordnung herstellen, weil eine größere Ordnung einfach sehr viel unwahrscheinlicher ist.

Du kannst z.B. ein Kartendeck mit Kreuz, Pik, Herz, Karo neu kaufen und die Karten sind dann immer nach Farbe und Kartenwert geordnet. Beim Mischen geraten sie nach Zufallsprinzip durcheinander und es ist durchaus möglich, dass sie irgendwann zufällig wieder genau so geordnet sind wie am Anfang. Weil das aber der einzig günstige Zustand ist für die Ordnung und es extrem viel mehr ungeordnete Zustände gibt, wirst du wohl immer einen der vielen ungeordneten Zustände antreffen: Die Entropie Unordnung im Kartendeck hat zugenommen.

Nachtrag: Die Entropie hat aber nicht zugenommen. Sie entspricht der Anzahl möglicher Mikrozustände (Verteilungen) im Kartendeck und ist für einen Makrozustand (z.B. für ein Skatblatt mit genau 32 Karten) immer gleich. Quelle: Prof. Dr. Gerd Ganteför.
Also sprach das Photon: Wo wir sind ist vorne! Und sollten wir mal hinten sein, dann ist hinten vorne!

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Steinzeit-Astronom.

Entropie 06 Feb 2022 22:11 #99697

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770

Obwohl alle Verteilungen gleich möglich sind, gibt es viel weniger Anordnungen, wo alle Kugeln gleicher Farbe nebeneinander liegen als es Anordnungen gibt, wo sie farblich durcheinander liegen.

Es kommt auf die Fragestellung an. Malt man die Kugeln mit zwei Farben abwechselnd an, dann ist die Frage anders als wenn man alle Kugeln durchnummeriert. Egal welche Konstellation man sich aussucht, ist diese höchst unwahrscheinlich. Interessant ist es nur, wenn man Gruppen von Konstellationen, wie bei den zweifarbigen Kugeln, betrachtet.

Bei der Entropie "betrachtet" man zwar keine Konstellationen, sondern diese unterscheiden sich in ihrer Wahrscheinlichkeit automatisch, da sich die einzelnen Teilchen nicht unterscheiden. Man kann daher die seltenen Konstellationen von den häufigen unterscheiden und erhält eine Erwartung der ungefähren Verteilung. Gerade die häufigen Konstellationen sehen recht ähnlich aus, ungefähr homogene Dichte. Dies liegt daran, dass die Teilchen interagieren und daher die Geschwindigkeiten der Boltzmannverteilung entsprechen. Daher ist es extrem unwahrscheinlich, dass sich Verklumpungen bilden, und sich die gesamte Luft in einer Zimmerecke versammelt.

Bei einem Festkörper oder Materieklumpen im All ist das natürlich anders. Hier wirken em.Kräfte oder gravitative Kräfte und diktieren ein anderes Erscheinungsbild hoher Entropie.
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 07 Feb 2022 08:17 #99703

Ist Entropie beschränkt auf die Thermodynamik? Der 2. Hauptsatz ist klar. Die Entropie nimmt immer zu. Sie kann nie abnehmen. Gilt das auch außerhalb der Thermodynamik? Mir kommt vor, dass z.B. das Beispiel mit dem Stapel nummeriertem Papier, das man immer wieder fallen lässt, keine Entropie gilt. Das ist lediglich eine statistische Angelegenheit. Alle Zustände sind gleichberechtigt. Sowohl die absolut geordneten Blätter als auch die absolut ungeordneten Blätter. Jeder Zustand ist in jeder Richtung möglich.
Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von badhofer.

Entropie 07 Feb 2022 09:01 #99704

Die Entropie nimmt immer zu.


Ich denke richtig wäre: In einem abgeschlossenen System nimmt zuerst die Unordnung zu und dann bleibt sie im Laufe der Zeit gleich. Es gibt in diesem Zustand Veränderungen, mal etwas mehr oder weniger Ordnung. Die Entropie wird dann „im Normalfall“ etwa konstant mit kleinen Veränderungen.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 09:54 #99705

Mir kommt vor, dass z.B. das Beispiel mit dem Stapel nummeriertem Papier, das man immer wieder fallen lässt, keine Entropie gilt.

Bei einem Stapel nummeriertem Papier gilt auch dasselbe Prinzip „Entropie“. Zufälle bestimmen die Zustände und Zunahme der Unordnung, genauso wie bei einem Gas.
Aber beim Papier ist die (etwa) höchste Unordnung sehr wahrscheinlich beim ersten Wurf (z.B. 500 Meter hoch zum Boden) erreicht, beim Gas wird es viel mehr Aktionen von totaler Ordnung zur (normalen, etwa maximalen) Unordnung benötigt.

Beim Papier gibt es nur zwei Zustände (oben und unten und jeder Zustand ist gleich wahrscheinlich), bei Gasmolekülen mehrere unterschiedliche Geschwindigkeiten, und die Wahrscheinlichkeit für die Verteilung der Geschwindigkeiten ist nicht gleich.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 09:57 #99706

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 10:12 #99707

  • aHaBotX
  • aHaBotXs Avatar
  • Offline
  • Forum Spezialist
  • Forum Spezialist
  • CC BY-NC 4.0
  • Beiträge: 1456
  • Dank erhalten: 90
Im Nachfolgenden Bild seht ihr einen Geschlossenen fast vollkommen Leeren Raum ohne Fenster in dessen Mitte eine Kugel bombe steht.

Sieht geordnet aus!

Nun das selbe Bild aus Sicht des Universums

Das Bild zeigt verschiedene zustände ist also aus Sicht des Universums nicht gleichmäßig verteilt

Ein, Aus Sicht des Universums, Geordneter zustand würde doch so aussehen.


Und Optimal wäre doch das hier:
nullius in verba

"Essentially all models are wrong, but some are useful." George E.P. Box

"Wenn es nur eine Wahrheit gäbe, warum können wir dann 1000 Bilder zum gleichen
Thema malen?" Pablo Picasso (1881-1973)

"Zu nah an der Wahrheit, Zu nah am Leben, Zu penetrant um Ignoriert zu werden." Böhse Onkelz (1996)

Only This eXist. OTX = Quant = Römisches Dodekaeder = real Atom

Quantenwelt = Kosmisches Feld(Äther = RaumZeit = Vakuum)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 10:27 #99709

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770

keine Entropie gilt. Das ist lediglich eine statistische Angelegenheit. Alle Zustände sind gleichberechtigt.

Das ist in diesem Bereich das Gleiche. Und ich halte wenig davon, wie es als Paradebeispiel angeführt wird, dass die Ziffernfolge an der hundertsten Nachkommastelle von π eine geringere Entropie hätte als wahllose Ziffern, denn im Konstrukt von π bzw dessen Ziffernfolge steckt schon eine sehr hohe Informationsdichte. In diesem Sinne gäbe es gar keine Ziffernfolge mit hoher Entropie, denn ich kann jede beliebige Ziffernfolge irgendwo in den Nachkommastellen von π oder e oder ²3 finden, ich muss "nur" wissen wo, und dieses "wo" beinhaltet sehr hohe Entropie.

Andererseits muss man zwischen zwei Begriffen unterscheiden, und ich bin mir nicht sicher, ob das bei der Entropie berücksichtigt wird:
Es ist (relativ) einfach, die fragliche Ziffernfolge von den Nachkommastellen abzulesen, wenn man weiß, an welcher Stelle. Es ist hingegen viel aufwendiger, wenn man die Stelle erst selber finden soll. Die Entropie der Information hängt also auch von der Information über die Information ab ....

Aber vielleicht werfe ich auch einiges durcheinander, Entropie ist so gar nicht mein Tagesgeschäft.
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 07 Feb 2022 10:46 #99710

Andererseits muss man zwischen zwei Begriffen unterscheiden, und ich bin mir nicht sicher, ob das bei der Entropie berücksichtigt wird:

Ich werfe einen Stapel geordneter Blätter einen Tag lang in eine Mischmaschine. Dann nehme ich den Stapel heraus und stelle fest, dass die Unordnung um genau 50 % zugenommen hat. Danach werfe ich diesen zu 50 % ungeordneten Stapel wieder einen Tag lang in die Mischmaschine. Dann nehme ich diesen Stapel wieder heraus. Die Wahrscheinlichkeit, dass die Unordnung weiter zugenommen hat und die Wahrscheinlichkeit, dass die Unordnung wieder abgenommen hat, ist genau 50: 50

Was hat das mit Entropie im Sinne der Thermodynamik zu tun?
Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 11:41 #99711

@Badhofer

Zunächst zur Entropie im Sinne der Thermodynamik: Der 2. Hauptsatz sagt aus, dass für reversible isotherme Zustandsänderungen an einem System gilt S = Q/T . Also die Entropieänderung des System ist gleich der ausgetauschten Wärme geteilt durch die Temperatur, sofern der Prozess isotherm durchgeführt wurde. Bei Prozessen die reversibel adiabatisch durchgeführt werden, ändert sich die Entropie des Systems nicht.

Für Prozesse die gemäß des 2. HS irreversibel durchgeführt werden, steigt immer die Gesamtentropie aus der des Systems und seiner Umgebung. Das lässt sich aber auch heute noch nur schwer berechnen.

publishup.uni-potsdam.de/opus4-ubp/front...3/file/schmidt02.pdf

Während die Volumenarbeit bei reversibler Prozessführung (Druck und Gegendruck differieren infinitesimal und der Prozess ist durch eine
infinitesimale Änderung der Bedingungen umkehrbar) einfach zu berechnen ist [1], sind Berechnungen für irreversible Prozesse (Druck und Gegendruck unterscheiden sich merklich) nur näherungsweise möglich.


Außerdem wird die Allgemeingültigkeit des 2. HS in der modernen Physik immer wieder bestritten. Der 2. HS ist durch erschreckend wenig Experimente belegt. Sogar der Wikipedia-Artikel zum Perpetuum mobile macht dazu einige klare Aussagen. Hier einige Gedanken und Ideen von mir bzgl. der Schwachstellen des 2. HS und WO neue Experimente sinnvoll wären.

umwelt-wissenschaft.de/forum/neues-aus-d...baren-energiefluesse

Bzgl. der Verknüpfung von 2. HS und Information hatte ich dir oben schon eine Beispielrechnung gegeben und die entscheidende Formel genannt S = k ln(omega)

Das darf man gleichsetzen, also kT ln(omega) = Q

Außerdem weiß man, dass die Mindestenergie E um n Bit zu verarbeiten E = n kT ln(2) beträgt.

Aus diesem Verständnis erwächst dann auch ein Verständnis, warum es bzgl. der Entropie einen Unterschied macht, ob die Spins in einem Festkörper parallel oder antiparallel zu einem externen Feld angeordnet sind. (Siehe Link oben)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 11:47 #99713

Ich werfe einen Stapel geordneter Blätter einen Tag lang in eine Mischmaschine. Dann nehme ich den Stapel heraus und stelle fest, dass die Unordnung um genau 50 % zugenommen hat.

Wie stellst du das fest? Was ist "genau 50%" und was ist "genau 100%"? Angenommen es sind 100 Blätter und findest die Blätter 51...100 numerisch geordnet, gefolgt von den Blättern 1...50 numerisch geordnet. Es sind also zufällig nur die erste und die zweite Hälfte vertauscht. Wieviel % Unordnung wäre das dann, deiner Meinung nach?

Man muss also zunächst definieren, was man überhaupt unter Ordnung versteht. Jeden Zustand des Papierstapels kann man im Prinzip gleichberechtigt als geordneten Makrozustand ansehen. Wenn man nun eine bestimmte Reihenfolge, z.B. 1...100 als geordneten Makrozustand definiert, dann gibt es auch nur eine Möglichkeit, wie der mit den vielen möglichen Mikrozuständen (Blatt x an Position y etc.) verwirklicht werden kann.

Prof. Dr. Gerd Ganteför erklärt den Begriff der Entropie anschaulich im Zusammenhang mit dem Zeitpfeil, auf jeden Fall sehenswert zum Verständnis.

Was hat das mit Entropie im Sinne der Thermodynamik zu tun?


Es ist halt das gleiche Prinzip, ob Papierstapel, Spielkartendeck, Gaskartusche oder was immer. Es geht immer um die möglichen zufälligen Anordnungen der Objekte im Raum oder in der Ebene oder bei den nummerierten Blättern quasi auf einer Linie.
Also sprach das Photon: Wo wir sind ist vorne! Und sollten wir mal hinten sein, dann ist hinten vorne!

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 12:40 #99715

Ich werfe einen Stapel geordneter Blätter einen Tag lang in eine Mischmaschine. Dann nehme ich den Stapel heraus und stelle fest, dass die Unordnung um genau 50 % zugenommen hat. Danach werfe ich diesen zu 50 % ungeordneten Stapel wieder einen Tag lang in die Mischmaschine. Dann nehme ich diesen Stapel wieder heraus. Die Wahrscheinlichkeit, dass die Unordnung weiter zugenommen hat und die Wahrscheinlichkeit, dass die Unordnung wieder abgenommen hat, ist genau 50: 50


Nehmen wir an, die Seiten werden gemischt und kommen zum Schluss aufeinander, und wir haben insgesamt vier Seiten. Es gibt dann folgende 24 Möglichkeiten:
1-2-3-4, 1-2-4-3, 1-3-2-4, 1-3-4-2, 1-4-2-3, 1-4-3-2,
2-1-3-4, 2-1-4-3, 2-3-1-4, 2-3-4-1, 2-4-1-3, 2-4-3-1,
3-1-2-4, 3-1-4-2, 3-2-1-4, 3-2-4-1, 3-4-1-2, 3-4-2-1,
4-1-2-3, 4-1-3-2, 4-2-1-3, 4-2-3-1, 4-3-1-2, 4-3-2-1

Vier in richtiger Reihenfolge: 1 Mal (totale Ordnung)
Drei oder mehr in richtiger Reihenfolge: 3 Mal
Zwei oder mehr in richtiger Reihenfolge: 11 Mal
eine oder keine in richtiger Reihenfolge: 13 Mal (totale Unordnung)

Wie wir sehen, sind die Wahrscheinlichkeiten nicht gleich verteilt. Wenn gar keine oder eine Seite passt z.B. „4-2-3-1“, dann ist die Wahrscheinlichkeit für die Zunahme der Entropie 0% (maximale Unordnung), da es nicht mehr Unordnung geben kann, und es gibt insgesamt 13 solche Fälle.

Bei eine oder keine Richtige ist die Wahrscheinlichkeit für die Zunahme der Ordnung etwa (11 zu 24) 46%, und Zunahme der Entropie 0%.
Bei zwei Richtige ist die Wahrscheinlichkeit für die Zunahme der Ordnung etwa (3 zu 24) 11%, und Zunahme der Entropie 54%.
Bei drei Richtige ist die Wahrscheinlichkeit für die Zunahme der Ordnung etwa (1 zu 24) 4,2%, und Zunahme der Entropie 88%

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 13:38 #99722

Nehmen wir an, die Seiten werden gemischt und kommen zum Schluss aufeinander, und wir haben insgesamt vier Seiten.

Die Entropie kann dann nicht zu- oder abnehmen. Laut Prof. Ganteför entspricht sie der Anzahl möglicher Anordnungen der Seiten (Mikrozustände), mit denen der Makrozustand (vier Seiten in irgend einer Reihenfolge) realisiert ist, und ist somit konstant. Entropie ≠ Unordnung. Die Unordnung kann natürlich zu- und abnehmen, je nachdem, was man als Ordnung oder Unordnung der vier Seiten ansieht.
Also sprach das Photon: Wo wir sind ist vorne! Und sollten wir mal hinten sein, dann ist hinten vorne!

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Steinzeit-Astronom.

Entropie 07 Feb 2022 15:33 #99727

Die Entropie kann dann nicht zu- oder abnehmen.


Ja (mein Fehler), die Entropie ist die Anzahl der Möglichkeiten. Bei meinem Beispiel hat den Wert 24 und ist konstant. Die Ordnung oder die Unordnung (Beim Papier-Beispiel die Seitennummer) können zu oder abnehmen, die Entropie aber bei diesem Beispiel nicht.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 15:46 #99729

Mir war das zunächst auch nicht klar, erst nachdem ich das Video nochmal angesehen hatte. Als Laie ist man anscheinend geneigt, Entropie einfach mit Unordnung gleichzusetzen. Zwar hängen die in gewisser Weise zusammen, sind aber nicht dasselbe.
Also sprach das Photon: Wo wir sind ist vorne! Und sollten wir mal hinten sein, dann ist hinten vorne!

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 07 Feb 2022 17:43 #99734

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770
Richtig, wenn ich es nun verstanden habe, dann ist die Unordnung lediglich die (wahrscheinliche) Folge einer hohen Entropie, nicht aber deren Definition, sondern allenfalls ein Indiz.
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 07 Feb 2022 21:11 #99740

@ Rainer Raisch

Du liebst doch Formeln. In der klassischen Thermodynamik ist S >= Q/T . S ist die Entropieänderung des Systems. Q ist die bei einer Zustandsänderung mit der Umgebung ausgetausche Wärme. T ist die Temperatur. Das Gleichheitszeischen gilt für reversible Änderungen.

In der Statistischen Thermodynamik ist S = k ln (Omega). k ist die Boltzmannkonstante. Omega ist die Anzahl der Mikrozustände, um einen Makrozustand realisieren zu können. Nimmt man dazu dass gemäß Informationstheorie mindestens benötigte Energie, um ein n Bit verarbeiten zu können, E = n kT ln(2) , dann kennt man schon alle Formeln die man braucht, um den Begriff der Entropie verstehen zu können.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Freddy.

Entropie 08 Feb 2022 02:10 #99750

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770
Danke Freddy, die Formeln sind mir bekannt und noch eine bzw zwei, bzw noch viele weitere:

S = (c²ρ+p)V/T
S = kB·ASL/(4rP²)

wenn ich nicht irre ... dennoch sehe ich noch nicht den Nutzen davon. Was kann man damit berechnen, was man nicht auch so könnte?
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 08 Feb 2022 10:41 #99755

@Rainer Raisch

Was kann man damit berechnen, was man nicht auch so könnte?


Die Formeln erleichtern viele Berechnungen, so wie es auch der Energieerhaltungssatz macht. Und sie zeigen an, in welche Richtung ein Prozess abläuft. Und sie zeigen an, ob sich ein System im irreversiblen Fall erwärmt oder abkühlt. (Wir hatten neulich die Diskussion.) Oder auch die maximal mögliche Energiedichte pro Fläche, bevor das System zu einem Schwarzen Loch wird.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 16 Feb 2022 20:29 #99884

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770

Und sie zeigen an, in welche Richtung ein Prozess abläuft.

Dem willst Du ja bei Deinen PM zweiter Art selbst nicht glauben.

Mir ist inzwischen klar, dass die Entropie für die veränderlichen inneren Potentiale steht, die man dann nicht kennen und berechnen muss.
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 16 Feb 2022 20:34 #99886

@ Rainer Raisch

Will man die Entropie eines Systems berechnen, muss bei Anwesenheit von externen gravitativen, elektrischen oder magnetischen Feldern diese auf jeden Fall mit berücksichtigen.

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 16 Feb 2022 20:38 #99887

Mir ist inzwischen klar, dass die Entropie für die veränderlichen inneren Potentiale steht, die man dann nicht kennen und berechnen muss.

Inwieweit verändert sich die Menge der veränderlichen inneren Potentiale, wenn ich einen Stapel Papier immer wieder fallen lasse. Bei jedem einzelnen Fall ist das Potential der inneren Veränderlichkeit immer gleich. Oder sehe ich das falsch?
Ohne etwas wäre nicht einmal nichts

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von badhofer.

Entropie 16 Feb 2022 20:47 #99888

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770

Oder sehe ich das falsch?

Vermutlich sehe ich es falsch oder ich habe es falsch formuliert.
Ich würde aber der Verteilung ein Potential zuordnen, das bei statistischer Unordnung am niedrigsten ist. Es kostet Arbeit, das Potential anzuheben, also die gewünschte Ordnung herzustellen.
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)
Folgende Benutzer bedankten sich: Freddy

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.

Entropie 18 Feb 2022 20:10 #99972

Ordnung und Unordnung sind beim Entropie-Begriff eher irreführend.

Das hier ist entscheidend:

.... das Beispiel mit 6 aus 49 und 7 aus 49 ist m.E. recht gut.
Die Mikrozustände nehmen zu und dann wieder ab (Minute 19.).
Das ausgeglichene System befindet sich aber am Punkt maximaler Mikrozustände.
Wenn der "geordnete" Papierstapel zu Boden fällt ("Unordnung" durch Gravitation) ist die Anzahl der Mikrozustände maximal.
Geht auch mit Metallkugeln.

Und ja: Entropie ist mathematisch eine statistische Angelegenheit. Physikalisch durchdringt die Boltzmann Verteilung quasi "Alles".
von Elemetarteilchen
www.chemgapedia.de/vsengine/vlu/vsc/de/c.../ker_feld.vscml.html
........wenn dem nicht so wäre, würde die NMR nicht funktionieren.
bis zur Gravitation
Folgende Benutzer bedankten sich: UN, Steinzeit-Astronom, Rainer Raisch

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Entropie 19 Feb 2022 10:06 #99982

  • Rainer Raisch
  • Rainer Raischs Avatar
  • Offline
  • Forum Elite Mitglied
  • Forum Elite Mitglied
  • Eine Formel sagt mehr als 100 Bilder.
  • Beiträge: 6758
  • Dank erhalten: 770

Ich würde aber der Verteilung ein Potential zuordnen, das bei statistischer Unordnung am niedrigsten ist. Es kostet Arbeit, das Potential anzuheben, also die gewünschte Ordnung herzustellen.

Es gibt reversible Prozesse, die somit nicht die Entropie erhöhen.

Es ist allerdings eine Definitionsfrage, ob eine vorgegebene Situation einer zufälligen Verteilung reversibel ist oder nicht.

Egal welche Konfiguration ich auswähle, ist es extrem unwahrscheinlich, dass sich dieselbe Konfiguration erneut zufällig bildet. Ordne ich die Konfiguration jedoch einer großen Klasse von "ähnlichen" Konfigurationen zu, die ich als "gleichwertig" behandle, dann wächst die Wahrscheinlichkeit einer spontan zufälligen Anordnung. Alle Anordnungen einer Konfigurationsklasse haben dann die gleiche Entropie, obwohl jede einzelne Konfiguration eine sehr geringe Entropie hätte.

Fordere ich zB, dass in einem Zimmer überall exakt der gleiche Druck herrscht, dann ist die Entropie dafür wesentlich geringer, als wenn es auch ungefähr ausreichen soll. Je nach Betrachtungsweise ist also die Entropie einer speziellen Konfiguration unterschiedlich.

Das ist das Gleiche wie die Anordnung der Karten in einem Pack. Jede Anordnung hat die gleiche Entropie, erst durch Klassenbildung einer willkürlichen "Ordnung" ergeben sich Klassen höherer Entropie als anderer Klassen.

Hierbei spielt nun die (Un)-Unterscheidbarkeit der Teilchen eine Rolle, denn viele gleiche Teilchen bilden per se große Klassen, weil sie austauschbar sind. Allerdings ändert das nichts an den obigen Betrachtungen der willkürlichen Klassenbildung von unterscheidbaren Konfigurationen.

Nun kommen allerdings die Zwangsbedingungen zum Tragen, dass zB das Verhalten eines Gas-Gemischs durch Schwerkraft und durch thermische (Brownsche) Bewegungen bestimmt wird. Bei sehr schweren Teilchen werden sich diese der Schwerkraft entsprechend entmischen und am Zimmerboden ansammeln, bei hoher thermischer Energie werden sie sich recht gleichmäßig im Raum verteilen. Dies ist dann jeweils der Zustand größter Entropie. Das hat nichts mit zufälliger Verteilung zu tun sondern nur mit zufälligen Stößen zwischen den Teilchen.

Einerseits kommt es auf die Größe des willkürlich betrachteten Volumens V an, andererseits spielt schon auch der vorgegebene Druck also die vorhandene Energiedichte p=Q/V eine Rolle
S = p·V/T = Q/T = kB·ln.(Ω)
Es fällt (mir) auf, dass Ω allein (!!!) auf die willkürliche Größe des betrachteten Makrozustandes abstellt. Hier werden also alle ungeordneten und geordneten Zustände gleich behandelt. Und durch die zusätzliche willkürliche Entscheidung, welche Klasse von "geordneten" Zuständen (zB die exakte Ziffernfolge der Nachkommastellen von π) man betrachtet, ergibt sich eine weitere willkürliche Modifikation von Ω, (in diesem Beispiel Ω=1 und somit ln.Ω=0, falls die Bedingung erfüllt wird).
Vorsicht, ich schreibe vereinfacht ohne Wurzelzeichen ³x=³√x , wenig Klammern 1/4r²π=1/(4r²π) , statt Vektorpfeil v¹=v⃗ Funktionen bzw Argumente kennzeichne ich mit einem Punkt f.(x)=f(x)

Bitte Anmelden oder Registrieren um der Konversation beizutreten.

Letzte Änderung: von Rainer Raisch.
  • Seite:
  • 1
  • 2

logo

Große Zellgasse 79
85049 Ingolstadt