[go: up one dir, main page]

Zum Inhalt springen

Entropie

Aus Wikibooks


Entropie, ein populärwissenschaftlicher, fächerübergreifender Text

Inhaltsverzeichnis

Bitte stehen lassen, wird weiter bearbeitet Danke Benutzer:Rho

Am Anfang

Entropie und Mathematik

  • 00% fertig
  • 00% fertig
  • 00% fertig
  • 00% fertig

Entropie und Naturwissenschaften

  • 00% fertig
  • 00% fertig

Anhang


John von Neumann 1943–1945 LosAlamos
 J. Von Neumann
„You should call it entropy. Nobody knows what entropy really is, so in a debate you will always have the advantage.
  • Sie sollten es Entropie nennen. Niemand weiß, was Entropie eigentlich ist, so dass sie in einer Diskussion immer im Vorteil sind.“
Quelle: nach Shannon in M. Tribus, E. C. McIrvine – Energy and information, Scientic American, 224 (September 1971), 178–184


Einleitung:

Man sollte sich aus didaktischen Gründen erst ein Verständnis für die Entropie in der Mathematik erarbeiten, dann wird es auch leichter die Entropie in anderen Gebieten zu verstehen.

siehe Entropie: IT

Entropie in der Physik

Sehr schön erklärt wird die Entropie in der Physik in folgendem Artikel: uni-koblenz.de/~odsleis/lehrplan-physik/handreichungentropie.pdf

In der klassischen Thermodynamik ist die Entropie über die Wärme definiert. Wärme ist eine sehr „unordentliche“ Energieform mit hoher Entropie.

Die Entropie ist, neben der Temperatur und der Energie, die wichtigste Größe der Wärmelehre. Entropie und Temperatur gehören genauso zusammen wie elektrische Ladung und Spannung. Entropieströme sollten demnach in der Wärmelehre dieselbe Rolle spielen, wie elektrische Ströme in der Elektrizitätslehre.

In der Natur sind entropiereiche, ungeordnete Zustände wahrscheinlicher als entropiearme, geordnete. Ein geordnetes System geht irgendwann wieder in einen ungeordneten Zustand über, während ein ungeordnetes System nie spontan in ein geordnetes übergeht.

Die Entropie in der Physik ist eine Bilanz- aber keine Erhaltungsgröße. Sie hat die ungewöhnliche Eigenschaft, zuzunehmen, und zwar um so mehr, je weniger man aufpaßt.

Die Energie ist dagegen eine Erhaltungsgröße, sie bleibt in der Summe immer erhalten.

Entropie ist die zur intensiven Temperatur gehörende extensive Größe. (d. h. Temperatur ist nicht von der Stoffmenge abhängig, die Entropie wächst mit der betrachteten Stoffmenge. Entropie ist addierbar.) Praktisch gesprochen verdoppelt sich die Entropie, wenn man zwei Liter Wasser mit derselben Temperatur zusammenschüttet, die Temperatur bleibt gleich.

Entropie bei einem Phasenübergang (Schmelzen, Verdampfen, etc.)

In der Physik ist die Entropie einfach zu verstehen, wenn man den Übergang eines Stoffes in einen anderen Aggregatzustand betrachtet. Erstaunlicherweise wird dabei nur von latenter Wärme, aber selten von der Entropie gesprochen.

Man betrachtet z. B. einen Eisblock aus gefrorenem Wasser.

Will man diesen Eisblock auftauen, dann muss man am Gefrierpunkt Energie hineinstecken, ohne dass sich die Temperatur erhöht. Man spricht von der Schmelzwärme. Diese Energie dient nur dazu die bestehende Ordnung der festen Wasserteilchen aufzulösen, mehr Unordnung zu ermöglichen, das Wasser wird flüssig, die Unordnung wird größer, die Entropie wird größer.

Die Entropie beim Phasenübergang fest => flüssig entspricht der Schmelzwärme = der Schmelzenergie gemessen in Joule, da sich hier die Temperatur nicht ändert.

Man kann beim Phasenübergang die Wärmemenge also einfach durch die Temperatur des Phasenübergangs teilen und erhält die Entropiedifferenz des Vorgangs in Joule / Kelvin.

Entropie beim Mischen eines Stoffes von zwei Teilen mit verschiedener Temperatur

Es wird ein Mischung von Wasser aus einem warmen und einem kalten Anteil betrachtet.

--------------
|            |
|    T(w)    |
|    warm    |
|            |
|     |      |
------| dE ---
|     V      |
|            |
|   kalt     |
|   T(k)     |
|            |
--------------

Für den kälteren bzw. wärmeren Anteil ist die Änderung der Entropien dS (Delta oder Differenz S) wie folgt definiert:

dSK = dE / TK
dSW = dE / TW
Wobei E die Wärmeenergie ist, die von dem warmen zum kalten Flüssigkeitsanteil fließt
TK ist die Temperatur in Kelvin des kalten Anteils
TW ist die Temperatur in Kelvin des warmen Anteils

Die gesamte Entropieänderung erhält man durch folgende Gleichung:

dS = dE / TK − dE / TW

Dabei ist dS > 0, da TW > TK. Beachte: Die Temperaturen stehen im Nenner.

Bei diesem freiwillig ablaufenden Vorgang ist die Entropieänderung dS > 0. Erreicht die Temperatur des warmen Körpers die des kalten Körpers ist ein Gleichgewicht erreicht und der Wärmeaustausch kommt zum Erliegen.

Beispiel 1: Mischung desselben Stoffes derselben Menge unterschiedlicher Temperatur

Man füllt ein Styroporgefäß mit 300 g Wasser, das eine Temperatur von 40 Grad Celsius aufweist. Dann schüttet man 300 g Wasser von 10 Grad Celsius dazu. Das Styroporgefäß als guter Isolator nimmt nur eine minimaler Wärmemenge auf. Dann rührt man etwas herum und misst die Mischtemperatur 24,8 Grad Celsius. Als Schätzung müsste eine Mischtemperatur von 25 Grad herauskommen.

Wie kann man die Mischtemperatur errechnen?

Es gelten folgende Regeln:

  • Die Energieabgabe EW der wärmeren Flüssigkeit ist gleich der Energieaufnahme EK der kälteren Flüssigkeit.
EW = EK
  • Die Masse der wärmeren Flüssigkeit ist gleich der Masse der kälteren Flüssigkeit.
mW = mK
  • Die spezifische Wärmekapazität des Wassers ist:
cWasser = 4,19 J/ (g * Grad Celsius)

Die Temperaturen werden wie folgt bezeichnet:

  • tW = 40 Grad Celsius
  • tK = 10 Grad Celsius
  • tmisch = gesucht

Es gilt folgende Formel:

EW = cWasser * m W * (tW − tmisch)
EK = cWasser * m K * (tmisch − tK)

Da EW = EK gilt, kann man vereinfachen:

cWasser * m W * (tW − tmisch) = cWasser * m K * (tmisch − tK)

Aus dieser Gleichung kürzt man cWasser. Man dividiert auf beiden Seiten durch cWasser.

m W * (tW − tmisch) = m K * (tmisch − tK)

Da im obigen Beispiel mW = mK gilt, kann man auch noch m kürzen. Es bleibt folgende Formel übrig:

(tW − tmisch) = (tmisch − tK)

Jetzt setzt man die Temperaturen ein und errechnet die Mischtemperatur:

(40 Grad Celsius − tmisch) = (tmisch − 10 Grad Celsius)

Jetzt rechnet man die Gleichung nach tmisch aus. Man addiert auf beiden Seiten tmisch.

40 Grad Celsius − tmisch + tmisch = tmisch − 10 Grad Celsius + tmisch
40 Grad Celsius = 2 * tmisch − 10 Grad Celsius

Man addiert auf beiden Seiten 10 Grad Celsius.

50 Grad Celsius = 2 * tmisch

Man dividiert beiden Seiten durch 2.

50 Grad Celsius / 2 = tmisch
tmisch = 25 Grad Celsius

Was hat dies alles nun mit der Entropie zu tun?

Man kann aus dem obigen Beispiel jetzt auch die Entropie berechnen:

Es gilt dS = dE / TK − dE / TW

Die Temperatur muss man allerdings in Kelvin einsetzen:

*TW = (40 Grad + 273 Grad) Kelvin
*TK = (10 Grad + 273 Grad) Kelvin

Die Energieaufnahme und -abgabe sind gleich:

EW = cWasser * m W * (tW − tmisch)
E = 4,19 J/ (g * Grad Celsius) * 300 g * (40 Grad Celsius − 25 Grad Celsius)
E = 4,19 J/ (g * Grad Celsius) * 300 g * 15 Grad Celsius
E = 1257 J /Grad Celsius * 15 Grad Celsius
E = 18855 Joule

Daraus kann man die Entropieänderung errechnen:

dS = 18855 Joule / 283 Kelvin − 18855 Joule / 313 Kelvin
dS = 66,625 − 60,24 Joule / Kelvin
dS = 6,385 Joule / Kelvin

Entropie als Wärmemenge

Für das Verständnis des Begriffes Entropie in der Physik ist es am Anfang am besten, darunter einfach eine Wärmemenge zu verstehen.

Es gibt in der Wärmelehre drei Basisgrößen:

  • die Energie E
  • die Temperatur T
  • die Entropie S (= Wärmemenge)

Mit diesen 3 Größen kann man einfach verstehbare Sätze über die Entropie formulieren: (Quelle www.pz.bildung-rp.de/physik/energie_entropied.pdf)

  • Jeder Körper enthält Entropie, wenn seine Temperatur über dem absoluten Nullpunkt liegt.
  • Unter der Entropie kann man die Wärmemenge verstehen, die in dem Körper steckt.
  • Die Entropie kann nur positive Werte annehmen.
  • Je größer die Masse eines Gegenstandes ist, desto mehr Entropie enthält er, vorausgesetzt die Temperatur bleibt gleich.
  • Je heißer ein Körper ist, desto mehr Entropie enthält er. Die Entropie ist also temperaturabhängig.
  • Die Entropie fließt von ganz allein von einer Stelle höherer Temperatur zu einer Stelle niedriger Temperatur, wenn ein Austausch zwischen den Stellen möglich ist.
  • Eine Temperaturdifferenz Delta T ist also der Anlass für einen Entropiefluss
IS = Delta S / Delta t (t = Zeit).
  • Je größer die Temperaturdifferenz desto größer ist der Entropiefluss unter der Voraussetzung unveränderter Materialien.
  • Jedes Material setzt dem hindurchfließenden Entropiestrom einen Widerstand entgegen.
  • Dieser Widerstand ist um so größer, je kleiner die Austauschfläche A der Leitung und je größer die Länge l der Leitung ist.
  • Dieser Widerstand hängt außerdem vom wärmeleitenden Material ab. Diese Materialkonstante nennt man rhoS.
  • Für den Entropiewiderstand gilt also:
RS = l / (A * rhoS)
  • Der Entropieleitwert ist der Kehrwert des Widerstandes. Er berechnet sich als
LS = IS / Delta Zeit.

Dies nennt man das Fouriersche Gesetz.

  • Die Entropiezunahme eines Körpers bei Erhöhung der Temperatur nennt man Entropiekapazität CS. Sie berechnet sich als
CS = Delta S / Delta T (T = Temperatur).
  • Die Entropiekapazität hängt vor allem von der Temperatur, aber auch von der Masse, dem Volumen, dem Druck und der Stoffmenge ab.
  • Bei Phasenübergängen wie dem Schmelzen und Verdampfen ändert sich die Entropiekapazität sehr stark.
  • Entropie kann neu erzeugt werden durch
    • Reibung
    • eine chemische Reaktion
    • durch elektrische Ströme in elektrischen Widerständen
    • durch Entropieströme in Wärmewiderständen.
  • Entropie kann zwar erzeugt, aber in der Summe nicht verringert werden.
  • Vorgänge, bei denen Entropie erzeugt wird, können von alleine nicht wieder rückwärts ablaufen. Sie sind irreversibel.
  • Die Entropie ist ein Energieträger. Liegt ein Entropiefluss vor, so ist dieser immer von einem Energiefluss begleitet.
  • Die den Entropiefluss IS begleitende Energie IE berechnet sich zu
IE = T * IS.

Lässt man den Faktor Zeit aus der Formel auf beiden Seiten wegfallen, dann ergibt das:

Delta E = T * Delta S
  • Die Energiestromstärke entspricht einer Leistung (Energie / Zeit).
P = IE
  • Versucht man mit verschiedenen Arten des Wärmeentzugs einem Körper immer mehr Energie zu entziehen, kann man zwei Tatsachen feststellen:
    • Man kommt zwar der Temperatur Null Kelvin (-273.15 Grad Celsius) sehr nahe, kann sie aber nicht unterschreiten bzw. erreichen. Bei dieser Temperatur befindet sich ein absoluter Temperaturnullpunkt.
    • Bei dieser Temperatur kann man keine Entropie mehr entziehen. Absolut kalte Körper haben keine Entropie mehr.
  • Die Einheit der Entropie in der Physik ist 1 Joule / Kelvin.
  • 1 Joule / Kelvin entspricht der Entropiemenge, mit der man bei Normaldruck 0,893 cm3 Wassereis schmelzen kann.
  • Manche Autoren verwenden das Carnot (Einheitenzeichen: Ct) aus didaktischen Gründen als besonderen Namen für die SI-Einheit Joule durch Kelvin (J/K) der Entropie.

Messung der Entropie

Entgegen einer weit verbreiteten Meinung ist die Entropie in der Physik relativ einfach zu messen.

Ein einfaches Beispiel zeigt die Messung der Schmelzwärme oder der Verdampfungswärme verschiedener Stoffe. Da hier die Temperatur konstant ist, kann man die ermittelte Energie direkt der Entropie gleichsetzen.

Peltierelement

Entropieströme durch eine Fläche lassen sich mit einem geeichten Peltier-Element messen.

Siehe de.wikipedia.org/wiki/Peltier-Effekt Siehe www.heise.de/tp/r4/artikel/5/5856/1.html

Rechenaufgaben

Volumenentropie:ein Gas breitet sich aus.

1. Sie haben 1 kg Eis bei Null Grad Celsius und normalem Umgebungsdruck. Berechnen Sie die Zunahme der Entropie, wenn das Eis komplett zu Wasser von 0 Grad geschmolzen ist. Benutzen Sie dazu die spezifische Schmelzwärme von Wasser.

1a. Sie haben 5 kg Wasser beim normalen Siedepunkt von 100 Grad Celsius und normalem Umgebungsdruck. Berechnen Sie die Zunahme der Entropie, wenn das Wasser komplett zu Wasserdampf mit der Temperatur des Siedepunktes verdampft ist. Benutzen Sie dazu die spezifische Verdampfungswärme (Verdampfungsenthalpie) von Wasser. (Siehe de.wikipedia.org/wiki/Verdampfungswärme#Verdampfungsenthalpie)

1b. Warum muss bei dem Vorgang Energie aufgewendet werden und warum läuft die Verdampfung nicht von alleine ab? Wann läuft die Verdampfung scheinbar von alleine ab?

1c. Kommt es bei dem Übergang Wasser > Wasserdampf zu einer Entropiezunahme oder Entropieabnahme?

1d. Wie kann man sich erklären, das Wasser auch bei normalen Luftdruck auch schon bei Temperaturen weit unter dem Siedepunkt verdampft z. B. bei der Trocknung eines Wäschestückes auf der Wäscheleine?

2. Sie erwärmen 1 kg Wasser von 20 Grad Celsius auf 70 Grad Celsius. Wieviel Energie müssen Sie dazu verwenden? Wie groß ist die Entropiezunahme?

3. Sie mischen 1 kg Wasser von 20 Grad Celsius und 1 kg Wasser von 50 Grad Celsius. Wieviel Energie geht vom wärmeren Wasser auf das kältere Wasser über? Wie hoch ist die Mischtemperatur? Wie groß ist der Entropieanstieg?

Verweise zu Rechenaufgaben

2. Hauptsatz der Thermodynamik

Verweise

Lokale Entropieabnahme

Es gibt viele Beispiele für eine lokale Entropieabnahme, die vermeintlich dem 2. Hauptsatz widersprechen, die aber durch eine Gesamtbetrachtung schlüssig erklärt werden können. Es entstehen geordnete Strukturen aus vorher ungeordneten. Gleichzeitig wird aber dafür die Entropie insgesamt trotzdem größer

Beispiele

  • Sternentstehung durch Gravitation
  • Kristallisation beim Abkühlen
  • Lebensentstehung
  • Evolution

Auch die Vorstellung vom Urknall geht von einem sehr entropiearmen Anfangszustand aus. Irgendwie muss dieser entropiearme Zustand erreicht worden sein.

Entropieformel von Boltzmann

Datei:Boltzmann.jpg
Ludwig Boltzmann


Verweise zu Entropie und Physik

Entropie in der Astronomie

Entropie beim Urknall

Nach allgemeiner Lehrmeinung entstand das Universum mit wenig Entropie, es war zunächst recht ordentlich. Im Laufe der Zeit wird es unordentlicher. Wieso beim Urknall eine so niedrige Entropie oder umgekehrt ein so hoch geordneter Zustand vorliegen konnte, ist ungeklärt. Dies mit einer Zufallsquantenfluktuation erklären zu wollen, ist schwierig, denn die Wahrscheinlichkeit für so einen hochgeordneten Zustand ist extrem gering.

Entropie und Raum-Zeit-Kontinuum

Raum und Zeit haben in den neueren Vorstellung der Physik nur eine sekundäre Bedeutung und werden durch die darin enthaltenen Masse-Energie-Verteilungen und der Veränderung definiert.

Entropie schwarzer Löcher

Hawking erkannte 1974, nach Vorarbeiten des israelischen Physikers Jacob Bekenstein, dass Schwarze Löcher eine Entropie und somit auch eine Temperatur haben. Die Entropie S eines Schwarzen Lochs ist proportional zur Oberfläche A seines Horizonts und sonst nur von Naturkonstanten abhängig.

wobei das plancksche Wirkungsquantum bzw. hier diracsche Konstante, c die Lichtgeschwindigkeit, die Kreiszahl Pi, k die Boltzmannkonstante, G die Gravitationskonstante und M die Masse ist.

Entropie der Sonne

Entropie der Erde

Entropie in der Chemie

Triebkraft chemischer Reaktionen

Eine wichtige Fragestellung in der Chemie beschäftigt sich mit der Triebkraft einer chemischen Reaktion. Zunächst glaubte man, daß chemische Reaktionen dann von alleine ablaufen, wenn bei der Reaktion Energie freigesetzt wird.

Die Energie einer Reaktion wird als Reaktionsenthalpie (H) bezeichnet. Sie gibt an, ob ein Prozeß exotherm (unter Energiefreisetzung) oder endotherm (unter Energieverbrauch) abläuft.

Man dachte, nur exotherme Reaktionen laufen von alleine ab. Meist ist diese Aussage auch richtig, aber nicht immer. Denn man fand heraus, daß manche Reaktionen auch freiwillig ablaufen, die zu einem Wärmeverbrauch führen und die Temperatur des Reaktionsendproduktes abkühlen.

Ein einfaches Beispiel dafür ist die Lösung von Zucker oder Salz in Wasser. Die Lösung ist kälter als die Temperatur der Ausgangsstoffe. Bei der Reaktion wurde also keine Energie freigesetzt, sondern Energie verbraucht. Dies war zunächst nicht erklärlich.

Zur Triebkraft der Energiefreisetzung mußte man einen zweiten Faktor hinzusetzen: Den Faktor der Entropieerhöhung. Nimmt bei einer Reaktion die Entropie zu, wird dies den Reaktionsablauf beschleunigen oder sogar erst möglich machen.

Josiah Willard Gibbs, Namensgeber der Gibbschen freien Enthalpie

In der Formel von Gibbs Freier Enthalpie wird dies zusammengefasst:

G = H − T * S

Aus der Enthalpie H und der Entropie S mal der absoluten Temperatur T wird G berechnet. Dabei ist zu beachten, daß die Enthalpie einer exothermen Reaktion immer als negativer Wert angegeben wird.

Eine Reaktion läuft freiwillig ab, wenn G < 0 ist. Man spricht dann von einer exergonen Reaktion.

Bei G > 0 bezeichnet man die Reaktion als endergon. Diese läuft nicht freiwillig ab.


Mit Hilfe von Gibbs freier Enthalpie G können über eine Reaktion folgende Aussagen getroffen werden:

freie Enthalpie G < 0 ;
          die chemische Reaktion kann stattfinden
freie Enthalpie G > 0 ;
          die chemische Reaktion findet nicht (freiwillig) statt
freie Enthalpie G = 0 ;
          die chemische Reaktion hat bereits stattgefunden. Chemisches Gleichgewicht


Siehe auch  Josiah Willard Gibbs

Beispiel

Betrachtet man eine Knallgasreaktion unter standardisierten Bedingungen mit einer Temperatur von 298 Grad Kelvin = 25 Grad Celsius und einem Luftdruck von 1013 hektoPascal, dann kann man folgende Werte bestimmen:

H = −286 kJ/Mol
G = −237 kJ/Mol

Wobei kJ die Energieeinheit Kilojoule und Mol die Einheit der Stoffmenge ist.

Reaktionsgleichung:

2 H2 (g) + 1 O2 (g) --> 2 H2O (l)
wobei g = gasförmig, l = liquid = flüssig, s = solid = fest

Daraus kann man folgern, daß die Entropie der Reaktion absinkt. Es entsteht eine Flüssigkeit und deren Entropie ist meist niedriger als die Entropie von Gasen.

T * S = H − G = (−286 − (− 237)) kJ/Mol = −49 kJ/Mol
S = −49 kj/mol / 298 Grad Kelvin = −,164 kJ /Mol/Grad Kelvin = −164 Joule/Mol/Grad Kelvin

Trotz des Entropieverlustes, der ja eigentlich dem 2. Hauptsatz der Thermodynamik widersprechen würde, läuft die Reaktion freiwillig ab, weil die Energiefreisetzung den Entropieverlust weit übertrifft.

Beachten Sie, daß hier alle Werte der Gibbs freien Enthalpie, der Reaktionsenthalpie und der Entropie keine absoluten Werte, sondern Differenzwerte der Reaktion vorher – nachher sind.

Streng genommen müßte man von Delta G, Delta H und Delta S sprechen.

Verweise

Abkürzungen Einheiten Extremwerte der Entropie

Abkürzungen

Die Entropie wird meist mit H oder S abgekürzt.

Da der Buchstabe H in der Physik bereits für die Enthalpie reserviert ist, sollte man hier immer den Buchstaben S gebrauchen, wenn man von Entropie spricht.

In der Mathematik (Informationstheorie) hat sich die Abkürzung H eingebürgert

Einheiten

  • Physik:
    • Joule / Kelvin
      • (Energie / Temperatur)
  • Mathematik und Informationstheorie
    • bit

Extremwerte

Die Entropie eines reinen Stoffes in einer perfekten kristallisierten Form geht am absoluten Nullpunkt der Temperatur (- 273 Grad Celsius) gegen Null. Dabei kann der absolute Nullpunkt nie erreicht, sondern nur angenähert werden.

Die Entropie eines Wasserstoffgases z. B. bei 1000 Grad ist wie hoch?

Entropie im Urknall war wahrscheinlich sehr niedrig. Wie hoch?

Entropie des jetzigen Universums ist schätzungsweise wie hoch?

Entropie beim Wärmetod des Universums wird schätzungsweise wie hoch sein?

Entropiezuwachs und Energieverlust der Sonne

Energieaufnahme und -abgabe und Entropieaufnahme und Entropieabgabe der Erde

Die Entropie eines sicheren Ereignisses H = 0

Die Entropie eines unmöglichen Ereignisses H = 0

Die Entropie eines idealen Münzwurfes H = 1

Die Entropie einer fiktiven Lottoziehung 1 aus 1 Million Möglichkeiten H = 19,931568569324

Negative Werte der statistischen Entropie gibt es per Definition nicht.

Formeln

Shannonformel

Shannon definierte die Entropie H einer gegebenen Information I über einem Alphabet Z durch

Fehler beim Parsen (Syntaxfehler): {\displaystyle H(I) = − \sum_{j=1}^{|Z|}{p_j \cdot \log_2{p_j}}} ,

wobei pj die Wahrscheinlichkeit ist, mit der das j-te Symbol zj des Alphabets Z im Informationtext I auftritt. Die Entropie erhält die Einheit bit.

H = Summe der Teilentropien aus n Zufallsereignissen mit der Wahrscheinlichkeit pn

Teilentropie H = − p * log2p = p * log2(1 / p)

dabei ist p die Wahrscheinlichkeit einer Möglichkeit eines Zufallsereignisses

Formel für die verschiedenen Aggregatzustände eines Stoffes mit gleicher Stoffmenge

Festkörper, insbesondere Kristalle, haben eine kleinere Entropie als Flüssigkeiten und Flüssigkeiten eine kleinere als Gase, wenn man denselben Stoff und diesselbe Stoffmenge betrachtet.

SFeststoff < SFlüssigkeit < SGas
Ss < Sl < Sg
wobei s = solid = fest, l = liquid = flüssig, g = gasförmig ist

Clausiusformel

dS = dQrev / T
  • dS = Entropiezunahme
  • dQ = Wärmezufuhr
  • T = Temperatur in Grad Kelvin

Der Index „rev“ berücksichtigt, daß dies in voller Strenge nur für reversible Prozesse gilt.

Die Entropiefunktion des augenblicklichen Zustands eines Systems ist die Wärmemenge, die bei einer reversiblen Zustandsänderung aufgenommen oder abgegeben wurde, dividiert durch die Aufnahme- oder Abgabetemperatur.

Boltzmannformel

Die Formel auf Boltzmanns Grabstein
S = k * ln W

im Original bei Herrn Boltzmann S = k * ln Omega

  • Boltzmann-Konstante kB = 1,380 6503·10-23 Joule / Kelvin
  • W entspricht der Zahl der möglichen Mikrozustände die mit einem Makrozustand verknüpft sind.
  • W erreicht ein Maximum, wenn alle Mikrozustände gleich verteilt sind.

Siehe auch  Ludwig Boltzmann

Clausiusformel für ideale Gase

Für ideale Gase gilt:

dS = (n *Cv * dT + (n * R*T) / V * dV) / T

Variablenbezeichnungen

  • h
    • Enthalpie
  • H
    • molare Enthalpie
  • u
    • innere Energie
  • U
    • molare innere Energie
  • q
    • einem System zugeführte Wärmemenge
  • Q
    • einem System zugeführte molare Wärmemenge
  • s
    • Entropie
  • S
    • molare Entropie
  • c
    • Wärmekapazität (konstante Größe als Index)
  • C
    • molare Wärmekapazität (konstante Größe als Index)
  • V
    • Volumen
  • VM
    • molares Volumen
  • n
    • Stoffmenge
  • p
    • Druck
  • R
    • Gaskonstante (R = 8.31451 JK-1mol-1)
  • T
    • absolute Temperatur
  • w
    • an einem System verrichtete Arbeit

Fragen

Entropie und Urknall

Im Urknall soll die Entropie sehr niedrig gewesen sein. Gleichzeitig war die Temperatur sehr hoch. Da steckt ein gewisser Widerspruch. Bei hohen Temperaturen ist meistens auch die Entropie hoch? Wie war das also mit der Entropie beim Urknall?

Negative Entropie

Gibt es negative Entropie? Wenn ja was bedeutet sie? siehe  Negentropie

Log W ist fuer 0 bis 1 negativ, heißt dies das es negative Entropie geben kann?

Erwin  Schroedinger schreibt in seinem Buch Was ist Leben?, daß Eiweiß eine sehr hohe Ordnung und damit negative Entropie hat. Stimmt das? Wie definiert Schrödinger den Begriff Ordnung?

Zustand oder Ereignis

Ist die Entropie ein Eigenschaftsparameter von Zuständen oder von Ereignissen?

Meinung von WN au CH: Die Entropie ist ein Eigenschaftsparameter von Zuständen und nicht von Ereignissen. Darum ist auch die Verbindung „Zufall“ und „Entropie“ fragwürdig, weil Zu-fall nach Zufalls-Ereignis klingt. Natürlich kann man sich fragen, ob „Zustand“ und „Ereignis“ nicht dasselbe seien (Ereignis als Zustand eines Augenblicks); es gibt aber schon Unterschiede, z. B.: Ereignisse haben Koordinaten x, y, z, t, Zustände aber nur bedingt... Die Entropie, die in Ereignissen zu stecken scheint, steckt in Wirklichkeit in der Reihenfolge wie die Ereignisse Aufgetreten sind, also im Zustand der Sequenz einer Ereignismenge, usw. Das ist dann wohl der Grund, warum in der hübschen Abbildung H=f(p) offenbar ganz intuitiv von zwei stattgefundenen Ereignissen mit den Wahrscheinlichkeiten p und q (wobei p+q=1) gesprochen wird, also vom Zustand der Reihenfolge.

Meinung von Rho Ich meine schon, daß man auch Ereignisse mit der Entropie messen kann. So steckt in dem Zufall eines idealen Münzwurfes definitionsgemäß die Entropie 1 bit. Nimmt man einen Achterwürfel und wirft diesen, dann steckt in einem Wurf deutlich mehr Entropie: nämlich 3 Bit.

Das klassiche Beispiel ist auch die Urne mit mehreren verschieden farbigen Kugeln.

Wieviel Zufall oder wieviel Entropie steckt dabei in jedem Zug?

Entropie ist auch ein Maß für die Zahl der Möglichkeiten, die bei einem Ereignis eintreten können. Da die Zahl der Möglichkeiten aber rasant anwächst, wenn man den Ereignisraum vergrößert, ist ein logarithmisches Maß für diese Zahl der Möglichkeiten praktischer und liefert kleinere Werte. Der Zusammenhang zwischen der Zahl der verschiedenen Kugeln einer Urne und der Entropie findet sich hier. Siehe auch Entropie#Beispiel: Idealer Würfel

Man kann auch zwischen einem synthetischen und einem analytischen Zufall unterscheiden: Siehe Zufall#Analytischer und synthetischer Zufall

Dabei scheint zunächst der synthetische Zufall bessere Werte (ganze Zahlen ohne Wahrscheinlichkeitsangabe) zu liefern. In Wirklichkeit muß aber jeder reale Zufallsgenerator, der uns synthetische Zufall liefert, erst auf seine Zufälligkeit analytisch überprüft werden. Insofern hat WN recht, daß der Zufall erst an seinen Folgen erkannt wird.

Trotzdem glaube ich, daß der Zusammenhang zwischen Zufall und Entropie fundamental ist. Entropie ist für mich ein Maß für die Gesamtzufallsmenge, die in einem oder mehreren Ereignissen oder in einer Folge von Zahlen oder Symbolen steckt.

Interessant ist die Idee, aus der Not eine Tugend zu machen und eine neue mathematische Grundgröße das Zufallsbit zu definieren. Dieses Zufallsbit ist Folge eines idealen Münzwurfes und hat genau die Wahrscheinlichkeit von 0,5 für jeder seiner zwei Möglichkeiten und damit genau 1 Bit Entropie. Real ist das nie erreichbar. Wenn man nur lange genug eine Münze wirft ergibt sich irgendwann immer ein gewisser Trend. Das gilt übrigens auch für Roulettemaschinen. Deswegen werden sie immer wieder einmal ausgetauscht.

Zitate

  • Das Phänomen, dass kleinste Teilchen dazu neigen, sich gleichmäßig im Raum zu verteilen, ist ein Naturgesetz. Wir nennen es Entropie. Sie lässt sich gut beobachten, wenn man farbige Tinte in ein Wasserglas gibt. Die Tinte verteilt sich dort nach einiger Zeit, auch ohne dass man umrührt. Professor Henning Menzel, Institut für Technische Chemie der TU Braunschweig
  • Anschaulich ist das, woran man sich gewöhnt hat.Ludwig Boltzmann.
  • Shannon: My greatest concern was what to call it. I thought of calling it 'information', but the word was overly used, so I decided to call it 'uncertainty'. When I discussed it with John Von Neumann, he had a better idea. Von Neumann told me, you should call it entropy, for two reasons. In the first place your uncertainty function has been used in statistical mechanics under that name, so it already has a name. In the second place, and more important, nobody knows what entropy really is, so in a debate you will always have the advantage.
    • as quoted in M. Tribus, E. C. McIrvine
      • Energy and information, Scientic American, 224 (September 1971), 178–184
  • Die Entropie war bei den damaligen Physikern so ein Bißchen nicht sehr beliebt, weil die so ein vages Gespenst war. Max Planck
  • Entropie ist etwas, was man nicht versteht, aber man gewöhnt sich daran. Max Planck zugeschrieben.
  • Dass beispielsweise ein Gummiband elastisch ist, verdanken wir dem Gesetz der Unordnung. Die Teilchen, aus denen Gummi besteht, sind zu langen Ketten zusammengefügt. Im Normalzustand sind diese Ketten zu einem sehr wirren Haufen verknäult. Wenn wir das Gummiband dehnen, so ziehen wir damit die Ketten lang und gerade. Aber das Gummiband zieht sich wieder zusammen, sobald der Zug von außen nachlässt. Die Teilchen streben nämlich zu ihrem ursprünglichen, unordentlichen Zustand zurück. Professor Henning Menzel, Institut für Technische Chemie der TU Braunschweig

Literatur

Entropie in der Mathematik und Informationstheorie

  • Was ist Entropie?
    • Flachsmeyer, J.; Ollech, A.: Didaktik der Mathematik 23 (1995), Seiten 81–92
  • Komplexe Strukturen, Entropie und Information
    • von Werner Ebeling, Jan Freund, Frank Schweitzer
    • Sprache: Deutsch, Gebundene Ausgabe – 265 Seiten – Teubner Verlag September 1998
    • ISBN: 3815430321
  • Wahrscheinlichkeit und Information
    • Von Akiva M Jaglom, Isaak M Jaglom
      • Veröffentlicht 1965 VEB Deutscher Verlag der Wissenschaften

Entropie in der Physik

  • Der Karlsruher Physikkurs, Tl. 1, Energie, Impuls, Entropie
    • von Friedrich Herrmann
    • Taschenbuch – 159 Seiten – Aulis, Köln
    • Erscheinungsdatum: 1998
    • ISBN: 3761420951
      • sehr empfehlenswert als Einführung
      • Die Autoren verwenden das Carnot (Einheitenzeichen: Ct) aus didaktischen Gründen als besonderen Namen für die SI-Einheit Joule durch Kelvin (J/K) der Entropie.
  • Wolfgang Salm, Entropie und Information (naturwissenschaftliche Schlüsselbegriffe), 1997, ISBN 3-76141969-4
    • sehr empfehlenswert als Einführung
  • „Entropie“ von H. D. Zeh
    • Sprache: Deutsch, Broschiert – 127 Seiten – Fischer (Tb.), Frankfurt, Erscheinungsdatum: Mai 2005
    • Auflage: 1
    • ISBN: 3596161274
      • Kurzbeschreibung: Sie trat ins Leben mit der Dampfmaschine und wurde zuletzt ein fundamantales Konzept, das weit über die Physik hinausreicht: die Entropie als universelles Maß der „Unordnung“. Die Darstellung führt von der Statistischen Mechanik über die Informationstheorie und Quantenmechanik bis zur Kosmologie. Der Autor: Hans Dieter Zeh ist emeritierter Prof. für Physik an der Universität Heidelberg.
  • Entropie – was ist das?
    • Prof. Dr. Welf A. Kreiner
      • Inhalt 1. Struktur 2. Moleküle und ihre Energie 3. Statistische Modelle 4. Spontane Zunahme der Entropie 5. Vorgänge unter Randbedingungen 6. Thermodynamische Größen 7. Entropie und Information 8. Lösungsmittel und Polymere 9. Absolute Entropie atomarer Gase 10. Der Joule-Thomson-Effekt 2., überarbeitete und erweiterte Auflage

Manuskript zur Vorlesung (1996) Universität Ulm, Abteilung Chemische Physik – Arbeitsgruppe Laseranwendungen Albert-Einstein-Allee 11, 89081 Ulm/Donau Verlag: Universitätsverlag Ulm GmbH Bahnhofstraße 20, 89073 Ulm/Donau ã W. A. Kreiner, 1994/96 Ulm / Donau, September 1997 ISBN 3-89 559-254-4 Universitätsverlag Ulm GmbH

  • Energy and Entropy. Moscow: Mir Publishers.
    • Alekseev, G. N. (1986).

Klassische Texte

  • Über die bewegende Kraft der Wärme und die Gesetze, welche sich daraus für die Wärmelehre selbst ableiten lassen
    • Rudolf Claudius
    • Vergriffen
  • H. L. CALLENDAR: Proc. Phys. Society of London 23 (1911) 153.
Ludwig Boltzmann
  • Entropie und Wahrscheinlichkeit
    • Autor: Ludwig Boltzmann
      • Reihe: Ostwalds Klassiker, Bd. 286:
  • Claude Shannon und Warren Weaver
  • Deutsche Taschenbücher, Nr. 67, Entropie und Information von Michail W. Wolkenstein
    • Leicht zu lesen. Leider vergriffen, wegen urheberrechtlicher Streitigkeiten nur schwer zu bekommen
  • Komplexe Strukturen: Entropie und Information von Werner Ebeling

Zeitschrift

Verweise

Dieses Buch steht im Regal Physik.