A B C D E F G H I J K L M N O P Q R S T U V W X Y Z

 

 

Entropie

Begriff aus der Thermodynamik, den Rudolf Clausius (18221888) zur Berechnung thermod. Prozesse eingeführt hat und der zuweilen sehr verschieden gedeutet wird. Die E. (Formelzeichen s) ist 0 am absoluten Nullpunkt der Temperatur (H> Kelvin). Bei nicht umkehrbaren Prozessen in einem abgeschlossenen System nimmt die E. stets zu, bei reversiblen Prozessen bleibt sie konstant. In einem offenen System, das durch Stoffaustausch mit seiner Umgebung verbunden ist, kann die E. zunehmen, gleichbleiben oder abnehmen. Allg. gilt die E. auch als ein Maß für die Unordnung in einem System. Natürlicherweise, so behaupten einige, strebe alles zu größerer Unordnung, sprich zur Vermehrung von Entropie. Thermodynamik und statistische Physik, S, thermodynamische Zustandsfunktion, eine der zentralen Grössen der Thermodynamik und der Statistischen Physik mit der SI-Einheit J / K. R. Clausius gelangte 1850 im Rahmen der phänomenologischen Thermodynamik über die Betrachtung reversibler Kreisprozesse zum Entropiebegriff. In einem solchen Prozess ist die reduzierte Wärmemenge Entropie stets gleich Null, woraus sich die Existenz einer Zustandsgrösse S mit dem vollständigen Differential Entropie ableiten lässt. Dieser Zustandsgrösse gab Clausius den Namen Entropie, zu deutsch etwa »Verwandlungsinhalt«. Boltzmann lieferte 1866 die Definition der Entropie auf statistischer Basis. Im Rahmen der Statistischen Physik wird die Entropie als Entropie definiert, wobei kB die Boltzmann-Konstante ist und W für das statistische Gewicht des Zustandes steht, also für die Anzahl der mikroskopischen Zustände im Phasenraum, die mit dem betrachteten makroskopischen Zustand vereinbar sind. W wird gelegentlich auch als thermodynamische Wahrscheinlichkeit des Zustandes bezeichnet, obwohl es sich um keine Wahrscheinlichkeit im engen Sinne des Wortes handelt, da keine Normierung vorgenommen wird. Boltzmanns Nachweis dafür, dass diese beiden Definitionen äquivalent sind (Boltzmannsches Prinzip), kann als Durchbruch für das Verständnis der Thermodynamik als die statistische Mechanik grosser Teilchenzahlen betrachtet werden.

In statistischem Sinne ist auch die umgangssprachliche Gleichsetzung des Entropiebegriffs mit dem der »Unordnung« aufzufassen: Je grösser die Anzahl der erlaubten, d.h. mit dem Makrozustand vereinbaren Mikrozustände, die nach dem Grundpostulat der statistischen Physik mit gleicher Wahrscheinlichkeit eingenommen werden, desto grösser die Entropie; ein System mit nur einem eindeutig fixierten Zustand weist die Entropie null auf.

Die statistische Definition der Entropie zeigt, dass stets S ³ 0 gilt. Es sei angemerkt, dass der absolute Wert der Entropie nur im Rahmen der Quantenstatistik eindeutig festgelegt ist; dies rührt daher, dass das statistische Gewicht W, die Anzahl der Zustände innerhalb eines bestimmten Energieintervalls, von der Unterteilung des Phasenraumes in Zellen abhängt, deren Grösse in der klassischen Statistik willkürlich erfolgt, so dass die Entropie nur bis auf eine beliebige additive Konstante fixiert ist. Im Rahmen der Quantenstatistik jedoch ergibt sich das Volumen einer Phasenraumzelle ganz natürlich zu Entropie, worin Entropie das Plancksche Wirkungsquantum, f die Anzahl der Freiheitsgrade bedeuten (statistisches Gewicht, Phasenraum), so dass die Entropie absolut festgelegt ist.

Der Verlauf der Entropie in Abhängigkeit von der Energie zeigt das folgende Verhalten: Bei der quantenmechanischen Grundzustandsenergie E0, die im allgemeinen einen eindeutigen, oder, im Entartungsfalle, einige wenige Zustände charakterisiert, verschwindet die Entropie nährerungsweise: S » 0. Ist die Energie etwas grösser, so gilt S(E) » kBf × (E - E0), wobei die Anzahl der Freiheitsgrade f von der Grössenordnung 1024 ist. Für grosse Energien wird die Entropie von der Grössenordnung kBf, steigt also nur noch langsam mit der Energie.

Die Entropie S ist im allgemeinen keine Erhaltungsgrösse mit der Zeit. Nur wenn das System nicht nur thermisch, sondern auch »arbeitsmässig« isoliert ist, also ein abgeschlossenes System mit konstanter innerer Energie darstellt, hat die Entropie im Gleichgewicht einen bestimmten konstanten Wert. Die Änderung der Entropie eines abgeschlossenen Systems ist Inhalt des zweiten Hauptsatzes der Thermodynamik, des sogenannten Entropiesatzes, dem zufolge bei allen thermodynamischen Prozessen die Entropie monoton zunimmt oder aber im Grenzfall des thermodynamischen Gleichgewichtes unverändert bleibt, sich niemals jedoch verringert. Gemäss dem dritten Hauptsatz der Thermodynamik, dem Nernstschen Theorem, verschwindet die Entropie am absoluten Temperaturnullpunkt.

Die Messung der Entropie kann erfolgen, indem man den zweiten Hauptsatz auf einen infinitesimalen quasistatischen Prozess anwendet, mit dem ein System von einem Zustand 1 in einen Zustand 2 überführt wird; für die Entropiedifferenz S12 zwischen den beiden Zuständen gilt dann Entropie. Die Auswertung des Integrals der rechten Seite liefert, unabhängig vom gewählten quasistatischen Prozess, einen eindeutigen Wert für die Entropiedifferenz, da der Integrand, im Gegensatz zum Differential der Wärme allein, ein vollständiges Differential darstellt. Wählt man nun beispielsweise einen isothermen Prozess (T = const.), so ist die Entropie einfach als der Quotient aus Übergangswärme und Temperatur messbar. [JS2]

 

<< vorhergehender Begriff
nächster Begriff >>
Entpolarisierungsfaktor
Entropieänderung

 

Diese Seite als Bookmark speichern :

 

Weitere Begriffe : Farnsworth-Röhre | BGO-Kristall | Mofybdändisulfid

Übersicht | Themen | Unser Projekt | Grosse Persönlichkeiten der Technik | Impressum | Datenschutzbestimmungen