next up previous


4.2 Die kanonische Gesamtheit

Wir bringen nun wieder $2$ Systeme miteinander in thermischen Kontakt; dabei soll aber eines der beiden Systeme sehr viel mehr Freiheitsgrade aufweisen als das andere. Es soll also gelten
\begin{displaymath}
n   >   n   -   n_{1}   »   n_{1}  »   1
\end{displaymath} (4.19)



Abbildung 4.2: System in Kontakt mit einem Energiespeicher: $\rightarrow $ kanonische Gesamtheit
\begin{figure}\includegraphics[width=300pt]{fig/f4kg.ps}
\end{figure}


Das größere System, mit $n_{2} \equiv n-n_{1}$ Freiheitsgraden, wird als ,,Wärmebad`` bezeichnet. Die Energie $E_{2} = E-E_{1}$ dieses Wärmebades ist ,,fast immer`` viel größer als die des kleineren Systems, und seine Entropie kann daher um $S_{2}(n_{2},E)$ entwickelt werden:
\begin{displaymath}
S_{2}(E-E_{1}) \approx S_{2}(E) - E_{1}
\left. \frac{\partia...
...{\partial E'} \right\vert _{E'=E}
= S_{2}(E)- \frac{E_{1}}{T}
\end{displaymath} (4.20)

wobei $T$ die Temperatur des Wärmebades ist. Damit wird aber die Zellenanzahl, die das größere System in seinem Phasenraum einnimmt, wenn System $1$ in einem Zustand der Energie $E_{1}$ ist,
\begin{displaymath}
\Sigma_{2}(E-E_{1}) = e^{S_{2}/k} e^{-E_{1}/kT}
\end{displaymath} (4.21)

Je größer aber $\Sigma_{2}(E-E_{1})$ ist, umso wahrscheinlicher ist es, daß das System $1$ einen Mikrozustand der Energie $E_{1}$ aufweist. Dies läßt sich mit Hilfe der ,,kanonischen Phasenraumdichte`` $\rho_{1}(\Gamma_{1})$ so ausdrücken:
\begin{displaymath}
\rho_{1} \left[ \Gamma_{1}(E_{1}) \right]
= \rho_{0} e^{-E_{1}/kT}
\end{displaymath} (4.22)

wo $\rho_{0}$ ein Normierungsfaktor ist und
\begin{displaymath}
\rho_{1}(\Gamma_{1})
\equiv \rho\left[ \vec{r}_{1},\vec{v}_{1};
E( \vec{r}_{1},\vec{v}_{1}) = E_{1} \right]
\end{displaymath} (4.23)

die Dichte der Mikrozustände in jenem Bereich des Phasenraums von System $1$ bezeichnet, der zu der Energie $E_{1}$ gehört.

Zum besseren Verständnis von 4.22 erinnern wir uns daran, daß im mikrokanonischen Ensemble nur jene Zustände des Systems $1$ betrachtet wurden, für die die Energie $E_{1}$ im Intervall $\left[ E_{1}, E_{1}- \Delta E \right]$ lag. Im kanonischen Ensemble sind alle Energiewerte zugelassen, die Dichte der Zustandspunkte variiert aber wie $\exp [-E_{1}/kT]$.

Gleichung 4.22 darf nicht so verstanden werden, daß die wahrscheinlichste Energie des kleinen Systems gleich $=0$ wäre. Die Dichte der Zustände im Phasenraum von System $1$ nimmt zwar mit anwachsendem $E_{1}$ ab, das zu $E_{1}$ gehörige Volumen $\Gamma_{1}(E_{1})$ nimmt aber zu - und zwar mit $E_{1}^{3N/2}$, also sehr stark. Das Produkt dieser beiden Faktoren, also das statistische Gewicht des Phasenraumbereichs, der zu $E_{1}$ gehört, weist daher ein Maximum bei einer Energie $E_{1} \neq 0 $ auf.

Ein nun schon wohlbekanntes Beispiel zur Illustration des eben Gesagten bietet die Maxwell-Boltzmann-Verteilung: $p(\left\vert \vec{v}\right\vert$ ist ja nichts anderes als die Wahrscheinlichkeitsdichte für die (kinetische) Energie eines Teilsystems, das aus nur einem einzigen Teilchen besteht, und das mit einem Wärmebad aus $N-1$ Teilchen in Kontakt steht.

Im allgemeinen, nämlich für große Teilchenzahlen, ist das Maximum der Energieverteilung so scharf, daß die wahrscheinlichste Energie mit der mittleren Energie zusammenfällt:

\begin{displaymath}
\frac{\Delta_{E}}{E} \propto \frac{1}{\sqrt{N}}
\end{displaymath} (4.24)

Auch Systeme, die untereinander Energie austauschen können, weisen also praktisch immer, oder jedenfalls mit überwältigender Wahrscheinlichkeit, eine bestimmte Energie auf. Diese Tatsache erlaubt es uns aber, Mittelungen physikalischer Größen wahlweise - je nach mathematischer Bequemlichkeit - im mikrokanonischen oder im kanonischen Ensemble durchzuführen; man spricht in diesem Zusammenhang von der ,,Äquivalenz der Gesamtheiten``.

Wir haben die Eigenschaften des kanonischen Ensembles mit Hilfe einer Taylorentwicklung der Entropie hergeleitet. Die von Gibbs ursprünglich angegebene Herleitung sieht anders aus. Gibbs verallgemeinerte das von Boltzmann angegebene ,,Verfahren der wahrscheinlichsten Verteilung`` auf ein Ensemble von makroskopisch gleichartigen Systemen, die miteinander in thermischem Kontakt stehen.

Gibbs betrachtete $M$ gleichartige Systeme ( $i=1, \dots , M$) mit je $N$ Teilchen. Die Summe der $M$ Systemenergien sollte dabei einen vorgegebenen Wert ${\cal{E}} = \sum_{i} E_{i}$ einhalten; dabei sollte aber ein ungehinderter Austausch von Energie zwischen den Systemen zugelassen sein. Unter diesen einfachen Voraussetzungen bestimmte er die Wahrscheinlichkeitsdichte dafür, ein System in der Umgebung eines Mikrozustandes $\vec{\Gamma}$ zu finden, dem eine Energie im Intervall $[E, \Delta E]$ zukommt. Diese Wahrscheinlichkeitsdichte nimmt mit wachsender Energie $E$ wie $\rho(\Gamma(E)) \propto \exp[-E/kT]$ ab. Da aber das Volumen der Energieschale mit wachsender Energie stark anwächst, lautet das Ergebnis, daß die meisten Systeme eine Energie um $\langle E \rangle = {\cal{E}}/M$ aufweisen werden. Die wichtige Äquivalenz von kanonischem und mikrokanonischem Ensemble ist also auch auf diesem Wege belegbar.

THERMODYNAMIK IM KANONISCHEN ENSEMBLE
Die Größe

\begin{displaymath}
Q(N,V,T) \equiv \frac{1}{N! g^{3N}} \int d\vec{r}  d \vec{v}
e^{-E(\vec{r},\vec{v} )/kT}
\end{displaymath} (4.25)

wird als kanonische Zustandssumme bezeichnet. Sie spielt zunächst einmal die Rolle eines Normierungsfaktors bei der Berechnung von Mittelwerten über das kanonische Ensemble. So ist beispielsweise die innere Energie gegeben durch
\begin{displaymath}
U \equiv \langle E \rangle = \frac{1}{Q(N,V,T)}  
\frac{1}...
...{r}  d \vec{v} E(\vec{r},
\vec{v})e^{-E(\vec{r},\vec{v} )/kT}
\end{displaymath} (4.26)

Die große praktische Bedeutung der Zustandssumme besteht aber darin, daß sie eng mit der Helmholtzschen freien Energie $A(N,V,T)$ zusammenhängt, die ja eine zentrale Größe der Thermodynamik ist. Der Zusammenhang lautet
\begin{displaymath}
Q(N,V,T) = e^{-\beta A(N,V,T)}
\end{displaymath} (4.27)

wo $\beta \equiv 1/kT$. Zum Beweis für diese Behauptung differenzieren wir die Identität
\begin{displaymath}
\frac{1}{N! g^{3N}} \int d\vec{r}  d \vec{v}
\; e^{\beta \left[A(N,V,T)-E(\vec{r},\vec{v} ) \right]}
=1
\end{displaymath} (4.28)

nach $\beta$; so erhalten wir
\begin{displaymath}
A(N,V,T)- \langle E \rangle
+ \beta \left( \frac{\partial A}{\partial \beta} \right)_{V}
=0
\end{displaymath} (4.29)

oder
\begin{displaymath}
A(N,V,T)- U(N,V,T) - T \left( \frac{\partial A}{\partial T} \right)_{V}
=0
\end{displaymath} (4.30)

Dies ist, mit $S \equiv - (\partial A / \partial T)_{V}$, identisch mit der wohlbekannten thermodynamischen Relation $A = U - T S$.

Alle übrigen thermodynamischen Größen können nun aus $A(N,V,T)$ berechnet werden. So ist z. B. der Druck gegeben durch

\begin{displaymath}
P = - \left( \frac{\partial A}{ \partial V} \right)_{T} \;\; ,
\end{displaymath} (4.31)

und Entropie bzw. Gibbssche freie Energie können aus
\begin{displaymath}
S = - \left( \frac{\partial A}{ \partial T} \right)_{V} \;\; {\rm und} \; \;
G = A + PV
\end{displaymath} (4.32)

bestimmt werden.

Beispiel 1: Für das klassische ideale Gas ist

\begin{displaymath}
Q(N,V,T) = \frac{m^{3N}}{N!h^{3N}}
\int d\vec{r}d\vec{v} \e...
...T}\sum \vert\vec{v}_{i}\vert^{2}]}
= \frac{1}{N!h^{3N}} q^{N}
\end{displaymath} (4.33)

wo

\begin{displaymath}
q \equiv \int d\vec{r}d\vec{v} \exp{[-\frac{m}{2kT} \vert\vec{v}\vert^{2}]}
= \left( \frac{2 \pi k T}{m}\right)^{3/2} V
\end{displaymath} (4.34)

Somit ist

\begin{displaymath}
Q(N,V,T) = \frac{1}{N!} \left( \frac{2 \pi m kT}{h^{2}} \right)^{3N/2}
V^{N}
\end{displaymath} (4.35)

Daraus folgt wegen $A \equiv - kT \ln Q$ und 4.31

\begin{displaymath}
P = \frac{NkT}{V}
\end{displaymath} (4.36)

also die wohlbekannte Zustandsgleichung des idealen Gases. Ebenso erhält man aus $S=-(\partial A / \partial T)_{V}$ die Entropie im Einklang mit Gl. 3.39.
Beispiel 2: Die freie Energie von einem Mol eines idealen Gases bei Normalbedingungen hat den Betrag (für eine Molekülmasse $m=16 m_{H}$)

\begin{displaymath}
A=-kT \ln{Q} = -3.91 \cdot 10^{7} J
\end{displaymath} (4.37)

Damit ist es uns gelungen, einzig aus der Betrachtung des Phasenraums von $N$ klassischen Massenpunkten die Thermodynamik des idealen Gases herzuleiten. Aber auch für andere Modellsysteme, mit je ihren zugehörigen Phasenräumen, lassen sich entsprechende Beziehungen für die beobachtbaren thermodynamischen Größen ableiten.

Das Konzept der ,,Zustandssumme`` läßt sich im Rückblick auch auf das mikrokanonische Ensemble anwenden. Die dort definierte Größe $\Sigma(N,V,E)$ war ja ebenfalls ein Maß für das Gesamtgewicht des zugänglichen Phasenraumvolumens. Man könnte sie daher durchaus als ,,mikrokanonische Zustandssumme`` bezeichnen. Und auch in diesem Fall diente ihr Logarithmus - also die Entropie - als Ausgangspunkt für die statistische Thermodynamik.

DER GLEICHVERTEILUNGSSATZ
Ohne Beweis sei der folgende wichtige Satz vermerkt:

\fbox{
\parbox[c]{420pt}{
Wenn in der {Energiefunktion} (Hamiltonfunktion) eine ...
...\uml {a}lt
der zugeh\uml {o}rige Freiheitsgrad im Mittel die Energie $kT/2$.
}
}


Beispiel 1: Beim klassischen idealen Gas ist die Hamiltonfunktion gegeben durch

\begin{displaymath}
H(\vec{v}) = \sum_{i=1}^{N} \sum_{\alpha=1}^{3} \frac{m v_{i \alpha}^{2}}{2}
\end{displaymath} (4.38)

Jeder der $3N$ Freiheitsgrade der Translation kommt also in der Form $ v_{i \alpha}^{2}$ vor. Der Gleichverteilungssatz besagt nun, daß für jede Geschwindigkeitskomponente gilt

\begin{displaymath}
\frac{m}{2} \langle v_{i \alpha}^{2} \rangle = \frac{kT}{2}...
...; \; \;
\frac{m}{2} \langle v_{i }^{2} \rangle = \frac{3kT}{2}
\end{displaymath} (4.39)


Beispiel 2: Jedes klassische Fluid, wie z. B. das Lennard-Jones-Fluid, hat bei beliebiger Dichte die Hamiltonfunktion

\begin{displaymath}
H(\vec{r},\vec{v}) = H_{pot}(\vec{r})
+ \sum_{i=1}^{N} \sum_{\alpha=1}^{3} \frac{m v_{i \alpha}^{2}}{2}
\end{displaymath} (4.40)

Jeder der $3N$ translatorischen Freiheitsgrade enthält daher im Mittel die Energie $kT/2$.

Beispiel 3: Ein System aus $N$ eindimensionalen harmonischen Oszillatoren ist durch die Energiefunktion

\begin{displaymath}
H(\vec{x},\dot{\vec{x}}) = H_{pot} + H_{kin}
= \frac{f}{2} \sum_{i=1} x_{i}^{2} +
\frac{m}{2} \sum_{i=1} \dot{x}_{i}^{2}
\end{displaymath} (4.41)

gekennzeichnet. Daher gilt

\begin{displaymath}
\frac{f}{2} \langle x_{i}^{2} \rangle = \frac{kT}{2} \; \; ...
...frac{m}{2} \langle \dot{x}_{i}^{2} \rangle = \frac{kT}{2}   .
\end{displaymath} (4.42)

Die gesamte Energie der $N$ Oszillatoren beträgt daher $E=NkT$. Die Verallgemeinerung auf 3 Dimensionen ist trivial; sie führt zu dem Ergebnis $E_{id.Krist.}=3NkT$. Für die spezifische Wärme ergibt sich somit $C_{V} \equiv (\partial E/ \partial T)_{V} = 3Nk$. Diese Voraussage stimmt mit experimentellen Ergebnissen für kristalline Festkörper bei hohen Temperaturen überein. Bei niedrigen Temperaturen - und damit kann, je nach Substanz, durchaus auch Zimmertemperatur oder mehr gemeint sein - bricht die klassische Beschreibung zusammen, und wir müssen quantenmechanische Regeln anwenden, um $C_{V}$ und andere thermodynamische Observable richtig vorhersagen zu können (siehe Kapitel 5).

Beispiel 4: Ein Fluid aus $N$ ,,Hantelmolekülen`` mit je $3$ translatorischen und $2$ rotatorischen Freiheitsgraden hat die Hamiltonfunktion

\begin{displaymath}
H(\vec{r},\vec{e},\dot{\vec{r}}, \dot{\vec{e}}) =
H_{pot}(\...
...ha}^{2}}{2}
+ \sum_{i, \beta} \frac{I \omega_{i \beta}^{2}}{2}
\end{displaymath} (4.43)

wo $\vec{e}$ die Richtungsvektoren der linearen Moleküle, $\omega$ deren Winkelgeschwindigkeit und $I$ das molekulare Trägheitsmoment bezeichnet. Somit ist

\begin{displaymath}
\frac{m}{2} \langle v_{i}^{2} \rangle = \frac{3 kT}{2} \;\;\...
...frac{I}{2} \langle \omega_{i}^{2} \rangle = \frac{2 kT}{2}  .
\end{displaymath} (4.44)



DAS CHEMISCHE POTENTIAL
Wenn zwei Systeme untereinander Energie austauschen können, führt dies zu einem Ausgleich der Temperatur $T$ (siehe Abschnitt 4.1). Die Energien $E_{1}, E_{2}$ der beiden Systeme schwanken darnach - meist nur geringfügig - um je einen Mittelwert.

Lassen wir nun zu, daß auch Teilchen zwischen den beiden Systemen hin- und herwechseln können. Auch in diesem Fall wird es zu einem Ausgleich kommen; darnach werden die Teilchenzahlen $N_{1}, N_{2}$ nur mehr geringfügig schwanken. Der Teilchenaustausch wird genau dann zum Stillstand kommen, wenn die freie Energie des kombinierten Systems, $A=A_{1}+A_{2}$ sich nicht mehr verändert. Das ist dann der Fall, wenn $ (\partial A_{1} / \partial N)_{V} = (\partial A_{2} / \partial N)_{V} $. Die Größe, die den Gleichgewichtszustand bestimmt, ist somit gegeben durch $\mu \equiv (\partial A / \partial N)_{V}$. Die beiden Systeme tauschen also so lange Teilchen untereinander aus, bis $\mu_{1}=\mu_{2}$. (Man vergleiche diese Definition des chemischen Potentials mit der Definition der Temperatur, $(\partial S / \partial E)_{V}^{-1}$).)

Beispiel: Das chemische Potential für das obige ideale Gas bei Normalbedingungen hat den Wert

\begin{displaymath}
\mu \equiv \frac{d A}{dN} = -kT \frac{d\ln{Q}}{dN}
= -kT \l...
... m k T}{h^{2}} \right)^{3/2}
\right] = - 6.08 \cdot 10^{-20} J
\end{displaymath} (4.45)



SIMULATION IM KANONISCHEN ENSEMBLE: DIE MONTE CARLO-RECHNUNG
Auch für die korrekte Durchmusterung der Zustände mit gegebenen $(N,V,T)$ (anstelle von $(N,V,E)$) läßt sich eine numerische Methode angeben. Da in diesemFall der Boltzmannfaktor das statistische Gewicht eines Mikrozustandes $\vec{\Gamma} \equiv \{ \vec{r}_{i}, \vec{v}_{i}\}$ angibt, gilt für den Mittelwert irgendeiner Größe $a(\vec{\Gamma})$, daß
\begin{displaymath}
\langle a \rangle_{N,V,T} = \int a(\vec{\Gamma })
\exp{[-E(...
...\vec{\Gamma}
/ \int \exp{[-E(\vec{\Gamma })/kT]}d\vec{\Gamma }
\end{displaymath} (4.46)

Wenn die Größe $a$ nur von Teilchenpositionen, nicht aber von Geschwindigkeiten abhängt (potentielle Energie, Virial, etc.), genügt sogar ein gewichtetes Integral über den $3N$-dimensionalen konfigurationellen Unterraum $\vec{\Gamma}_{c} \equiv \left\{ \vec{r}_{i} \right\}$ des vollständigen Phasenraums;
\begin{displaymath}
\langle a \rangle_{N,V,T} = \int a(\vec{\Gamma}_{c})
\exp{[...
.../ \int
\exp{[-E_{pot}(\vec{\Gamma}_{c})/kT]}d\vec{\Gamma}_{c}
\end{displaymath} (4.47)

Man ersetzt die Integrale durch Summen und versucht so einen Schätzwert für $\langle a \rangle$ zu ermitteln. Dazu erzeugt man eine lange Folge von zufällig ausgewählten Zuständen $\vec{\Gamma}_{c}(m); m=1, \dots M $, und zwar so, daß die verschiedenen Zustände darin gleich mit denjenigen relativen Häufigkeiten auftreten, die ihnen gemäß ihren Boltzmannfaktoren zustehen; Konfigurationen mit hoher potentieller Energie kommen also seltener vor als solche mit kleinem $E_{pot}$. Die gängige Methode zur Herstellung einer solchen präparierten Zufallsfolge (einer sogenannten ,,Markov-Kette``) bezeichnet man als ,,Metropolis-Verfahren``, nach ihrem Erfinder Nicholas Metropolis.

Da der Boltzmannfaktor nun schon in den Häufigkeiten berücksichtigt ist, kann man den Mittelwert ganz einfach gemäß

\begin{displaymath}
\langle a \rangle = \frac{1}{M} \sum_{m=1}^{M} a
\left(\vec{\Gamma}_{c}(m)\right)
\end{displaymath} (4.48)

ausrechnen. Eine ausführliche Beschreibung der Monte Carlo-Methode ist in [Vesely 1978] zu finden.

Es gibt übrigens auch eine Art der Molekulardynamikrechnung, die zur Simulation in der kanonischen Gesamtheit verwendet werden kann. Normalerweise wird bei MD-Rechnungen ja die gesamte Systemenergie, also $E_{ges} = E_{kin}+E_{pot}$, konstant gehalten, was einer Durchmusterung der mikrokanonischen Gesamtheit entspricht. Führt man aber eine Art von numerischem Thermostaten ein, der bei jedem Zeitschritt die Teilchengeschwindigkeiten (und damit $E_{kin}$) geeignet adjustiert, dann kann man entweder $E_{kin}=const$ erzwingen (isokinetische MD-Simulation) oder $T \propto \langle
E_{kin}\rangle$ (isotherme MD).


next up previous
F. J. Vesely / StatPhys Tutorial, Deutsch, 2001-2003