next up previous


1.3 Grundbegriffe der Statistik

Unter ,,Statistik`` versteht man die Untersuchung von Regelmäßigkeiten bei nicht-deterministischen Vorgängen. Ein wichtiges Werkzeug bei diesem Unterfangen ist die ,,relative Häufigkeit`` eines ,,Ereignisses``. Nehmen wir an, ein Versuch (z.B. das Werfen eines Würfels) ergebe jeweils eines von mehreren möglichen Ereignissen $e$ (z.B. $e \equiv Augenzahl = 4$). Nun führe man diesen Versuch unter möglichst gleichartigen Bedingungen $n$-mal durch; das spezielle Ergebnis $e$ trete dabei $f_{n}(e)$-mal auf. Dann bezeichnet man als relative Häufigkeit von $e$ den Quotienten aus der Anzahl der Ergebnisse $e$ und der Gesamtzahl $n$ der Versuche: $r(e)$ $\equiv f_{n}(e)/n$.

Als ,,Wahrscheinlichkeit`` eines Ereignisses $e$ bezeichnen wir (nach R. v. Mises) den erwarteten Wert der relativen Häufigkeit im Grenzfall beliebig vieler Versuche ceteris paribus:

\begin{displaymath}
{\cal P}(e) \equiv \lim_{n \rightarrow \infty} \frac{f_{n}(e)}{n}
\end{displaymath} (1.14)

BEISPIEL: Spielwürfel; 100-1000 Versuche; $e \equiv \{Augenzahl = 6\}$, oder $e \equiv \{Augenzahl $ $ \leq 3\}$.
Diese Definition setzt zunächst noch voraus, daß schon Versuche zur Bestimmung der relativen Häufigkeit durchgeführt wurden; sie besagt eigentlich nur, daß künftige Versuche wieder dieselben relativen Häufigkeiten ergeben werden. Sie gibt uns aber kein Rezept zur Vorhersage von ${\cal P}(e)$ in die Hand. Um eine solche Rechenvorschrift zu finden, müssen wir das Ereignis $e$ auf ,,Elementarereignisse`` $\epsilon$ zurückführen, die dem Postulat der gleichen a priori-Wahrscheinlichkeit genügen. Die Wahrscheinlichkeit für jedes einzelne unter insgesamt $K$ möglichen Elementarereignissen ist dann nämlich ${\cal P}(\epsilon_{i}) = 1/K$, und die Wahrscheinlichkeit eines zusammengesetzten Ereignisses $e$ kann aus
$\displaystyle {\cal P}(e = \epsilon_{i} \; oder \; \epsilon_{j})$ $\textstyle =$ $\displaystyle {\cal P}(\epsilon_{i})
+{\cal P}(\epsilon_{j})$ (1.15)
$\displaystyle {\cal P}(e = \epsilon_{i} \; und \; \epsilon_{j})$ $\textstyle =$ $\displaystyle {\cal P}(\epsilon_{i})
\cdot{\cal P}(\epsilon_{j})$ (1.16)

bestimmt werden. Die Vorausberechnung der Wahrscheinlichkeit reduziert sich somit auf das Abzählen der möglichen Elementarereignisse.
BEISPIEL: Das Ereignis $\epsilon_{6} \equiv \{Augenzahl =6\}$ ist eines unter $6$ einander ausschließenden Elementarereignissen mit gleicher a priori-Wahrscheinlichkeit ($=1/6$). Das Ereignis $e \equiv \{ Augenzahl \leq 3\}$ setzt sich aus den Elementarereignissen $\epsilon_{i} =\{1, 2   oder   3 \}$ zusammen; seine Wahrscheinlichkeit ist also ${\cal P}(1\vee 2\vee 3)= 1/6 + 1/6 + 1/6 = 1/2$.


In der statistischen Mechanik werden Ereignisse der folgenden Art untersucht: $N$ gleichartige Systeme können sich jeweils in einem der Zustände $s_{1}, s_{2}, \dots   s_{K}$ befinden; wie groß ist die Wahrscheinlichkeit für
\begin{displaymath}
e \equiv \{ k_{1}   Systeme  im   Zustand   s_{1}, \;
k_{2}   Systeme  im   Zustand   s_{2},   usw. \}
\end{displaymath} (1.17)


BEISPIEL: $N=60$ Spielwürfel werden geworfen (oder ein Würfel $60$mal!). Wie groß ist die Wahrscheinlichkeit dafür daß je 10 Würfel die Augenzahl $1, 2, \dots   6$ zeigen? Wie wahrscheinlich ist es demgegenüber, daß alle Würfel die Augenzahl $1$ zeigen?

Dasselbe Beispiel, aber mit deutlicher physikalischem Inhalt:
$N=60$ Gasatome befinden sich in einem Volumen $V$, das wir uns in $6$ gleich große Teilvolumina unterteilt denken. Wie groß ist die Wahrscheinlichkeit dafür, daß zu einem beliebigen Zeitpunkt je $k_{i}=10$ Teilchen in jedem Teilvolumen zu finden sind? Und wie wahrscheinlich ist die Aufteilung $(60,0,0,0,0,0$)? (Antwort: siehe weiter unten unter ,,Multinomialverteilung``.)
In den meisten Fällen können wir sowohl die Zahl $N$ der Systeme als auch die Anzahl der erlaubten Zustände $K$ als sehr groß (im ,,thermodynamischen Grenzfall`` sogar als unendlich groß) annehmen. Dabei treten einige Besonderheiten auf, die eine statistische Behandlung solcher Fragen vereinfachen.

Bevor wir uns mit diesen Fragen beschäftigen, wollen wir einige Elemente der Statistik und Wahrscheinlichkeitsrechnung rekapitulieren. Dabei konzentrieren wir uns auf Ereignisse, die sich auf Vergleiche im Zahlenraum beziehen, und zwar im allgemeinen in $\cal R$, manchmal auch in $\cal N$.


VERTEILUNGSFUNKTION
Sei $x$ eine reelle Zufallsgröße aus dem Wertebereich $(a,b)$. Dann bezeichnen wir als Verteilungsfunktion

\begin{displaymath}
P(x_{0}) \equiv {\cal P} \{x < x_{0}\}
\end{displaymath} (1.18)

die Wahrscheinlichkeit dafür, daß $x$ kleiner als ein gegebener Wert $x_{0}$ ist. Die Funktion $P(x)$ ist monoton steigend, mit $P(a)=0$ und $P(b)=1$. Die Verteilungsfunktion ist dimensionslos: $\left[ P(x) \right] =
1$.

Das einfachste Beispiel ist die Gleichverteilung, für die gilt

\begin{displaymath}
P(x_{0})= \frac{x_{0}-a}{b-a}
\end{displaymath} (1.19)

Ein weiteres wichtiges Beispiel, mit $a=- \infty$, $b=\infty$, ist die Normalverteilung
\begin{displaymath}
P(x_{0})= \frac{1}{\sqrt{2\pi}} \int_{-\infty}^{x_{0}}
dx   e^{-x^{2}/2}
\end{displaymath} (1.20)

bzw. ihre Verallgemeinerung, die Gaußverteilung
\begin{displaymath}
P(x_{0})= \frac{1}{\sqrt{2\pi \sigma^{2}}} \int_{-\infty}^{x_{0}}
dx   e^{-(x- \langle x \rangle)^{2}/2 \sigma^{2}}
\end{displaymath} (1.21)

wo die Parameter $\langle x \rangle$ und $\sigma^{2}$ eine Schar von Funktionen definieren.


VERTEILUNGSDICHTE
Die Verteilungs- oder Wahrscheinlichkeitsdichte $p(x)$ ist definiert durch die Identität
\begin{displaymath}
p(x_{0})   dx \equiv {\cal P} \{ x \in [x_{0}, x_{0}+dx] \}
\equiv dP(x_{0})
\end{displaymath} (1.22)

$p(x)$ ist also nichts anderes als der Differentialquotient der Verteilungsfunktion:
\begin{displaymath}
p(x)= \frac{dP(x)}{dx}   , \;\;\; {\rm d.h.} \;\; P(x_{0})=
\int_{a}^{x_{0}} p(x)   dx
\end{displaymath} (1.23)

Die Dimension von $p(x)$ ist gleich dem Kehrwert der Dimension von $x$:
\begin{displaymath}
\left[ p(x) \right] = \frac{1}{[x]}
\end{displaymath} (1.24)

Für die Gleichverteilung ist
\begin{displaymath}
p(x)= 1/(b-a),
\end{displaymath} (1.25)

und für die Normalverteilung gilt
\begin{displaymath}
p(x)= \frac{1}{\sqrt{2\pi}}   e^{-x^{2}/2}.
\end{displaymath} (1.26)

Wenn $x$ nur diskrete Werte $x_{\alpha}$ annehmen kann, die sich um den Betrag $\Delta x_{\alpha} \equiv x_{\alpha+1}-x_{\alpha}$ unterscheiden, dann verwendet man die Schreibweise

\begin{displaymath}
p_{\alpha} \equiv p(x_{\alpha})  \Delta x_{\alpha}
\end{displaymath} (1.27)

für die Wahrscheinlichkeit des Ereignisses $x=x_{\alpha}$. Dieses $p_{\alpha}$ ist nach Definition dimensionslos, obwohl es mit der Verteilungsdichte $p(x)$ für kontinuierliche Zufallsvariable verwandt ist. Die Definition 1.27 schließt auch den Fall ein, daß $x$ nur ganzzahlige Werte $k$ annehmen kann; dann gilt eben $\Delta x_{\alpha} = 1$.


MOMENTE EINER VERTEILUNGSDICHTE
Damit sind die Größen
\begin{displaymath}
\langle x^{n} \rangle \equiv \int_{a}^{b} x^{n} p(x)   dx \...
...en \; Fall, \;}
\equiv \sum_{\alpha} p_{\alpha} x_{\alpha}^{n}
\end{displaymath} (1.28)

gemeint. Das erste Moment $\langle x \rangle$ wird als Erwartungswert oder Mittelwert zur Verteilungsdichte $p(x)$ bezeichnet, und das zweite Moment $ \langle x^{2} \rangle $ hängt mit der Varianz bzw. Streuung zusammen: $\sigma^{2} = \langle x^{2} \rangle -
\langle x \rangle ^{2}$ (Streuung $\sigma$ = Wurzel aus Varianz).

BEISPIELE:
.) Für eine Gleichverteilung $\epsilon [0, 1]$ ist $\langle x \rangle = 1/2$, $\langle x^{2} \rangle =1/3$ und $\sigma^{2}= 1/12$.
.) Für die Normalverteilung gilt $\langle x \rangle =0$ und $\langle x^{2}
\rangle =\sigma^{2}=1$.



EINIGE WICHTIGE VERTEILUNGEN

$\bullet$ Gleichverteilung: Ihre große Bedeutung rührt daher, daß sie sowohl in der statistisch-mechanischen Theorie als auch in der Praxis des numerischen Rechnens eine zentrale Rolle spielt. Eine Grundannahme der Statistischen Mechanik lautet nämlich, daß alle Zustände eines Systems, die die gleiche Energie aufweisen, mit gleicher Wahrscheinlichkeit auftreten (Axiom der gleichen a priori-Wahrscheinlichkeit). Und in der numerischen Praxis ist die Erzeugung gleichverteilter Pseudo-Zufallszahlen relativ einfach; zu anders verteilten Zufallszahlen gelangt man durch ,,Weiterverarbeitung`` der primär erzeugten gleichverteilten Zahlen.

$\bullet$ Gaußverteilung: Ihre Allgegenwart in den messenden Wissenschaften erklärt sich aus dem ,,zentralen Grenzwertsatz``: Jede Zufallsgröße, die als Summe beliebig verteilter Zufallsgrößen ausgedrückt werden kann, ist im Grenzfall vieler Summenglieder gaußverteilt. Addieren sich zum Beispiel in einem komplexen Meßvorgang mehrere Einzelfehler (bzw. -unsicherheiten) zu einem Gesamt-Meßfehler, dann ist dieser nahezu gaußverteilt. Aber auch andere physikalisch wichtige Verteilungen, insbesondere die Binomial- und die Multinomialverteilung (s. u.) nähern sich unter gewissen - oft erfüllten - Bedingungen der Gaußverteilung an.

Abbildung 1.3: Gleichverteilung und Normalverteilung: Verteilungsfunktion P und -dichte p
\begin{figure}\includegraphics[width=180pt]{fig/f1glv.ps}
\includegraphics[width=180pt]{fig/f1nvd.ps}
\end{figure}


$\bullet$ Binomialverteilung: Diese diskrete Verteilung gibt die Wahrscheinlichkeit dafür an, daß bei $n$ unabhängigen Versuchen ein Ereignis, dem beim Einzelversuch die Wahrscheinlichkeit $p$ zukommt, genau $k$-mal auftritt:
$\displaystyle p_{k}^{n}$ $\textstyle \equiv$ $\displaystyle {\cal P} \{ k{\rm -mal\; e \; in \; n \; Versuchen}\}$  
  $\textstyle =$ $\displaystyle {n \choose k} p^{k} (1-p)^{n-k}$ (1.29)

Für die ersten beiden Momente der Binomialverteilung gilt $\langle k \rangle
=np$ (also nicht notwendigerweise ganzzahlig) und $\sigma^{2}= np(1-p)$ (d.i. $\langle k^{2}
\rangle - \langle k \rangle ^{2}$).

Abbildung 1.4: Binomialverteilung: Verteilungsdichte $p_{k}^{n}$
\begin{figure}\includegraphics[width=300pt]{fig/f1bvd.ps}
\end{figure}


ANWENDUNG: Schwankungserscheinungen in statistischen Systemen lassen sich häufig durch die Binomialverteilung beschreiben. Betrachten wir zum Beispiel ein Teilchen, das sich in einem gegebenen Volumen $V$ beliebig bewegen kann. Die Wahrscheinlichkeit dafür, daß es sich zu irgendeinem Zeitpunkt in einem bestimmten Teilvolumen $V_{1}$ aufhält, ist $p(V_{1})=V_{1}/V$. Befinden sich nun $N$ voneinander unabhängige Teilchen in $V$, dann ist die Wahrscheinlichkeit dafür, $N_{1}$ Teilchen in $V_{1}$ zu finden, gegeben durch

\begin{displaymath}
p_{N_{1}}^{N} = {N \choose N_{1}} (V_{1}/V)^{N_{1}} (1-V_{1}/V)^{N-N_{1}}
\end{displaymath} (1.30)

und Mittelwert und Streuung sind gegeben durch

\begin{displaymath}
\langle N_{1} \rangle = N V_{1}/V \;\; {\rm und} \; \;
\sigm...
...sqrt{(\Delta N_{1})^{2}}
= \sqrt{N (V_{1} / V) (1-V_{1}/V)}.
\end{displaymath} (1.31)

Man beachte, daß für $Np \approx 1$ gilt, daß $\sigma^{2} \approx \sigma \approx \langle N_{1} \rangle \approx 1$, daß also die Schwankungen der Teilchenzahl im Teilvolumen $V_{1}$ in solchen Fällen von derselben Größenordnung (nämlich 1) sind wie die mittlere Teilchenzahl in diesem Teilvolumen.
Für große $n$ geht die Binomialverteilung in die Gaußverteilung über (Satz von Moivre-Laplace):
\begin{displaymath}
\lim_{n \rightarrow \infty} p_{k}^{n} = \frac{1}{\sqrt{2 \pi npq}}
\exp{[-(k-np)^{2}/2npq]}
\end{displaymath} (1.32)

mit $q \equiv 1-p$.

Wenn zugleich $n \rightarrow \infty$ und $p \rightarrow 0$ gehen, so daß das Produkt $np \equiv \lambda$ endlich bleibt, dann geht Gl. 1.29 über in

\begin{displaymath}
p_{n}(k) = \frac{\lambda^{k}}{k!} e^{-\lambda}
\end{displaymath} (1.33)

Dieser Grenzfall der Binomialverteilung heißt Poissonverteilung.

Für den Erfolg der Statistischen Mechanik von größter Wichtigkeit ist die mit $n$ zunehmende Schärfe der Verteilung 1.29 bzw. 1.32. Die relative Breite des Maximums, also $\sigma/\langle k
\rangle $, nimmt nämlich mit $1/\sqrt{n}$ ab. Für $n=10^{4}$ beträgt die Breite des Peaks somit nur mehr $1 \%$ von $\langle k \rangle $, und für ,,molare`` Größenordnungen $n \approx 10^{24}$ ist $\sigma/\langle k
\rangle $ schon $\approx 10^{-12}$. Die Verteilung nähert sich also einer ,,Delta-Verteilung`` an. Dadurch wird die Berechnung von Mittelwerten besonders einfach:

\begin{displaymath}
\langle f(k) \rangle = \sum_{k} p_{k}^{n}f(k) \rightarrow f(\langle k \rangle )
\end{displaymath} (1.34)

oder
\begin{displaymath}
\langle f(k) \rangle \approx \int dk   \delta (k-\langle k \rangle) f(k)
= f(\langle k \rangle )
\end{displaymath} (1.35)



$\bullet$ Multinomialverteilung: Verallgemeinerung der Binomialverteilung auf mehr als 2 mögliche Ergebnisse pro Versuch. Seien $e_{1},e_{2},\dots ,e_{K}$ die (einander ausschließenden) möglichen Ergebnisse eines Experiments; ihre Wahrscheinlichkeiten im Einzelversuch seien $p_{1},p_{2},\dots, p_{K}$, mit $\sum_{i}^{K}p_{i}=1$. Der Versuch werde $n$-mal wiederholt. Dann ist
\begin{displaymath}
p_{n}(k_{1},k_{2},\dots, k_{K}) = \frac{n!}{k_{1}! k_{2}! \d...
...ts p_{K}^{k_{K}}
\;\;\;(mit \;\;k_{1}+k_{2}+ \dots +k_{K} = n)
\end{displaymath} (1.36)

die Wahrscheinlichkeit dafür, daß das Ereignis $e_{1}$ gerade $k_{1}$-mal auftritt, $e_{2}$ eben $k_{2}$-mal usw.

Die Bedeutung dieser Verteilung für die Statistische Physik läßt sich erahnen, wenn man beispielsweise die $K$ möglichen Ergebnisse als ,,Zustände`` auffaßt, die den $n$ Teilchen eines Systems (oder auch den $n$ Systemen in einer Gesamtheit von Vielteilchensystemen) zugänglich sind. Die obige Formel gibt dann die Wahrscheinlichkeit dafür an, daß $k_{1}$ der $n$ Teilchen (bzw. Systeme) im Zustand $e_{1}$ sind etc. etc.

BEISPIEL: Ein Spielwürfel werde $60$ mal geworfen. Die Wahrscheinlichkeit dafür, daß jede Augenzahl genau $10$ mal erscheint, ist

\begin{displaymath}
p_{60}(10,10,10,10,10,10) = \frac{60!}{(10!)^{6}}
\left( \frac{1}{6}\right)^{60} = 7.457 \cdot 10^{-5}   .
\end{displaymath} (1.37)

Im Vergleich dazu lauten die Wahrscheinlichkeiten für zwei andere Aufteilungen: $p_{60}(10,$ $10,10,10,9,11) $ $= 6.778 \cdot 10^{-5}$, $p_{60}(15,15,15,5,5,5) $ $= 4.406 \cdot 10^{-8}$. Für die ganz unwahrscheinliche Aufteilung $(60,0,0,0,0,0) $ erhalten wir schließlich $p_{60}=2.046 \cdot 10^{-47}$

Wegen der großen Zahl ($K$) ihrer Variablen läßt sich die Multinomialverteilung nicht mehr sinnvoll graphisch darstellen. Zwei wichtige Eigenschaften dieser Verteilung sind aber leicht herzuleiten; sie sollen hier ohne Beweis festgestellt werden:

Annäherung an multivariate Gaußverteilung: wie die Binomialverteilung für große Werte von $n$ in eine Gaußverteilung übergeht, so nähert sich die Multinomialverteilung einer entsprechend verallgemeinerten - eben ,,multivariaten`` - Gaußverteilung an.

Zunehmende Schärfe: wenn $n$ und $k_{1}\dots k_{K}$ sehr große Zahlen sind (Vielteilchensysteme, Ensembles mit $n \rightarrow \infty$ Elementen), dann hat die Funktion $p_{n}(k_{1},k_{2},\dots, k_{K})$ $ \equiv p_{n} (\vec{k})$ ein extrem scharfes Maximum bei einer ganz bestimmten ,,Aufteilung`` $\vec{k}^{*}\equiv \{ k_{1}^{*}, k_{2}^{*}, \dots, k_{K}^{*}\}$, nämlich $\{ k_{i}^{*}$ $=n p_{i};   i=1, \dots, K \}$. Diese besondere Aufteilung der Teilchen auf die verschiedenen möglichen Zustände ist dann ,,fast immer`` realisiert, und alle anderen Aufteilungen spielen nur eine verschwindend kleine Rolle (treten selten auf, haben geringes statistisches Gewicht ...).

Auf dieser Eigenschaft beruht die Methode der wahrscheinlichsten Verteilung, die in verschiedenen Bereichen der statistischen Physik mit Vorteil angewandt wird (siehe Abschnitt 2.2).

DIE STIRLING-NÄHERUNG
Für große Werte von $m$ ist die Auswertung der Fakultät $m!$ schwierig. Hier bedient man sich der Stirling-Näherung

\begin{displaymath}
m! \approx \sqrt{2 \pi m}  (m/e)^{m}
\end{displaymath} (1.38)

BEISPIEL: $m=69$ (Taschenrechner-Grenze): $69! = 1.7112 \cdot 10^{98}$; $\sqrt{2 \pi \cdot 69}   (69/e)^{69} = 1.7092 \cdot 10^{98}$.
Ebenfalls unter dem Namen Stirling-Näherung findet man in der Literatur die folgende Formel für den Logarithmus der Fakultät:
\begin{displaymath}
\ln   m! \approx m (\ln   m -1) + \ln \sqrt{2 \pi m} \approx m (\ln   m -1)
\end{displaymath} (1.39)

(Der Term $\ln \sqrt{2 \pi m}$ kann gegenüber $m (\ln   m -1)$ vernachlässigt werden).

BEISPIEL 1: $\ln   69! = 226.1905$; $69(\ln   69 - 1)
+ \ln \sqrt{2 \pi \cdot 69} = 223.1533 + 3.0360 = 226.1893$.

BEISPIEL 2: Wieder soll der Spielwürfel geworfen werden, diesmal aber $120$ mal. (Die meisten Taschenrechner werden sich weigern, $120!$ usw. auszurechnen). Die Wahrscheinlichkeit dafür, daß jede Augenzahl genau $20$ mal erscheint, ist

\begin{displaymath}
p_{120}(20,\dots,20) = \frac{120!}{(20!)^{6}}
\left( \frac{...
...t)^{20} \frac{1}{20!}
\right]^{6}
= 1.350 \cdot 10^{-5}   ,
\end{displaymath} (1.40)

und die Wahrscheinlichkeit für die Aufteilung $(20,20,20,20,19,21) $ lautet $ 1.285 \cdot 10^{-5}$.


STATISTISCHE (UN-)ABHÄNGIGKEIT
Zwei Zufallsvariable $x_{1},x_{2}$ sind statistisch voneinander unabhängig (unkorreliert), wenn die Verteilungsdichte der Verbundwahrscheinlichkeit (also der Wahrscheinlichkeit für das gemeinsame Auftreten von $x_{1}$ und $x_{2}$) gleich dem Produkt der Einzeldichten ist:
\begin{displaymath}
p(x_{1},x_{2}) = p(x_{1})   p(x_{2})  .
\end{displaymath} (1.41)

BEISPIEL: In einem Fluid oder Gas ist die Verteilungsdichte für eine einzelne Komponente der Geschwindigkeit eines Teilchens gegeben durch (Maxwell-Boltzmann)

\begin{displaymath}
p(v_{\alpha}) = \sqrt{\frac{m}{2 \pi kT}}  
\exp\{-\frac{m v_{\alpha}^{2}}{2 k T} \}, \;\; \alpha = x,y,z
\end{displaymath} (1.42)

Die Freiheitsgrade $\alpha = x,y,z$ sind statistisch voneinander unabhängig; daher gilt für die Verbundwahrscheinlichkeit

\begin{displaymath}
p(\vec{v}) \equiv p(v_{x},v_{y},v_{z}) = p(v_{x}) p(v_{y}) p...
...3/2}
\exp\{-\frac{m}{2 kT} (v_{x}^{2}+v_{y}^{2}+v_{z}^{2}) \}
\end{displaymath} (1.43)

Als bedingte Verteilungsdichte bezeichnet man die Größe
\begin{displaymath}
p(x_{2} \vert x_{1}) \equiv \frac{p(x_{1},x_{2})}{p(x_{1})}
\end{displaymath} (1.44)

(Für unkorrelierte $x_{1},x_{2}$ ist $p(x_{2} \vert x_{1}) =$ $p(x_{2})$).

Die Dichte der Randverteilung beschreibt die Dichte einer der Variablen, unabhängig vom konkreten Wert der anderen, d.h. also integriert über alle möglichen Werte der zweiten Variablen:

\begin{displaymath}
p(x_{2}) \equiv \int_{a_{1}}^{b_{1}} p(x_{1},x_{2})   dx_{1}
\end{displaymath} (1.45)




TRANSFORMATION VON VERTEILUNGSDICHTEN
Aus Gleichung 1.22 können wir sofort eine Vorschrift für die Transformation der Verteilungsdichte $p(x)$ bei einer Variablensubstitution $x \leftrightarrow y$ ableiten. Ist nämlich eine bijektive Abbildung $y=f(x); \; x=f^{-1}(y)$ gegeben, und kennen wir die Verteilungsdichte $p(x)$, dann muß wegen der Erhaltung der Wahrscheinlichkeit gelten
\begin{displaymath}
\vert dP(y) \vert = \vert dP(x)\vert
\end{displaymath} (1.46)

(Der Absolutwert tritt hier auf, weil ja nicht verlangt war, daß die Funktion $f(x)$ steigend sein muß). Daraus folgt aber
\begin{displaymath}
\vert p(y)   dy \vert = \vert p(x) dx\vert
\end{displaymath} (1.47)

oder
\begin{displaymath}
p(y)= p(x)   \left\vert \frac{dx}{dy}\right\vert
= p[f^{-1}(y)]   \left\vert \frac{df^{-1}(y)}{dy} \right\vert
\end{displaymath} (1.48)

Übrigens gilt diese Beziehung für jede Art von Dichte (Massen-, Spektraldichte usw.), nicht nur für Verteilungsdichten.
BEISPIEL 1: Ein Teilchen der Masse $m$, das sich in einer Dimension bewegen kann, möge mit gleicher Wahrscheinlichkeit alle Geschwindigkeiten zwischen $\pm v_{0}$ annehmen können; es gilt also $p(v)=1/2v_{0}$. Die Verteilungsdichte der kinetischen Energie ist dann gegeben durch (siehe Abb. 1.5)

\begin{displaymath}
p(E) = 2 p(v) \left\vert \frac{dv}{dE} \right\vert
= \frac{1}{2 \sqrt{E_{0}}} \frac{1}{\sqrt{E}}
\end{displaymath} (1.49)

in den Grenzen $0 .. E_{0}$, mit $E_{0}=mv_{0}^{2}/2$. (Der Faktor $2$ vor $p(v)$ kommt von der Zweideutigkeit der Abbildung $v \leftrightarrow E$).


Abbildung 1.5: Transformation der Verteilungsdichte (zu Beispiel 1)
\begin{figure}\includegraphics[width=180pt]{fig/f1tr1.ps}
\includegraphics[width=180pt]{fig/f1tr2.ps}
\end{figure}


BEISPIEL 2: Ein Objekt sei mit gleicher Wahrscheinlichkeit an jedem Punkt einer Kreisperipherie zu finden; also $p(\phi) = 1/2 \pi$ für $\phi   \epsilon   [ 0, 2 \pi ]$. Führt man cartesische Koordinaten $x = r \cos \phi$, $y = r \sin \phi$ ein, dann ist die Verteilungsdichte für die x-Koordinate, mit $x   \epsilon   [\pm r]$, gegeben durch (siehe Abb. 1.6)

\begin{displaymath}
p(x) = p(\phi) \left\vert \frac{d \phi}{dx} \right\vert
= \frac{1}{\pi} \frac{1}{\sqrt{r^{2}-x^{2}}}
\end{displaymath} (1.50)

Zu Beispiel 2 äquivalente Probleme:
a) Gleichmäßig geschwärzter Glaszylinder - oder auch ein halbdurchsichtiger Kunststoff-Trinkhalm - in Seitenansicht: Absorption?
b) Verteilung der x-Geschwindigkeit eines Teilchens, das sich in 2 Dimensionen beliebig bewegen kann, wobei seine kinetische Energie vorgegeben ist.

$\Rightarrow \;$ Simulation 1.6: Sinai-Billard. Verteilungsdichte der Geschwindigkeitskomponente $v_{x}$. [Code: Sinai]

c) Verteilung der Geschwindigkeit eines von 2 Teilchen gleicher Masse, die sich beliebig in einer Dimension bewegen können, wobei die Summe ihrer kinetischen Energien vorgegeben ist.



Abbildung 1.6: Transformation der Verteilungsdichte (zu Beispiel 2)
\begin{figure}\includegraphics[width=180pt]{fig/f1tr3.ps}
\includegraphics[width=180pt]{fig/f1tr4.ps}
\end{figure}
Für die gemeinsame Verteilungsdichte mehrerer Variabler lautet die Transformationsformel, in direkter Verallgemeinerung von 1.48,
\begin{displaymath}
p(\vec{y})= p(\vec{x})   \left\vert \frac{d\vec{x}}{d\vec{y}}\right\vert
\end{displaymath} (1.51)

Darin bedeutet $\left\vert d\vec{x}/d\vec{y}\right\vert $ die Funktionaldeterminante der Abbildung $\vec{x} = \vec{x}(\vec{y})$,
\begin{displaymath}
\left\vert d(x_{1},x_{2}, \dots)/d(y_{1},y_{2},\dots)\right\...
.../dy_{2} & \dots \\
\vdots & & \ddots
\end{array}\right\vert
\end{displaymath} (1.52)



BEISPIEL 3:Sei wieder $\vec{v} \equiv \{v_{x},v_{y},v_{z}\}$, und $p(\vec{v})$ wie in Gl. 1.43. Schreiben wir nun $\vec{w}$ $ \equiv \{ v, \phi, \theta \}$, mit

\begin{displaymath}
v_{x} = v \sin \theta \cos \phi, \;\;
v_{y} = v \sin \theta \sin \phi, \;\;
v_{z} = v \cos \theta   .
\end{displaymath} (1.53)

Die Funktionaldeterminante der Abbildung $\vec{v} = \vec{v}(\vec{w})$ lautet

\begin{displaymath}
\left\vert d(v_{x},v_{y},v_{z})/d(v,\phi,\theta)\right\vert=...
...& -v \sin \theta
\end{array}\right\vert
= - v^{2} \sin \theta
\end{displaymath} (1.54)

Daher ist die Verteilungsdichte für den Betrag der Teilchengeschwindigkeit

$\displaystyle p(v)$ $\textstyle \equiv$ $\displaystyle \int_{0}^{2 \pi} d \phi \int_{- \pi}^{\pi} d \theta
v^{2} \sin \theta  
\left( \frac{m}{2 \pi kT} \right)^{3/2}
\exp\{-  \frac{m}{2 kT} v^{2} \}$ (1.55)
  $\textstyle =$ $\displaystyle 4 \pi \left( \frac{m}{2 \pi kT} \right)^{3/2}
v^{2} \exp\{-   \frac{m}{2 kT} v^{2} \}$ (1.56)


next up previous
F. J. Vesely / StatPhys Tutorial, Deutsch, 2001-2003