Unter ,,Statistik`` versteht man die Untersuchung von
Regelmäßigkeiten bei nicht-deterministischen Vorgängen. Ein
wichtiges Werkzeug bei diesem Unterfangen ist die ,,relative
Häufigkeit`` eines ,,Ereignisses``. Nehmen wir an, ein
Versuch (z.B. das Werfen eines Würfels) ergebe jeweils eines
von mehreren möglichen Ereignissen (z.B.
). Nun führe man diesen Versuch unter
möglichst gleichartigen Bedingungen -mal durch; das spezielle
Ergebnis trete dabei -mal auf. Dann bezeichnet man als
relative Häufigkeit von den Quotienten aus der Anzahl der
Ergebnisse und der Gesamtzahl der Versuche:
.
Als ,,Wahrscheinlichkeit`` eines Ereignisses bezeichnen wir
(nach R. v. Mises) den erwarteten Wert der relativen Häufigkeit
im Grenzfall beliebig vieler Versuche ceteris paribus:
(1.14)
BEISPIEL:
Spielwürfel; 100-1000 Versuche;
, oder
.
Diese Definition setzt zunächst noch voraus, daß schon
Versuche zur Bestimmung der relativen
Häufigkeit durchgeführt wurden; sie besagt eigentlich nur, daß künftige
Versuche wieder dieselben relativen Häufigkeiten ergeben werden. Sie gibt
uns aber kein Rezept zur Vorhersage von in die Hand.
Um eine solche Rechenvorschrift zu finden, müssen wir das Ereignis auf
,,Elementarereignisse`` zurückführen, die dem Postulat der
gleichen a priori-Wahrscheinlichkeit genügen. Die Wahrscheinlichkeit
für jedes einzelne unter insgesamt möglichen Elementarereignissen ist
dann nämlich
, und die Wahrscheinlichkeit eines
zusammengesetzten Ereignisses kann aus
(1.15)
(1.16)
bestimmt werden.
Die Vorausberechnung der Wahrscheinlichkeit reduziert sich somit auf das
Abzählen der möglichen Elementarereignisse.
BEISPIEL:
Das Ereignis
ist eines unter
einander ausschließenden Elementarereignissen mit gleicher
a priori-Wahrscheinlichkeit (). Das Ereignis
setzt sich aus den Elementarereignissen
zusammen;
seine Wahrscheinlichkeit ist also
.
In der statistischen Mechanik werden Ereignisse der folgenden Art untersucht:
gleichartige Systeme können sich jeweils in einem der Zustände
befinden;
wie groß ist die Wahrscheinlichkeit für
(1.17)
BEISPIEL:
Spielwürfel werden geworfen (oder ein Würfel mal!).
Wie groß ist die Wahrscheinlichkeit dafür daß je 10 Würfel die
Augenzahl
zeigen? Wie wahrscheinlich ist es demgegenüber,
daß alle Würfel die Augenzahl zeigen?
Dasselbe Beispiel, aber mit deutlicher physikalischem Inhalt:
Gasatome befinden sich in einem Volumen , das wir uns in
gleich große Teilvolumina unterteilt denken. Wie groß ist die
Wahrscheinlichkeit dafür, daß zu einem beliebigen Zeitpunkt je
Teilchen in jedem Teilvolumen zu finden sind? Und wie wahrscheinlich ist
die Aufteilung )? (Antwort: siehe weiter unten unter
,,Multinomialverteilung``.)
In den meisten Fällen können wir sowohl die Zahl der Systeme als
auch die Anzahl der erlaubten Zustände als sehr groß
(im ,,thermodynamischen Grenzfall`` sogar als unendlich groß) annehmen.
Dabei treten einige Besonderheiten auf, die eine statistische Behandlung
solcher Fragen vereinfachen.
Bevor wir uns mit diesen Fragen beschäftigen, wollen wir einige Elemente
der Statistik und Wahrscheinlichkeitsrechnung rekapitulieren.
Dabei konzentrieren wir uns auf Ereignisse, die sich auf Vergleiche
im Zahlenraum beziehen, und zwar im allgemeinen in , manchmal auch
in .
VERTEILUNGSFUNKTION
Sei eine reelle Zufallsgröße aus dem
Wertebereich . Dann bezeichnen wir als Verteilungsfunktion
(1.18)
die Wahrscheinlichkeit dafür, daß kleiner als ein gegebener Wert
ist. Die Funktion ist monoton steigend, mit
und . Die Verteilungsfunktion ist dimensionslos:
.
Das einfachste Beispiel ist die Gleichverteilung, für die
gilt
(1.19)
Ein weiteres wichtiges Beispiel, mit , , ist
die Normalverteilung
(1.20)
bzw. ihre Verallgemeinerung, die Gaußverteilung
(1.21)
wo die Parameter
und eine Schar von
Funktionen definieren.
VERTEILUNGSDICHTE
Die Verteilungs- oder Wahrscheinlichkeitsdichte
ist definiert durch die Identität
(1.22)
ist also nichts anderes als der Differentialquotient der
Verteilungsfunktion:
(1.23)
Die Dimension von ist gleich dem Kehrwert der Dimension von :
(1.24)
Für die Gleichverteilung ist
(1.25)
und für die Normalverteilung gilt
(1.26)
Wenn nur diskrete Werte annehmen kann, die sich um den
Betrag
unterscheiden,
dann verwendet man die Schreibweise
(1.27)
für die Wahrscheinlichkeit des Ereignisses . Dieses
ist nach Definition dimensionslos, obwohl es mit der Verteilungsdichte
für kontinuierliche Zufallsvariable verwandt ist. Die Definition
1.27 schließt auch den Fall ein, daß nur ganzzahlige Werte
annehmen kann; dann gilt eben
.
MOMENTE EINER VERTEILUNGSDICHTE
Damit sind die Größen
(1.28)
gemeint. Das erste Moment
wird als Erwartungswert
oder Mittelwert zur Verteilungsdichte bezeichnet,
und das zweite Moment
hängt mit der Varianz
bzw. Streuung zusammen:
(Streuung = Wurzel aus Varianz).
BEISPIELE: .) Für eine Gleichverteilung
ist
,
und
.
.) Für die Normalverteilung gilt
und
.
EINIGE WICHTIGE VERTEILUNGEN
Gleichverteilung: Ihre große Bedeutung rührt
daher, daß sie sowohl in
der statistisch-mechanischen Theorie als auch in der Praxis des numerischen
Rechnens eine zentrale Rolle spielt. Eine Grundannahme der Statistischen
Mechanik lautet nämlich, daß alle Zustände eines Systems, die die
gleiche Energie aufweisen, mit gleicher Wahrscheinlichkeit auftreten (Axiom
der gleichen a priori-Wahrscheinlichkeit). Und in der numerischen Praxis
ist die Erzeugung gleichverteilter Pseudo-Zufallszahlen relativ einfach; zu
anders verteilten Zufallszahlen gelangt man durch ,,Weiterverarbeitung`` der
primär erzeugten gleichverteilten Zahlen.
Gaußverteilung: Ihre Allgegenwart
in den messenden Wissenschaften erklärt
sich aus dem ,,zentralen Grenzwertsatz``: Jede Zufallsgröße, die
als Summe beliebig verteilter Zufallsgrößen ausgedrückt werden kann,
ist im Grenzfall vieler Summenglieder gaußverteilt. Addieren sich
zum Beispiel in einem komplexen Meßvorgang mehrere Einzelfehler
(bzw. -unsicherheiten) zu einem Gesamt-Meßfehler, dann ist dieser
nahezu gaußverteilt.
Aber auch andere physikalisch wichtige Verteilungen, insbesondere die
Binomial- und die Multinomialverteilung (s. u.) nähern sich unter
gewissen - oft erfüllten - Bedingungen der Gaußverteilung an.
Abbildung 1.3:
Gleichverteilung und Normalverteilung: Verteilungsfunktion
P und -dichte p
Binomialverteilung:
Diese diskrete Verteilung gibt die Wahrscheinlichkeit dafür an,
daß bei unabhängigen Versuchen ein Ereignis, dem beim Einzelversuch
die Wahrscheinlichkeit zukommt, genau -mal auftritt:
(1.29)
Für die ersten beiden Momente der Binomialverteilung gilt
(also nicht
notwendigerweise ganzzahlig) und
(d.i.
).
ANWENDUNG:
Schwankungserscheinungen in statistischen Systemen lassen
sich häufig durch die Binomialverteilung beschreiben. Betrachten wir
zum Beispiel ein
Teilchen, das sich in einem gegebenen Volumen beliebig bewegen kann. Die
Wahrscheinlichkeit dafür, daß es sich zu irgendeinem Zeitpunkt
in einem bestimmten Teilvolumen aufhält, ist
.
Befinden sich nun voneinander unabhängige Teilchen in , dann ist die
Wahrscheinlichkeit dafür, Teilchen in zu finden, gegeben durch
(1.30)
und Mittelwert und Streuung sind gegeben durch
(1.31)
Man beachte, daß für gilt, daß
,
daß also die Schwankungen der Teilchenzahl im Teilvolumen
in solchen Fällen von derselben Größenordnung
(nämlich 1) sind wie die mittlere Teilchenzahl in diesem Teilvolumen.
Für große geht die Binomialverteilung in die
Gaußverteilung über (Satz von Moivre-Laplace):
(1.32)
mit .
Wenn zugleich
und
gehen, so daß
das Produkt
endlich bleibt, dann geht Gl. 1.29
über in
(1.33)
Dieser Grenzfall der Binomialverteilung heißt Poissonverteilung.
Für den Erfolg der Statistischen Mechanik von größter Wichtigkeit ist
die mit zunehmende Schärfe der Verteilung 1.29 bzw.
1.32. Die relative Breite des Maximums, also
, nimmt
nämlich mit ab. Für beträgt die Breite des Peaks
somit
nur mehr von
, und für ,,molare``
Größenordnungen
ist
schon
.
Die Verteilung
nähert sich also einer ,,Delta-Verteilung`` an. Dadurch wird die
Berechnung von Mittelwerten besonders einfach:
(1.34)
oder
(1.35)
Multinomialverteilung:
Verallgemeinerung der Binomialverteilung auf mehr als 2 mögliche
Ergebnisse pro Versuch. Seien
die (einander
ausschließenden) möglichen Ergebnisse eines Experiments; ihre
Wahrscheinlichkeiten im Einzelversuch seien
, mit
. Der Versuch werde -mal wiederholt. Dann ist
(1.36)
die Wahrscheinlichkeit dafür, daß das Ereignis gerade
-mal auftritt, eben -mal usw.
Die Bedeutung dieser Verteilung für die Statistische Physik läßt sich
erahnen, wenn man beispielsweise die möglichen Ergebnisse
als ,,Zustände`` auffaßt, die den Teilchen eines Systems
(oder auch den Systemen in einer Gesamtheit von Vielteilchensystemen)
zugänglich sind. Die obige Formel gibt dann
die Wahrscheinlichkeit dafür an, daß der
Teilchen (bzw. Systeme) im Zustand sind etc. etc.
BEISPIEL:
Ein Spielwürfel werde mal geworfen. Die Wahrscheinlichkeit dafür, daß
jede Augenzahl genau mal erscheint, ist
(1.37)
Im Vergleich dazu lauten die Wahrscheinlichkeiten für zwei andere Aufteilungen:
,
. Für die ganz
unwahrscheinliche Aufteilung
erhalten wir schließlich
Wegen der großen Zahl () ihrer Variablen läßt sich die
Multinomialverteilung nicht mehr sinnvoll graphisch darstellen.
Zwei wichtige Eigenschaften dieser Verteilung sind aber leicht
herzuleiten; sie sollen hier ohne Beweis festgestellt werden:
Annäherung an multivariate Gaußverteilung: wie die Binomialverteilung
für große Werte von in eine Gaußverteilung übergeht, so nähert
sich die Multinomialverteilung einer entsprechend verallgemeinerten
- eben ,,multivariaten`` - Gaußverteilung an.
Zunehmende Schärfe: wenn und
sehr
große Zahlen sind (Vielteilchensysteme, Ensembles
mit
Elementen), dann hat die Funktion
ein
extrem scharfes Maximum bei einer ganz bestimmten ,,Aufteilung``
, nämlich
. Diese
besondere Aufteilung der Teilchen auf die
verschiedenen möglichen Zustände ist dann ,,fast immer`` realisiert, und alle anderen Aufteilungen spielen nur eine verschwindend
kleine Rolle (treten selten auf, haben geringes statistisches Gewicht ...).
Auf dieser Eigenschaft
beruht die Methode der wahrscheinlichsten Verteilung, die in
verschiedenen Bereichen der statistischen Physik mit Vorteil
angewandt wird (siehe Abschnitt 2.2).
DIE STIRLING-NÄHERUNG
Für große Werte von ist die Auswertung der Fakultät
schwierig. Hier bedient man sich der Stirling-Näherung
(1.38)
BEISPIEL: (Taschenrechner-Grenze):
;
.
Ebenfalls unter dem Namen Stirling-Näherung findet man in der Literatur
die folgende Formel für den Logarithmus der Fakultät:
(1.39)
(Der Term
kann gegenüber
vernachlässigt werden).
BEISPIEL 1:
;
.
BEISPIEL 2:
Wieder soll der Spielwürfel geworfen werden, diesmal aber mal. (Die
meisten Taschenrechner werden sich weigern, usw. auszurechnen).
Die Wahrscheinlichkeit dafür, daß
jede Augenzahl genau mal erscheint, ist
(1.40)
und die Wahrscheinlichkeit für die Aufteilung
lautet
.
STATISTISCHE (UN-)ABHÄNGIGKEIT
Zwei Zufallsvariable
sind statistisch voneinander unabhängig (unkorreliert), wenn die
Verteilungsdichte der Verbundwahrscheinlichkeit (also der
Wahrscheinlichkeit für das gemeinsame Auftreten von und )
gleich dem Produkt der Einzeldichten ist:
(1.41)
BEISPIEL:
In einem Fluid oder Gas ist die
Verteilungsdichte für eine einzelne Komponente der Geschwindigkeit
eines Teilchens gegeben durch (Maxwell-Boltzmann)
(1.42)
Die Freiheitsgrade
sind statistisch voneinander unabhängig;
daher gilt für die Verbundwahrscheinlichkeit
(1.43)
Als bedingte Verteilungsdichte
bezeichnet man die Größe
(1.44)
(Für unkorrelierte ist
).
Die Dichte der Randverteilung beschreibt die Dichte einer
der Variablen, unabhängig vom konkreten Wert der anderen, d.h. also
integriert über alle möglichen Werte der zweiten Variablen:
(1.45)
TRANSFORMATION VON VERTEILUNGSDICHTEN
Aus Gleichung 1.22 können wir sofort eine Vorschrift für die
Transformation der Verteilungsdichte bei einer Variablensubstitution
ableiten. Ist nämlich eine bijektive Abbildung
gegeben, und kennen wir die Verteilungsdichte
, dann muß wegen der Erhaltung der Wahrscheinlichkeit gelten
(1.46)
(Der Absolutwert tritt hier auf, weil ja nicht verlangt war, daß die Funktion
steigend sein muß). Daraus folgt aber
(1.47)
oder
(1.48)
Übrigens gilt diese Beziehung für jede Art von Dichte (Massen-,
Spektraldichte usw.), nicht nur für Verteilungsdichten.
BEISPIEL 1:
Ein Teilchen der Masse , das sich in einer Dimension bewegen kann,
möge mit gleicher Wahrscheinlichkeit alle Geschwindigkeiten zwischen
annehmen können; es gilt also .
Die Verteilungsdichte der kinetischen Energie ist dann gegeben durch
(siehe Abb. 1.5)
(1.49)
in den Grenzen , mit
. (Der Faktor
vor kommt von der Zweideutigkeit der Abbildung
).
Abbildung 1.5:
Transformation der Verteilungsdichte (zu Beispiel 1)
BEISPIEL 2:
Ein Objekt sei mit gleicher Wahrscheinlichkeit an jedem Punkt einer
Kreisperipherie zu finden; also
für
. Führt man cartesische Koordinaten
,
ein,
dann ist die Verteilungsdichte für die x-Koordinate,
mit
, gegeben durch (siehe Abb. 1.6)
(1.50)
Zu Beispiel 2 äquivalente Probleme:
a) Gleichmäßig geschwärzter Glaszylinder - oder auch ein
halbdurchsichtiger Kunststoff-Trinkhalm - in Seitenansicht: Absorption?
b) Verteilung der x-Geschwindigkeit eines Teilchens, das sich in 2 Dimensionen
beliebig bewegen kann, wobei seine kinetische Energie vorgegeben ist.
Simulation 1.6:
Sinai-Billard. Verteilungsdichte der Geschwindigkeitskomponente .
[Code: Sinai]
c) Verteilung der Geschwindigkeit eines von 2 Teilchen gleicher Masse,
die sich beliebig in einer Dimension bewegen können, wobei die Summe
ihrer kinetischen Energien vorgegeben ist.
Abbildung 1.6:
Transformation der Verteilungsdichte (zu Beispiel 2)
Für die gemeinsame Verteilungsdichte mehrerer Variabler lautet
die Transformationsformel, in direkter Verallgemeinerung von 1.48,
(1.51)
Darin bedeutet
die
Funktionaldeterminante der Abbildung
,
(1.52)
BEISPIEL 3:Sei wieder
, und
wie in Gl. 1.43. Schreiben wir nun
, mit
(1.53)
Die Funktionaldeterminante der Abbildung
lautet
(1.54)
Daher ist die Verteilungsdichte für den Betrag der
Teilchengeschwindigkeit
(1.55)
(1.56)
F. J. Vesely / StatPhys Tutorial, Deutsch, 2001-2003