Im Rahmen der empirischen Stoffphysik, der Thermodynamik, wurden diese Eigenschaften zunächst nur gemessen und rational geordnet. Solange der molekulare bzw. atomare Aufbau der Materie nicht in der Theorie berücksichtigt wurde, konnten zwar logische Korrelationen zwischen Meßgrößen hergestellt werden, aber eine lückenlose Voraussage der Zahlenwerte dieser Beobachtungsgrößen war unmöglich.
So wurde zwar die Differenz der Entropien zweier
Zustände eines Systems operational
definiert als das Integral
(bei reversibler Führung der Zustandsänderung), aber der Zahlenwert
von konnte im Rahmen der Thermodynamik nicht einmal für ein ideales
Gas vorausgesagt werden. Auch läßt sich aus thermodynamischen Überlegungen
wohl die Differenz zwischen den spezifischen Wärmen und
in aller Strenge angeben - es muß nämlich gelten, daß
, wo mit und
der Expansionskoeffizient bzw. die isotherme Kompressibilität
bezeichnet sind -,
ein konkreter Wert für oder kann aber nicht vorausgesagt
werden.
Wenn es uns gelingen könnte, auf Grund mikroskopischer Betrachtungen
beispielsweise die Entropie eines Stücks
Materie als Funktion von Energie und Volumen, also , anzugeben,
dann hätten wir über die Umkehrfunktion sowie die thermodynamischen
Relationen
,
,
usw. Zugang zum ganzen Reichtum der
thermodynamischen Phänomene.
Es stellt sich also die Aufgabe, die Mechanik einer Ansammlung
vieler (
) Teilchen, die im allgemeinen Kräfte
aufeinander ausüben werden, zu beschreiben.
Dabei muß man sich der Methoden der Statistik bedienen, weil die
strenge Analyse der gekoppelten Bewegungen vieler
Teilchen im allgemeinen unmöglich ist.
Allerdings ist es mit der Entwicklung schneller Rechenmaschinen möglich geworden, numerische Simulationen an geeigneten Modellsystemen durchzuführen. Es genügt dabei, Systeme aus einigen hundert oder gar nur einigen Dutzend Teilchen zu simulieren. Die Eigenschaften solcher Modellsysteme stimmen nämlich schon bis auf ein paar Prozent mit denen makroskopischer Proben überein.
Damit können wir aber theoretische Vorhersagen überprüfen, die sich auf ganz vereinfachte, und daher unrealistische, Systeme beziehen. Ein Beipiel dafür sind ,,Gase`` aus harten Kugeln, deren Eigenschaften theoretisch vorhergesagt und mit Simulationen nachgeprüft werden können. Der Wert solcher ,,Pseudoexperimente`` liegt also in der Kontrolle der theoretischen Überlegungen.
Die Bedeutung der Computersimulation für die Forschung ist damit nicht erschöpft; es können nämlich auch realistische, und damit recht komplexe, Modellsysteme simuliert und damit überhaupt erst im mikroskopischen Maßstab untersucht werden.
Im Rahmen dieses Kurses werden wir Computersimulationen vor allem zur Veranschaulichung der statistisch-physikalischen Wahrheiten verwenden, die wir mit mathematischen Mitteln herleiten. Oder umgekehrt: nach Betrachtung der ungeordneten Bewegung von ein paar Dutzend simulierten Teilchen werden wir uns daran wagen, das Wesentliche - und Regelmäßige - an dieser chaotischen Bewegung theoretisch zu analysieren.
Unser bescheidenes Ziel wird es sein, bei der Untersuchung mikroskopischer Modelle eine Größe ausfindig zu machen, die alle Eigenschaften der Entropie aufweist. Für ein besonders einfaches Modellsystem, nämlich das ideale Gas, wollen wir sogar die Funktion in expliziter Form angeben. Im Lauf dieser Unternehmung mag es uns gelingen, auch einiges über andere Systeme - Kristalle, Flüssigkeiten oder Photonengase - zu lernen.
Die Kinderfrage, warum das Wasser naß ist, wird noch länger offen bleiben
müssen. Selbst wenn wir sie richtig stellen und nach einer
mikroskopisch-statistischen Erklärung für das Phänomen der
Benetzung fragen, reicht sie über den Rahmen dieser
einführenden Behandlung hinaus. Umso besser: die Neugier ist
schließlich der Ursprung aller Wissenschaft.