|
Das Ziel der statistischen Thermodynamik ist einfach: |
|
|
Zurückführung der klassischen Thermodynamik
auf die Bewegung und Wechselwirkung vieler Teilchen. Dabei sollen nur die bekannten Grundgesetze der Physik verwendet
werden, im wesentlichen also die klassische Mechanik, oder auch die Quantenmechanik. |
|
|
Der Anspruch ist damit, dass Zentralbegiffe der phänomenologischen Thermodynamik,
wie z.B. "Temperatur", "Wärme"
oder "Entropie", sich als aus der Mechanik ableitbare Größen darstellen. |
|
Eine erste Konsequenz ist damit ebenfalls völlig klar: |
|
|
Ein mit unbewaffneten Auge sichtbares thermodynamisches
System umfasst so ca. 1020 Teilchen. Es ist dann sowohl unmöglich als auch witzlos, sich
mit einzelnen Teilchen zu beschäftigen. |
|
|
Wir fragen deshalb immer nach statistischen
Größen - Mittelwerte, Anordnungsmöglichkeiten, Wahrscheinlichkeiten, Fluktuationen, etc. - nicht umsonst
heißt des Gebiet statistische Thermodynamik oder etwas allgemeiner statistische Mechanik. |
|
Es gibt in den den beiden Matwiss Hyperskripten mehrere Ergänzungsmodule,
die sich mit speziellen Bereichen dieser allgemeinen Fragestellung beschäftigen; wir haben: |
|
|
Temperatur und Druck. Es wird
für ein einfaches Gas gezeigt, wie die Begriffe Temperatur T und Druck p aus den Teilchenbewegungen
und ihrer Wechselswirkung untereinander und mit der Wand eines Gefässes hervorgehen. Am Rande fällt noch die allgemeine
Gasgleichung pV = NRT ab. |
|
|
Zweiter Hauptsatz und "Philosophie".
Warum der 2. Haupsatz so bemerkenswert ist. |
|
|
Kombinatorik. Einige mögliche
Fragen und Antworten zu einfachen Fragen der Kombinatorik. |
|
|
Entropie und Information. Was Information
mit Thermodynamik zu tun hat. |
|
|
Zeitmittel = Scharmittel.
Wie man über zwei grundverschiedene Mittelungsverfahren zum selben Mittelwert kommen kann. |
|
|
Gaußverteilung, Wahrscheinlichste
Abstände, Tabelle, Kurzfassung:
Mehrere Module zum Würfeln und "Random Walk". |
|
|
"Averages"
Wie man die vektorielle Größe "Geschwindigkeit" mittelt und daraus
dann auch für die skalare Größe "kinetische Energie" einiges
schlußfolgern kann. |
|
|
Ohmsches
Gesetz. Herleitung durch statistische Betrachtung der Elektronenbewegung in klassischer Sichtweise. |
| |
|
|
Wir betrachten ein System
von vielen Teilchen. In dem betrachteten System können sich alle möglichen Teilchen befinden (Atome, Moleküle,
Photonen, ...), die mit irgendwelchen Eigenschaften behaftet sind (kin. Energie, pot. Energie, Rotationsenergie, Ladung.
Spin, ...). Es muß kein Gas sein, und wir können das Ganze quantenmechanisch oder klassisch betrachten. |
|
Damit wir ein reales physikalisches System beschreiben, müssen wir noch einige
Randbedingungen einführen, z..B. dass Volumen V, Gesamtteilchenzahl N = Sni
und Teilchenart i gegeben und konstant sein sollen. |
|
|
Wir definieren jetzt statistische Größen, die eine sinnvolle Aussage
über das System machen, z.B. die mittlere Geschwindigkeit aller Teilchen oder nur der Teilchen der Sorte i,
oder die Wahrscheinlichkeit dafür, in einem beliebig herausgegriffenen Untervolumen V1 gerade
N1 Teilchen zu finden. |
|
Damit taucht ein erstes Problem auf: |
|
|
Mögliche Systeme und mögliche statistische Größen gibt es
ohne Zahl. Im Kombinatorikmodul wird an einem einfachen Beispiel gezeigt,
dass trotz einfacher Ausgangsituation ganz schnell eine Unzahl sinnvoller statistischer Fragen zusammenkommen können,
und wie schwierig es sein kann, auch nur die einfachsten davon zu beantworten. |
|
|
Leider müssen wir, um in der statistischen Thermodynamik zu sinnvollen Größen
zu kommen, einigermaßen komplexe Fragen stellen. |
|
|
Was für Fragen das sind, und welche Antworten man erhält, läßt
sich in Anlehnung an den "Gerthsen" mit
einem simplen Beispiel sehr gut demonstrieren. Dieses Beispiel hat zunächst überhaupt nichts mit Thermodynamik
zu tun, liegt uns aber viel näher als abstrakte Teilchenwelten. |
|
Wir machen das hier sehr kurz, und ohne irgendwelche Herleitungen der auftretenden
Formeln. Mehr dazu eben im "Gerthsen". |
|
|
Es geht also zunächst nur darum, wie man
ein eingängiges und sinnvolles System definieren kann, und was man damit für sinnvolle Statistik treiben kann.
Danach übertragen wir das Ganze auf Thermodynamik. |
|
| |
|
Gegeben ist ein Sack mit sehr vielen gut gemischten einzelnen Buchstaben (z.B.
eine Riesentüte Buchstabensuppe) und Leerzeichen (zusätzliche Bandnudelstücke). |
|
|
Um diesen Inhalt quantitativ zu definieren führen wir folgende Größen
ein: |
| |
- i = Nummer des Buchstabens oder, allgemeiner, des Symbols (i = 1 Þ
A; i = 2 Þ B etc). Mit dem Leerzeichen ("_") sind das z.B. 27 Symbole.
- Mi = Anzahl des Symbols Nr. i im Sack. Wir unterstellen mal, dass die Häufigkeit
der Symbole in etwa dem Vorkommen in einer passenden Sprache, z.B. Deutsch, entspricht (Leerzeichen sind am häufigsten,
gefolgt von E usw.; Y, Z, etc. sind recht selten).
- M = Anzahl aller Symbole = S
Mi ; summiert wird natürlich über alle i.
- pi = Wahrscheinlichkeit, beim wahllosen Hineinfassen ein i-Symbol zu "ziehen";
damit gilt pi = Mi / M.
|
|
Die folgende Tabelle zeigt jetzt die möglichen "sinnvollen" Fragen
und die entsprechenden Antworten |
Frage | Antwort |
Kommentar |
Wie groß ist die Wahrscheinlichkeit Pseq, nacheinander genau
die Buchstaben zu ziehen, mit denen man eine bestimmte Sequenz bilden kann, z.B.
TO_BE _OR_NOT_TO_BE |
Pseq |
= pT · pO · ... · pE |
= | i = 27
P i = 1 |
(pi)ni |
|
ni = Anzahl des i-ten Symbols in der Sequenz; kann auch =
0 sein.
Wichtig: Für jede andere Sequenz aus diesen
Symbolen hat Pseq denselben Wert. |
Wieviel (verschiedene = unterscheidbare) Sequenzen Qkom kann man
mit der zugehörigen Komposition (= Bruttoformel)
B2E2NO4RT3_5, die allgemein N
Symbole enthält, realisieren |
Qkom(ni) | = |
(Gesamtzahl Symbole)! n1! · n2! · ... |
= | S
ni! P ni! |
| | |
| |
Qkom (B2E2NO4RT3_5) |
= |
18! 2! · 2! · 4! · 3! · 5! |
= | 0,93 · 1011 |
|
Die ni sind sozusagen die Stöchiometriekoeffizienten der Bruttogleichung.
Damit gilt auch N = S
ni. Summen und Produkte sind natürlich immer von i = 1 bis i = 27
zu nehmen. |
Wie groß ist die Wahrscheinlichkeit Pkom für eine bestimmte
Komposition? |
Pkom | = |
Pseq · Qkom |
= |
N! | · |
i = 27 P
i = 1 |
(pi)ni |
i = 27 P
i = 1 | ni! |
|
Es ist z.B. zwar viel wahrscheinlicher die Sequenz
EEEEEEEEEE...E zu ziehen als unseren Satz, da E der häufigste Buchstabe ist, aber
da man mit E18 nur eine Komposition bilden kann, ist die B2E2N....
Komposition letztlich wahrscheinlicher |
Was ist die wahrscheinlichste Komposition
mit N Symbolen, die man zufällig ziehen wird? In anderen Worten: Was ist die Häufigkeitsverteilung
ni, 0 dieser Kompositions? |
ni, 0 = N · pi = |
N · Mi M |
|
Einfaches Ergebnis nach involvierter Mathematik. Die Häufigkeit des Auftretens eines
Symbols in der wahrscheinlichsten Komposition entspricht (wie man erwartet hätte), seiner Häufigkeit oder "Dichte"
Mi/M im Sack . |
Wie groß ist die logarithmische Wahrscheinlichkeit
S = ln Pi, 0 für diese wahrscheinlichste Komposition? |
| Damit Pi, 0
» 1, d.h. wir zögen immer die wahrscheinlichste
Komposition. Das ist aber nur ein » Ergebnis, da zur Berechnung die Stirling Formel verwendet wurde. Jedenfalls ist die wahrscheinlichste Komposition bei
nicht zu kleinen N aber extrem viel wahrscheinlicher als alle anderen. |
|
|
So weit so gut. Jetzt machen wir unser Buchstabensuppensystem aber etwas komplizierter
(oder realistischer). |
|
|
Wir nehmen als neuen Parameter die Breite
bi der Buchstaben hinzu. Der Buchstabe "I" ist z.B. weniger breit als der Buchstabe
"W". |
|
|
Allgemein lassen wir für ein Symbol beliebige Breiten zu, auch für
das Leerzeichen "_". Das ist dann etwas abstrakter als in einer realen Buchstabensuppe, in der die Buchstaben
zwar verschiedene, aber ähnliche Breiten haben. |
|
Jetzt können wir neue Fragen stellen, insbesondere interessieren wir uns
wie gute Buchdrucker, nur noch für Kompositionen, die eine definierte Zeilenlänge haben.
|
|
|
Was man damit machen kann schauen wir uns in der Fortsetzung der Tabelle an.
Die Fragen sind noch einfach, aber die Mathematik dazu kann involviert werden. Man braucht z.B. Variationsrechnung
und die Methode der Langrangeschen Parameter. |
| |
Frage | Antwort |
Kommentar |
Wie groß ist die Wahrscheinlichkeit Pseq,
eine Komposition aus N Symbolen mit der Breite B = Sni
· bi zu ziehen, d.h. was für eine ni-Verteilung
erhalte ich jetzt unter dieser Bedingung? |
ni | = |
N |
· pi · ebbi | = |
N Z |
· pi · ebbi |
S
i |
pi · ebbi |
|
Es tritt ein neuer Parameter und eine daraus abgeleitete
Schlüsselgröße auf: Der Parameter b und die Zustandssumme
Z. Wir wollen der so definierten Verteilungsfunktion einen Namen
geben und nennen sie Boltzmann-Verteilung. |
|
|
Zunächst ist zu klären: Was ist der Parameter b? |
|
|
Formal ist es ein Lagrangescher
Parameter, der in der mathematischen Ableitung des obigen Ergebnisses erforderlich wurde, weil jede mögliche
Variation einer Komposition immer dieselbe Breite B haben muß. |
|
|
Von der Sache her ist es ein Gewichtungsfaktor.
Das sieht man am besten (selber nachdenken!), wenn man obige Gleichung für B umschreibt; wir haben |
| |
B | = | N Z |
· |
S i
|
pi · bi · ebbi |
|
|
|
|
Im Grunde ist das auch klar: Falls wir schmale Sätze mit N
Buchstaben bilden müssen, brauchen wir eher die schmalen Buchstaben um das hinzubekommen, bei langen Sätzen müssen
wir bevorzugt die breiten Buchstaben nehmen. Irgendwie muß sich das dann ja durch einen eigenen Parameter niederschlagen. |
|
Dieser neue Parameter b muß aber irgendwie
durch die Systemgrößen festgelegt sein, sich also aus den bekannten Eigenschaften des Systems plus den durch
die Frage definierten Parametern berechen lassen. |
|
|
Das ist auch so, aber: Leider kann man keine einfache
Formel für den Zusammenhang zwischen den Grundgrößen N, B, pi
und b finden. Am einfachsten ist noch |
| |
|
|
Bleibt noch der Summenterm, den wir Zustandssumme
genannt haben, zu besprechen. |
|
|
Falls wir b kennen, ist diese Zustandssumme
eine Zahl, sonst eben eine Funktion von b. |
|
|
Wer genau hinschaut merkt, dass sie aus dem Term pi ·
ebbi, der ja sowas wie eine modifizierte
(und damit nicht mehr absolute) Wahrscheinlichkeit pi* ist, wieder eine absolute Wahrscheinlichkeit macht.
|
|
|
Denn wenn man über alle relativen Wahrscheinlichkeiten pi*
summiert, kommt nicht mehr 1 heraus. Damit aus den pi*
absolute Wahrscheinlichkeiten werden, muß man dann durch die Summe über alle
pi* = Zustandssumme dividieren. |
|
Aber die Zustandssumme ist viel mehr als ein Normierungsfaktor.
Die Zustandsumme eines thermodynamischen Systems (wir werden gleich sehen wie das mit den Buchstaben zusammenhängt)
ist der Schlüssel zur Thermodynamik wie wir sie kennen. Denn: |
| |
Die Zustandssumme eines Systems enthält alle Informationen über das
betrachtete System! |
|
|
Wir nehmen das erstmal nur so zur Kenntnis und gehen zunächst noch einen
Schritt weiter mit dem Buchstabensalat. |
|
|
Wir produzieren jetzt (statistisch) beliebige Sequenzen und kleben dann die Buchstaben
zusammen - wir haben dann eine Zeile mit irgendeiner Komposition und Breite gemacht. |
|
|
Viele von diesen Zeilen werfen wir einen
neuen Sack und beginnen das Spiel von vorne. |
|
Statt einzelner Buchstaben oder Symbole ziehen wir jezt (statistisch) ganze Zeilen. |
|
|
Aus den gezogenen Zeilen machen wir (statistisch) viele Bücher.
|
|
|
Aus all den vielen Büchern wollen wir aber nur bestimmte
Bücher betrachten, die wir "kanonische" Bücher nennen:
- Kanonische Bücher haben eine feste Anzahl Nk von Zeilen.
- In kanonischen Büchern ist die Summe der Zeilenbreiten immer Bk
|
|
Ein kanonisches Buch enthält dann nz1
Zeilen der Breite B1, nz2 Zeilen der Breite B2,
usw; und SBi = Bk. |
|
|
Die Wahrscheinlichkeit im Sack eine Zeile der Breite Bi
zu finden sei Pi. |
|
Jetzt kommt die wesentliche Frage: |
| |
Frage | Antwort |
Kommentar |
Was ist die Häufigkeitsverteilung oder Verteilungsfunktion
der nzi in einem kanonischem Buch? |
Z | = | i
S i |
Pi · eb'Bi |
= | kanonische Zustandssumme |
|
Das ist daselbe Ergebnis für die Zeilensymbolik,
das wir schon für die Buchstaben hatten. Nur dass wir vorsichtshalber b' statt
b schreiben. Formal ist das wieder die Boltzmann-Verteilung.
|
|
|
Man könnte noch sehr viel mehr machen, aber wir
jetzt hören auf zu buchstabieren (im Gerthsen
gibt es noch viel mehr), und erinnern uns nochmals an den Zweck der Übung: |
|
|
Es ging nur darum, wie man ein eingängiges und sinnvolles System definieren kann, und
was man damit für Statistik treiben kann. |
|
|
Zumindest die Fragen waren nicht allzu schwer. Aber was hat das Ganze
mit statistischer Thermodyamik zu tun? |
|
Nun ja: Wir haben einen großen Teil der statistischen Mechanik mit diesem
Spielchen bereits abgehandelt. Wir müssen nur für die verwendeten Größen andere
Namen wählen. |
|
|
Hier ist eine Konversionstabelle |
| |
Buchstabenwelt |
Thermodynamik |
Buchstabe | Teilchen |
Breite des Buchstabens |
Teilchenenergie; Teilchen auf einem bestimmten E-Niveau |
Logarithmische Wahrscheinlichkeit für wahrscheinlichste Kombination |
Entropie |
Zeile (Sequenz) | System |
Zeilenbreite |
Gesamtenergie des Systems |
kanonisches Buch |
Ensemble (Viele Systeme im thermischen Kontakt); siehe unten. |
Parameter b |
–1/kT |
Zustandssumme |
Zustandssumme |
|
|
Alles klar? Natürlich nicht! |
|
|
Wie man auf diese Tabelle kommt, warum b sowas
wie die reziproke absolute Temperatur ist, was ein Ensemble ist, und so weiter und so fort - das kann nicht auf Anhieb klar sein.
|
|
|
Nicht umsonst braucht man eine ganze Vorlesung für eine erste komplette
Abhandlung des Themas. |
|
Aber zwei Punkte kann man doch mal mitnehmen. |
|
|
1. Die Art des statistischen Ansatzes und der Fragestellungen. |
|
|
2. Die Erkenntnis, dass dabei "zwanglos" durch die Art der Fragestellung
einige neue. sehr allgemeine, und sehr wirkungsmächtige Begriffe auftreten (z.B. Zustandssumme, Verteilungsfunktion,
reziproke Temperature), die, wenn man erst einmal "durch" ist, dann als die Hauptwerkzeuge des Theoriegebäudes
dienen. |
|
Im Folgenden werden einige Begriffe noch etwas vertieft |
| |
|
Normalerweise betrachten wir ein
System von Teilchen, wie oben definiert.
|
|
|
Wir wollen dann u.a. wissen, wie sich das System entwickelt, d.h. was im Laufe der Zeit passiert.
In einem nicht ganz trivialen System ändert sich z.B. Druck, Volumen, Energie oder Teilchenzahlen im Laufe der Zeit.
Uns interessiert dann der zeitliche Mittelwert und seine Entwicklung. |
|
Zeitmittel zu berechnen kann aber oft mühsam
werden, da die Änderungen des Systems in der Zeit kompliziert sein können. |
|
|
In der Regel tut man sich leichter mit Scharmitteln.
In anderen Worten: Es ist z.B. beim Würfelspiel leichter den Mittelwert der gewürfelten Zahlen zu berechnen oder
zu messen, wenn man nicht mit einem Würfel 1000 mal würfelt, sondern
einem Ensemble von z.B. 1000 Würfeln nur einmal. Das ist in einem extra
Modul bereits dargestellt. |
|
|
In noch anderen Worten: Es ist leichter, Mittelwerte aus einem kanonischen "Buch" (= Ensemble) zu berechen, als aus nacheinander erstellten Zeilen
(= System). |
|
Das ist der Inhalt der Ergodenhypothese;
wir haben damit schon ein zentrales (und nicht ganz problemloses) Lemma der statistischen Thermodynamik. |
|
Wozu brauchen wir die Ergodenhypothese? Weil sie erlaubt Mittelwerte immer als Scharmittel zu berechnen - vorausgesetzt wir verwenden einen sehr wichtigen "Trick"
bei der Sache. |
|
|
Wir betrachten eben nicht nur ein System (dem wir dann
in seiner zeitlichen Entwicklung folgen müßen) sondern viele (bis zu ¥
viele) fiktive weitere Systeme, die sinnvoll gekoppelt sind, und die alle hinsichtlich
der gesuchten statistischen Größen unser eigentliches System auch repräsentieren
könnten. |
|
|
Die Menge all dieser System nennen wir dann ein Ensemble oder
eine Gesamtheit. Um statistische Größen wie z.B. Mittelwerte zu berechnen, nehmen
wir jetzt das Scharmittel des Ensembles. |
|
Soweit ist das alles ist noch beliebig allgemein. Wie immer, tut man sich aber
leichter, wenn man Einschränkungen oder Fallunterscheidungen macht. Drei wichtige Fallunterscheidungen sind: |
|
1. Unser System ist abgeschlossen (es sitzt in einem für alles undurchdringlichen
"Kasten" mit gegebenen Volumen). Es kann also weder Energie, Entropie oder Teilchen aus der Umgebung beziehen.
Dann muss sein Energie automatisch konstant sein, denn es gilt der Energieerhaltungssatz. Thermodyamisches Gleichgewicht
liegt dann bei maximaler Entropie vor. |
|
|
Das zugehörige Ensemble besteht also
aus vielen Systemen, die alle die gleiche Zusammensetzung (= gleiche Teilchenzahlen und -sorten), gleiches Volumen und gleiche
Temperatur, und darüberhinaus auch noch dieselbe Energie haben solle. |
|
|
Das geht nur bei voneinander völlig isolierten Systemen. Wir nennen derart
charakterisierte Ensemble die Mikrokanonische Gesamtheit. |
|
|
In mikrokanonischen Büchern müßten
dann auch alle Zeilen gleichlang sein. |
|
2. Wir betrachten jetzt ein System, bei dem nur Zusammensetzung, Volumen
und Temperatur gegeben ist. Um ein Ensemble zu erhalten, stellen wir uns so ein System jetzt wieder mehrfach vor. |
|
|
Da wir nicht nicht wissen, wie groß die Energie eines solchen Systems ist,
lassen wir verschiedene Energien zu |
|
|
Das primäre Kennzeichen ist dann, dass alle Systeme des Ensembles dieselbe
Temperatur haben werden. Das können wir erreichem indem wir die Systeme thermisch
koppeln. |
|
|
Ein derartiges Ensemble nennt man eine Kanonische
Gesamtheit. Das ist der wichtigste Fall; er entspricht dem Buchstabenbeispiel mit dem kanonischen Buch. |
|
3. Wenn wir zwar noch gleiche Temperatur und gleiches Volumen fordern,
aber Teilchenaustausch zulassen, haben wir die Großkanonische Gesamtheit. |
|
|
Das war's dann auch schon. Mehr Fälle müssen nicht betrachtet werden. |
|
|
Für jede der frei Gesamtheiten gibt es eine eigene Formel für die Zustandssumme;
und damit ist das Thema dann "eigentlich" erledigt, denn die Zustandssumme enthält alles Wissenswerte, wie
oben und weiter unten ausgeführt |
|
Woher kommen die etwas hochtrabenden Namen? |
|
|
"Kanonisch" heißt zunächst mal schlicht
"richtunggebend" (aha, doch mit der Kanone verwandt). Es ist stark
theologisch belegt; "kanonische" Schriften gehören zum "Kanon"; sie sind den kirchlichen Rechtsbestimmungen
gemäß. |
|
|
Schriften, die nicht zum Kanon gehörten wurden verbrannt, vorzugsweise zusammen mit ihren
Autoren oder Advokaten. |
|
|
Man redet aber gelegentlich auch anderweitig in der Physik von "kanonischen Gleichungen"
im Sinne von Grundgleichungen. |
|
|
|
Oben steht schon das Wesentliche: |
|
|
Für jedes Ensemble (und damit auch System) gibt es eine wohldefinierte Zustandssumme,
und diese Zustandssumme enthält alle Informationen über das betrachtete System!
|
|
|
Die Zustandsssumme ist in der statistischen Thermodynamik sowas wie die Wellenfunktion in der Quantenmechanik, und diese Analogie kann auch auf der formalen Ebene
ganz gut begründet werden. Alles was man über das System wissen will (und kann), z.B. innerer Energie, Entropie,
freie Enthalpie, usw, läßt sich aus der Zustandssumme extrahieren. Hier ein paar Formeln dazu: |
| |
Innere Energie U | = | kT ·
| æ ç è |
¶ (ln Z)
¶ (ln T) | ö ÷ ø
| V | | |
| | | | |
Entropie S | = | k · ln Z + k · |
æ ç è |
¶ (ln Z)
¶ (lnT) | ö ÷ ø
| V | | |
| | | | |
Druck p | = | kT · |
æ ç è |
¶ (ln Z)
¶V | ö ÷ ø |
T | | | |
| | | |
Freie Enthalpie G | = |
– kT · ln Z – |
æ ç è |
¶ (ln Z)
¶ (ln V) | ö ÷ ø
| T |
|
|
|
Aber was ist denn die Zustandssumme selbst?
Hier eine (etwas vereinfachte Interpretation) |
|
|
Summiert wird über alle verfügbare Energieniveaus des Systems (Wir
nehmen hier schon mal ein bißchen Quantentheorie mit hinein, und wissen damit, dass i.a. die Energie in diskreten
Niveaus auftritt). Wir haben damit eigentlich eine "Energiesumme". |
|
|
Da aber jeder erlaubte Zustand
eine wohldefinierte Energie hat, summieren wir eben auch über alle erlaubten Zustände (falls Entartung auftreten kann, ist das leicht einzubeziehen). |
|
Der von der Temperatur abhängige Zahlenwert der Zustandssumme für ein
bestimmtes System gibt nun an (qualititiv betrachtet und ungefähr), wieviel Zustände dem System thermisch
"zugänglich" sind, also bei der gegebenen Temperatur besetzt werden können (und damit auch
besetzt sein werden). |
|
Also eine wunderbare Sache! Wir müssen nur noch Zustandssummen berechnen,
alles weitere ergibt sich von selbst? |
|
|
Nicht ganz: Es gilt der 1.
Haupsatz der Betriebswirtschaft; hier in der Version als Satz von der Erhaltung der mathematischen Schwierigkeit: Zustandssummen sind notorisch schwierig zu berechnen! |
|
|
Wer Lust hat, kann sich das mal am Beispiel der Zustandssumme
eines Kristalls anschauen |
|
|
|
Im Buchstabenspiel kamen schnell Verteilungsfunktionen vor, zum ersten mal bei
der Frage nach der wahrscheinlichsten Verteilung. |
|
|
Dann haben wir die Verteilungsfunktion der ni
in einer Zeile sogar Boltzmann-Verteilung genannt. |
|
|
Warum? Das verstehen wir sofort, wenn wir die Frage
jetzt mit Hilfe der Tabelle ins "Thermodynamische" übersetzen. Die Frage
lautet dann |
|
|
Wie groß ist die Wahrscheinlichkeit Psyst
, ein System aus N Teilchen mit der Gesamtenergie E zu erhalten, d.h. wie verteilen sich die
Teilchen auf die vorhandene Energiezustände? |
|
Das muss natürlich (für klassische Teilchen) genau die uns schon geläufige
Boltzmann-Verteilung sein. Allerdings scheinen wir ein Problem zu haben: |
|
|
Die Boltzmann-Verteilung kommt im Hyperscript häufiger vor, allerdings nie
mit einer Zustandssumme behaftet. In Kapitel 6.1.2 (Energiebarrieren
und ihre Überwindung) wird eine sehr einfache Formel ohne Zustandssumme eingeführt.
Irgendwas scheint nicht so richtig zu passen. |
|
|
Wo der Haken liegt, ist in einem anderen
Modul ausgeführt. |
|
|
Zum Ergebnis aber nur soviel: Es gibt keinen Haken.
Die einfache Formel in Kapitel 6.1.2 ist, wie dort angemerkt, eine (sehr gute) Näherung,
und unter den angegebenen Bedingungen voll gültig. |
|
Die Boltzmann-Verteilung gilt aber, wie wie wissen, nur für klassische
Teilchen. Reale Teilchen sind aber nicht klassisch. |
|
|
Wo liegt der Unterschied? In genau zwei Punkten:
- Reale Teilchen (derselben Sorte) sind entweder Fermionen oder Bosonen;
sie sind prinzipiell nicht unterscheidbar (im Gegensatz zu klassischen Teilchen; die
immer
prinzipiell unterscheidbar
sind)
- Fermionen dürfen nicht denselben Zustand haben (Pauli-Prinzip).
|
|
Was würde das im Buchstabenspiel bedeuten? Schauen wir uns die Sequenz TO_BE _OR_NOT_TO_BE nochmal an. |
|
Klassisch können wir sie von allen anderen
Sequenzen, die mit der zugehörigen Komposition B2E2NO4RT3_5
erstellt werden können unterscheiden, denn wir können ein "T" von einem "O"
usw, unterscheiden. |
|
|
Deshalb mußten wir für Pkom die Wahrscheinlichkeit,
diese Buchstaben zu "ziehen", mit QSeq, der Zahl der möglichen Sequenzen zu dieser
Komposition, multiplizieren |
|
Quantenmechanisch müssen wir erstmal
zwischen Bosonen und Fermionen
unterscheiden. In jedem Fall haben wir Einschränkungen der Auswahlfreiheit |
|
|
Für Bosonen sind alle Sequenzen zur
Komposition B2E2NO4RT3_5 gleich; die
Multiplikation mit QSeq fällt weg. Von anderen Sequenzen unterscheidet sich die gewählte
nur durch die Länge = Energie. |
|
|
Für Fermionen sind auch alle Sequenzen
zur obigen Komposition gleich, aber da identische Buchstaben Teilchen mit identischer Energie repräsentieren, darf
jeder Buchstabe nur einmal vorkommen; die einzige mögliche Komposition wäre
also BENORT_. Entsprechend müssen wir dann auch die Formeln ändern. |
|
Statt der Boltzmann-Verteilung erhalten wir dann die Bose-Einstein
Verteilung bzw. die Fermi-Dirac Verteilung. |
| |
|
|
Ein typisches System der Thermodynamik besteht z.B. aus N = 1020
Teilchen. Eine Detailbeschreibung müßte dann mindestens 6N = 6 · 1020 Parameter
definieren und verfolgen: Die je drei Komponenten des Orts- und Impulsvektors eines Teilchens, und das dann für alle Teilchen. |
|
|
Wohl hoffnungslos, oder läßt sich da was machen? Es läßt
sich was machen: Wir erfinden den Phasenraum! |
|
|
Wir definieren einfach ein 6N-dimensionales Koordinatensystem mit
je 3N Orts- und Impulsachsen. In diesem hochdimensionalen Phasenraum wird
unser System dann durch einen schlichten Punkt vollständig beschrieben. |
|
Das erscheint ein einigermaßen verschwenderischer Umgang mit Dimensionen
zu sein, aber die mathematische Physik (ganz zu schweigen von der reinen Mathematik) hat damit kein Problem. Der in der
"richtigen" Quantentheorie unverzichtbare Hilbertraum hat sogar ¥
viele Dimensionen und ist trotzdem extrem nützlich. |
|
|
Unser Systempunkt steht aber nicht still, sondern saust, den Regeln der Mechanik
folgend, im Phasenraum herum - die Koordinaten und Impulse der Teilchen ändern sich ja ständig. |
|
|
Wenn wir ein ganzes Ensemble von Systemen betrachten,
haben wir jetzt viele herumsausende Punkte. Jeder Punkt definiert im Laufe der Zeit
eine Bahn, oder vornehmer gesagt, eine Trajektorie im Phasenraum. |
|
Der Trick ist jetzt, dass unsere Ensemble-Punktwolke im Phasenraum einigen Gesetzmäßigkeiten
unterworfen ist, mit denen man erstaunlich viel anfangen kann. Hier nur die prominentesten Beispiele: |
|
|
Wenn alle System dieselbe Energie H haben sollen, müssen sie
alle immer auf der Hyperfläche H(xi, pi) = const, z.B. der Oberfläche
einer N-dim Hyperkugel liegen. Eine Eigenart hochdimensionaler Räume ist nun, dass das Volumen einer
Hyperkugel sich praktisch vollständig in einer nahezu beliebig dünnen Schale "unterhalb" der Oberfläche
befindet. Damit kann man die Dichte der Systempunkte definieren, und erhält ein fundamentales Theorem: |
|
|
Liouvillescher
Satz: Die Punkte im Phasenraum können sich bewegen wie sie wollen, aber ihre
Dichte wird exakt konstant bleiben. Das hat weitreichende Auswirkungen, auf die wir hier aber nicht weiter eingehen wollen. |
|
|
Die uns schon bekannten Ergodenhypothese
lautet im Phasenraum so: Jeder dem System zugängliche Punkt im Phasenraum wird früher oder später auch "besucht"
werden. |
|
|
Das führt dann aber auf ein gewisses Problem: Wenn ein bestimmter jetzt
erreichter Punkt schon früher mal vom System belegt war, dann befindet es sich jetzt exakt
im gleichen Zustand wie zu einer früheren Zeit. Es hat dann keine Wahl mehr und muss exakt
die gleiche Trajektorie wieder und wieder durchlaufen - damit wird es eine periodische Bewegung durchführen. Die Zukunft ist fesrgelegt! |
|
|
Das ist das (offenbar physikalisch unsinnige) Widerkehr
Theorem von Poincaré, dessen (schwierige) Widerlegung
schnurstracks zu Begriffen wie "Chaos", Fraktale", etc., führt. |
|
|
Nimmt man Quantentheorie dazu, stellt man fest, dass das "Elementarvolumen"
des Phasenraum mit N Dimensionen gerade h3N ist (h = Plancksches Wirkungsquantum).
Damit ist eine Definition der Entropie möglich,
bei der der Nullpunkt der Entropieskala nicht mehr willkürlich ist. |
|
Damit aber genug; nur noch ein Hinweis: In der Chaostheorie, oder besser und allgemeiner
gesagt, der nichtlinearen Physik, ist der Phasenraum ein zentraler Schlüsselbegriff (allerdings dann meist wieder mit
überschaubarer Dimensionenanzahl). |
|
|
© H. Föll (MaWi 1 Skript)