Gastbeitrag von Sebastian Egner, Premierenbesucher.

Die Thermodynamik des jungen 19. Jahrhunderts ist das was man heute "phänomenologische Thermodynamik" nennt. In dieser Theorie werden Größen wie Temperatur und Entropie als empirische Größen von makroskopischen Körpern definiert und ihre Beziehungen untersucht, u.a. die Hauptsätze der Thermodynamik. Die Temperatur wird z.B. definiert durch die Zustandsänderungen (Schmelzen, Ausdehnen, Verdampfen) von Referenzsubstanzen (Wasser, Alkohol, Mischungen etc.), was die Temperaturskalen von Celsius, Fahrenheit, Réaumur etc. hervorgebracht hat (http://de.wikipedia.org/wiki/Réaumur-Skala). Diese Theorie passt tatsächlich nicht zum newtonschen Universum, denn dessen Theorie ist komplett reversibel und deterministisch, der 2. Hauptsatz erlaubt dagegen aber auch irreversible Prozesse. Dies wird im Stück ja auch thematisiert.

In der 2. Hälfte des 19. Jahrhunderts ist degegen eine Theorie entstanden die man heute "statistische Thermodynamik" (oder auch einfach "statistische Mechanik") nennt, u.a. von Maxwell, Gibbs und Boltzmann. Diese Theorie definiert Temperatur usw. als Mittelwert einer grossen Anzahl mikroskopischer Einzelprozesse, im einfachsten Fall ("ideales Gas") als punktförmige Teilchen die sich bewegen und elastisch mit einander (und den Begrenzungswänden) kollidieren. Die Temperatur ist ein Maß für die Bewegungsenergie der Teilchen, genauer gesagt unterliegen ihre Geschwindigkeiten einer bestimmten statistischen Verteilung (Maxwell-Boltzmann-Verteilung) mit der Temperatur als einzigem Parameter. Bemerkenswert ist jetzt, dass diese Theorie wieder vereinbar ist mit Newtons Bewegungsgleichungen! Die Irreversibilität mancher Prozesse beruht in der statistischen Mechanik ausschliesslich auf der Statistik des Ensembles, nicht auf den Dynamik-Gleichungen der Einzelprozesse. Es ist sogar noch schlimmer, denn in der statistischen Mechanik werden alle Prozesse des Universums "angetrieben" durch die Statistik, nicht durch eine mögliche Energieabnahme. 

Die Theorie die Thomasina und vor allem Septimus suchen, ist also plausiblerweise die statistische Mechanik, nicht die quantenphysikalische Weltsicht. (Dies wird im Stück offen gelassen.) Die benötigte Mathematik dafür war seit ca. 1700 bekannt, aber auf dem Stand von 1812 ist die Modellbildung schwierig, und ich finde es wenig überraschend, dass erst Maxwell und Boltzmann die statistische Mechanik wirklich verstehen konnten---trotz der "drei grossen Ls" (Lagrange, Laplace, Legendre).

Die "statistische Quantenmechanik" wiederum ist eine Entdeckung aus dem ersten Drittel des 20. Jahrhunderts. Sie ist die dominante Theorie der Quantenmechanik (von Hochenergiephysik abgesehen) auf der u.a. der Transistor basiert. Dies hat sich erst in den 1990ern geändert, als die Experimentalphysiker gelernt haben makroskopisch direkt beobachtbare Quantensysteme routinemäßig zu isolieren ("Ionenfallen"). Vorher war die Beobachtung von Quanteneffekten fast ausschliesslich als statistische Ensembles mit sehr vielen Teilchen möglich, aber ausser dass die Einzelprozesse jetzt Quanteninteraktionen sind, wird die Welt weiterhin "angetrieben durch die Statistik."