Der Temperatur auf der Spur
Ein Blick auf vergangene Zeiten, in denen das Wasser noch bei 0 Grad Celsius siedete
Wenn wir heute wissen wollen, wie kalt es draußen ist oder welche Temperatur im Inneren des Sonntagsbratens herrscht, schauen wir nur kurz auf ein Thermometer. So einfach war die Temperaturmessung noch nie. Denn über Jahrhunderte hinweg scheiterten selbst die besten Gelehrten ihrer Zeit an den Problemen, die die exakte Bestimmung der Kälte und der Wärme mit sich bringt.
Historiker lassen die Geschichte des Thermometers mit einem legendären Betrug beginnen. Vor über 2 000 Jahren beauftragte König Hieron II. von Syrakus den griechischen Gelehrten Archimedes mit einer Aufgabe. Der König wollte wissen, ob seine Krone wirklich aus purem Gold bestand. Die rettende Idee zur Lösung der Aufgabe kam dem Gelehrten angeblich beim Baden, als seine Wanne überlief: Wenn die Krone wirklich aus purem Gold war, dann musste ein ebenso schwerer reiner Goldbarren exakt gleich viel Wasser verdrängen. Also tauchte er beides nacheinander in ein randvolles Gefäß und siehe da: Sobald die Krone untergetaucht war, lief mehr Wasser über den Rand des Bottichs als beim Goldbarren. Damit war klar: Der König war betrogen worden. Soweit zumindest die Legende.
Das „Archimedische Prinzip“
Das Universalgenie Galileo Galilei besann sich Anfang des 17. Jahrhunderts auf diese Geschichte und wendete das „Archimedische Prinzip“an, um aufzuzeigen, wie groß der Einfluss der Temperatur war. In seinen „Discorsi“(1635/1638) berichtet er von einer Wachskugel, die so genau austariert war, dass sie unter Wasser schwebte, also weder versank noch aufstieg. Erwärmte sich nun das Wasser, so verringerte sich dadurch dessen Dichte und die Wachskugel begann abzusinken. Kühleres Wasser hingegen ließ die Kugel im Gefäß aufsteigen. Die Dichte der Flüssigkeit änderte sich also mit der Temperatur. Noch heute schmücken Auftriebsthermometer – sogenannte Galilei-Thermometer – unsere Stuben.
Allerdings ist diese Art der Temperaturmessung recht träge und auch nicht für jede Situation geeignet. Größere Hitze misst man besser mit Metallausdehnungsthermometern. Schon in der ersten Hälfte des 18. Jahrhundert nutzte Pieter van Musschenbroek, ein niederländischer Mediziner und Naturwissenschaftler, die Längenausdehnung von Metallen, um hohe Temperaturen genauer zu vermessen. Da sich unterschiedliche Metalle auch unterschiedlich stark ausdehnen, wenn sie erhitzt werden, genügt es, zwei dünne Streifen verschiedener Metalle fest miteinander zu verbinden.
Bei Erwärmung krümmt sich dieser nun in Richtung des sich geringer ausdehnenden Metalls. Ein angebrachter Zeiger und eine Skala übersetzen den jeweiligen Krümmungsgrad des Metallstreifens in eine Temperaturanzeige. Da zwei unterschiedliche Metalle dafür schon ausreichen, nennen sich diese Thermometer auch „Bimetallthermometer“. Sie finden heute vor allem dort Verwendung, wo extreme Temperaturen zu erwarten sind.
Die meisten Stolpersteine hielt die Geschichte aber wohl für die Forscher bereit, die sich mit der Ausdehnung von Flüssigkeiten zur Temperaturanzeige beschäftigten. Schon in der Antike
kannte man sogenannte Thermoskope, einfache Vorläufer des Thermometers ohne brauchbare Skalen zum Ablesen der Temperatur, die zudem noch alles andere als zuverlässig waren. Das Prinzip war einfach: Ein dünnes Röhrchen wurde in einen Behälter mit Wasser getaucht und nun konnte das Wasser bei steigender Temperatur aufgrund seiner Ausdehnung in diesem Röhrchen emporsteigen oder eben auch in kälterer Umgebung darin absinken. Aber: Der Wasserstand änderte sich auch aufgrund des Luftdrucks, der auf das offene System einwirken konnte und das Ergebnis somit verfälschte.
Mit Wein zum Erfolg
Die Forscher der 1657 in Florenz gegründeten Accademia del Cimento verschlossen darum kurzerhand beide Seiten
des Röhrchens, so dass der Luftdruck keinen Einfluss mehr auf das Messergebnis ausüben konnte. Dafür mussten sich die Florentiner nun mit ganz anderen Problemen herumschlagen. Wasser hat nämlich den großen Nachteil, dass es in einem klaren Glasröhrchen auf Dauer trübe werden kann. In den dünnen Kapillaren war es aufgrund seiner Durchsichtigkeit ohnehin schlecht zu erkennen. Aber welche Flüssigkeit war besser geeignet? Schon bald war Weingeist die Thermometerflüssigkeit der Wahl. Dieser verdarb nicht und ließ sich zudem noch mit Cochenille-Schildläusen sehr schön dekorativ rot einfärben. Safran sorgte hingegen für eine gelbe Färbung, und mit etwas Kupferblume sowie Salmiakgeist ergab sich eine blaue Messflüssigkeit.
Aber auch der Alkohol löste längst nicht alle Probleme der Forscher. Die Zusatzstoffe, die zum Einfärben verwendet wurden, lagerten sich in den Glasröhrchen ab, und zudem hing das Messergebnis in entscheidendem Maße von der Konzentration des Weingeistes ab. Das Problem: Diese ließ sich mit damaligen Mitteln nicht messen und somit auch nicht vergleichen.
Der Schweizer Jacques-Barthélemy Micheli du Crest (1690–1766) verwendete aus diesem Grund lieber „Weingeist, der Pulver entzündet“. Dazu goss er Weingeist über etwas Schwarzpulver und entzündete die Alkoholdämpfe. Da die Temperatur der Flamme maßgeblich von der Konzentration des Alkohols abhängig ist, entzündet sich das Schwarzpulver nur dann, wenn der Alkohol stark genug konzentriert ist, um die erforderliche Zündtemperatur zu erreichen. Wirklich zufriedenstellend war aber auch diese Lösung nicht, denn die Volumenänderung des Weingeistes verlief nicht völlig linear über das gesamte Temperaturspektrum hinweg.
1714 löste der in Danzig geborene Physiker Daniel Gabriel Fahrenheit das Problem mit Quecksilber, dessen Volumenänderung zwar minimal, dafür aber absolut linear verläuft. Dass die giftigen Quecksilberfüllungen irgendwann einmal verboten sein würden, konnte man damals noch nicht ahnen. Fahrenheit verbesserte das Thermometer aber noch weiter, indem er eine brauchbare Skala mit Fixpunkten einführte. Viele Ideen anderer Forscher hatten sich nämlich in der Praxis nicht bewährt beziehungsweise waren viel zu ungenau. So verzeichnete das „Kleine Florentiner“-Thermometer etwa die Bluttemperatur von Tieren als höchsten Wert auf der Skala. Aber auch schmelzende Butter, festwerdendes Bienenwachs oder die Wassertemperatur, bei der man sich gerade eben noch nicht die Hand verbrüht, konnten sich auf Dauer nicht durchsetzen.
Schmelzpunkt ist maßgebend
Fahrenheit wählte deshalb ab 1727 den Schmelzpunkt des Eises als unteren Fixpunkt seiner Thermometerskala und als oberen Fixpunkt den Siedepunkt des Wassers, so wie es schon der Niederländer Christiaan Huygens 1665 vorgeschlagen hatte. Auch der französische Naturforscher René-Antoine Ferchault de Réaumur wählte diese beiden Eckpunkte auf seiner Weingeist-Thermometerskala, die vor allem in Frankreich und Deutschland lange Zeit verwendet wurde – und unter anderem bei der Käseherstellung teilweise heute noch verwendet wird.
Der Schwede Anders Celsius unterteilte seine Skala mit eben diesen beiden Eckpunkten in 100 gleiche Teile. Den Gefrierpunkt des Wassers setzte er ursprünglich bei 100 Grad an, den Siedepunkt des Wassers bei 0 Grad. Warum auch nicht? Seinem Freund, dem schwedischen Naturforscher Carl von Linné, ist es zu verdanken, dass diese Skala 1744 umgekehrt wurde und somit der Gefrierpunkt von Wasser zu Eis heute bei 0 Grad Celsius liegt und der Siedepunkt des Wassers bei 100 Grad Celsius.
Nun ist bei 0 Grad Celsius ja bekanntlich noch lange nicht Schluss. Die bitterkalten minus 273,15 Grad Celsius wählte dann auch William Thomson, der spätere Lord Kelvin, als absoluten Nullpunkt seiner eigenen Temperaturskala – die sich in unseren Breiten, jedoch bis heute nicht durchsetzen konnte.