Maßeinheiten

Maßeinheiten sind zur Beschreibung physikalischer Größen erforderlich. Sie sind international (früher national oder gar regional) vereinbarte Vergleichsgrößen, die einen festen, jederzeit reproduzierbaren Betrag haben. Das heute weltweit verwendete System von Maßeinheiten (Internationales Einheitensystem – in allen Sprachen mit „SI“ abgekürzt) wurde im Jahr 1960 im Rahmen der Meterkonvention eingeführt. Zunächst für Wissenschaft, Technik und Unterricht gedacht, setzte es sich inzwischen weitgehend auch in der Wirtschaft und in allen anderen Bereichen des gesellschaftlichen Lebens durch.

Im SI unterscheidet man grundsätzlich zwei Kategorien von Einheiten: Basiseinheiten und abgeleitete Einheiten. Seit 1971 gibt es folgende sieben Basiseinheiten:

Größe Einheit Symbol
Länge Meter m
Masse Kilogramm kg
Zeit Sekunde s
elektrische Stromstärke Ampere A
Temperatur Kelvin K
Stoffmenge Mol Mol
Lichtstärke Candela cd

Die abgeleiteten Einheiten werden aus den Basiseinheiten durch algebraische Operationen (Multiplikation und Division) gebildet, wie sie aufgrund der Naturgesetze für die entsprechenden Größen gelten. Dabei ist es wesentlich, dass es nie einen anderen Proportionalitätsfaktor als 1 gibt (kohärentes Einheitensystem). Verschiedene abgeleitete Einheiten haben einen eigenen Namen erhalten: z.B. Volt, Hertz, Joule. Die Basiseinheiten sollen jederzeit in jedem geeigneten Laboratorium dargestellt werden können, daher beziehen sich ihre Definitionen, mit Ausnahme der Einheit der Masse, auf konstante Eigenschaften der Natur (atomare Eigenschaften und Naturkonstanten). Lediglich das Kilogramm wird noch durch den internationalen Prototyp („Urkilogramm“) verkörpert. Der Nachteil derartiger Prototypen ist, dass sie Umwelteinflüssen und den damit verbundenen Veränderungen ausgesetzt und darüber hinaus nicht frei verfügbar sind.

In Österreich wurde das internationale Einheitensystem mit der Novelle 1973 zum Maß- und Eichgesetz eingeführt.

Bei der 9. Conférence Générale des Poids et Mesures 1948 wurde folgende Definition des Ampere beschlossen:

André Marie Ampère (1775 – 1836)

Das Ampere (A) ist gleich der Stärke des elektrischen Stromes, der durch zwei geradlinige, dünne, unendlich lange Leiter, die in einer Entfernung von 1 Meter parallel zueinander im leeren Raum angeordnet sind, unveränderlich fließend bewirken würde, dass diese beiden Leiter aufeinander eine Kraft von 0,000 000 2 Newton (2 · 10-7 N) je 1 Meter Länge ausüben.

Die Kraft zwischen zwei stromdurchflossenen Leitern wurde erstmals 1820 von A. M. Ampère beschrieben. Diese Definition der Einheit der Stromstärke ist theoretischer Natur und in der Praxis nicht realisierbar (vgl. unendlich langer Leiter); sie dient vielmehr nur dazu, die Permeabilität des Vakuums µo festzulegen auf: µo = 4p · 10-7 N/A2. Mit der Permeabilität des Vakuums ist auch die Dielektrizitätskonstante des Vakuums eo über die Lichtgeschwindigkeit c definiert, da gilt: 1/eo=c2 · µo. Der Faktor 4p leitet sich von der Oberfläche einer Kugel mit Radius 1 ab. Genaueres zur praktischen Realisierung der elektrischen Größen ist auf der Seite des Fachbereichs elektrische Größen zu finden.

Die gebräuchlichsten elektrischen Einheiten sind das Ampere (A) für die elektrische Stromstärke, das Volt (V) für die elektrische Spannung (elektrische Potentialdifferenz) und das Ohm (W) für den elektrischen Widerstand. Ende des 19. Jahrhunderts wurde erstmals ein praktisches System dieser Einheiten definiert, allerdings auf Basis des von Maxwell und Thomson (später Lord Kelvin) vorgeschlagenen CGS-Systems (c…centimeter, g…gram, s…second). Die damalige Definition des Amperes basierte auf einer genau spezifizierten Lösung aus Silbernitrat in Wasser. Dieses sogenannte “internationale Ampere” ist die Stromstärke jenes Gleichstroms, durch den 0,001 118 Gramm Silber der Silbernitratlösung pro Sekunde an einer Platinanode abgeschieden werden (Elektrolyse).

Der große Nachteil des CGS-Systems war, dass zwischen elektrostatischen und elektromagnetischen Einheiten für dieselbe Größe unterschieden wurde. 1921 wurde bei der 6. Conférence Générale des Poids et Mesures beschlossen, die Aktivitäten des BIPM auf den Bereich der elektrischen Größen auszudehnen. Man suchte in der Folge nach einer Definition, die die existierenden mechanischen Größen (Meter, Kilogramm, Sekunde) mit den elektrischen Größen kombiniert und die Probleme des CGS-Systems vermeidet. Dies führte schließlich zu der heute gültigen Definition des Amperes, das etwa 1,000 15 internationalen Ampere entspricht.

Die Definition einer elektrischen Einheit ist ausreichend, da sich etwa die Einheiten Volt und Ohm aus dem Ampere über die Einheit der Leistung (W) ergeben (W=W/A2; V=W/A). Weil sich mit der damit verbundenen Definition der Konstanten µo auch die Form der Grundgleichungen der Elektrodynamik (Maxwellgleichungen) ändert, werden neben den so definierten SI-Einheiten der elektrischen Größen, die sich besonders für praktische, technische Anwendungen eignen, für mikroskopische bzw. relativistische Probleme durchwegs immer noch die Einheiten des Gauß’schen CGS-Systems verwendet (nicht zu verwechseln mit obigen CGS-Einheiten).

Die Einheiten Volt und Ohm können heute unter Ausnutzung quantenmechanischer Effekte (Josephson-Effekt, Quanten-Halleffekt) mit hoher Präzision realisiert werden. An einer ähnlichen Realisierung der Stromstärke wird zur Zeit noch intensiv geforscht.

Bei der 16. Conférence Générale des Poids et Mesures 1979 wurde folgende Definition der Candela beschlossen:

Relativer spektraler Hellempfindlichkeitsgrad des menschlichen Auges

Die Candela (cd) ist gleich der Lichtstärke einer Strahlungsquelle in einer gegebenen Richtung, welche eine monochromatische Strahlung mit einer Frequenz von 540 · 1012 Hertz aussendet und deren Strahlstärke 1/683 Watt je Steradiant in dieser Richtung beträgt.

Damit entspricht die Lichtstärke dieser monochromatischen Lichtquelle exakt 1/683 Watt je Steradiant. Genaueres über die praktische Realisierung photometrischer Größen ist auf der Seite des Fachbereichs Photometrie zu finden.

Das System photometrischer (lichtmesstechnischer) Begriffe geht im Wesentlichen auf Johann Heinrich Lambert (1728-1777) zurück. Strahlung aus dem sichtbaren Bereich des elektromagnetischen Spektrums (also mit einer Wellenlänge von 380 nm – 780 nm) wird als Licht bezeichnet. Unter dem Begriff Lichtstärke versteht man die Strahlungsleistung pro Raumwinkel in eine gegebene Richtung bewertet nach dem im Auge hervorgerufenen Helligkeitseindruck. Die Einheit der Lichtstärke ist die Candela (cd). 1924 wurde von der Commission Internationale de l’Eclairage (CIE) der spektrale Hellempfindlichkeitsgrad des menschlichen Auges bei Tageslicht definiert und tabelliert.

Ab Mitte des 19. Jahrhunderts wurden in vielen Ländern unterschiedliche Einheiten für die Lichtstärke verwendet, wovon die internationale Kerze (Frankreich, England, USA) und die Hefnerkerze (Deutschland, Österreich, Skandinavien) zu erwähnen sind. Die Realisierung der Hefnerkerze war eine Öllampe mit selben Namen, deren Flamme mittels Visier auf eine bestimmte Höhe eingestellt wurde. Bei der 9. Conférence Générale des Poids et Mesures 1948 wurde die Candela erstmals als Einheit der Lichtstärke definiert: 1 cd ist 1/60 der Lichtstärke, die 1 cm2 der Oberfläche eines schwarzen Strahlers bei der Temperatur des erstarrenden Platins (~2042.5 K) senkrecht zur Oberfläche besitzt.

Diese Definition war allerdings sehr schwer zu realisieren und ist mit einigen Nachteilen verbunden. Man benötigt dazu einen Hohlraum mit kleiner Eintrittsöffnung, um die durch diese Öffnung eintretende Strahlung möglichst vollständig zu absorbieren (schwarzer Strahler). Bringt man diesen Hohlraum auf die Temperatur des erstarrenden Platins, so entspricht die aus der Öffnung austretende Strahlung den Anforderungen der Definition. Durch den Fortschritt bei der Entwicklung von Siliziumphotodioden als Strahlungsdetektoren wurde schließlich die seit 1979 gültige, detektorbezogene Definition der Candela möglich.

Eine Frequenz von 540·1012 Hertz entspricht einer Wellenlänge von etwa 555 nm in Normalluft; bei dieser Wellenlänge ist der spektrale Hellempfindlichkeitsgrad des menschlichen Auges bei Tageslicht maximal (grünes Licht). Der Vorteil der Definition ist, dass dadurch die photometrische Einheit Candela mit der radiometrischen Einheit Strahlstärke (W/sr) verknüpft wird. Photometrische Einheiten sind also nichts anderes als radiometrische Einheiten, die zusätzlich die Eigenschaften des menschlichen Auges berücksichtigen. Grünes oder gelbes Licht wird vom menschlichen Auge heller empfunden als rotes oder blaues Licht derselben Strahlstärke. Der Faktor 1/683 ist dabei im Prinzip willkürlich, wurde aber so gewählt, dass die moderne Definition der Candela der alten Definition der Candela etwa entspricht. Da auch eine Hefnerkerze etwa so groß wie eine Candela ist, ist also eine moderne Lichtstärkeeinheit immer noch etwa gleich der Lichtstärke einer Wachskerze (Candela: lat. für Kerze; Betonung auf der zweiten Silbe)

Bei der 13. Conférence Générale des Poids et Mesures 1967 wurde folgende Definition des Kelvin beschlossen:

William Thomson meist als Lord Kelvin bezeichnet (1824 – 1907)

Das Kelvin (K) ist gleich 1/273,16 der thermodynamischen Temperatur des Tripelpunktes des Wassers.

Dadurch wird die Temperatur des Tripelpunkts des Wassers auf exakt 273.16 K definiert. Genaueres zur praktischen Realisierung findet sich auf der Seite des Fachbereichs Temperatur.

Erste brauchbare Thermometer wurden bereits im 17. Jahrhundert entwickelt (Galilei-Thermometer). Der Begriff Temperatur selbst geht auf den griechischen Arzt Galen (ca. 170 n. Chr.) zurück, der acht Grade an “temperamentum” seiner Patienten unterschied, um den Effekt seiner Medizin zu charakterisieren. Im 18. Jahrhundert wurden mehrere unterschiedliche Temperaturskalen entwickelt, von denen die Bekanntesten die Celsiusskala und die Temperatur nach Fahrenheit sind. Alle diese relativen Temperaturskalen basieren auf der Definition von zwei Temperaturfixpunkten. Fahrenheit verwendete für den Nullpunkt seines Quecksilberthermometers die Temperatur einer Salmiak-Schnee-Mischung, die etwa der tiefsten Temperatur im Winter 1708/09 in Danzig entsprach. Der menschlichen Körpertemperatur ordnete er den Zahlenwert 96 zu. Etwas fortschrittlicher war die Definition von Celsius, der Gefrier- und Siedepunkt des Wassers verwendete. Allerdings ordnete Celsius dem Siedepunkt des Wassers 0° und dem Eispunkt 100° zu, was aber bald in die heutige Form geändert wurde.

Alle diese Temperaturdefinitionen sind weiters von speziellen Stoffeigenschaften abhängig, die über einen großen Temperaturbereich nicht konstant sind (vgl. thermischer Ausdehnungskoeffizient von Quecksilber). William Thomson (später Lord Kelvin) erkannte Mitte des 19. Jahrhunderts, dass aus dem zweiten Hauptsatz der Thermodynamik die Existenz einer universellen Temperaturskala folgt, die von den Eigenschaften spezieller Thermometer unabhängig ist. Eine Messung dieser Temperatur ist beispielsweise durch das Gasthermometer möglich. Die so definierte thermodynamische Temperatur ist eine stets positive Größe, deren Nullpunkt ebenfalls der zweite Hauptsatz der Thermodynamik festlegt. Durch diesen absoluten Nullpunkt ist zur Definition einer Temperaturskala somit nur mehr ein Fixpunkt notwendig. Doch erst 1948 wurde von der 9. Conférence Générale des Poids et Mesures erstmals eine absolute Temperatur definiert.

Als Temperaturfixpunkte eignen sich die Temperaturen von Gleichgewichtszuständen zwischen den Aggregatzuständen reiner Substanzen (z.B. Erstarrungs- bzw. Schmelztemperaturen von reinen Metallen bei einem spezifizierten Druck). Als Tripelpunkt bezeichnet man jenen Zustand bei dem alle drei Aggregatzustände (fest-flüssig-gasförmig) im thermodynamischen Gleichgewicht stehen. Dieser Zustand wird nur bei einem bestimmten Druck und einer bestimmten Temperatur eingenommen und ist als Fixpunkt daher besonders geeignet. Durch den Faktor 1/273.16 wird gewährleistet, dass einer Temperaturerhöhung von 1 K eine Temperaturerhöhung von 1°C entspricht. 0°C entsprechen 273.15 K. Die praktische Realisierung der Temperaturskala erfolgt heute unter Zuhilfenahme verschiedenster Fixpunkte über einem Bereich von 0.65 K bis etwa 1400 K, wobei die Fixpunkte der niedrigen Temperaturen nur sehr aufwändig zu realisieren sind.

Der wesentliche Unterschied der heute gültigen Definition des Kelvins von 1967 zu der älteren Definition von 1948 ist, dass damals noch die Bezeichnung °K erlaubt war. Man spricht also heute z. B. 100 K als “einhundert Kelvin” und nicht als “einhundert Grad Kelvin” im Gegensatz zu 100°C als “einhundert Grad Celsius”.

Bei der 3. Conférence Générale des Poids et Mesures 1901 wurde folgende Definition des Kilogramms beschlossen:

Das Kilogramm (kg) ist die Einheit der Masse; es ist gleich der Masse des internationalen Kilogrammprototyps.

Der nationale Kilogrammprototyp Nr. 49

Durch diese Definition ist die Masse des internationalen Kilogrammprototyps immer gleich 1 kg. Das Kilogramm ist somit die einzige Basiseinheit, die bis heute (noch) nicht auf fundamentale Naturkonstanten (z.B. Lichtgeschwindigkeit im Vakuum) zurückgeführt werden kann. Der Prototyp, auf den sich sämtliche Massebestimmungen beziehen, wird in Paris am BIPM in einem Tresor verwahrt. Genauere Informationen zum Thema Masse sind auf der Seite des Fachbereichs Masse und verwandte Größen zu finden.

Wie für das Meter liegt der Ursprung des Kilogramms in der Zeit der französischen Revolution. Schon unter Louis XVI wurde der Versuch unternommen, die vielen unterschiedlichen Gewichtseinheiten des Landes durch einen einheitlichen Standard abzulösen. Grundlage für diesen Standard war die Masse eines Kubikdezimeters Wasser bei der größten Dichte des Wassers (also bei 4°C). Diese Masseneinheit sollte ursprünglich den Namen “Grave” tragen. Nach der Revolution wurde beschlossen, als neue Masseneinheit das Gramm einzuführen. Dies war vor allem dadurch motiviert, dass damals viele Experimente zur Massenbestimmung mit viel kleineren Massen als dem Kilogramm durchgeführt wurden. Allerdings wäre ein Grammstandard aufgrund seiner geringen Größe sehr unpraktisch und schwierig zu realisieren gewesen, man entschloss sich daher die neue Masseneinheit als 1 Kilogramm Standard (= 1000 Gramm) zu realisieren. Es ist durchaus möglich, dass jene Entscheidung auch politische Motive hatte; jedenfalls liegt hier die Ursache, dass der Basiseinheit der Masse ein Präfix vorangestellt ist (Präfix kilo = 1000).

Nach vielen aufwendigen Messungen, die im Wesentlichen auf dem archimedischen Prinzip beruhen, wurden zylindrische Artefakte aus Platin hergestellt, die der neu definierten Masseneinheit 1 Kilogramm entsprachen. Einer dieser Prototypen wurde 1799 zum offiziellen Kilogrammstandard Frankreichs erklärt, dem “Kilogramme des Archives”. Bei der 1. Conférence Générale des Poids et Mesures 1889 wurde ein neuer Standard aus einer Platin-Iridium Legierung (10% Iridium) als internationales Massenormal eingeführt. Das “Kilogramme des Archives” diente dabei als Referenz. Kopien dieses Standards (ebenfalls aus Platin-Iridium) werden seither in den Mitgliedsstaaten der Meterkonvention als nationale Normale verwendet. Österreich besitzt das Artefakt mit der Nummer 49. Die Definition des Kilogramms ist seit damals gültig. Die Neuformulierung von 1901 wurde durchgeführt um den Begriff der Masse eines Körpers vom Begriff des Gewichts eines Körpers explizit zu unterscheiden.

Man versucht zur Zeit mit verschiedenen Methoden eine Neudefinition des Kilogramms zu erreichen, die auf fundamentalen Naturkonstanten basiert und den Kilogrammprototyp somit ersetzen könnte. Die dabei wahrscheinlich aussichtsreichste Methode ist die sogenannte Wattwaage. Darüber hinaus versucht man, mit einer sehr genauen Bestimmung der Avogadrokonstante oder mit Ionenakkumulation die Einheit der Masse zu redefinieren.

Bei der 17. Conférence Générale des Poids et Mesures 1983 wurde folgende Definition des Meters beschlossen:

Das Meter (m) entspricht der Länge der Strecke, die Licht im leeren Raum während der Dauer von 1/299 792 458 Sekunde durchläuft.

Pierre-François-André Méchain (1744 – 1804)

Damit wird die Lichtgeschwindigkeit im Vakuum auf exakt c=299 792 458 /ms-1 festgelegt. Genaueres über die praktische Realisierung des Meters ist auf der Seite des messtechnischen Fachbereichs Länge zu finden.

Die ursprüngliche Definition und erste Realisierung des Meters reicht in die Zeit der französischen Revolution zurück. Damals waren lokal noch sehr viele unterschiedliche Längeneinheiten vorhanden, die den Handel erheblich behinderten und die aufkeimende industrielle Revolution beeinträchtigten. Dem Geiste der französischen Revolution entsprechend suchte man ein Längennormal, das für alle Menschen gleich sein sollte. Man entschied sich daher, einen bestimmten Bruchteil eines Erdmeridians (also des Umfangs der Erde von Pol zu Pol) als Längennormal einzuführen. 1792 begannen P. F. A. Méchain und J. B. J. Delambre den Meridian der durch Paris verläuft von Dünkirchen bis Barcelona zu vermessen. Bedingt durch die Wirren der französischen Revolution konnte diese Arbeit erst sechs Jahre später beendet werden. Man schloss nun von der Länge dieses Teilstücks auf die Gesamtlänge des Meridians und bestimmte nunmehr, dass der 10 000 000. Teil eines Viertels dieses Meridians einem Meter entspricht (daher ist der Umfang der Erde etwa 40 000 km). Nebenbei sei bemerkt, dass diese dem Meter zugrundeliegenden Daten auch zur Entwicklung moderner Methoden der Messdatenauswertung führten (C. F. Gauß, A. M. Legendre).

Jean-Baptiste Joseph Delambre (1749 – 1822)

1799 wurde ein Platinstab, der der ermittelten Länge des Meters entsprach, als Standard in Frankreich eingeführt (“Mètre des Archives”). Ende des 19. Jahrhunderts (1. Conférence Générale des Poids et Mesures 1889) wurde ein Stab aus einer Platin-Iridium Legierung (10% Iridium) als neuer Prototyp des Meters eingeführt. Das Mètre des Archives diente dabei als Referenz. Um diesen Standard weiterzugeben, wurden Kopien (ebenfalls aus Platin-Iridium) für die Mitgliedsstaaten der Meterkonvention (darunter auch das damalige Österreich-Ungarn) angefertigt, die wiederum dort als nationale Normale verwendet wurden.

Schon kurz darauf (1892-1893) wurden am BIPM erste erfolgreiche Versuche unternommen das Meter mittels der Interferenz von monochromatischem Licht als Vielfaches der entsprechenden Wellenlänge zu bestimmen (Michelson-Interferometer). Doch erst 1960 wurde eine Definition des Meters beschlossen, die auf der Messung der Wellenlänge monochromatischen Lichts basiert. Man entschied sich in dieser Definition für die Strahlung eines bestimmten Anregungszustands eines Krypton-Isotops (86Kr). Die Wellenlänge dieser Strahlung multipliziert mit 1 650 763.73 ergibt ein Meter.

Aber der Laser wurde etwa zur selben Zeit erfunden und neue, noch genauere Methoden der Längenmessung wurden möglich. Diese führten zu der seit 1983 gültigen Definition des Meters, die das Meter über die Lichtgeschwindigkeit im Vakuum auf die Sekunde zurückführt. Die Lichtgeschwindigkeit im Vakuum wurde in den siebziger Jahren sehr aufwendig und sehr genau gemessen und danach obiger Wert definiert. Die Sekunde ist jene Basiseinheit, die mit der größten heute möglichen Präzision realisiert werden kann. Um Längen zu messen bestimmt man also heute primär die Frequenz von Laserstrahlung und daraus wiederum über die Lichtgeschwindigkeit die Wellenlänge. Stabilisierte Laser dienen dabei als Frequenz- bzw. Wellenlängennormal. Dennoch wird der originale Prototyp des Meters von 1889 immer noch in Paris am BIPM aufbewahrt.

Es sei noch erwähnt, dass zur Zeit der französischen Revolution bereits eine alternative Definition des Meters diskutiert wurde. Als Meter sollte die Länge eines Pendels dienen, dessen Schwingungsdauer einer Sekunde entspricht. Diese ebenfalls auf die Sekunde basierende Definition wurde aber damals zugunsten der Meridiandefinition verworfen.

Bei der 14. Conférence Générale des Poids et Mesures 1971 wurde folgende Definition des Mol beschlossen:

Das Mol (mol) ist gleich der Stoffmenge eines Systems, das aus ebenso vielen Teilchen besteht, wie Atome in 0.012 Kilogramm des Nuklids Kohlenstoff-12 enthalten sind.

Lorenzo Romano Amadeo Carlo Avogadro (1776 – 1856)

Bei Verwendung des Mols müssen die Einzelteilchen spezifiziert sein und können Atome, Moleküle, Ionen, Elektronen sowie andere Teilchen oder Gruppen solcher Teilchen genau angegebener Zusammensetzung sein.

Damit wird die molare Masse von reinem 12C auf exakt 0.012 kg mol-1 fixiert. Der erste Teil dieser Definition bezieht sich darüber hinaus auf ungebundene Kohlenstoffatome in Ruhe und im Grundzustand. Denn als Konsequenz der Bindungsenergie pro Atom enthalten z.B. 0.012 kg Graphit bei Raumtemperatur etwas mehr Atome als 0.012 kg Diamant (Äquivalenz von Energie und Masse).

Ein Mol gibt die Anzahl der Teilchen in der Masse eines Stoffes an, die seiner Atommasse in Gramm entspricht. Dadurch wird eine sehr große Zahl definiert (Avogadro-Konstante, früher Loschmidt-Zahl), da die Anzahl der Teilchen pro Mol immer gleich ist. Nach der heutigen Definition entspricht ein Mol eines Stoffes etwa 6.022·1023 Teilchen. Der österreichische Chemiker Johann Joseph Loschmidt konnte diese Zahl 1865 zum erstenmal auf Grundlage der kinetischen Gastheorie berechnen. Davor vermutete Amadeo Avogadro (1776–1856) bereits, dass ein gegebenes Volumen eines Gases (bei konstanter Temperatur und konstantem Druck) stets die gleiche Anzahl von Atomen aufweist.

Johann Josef Loschmidt (1821 – 1895)

Der Kehrwert der Avogadrozahl ist also gleich 1/12 der Masse eines Atoms des Kohlenstoffisotops 12C in Gramm. Da der Kern des 12C-Atoms aus 12 Elementarteilchen (6 Protonen, 6 Neutronen) besteht, wird so wiederum die Atommasseneinheit (u) definiert. Im Periodensystem der Elemente sind die Atommassen in Vielfachen dieser Atommasseneinheit angegeben. Diese relative Atommasse gibt somit auch gleichzeitig die Masse eines Mols (molare Masse) des jeweiligen Stoffes in Gramm an. Wenn 12C das einzige Isotop von Kohlenstoff wäre, so wäre die relative Atommasse von Kohlenstoff gleich 12. Tatsächlich ist die im Periodensystem angegebene relative Atommasse etwas größer (12.011), weil in natürlichem Kohlenstoff immer Spuren der Isotope 13C und 14C enthalten sind; also wiegt ein Mol natürlichen Kohlenstoffs etwas mehr als ein Mol 12C. Die Atommasseneinheit (u) ist zwar keine SI-Einheit, die Verwendung dieser Einheit zusammen mit SI-Einheiten wird von der Conférence Générale des Poids et Mesures aber akzeptiert.

Bei der 13. Conférence Générale des Poids et Mesures 1967 wurde folgende Definition der Sekunde beschlossen:

Die Sekunde (s) ist gleich der Dauer von 9 192 631 770 Schwingungen der Strahlung, die dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustandes des Cäsiumatoms-133 entspricht.

Isidor Isaac Rabi (1898 – 1988)

Damit wird die Frequenz dieses Hyperfeinstrukturübergangs auf exakt 9 192 631 770 Hz festgelegt. Genaueres zur praktischen Realisierung der Sekunde ist auf der Seite des Fachbereichs Zeit und Frequenz zu finden.

Grundlage für unseren Zeitbegriff ist seit jeher die Zeit die die Erde für eine Umdrehung um die eigene Achse benötigt, also 1 Tag. Diese Zeitdauer wird mit Hilfe von Uhren willkürlich in 24 Stunden zu 60 Minuten und diese wiederum in 60 Sekunden geteilt. Nebenbei sei bemerkt, dass im revolutionären Frankreich 1793 tatsächlich eine dezimale Zeit eingeführt wurde. Ein Monat hatte drei Dekaden zu je 10 Tagen. Ein Tag hatte 10 Stunden zu je 100 Minuten zu je 100 Sekunden. Doch diese Reform konnte sich nicht durchsetzen und wurde daher schon 1795 wieder zurückgezogen. 1820 wurde ebenfalls in Frankreich die Sekunde als 1/86 400 (24·60·60=86 400) eines mittleren Sonnentages definiert. Diese Definition wurde 1889 von der 1 Conférence Générale des Poids et Mesures übernommen.

Nun ist die Rotation der Erde gewissen Schwankungen unterworfen (Einfluss der Gezeiten, etc.) und wird graduell aber unregelmäßig immer langsamer. Mit den laufend verbesserten Uhren (Quarzuhr) konnten in den dreißiger Jahren sogar Einflüsse der Jahreszeiten nachgewiesen werden. Die Definition der Sekunde durch die Dauer eines Tages war aufgrund dieser Schwankungen nicht mehr ausreichend, denn die Dauer einer Sekunde wäre somit davon abhängig, wann (an welchem Tag) sie definiert wurde. Daher entschied man sich die Sekunde als Bruchteil eines Umlaufs der Erde um die Sonne zu definieren. 1960 wurde die Sekunde daher von der 11. Conférence Générale des Poids et Mesures als der 31 556 925.9747 Teil des tropischen Jahres definiert, das am 31. Dezember 1899 um 12 Uhr mittags begann. Wie man aus der Definition bereits erkennt, ist auch das Sonnenjahr bedingt durch die gravitativen Wechselwirkungen der Erde mit den anderen Himmelskörpern ebenfalls Schwankungen unterworfen. Doch die Atomuhr war bereits erfunden und seit 1967 ist die Sekunde durch den Hyperfeinstrukturübergang in Cäsium definiert.

Übergänge zwischen Hyperfeinstrukturzuständen werden in Atomuhren verwendet, weil ihre Frequenzen sehr genau bestimmt werden können und mit relativ einfachen Mitteln zu erzeugen und zu messen sind, da sie im Radiofrequenz- oder Mikrowellenbereich liegen. Man benutzt dabei zwei bestimmte Hyperfeinstruktur-zustände des Elektrons in der äußersten Schale des Cäsiumisotops 133Cs (nicht radioaktiv!). Beim Übergang von einem Zustand in den anderen wird laut Definition Mikrowellenstrahlung mit einer Frequenz von 9 192 631 770 Hz abgegeben. Eine Cäsiumatomuhr ist ein hochpräzises Frequenznormal im Mikrowellenbereich, das mittels eines Resonanzeffekts stabilisiert wird. Die grundlegenden Arbeiten, die schließlich zur Realisierung der Atomuhr führten, stammen von dem amerikanischen Physiker I. I. Rabi. Er erhielt dafür 1944 den Nobelpreis.

Die Sekunde ist also seit 1967 nicht mehr Bruchteil eines Tages oder eines Jahres. Da die Rotation der Erde, wie bereits erwähnt, immer langsamer wird, sind daher zur Anpassung der “bürgerlichen Zeit” an die Zeit laut Standard Schaltsekunden notwendig.