Maßeinheiten

Maßeinheiten sind zur Beschreibung physikalischer Größen erforderlich. Sie sind international (früher national oder gar regional) vereinbarte Vergleichsgrößen, die einen festen, jederzeit reproduzierbaren Betrag haben. Das heute weltweit verwendete System von Maßeinheiten (Internationales Einheitensystem – in allen Sprachen mit „SI“ abgekürzt) wurde im Jahr 1960 im Rahmen der Meterkonvention eingeführt. Zunächst für Wissenschaft, Technik und Unterricht gedacht, setzte es sich inzwischen weitgehend auch in der Wirtschaft und in allen anderen Bereichen des gesellschaftlichen Lebens durch.

Im SI unterscheidet man grundsätzlich zwei Kategorien von Einheiten: Basiseinheiten und abgeleitete Einheiten. Seit 1971 gibt es folgende sieben Basiseinheiten:

Größe Einheit Symbol
Zeit Sekunde s
Länge Meter m
Masse Kilogramm kg
elektrische Stromstärke Ampere A
Temperatur Kelvin K
Stoffmenge Mol mol
Lichtstärke Candela cd

Die abgeleiteten Einheiten werden aus den Basiseinheiten durch algebraische Operationen (Multiplikation und Division) gebildet, wie sie aufgrund der Naturgesetze für die entsprechenden Größen gelten. Dabei ist es wesentlich, dass es nie einen anderen Proportionalitätsfaktor als 1 gibt (kohärentes Einheitensystem). Verschiedene abgeleitete Einheiten haben einen eigenen Namen erhalten: z.B. Volt, Hertz, Joule. Die Basiseinheiten sollen jederzeit in jedem geeigneten Laboratorium dargestellt werden können, daher beziehen sich ihre Definitionen, auf konstante Eigenschaften der Natur (atomare Eigenschaften und Naturkonstanten).

In Österreich wurde das internationale Einheitensystem mit der Novelle 1973 zum Maß- und Eichgesetz eingeführt.

Bei der 26. Conférence Générale des Poids et Mesures 2018 wurde folgende Definition der Sekunde beschlossen:

Die Sekunde, Einheitenzeichen s, ist die SI-Einheit der Zeit. Sie ist definiert, indem für die Cäsiumfrequenz ΔνCs, der Frequenz des ungestörten Hyperfeinübergangs des Grundzustands des Cäsiumatoms 133, der Zahlenwert 9 192 631 770 festgelegt wird, ausgedrückt in der Einheit Hz, die gleich s-1 ist.

Dabei handelt es sich um eine Neuformulierung der Definition, die schon seit der 13. Conférence Générale des Poids et Mesures im Jahr 1967 Gültigkeit hatte:
Die Sekunde (s) ist gleich der Dauer von 9 192 631 770 Schwingungen der Strahlung, die dem Übergang zwischen den beiden Hyperfeinstrukturniveaus des Grundzustandes des Cäsiumatoms 133 entspricht.

Isidor Isaac Rabi (1898 – 1988)

Damit wird die Frequenz dieses Hyperfeinstrukturübergangs auf exakt 9 192 631 770 Hz festgelegt. Genaueres zur praktischen Realisierung der Sekunde ist auf der Seite des Fachbereichs Zeit und Frequenz zu finden.

Grundlage für unseren Zeitbegriff ist seit jeher die Zeit, die die Erde für eine Umdrehung um die eigene Achse benötigt, also 1 Tag. Diese Zeitdauer wird mit Hilfe von Uhren willkürlich in 24 Stunden zu 60 Minuten und diese wiederum in 60 Sekunden geteilt. Nebenbei sei bemerkt, dass im revolutionären Frankreich 1793 tatsächlich eine dezimale Zeit eingeführt wurde. Ein Monat hatte drei Dekaden zu je 10 Tagen. Ein Tag hatte 10 Stunden zu je 100 Minuten zu je 100 Sekunden. Doch diese Reform konnte sich nicht durchsetzen und wurde daher schon 1795 wieder zurückgezogen. Die Definition der Sekunde als 1/86 400
(24 · 60 · 60 = 86 400) eines mittleren Sonnentages wurde schließlich 1913 von der 3. Conférence Générale des Poids et Mesures empfohlen.

Nun ist die Rotation der Erde gewissen Schwankungen unterworfen (Einfluss der Gezeiten, etc.) und wird graduell aber unregelmäßig immer langsamer. Mit den laufend verbesserten Uhren (Quarzuhr) konnten in den dreißiger Jahren sogar Einflüsse der Jahreszeiten nachgewiesen werden. Die Definition der Sekunde durch die Dauer eines Tages war aufgrund dieser Schwankungen nicht mehr ausreichend, denn die Dauer einer Sekunde wäre somit davon abhängig, wann (an welchem Tag) sie definiert wurde. Daher entschied man sich die Sekunde als Bruchteil eines Umlaufs der Erde um die Sonne zu definieren. 1960 wurde die Sekunde daher von der 11. Conférence Générale des Poids et Mesures als der 31 556 925,9747te Teil des tropischen Jahres definiert, das am 31. Dezember 1899 um 12 Uhr mittags begann. Wie man aus der Definition bereits erkennt, ist auch das Sonnenjahr bedingt durch die gravitativen Wechselwirkungen der Erde mit den anderen Himmelskörpern ebenfalls Schwankungen unterworfen. Doch die Atomuhr war bereits erfunden und seit 1967 ist die Sekunde durch den Hyperfeinstrukturübergang in Cäsium definiert.

Übergänge zwischen Hyperfeinstrukturzuständen werden in Atomuhren verwendet, weil ihre Frequenzen sehr genau bestimmt werden können und mit relativ einfachen Mitteln zu erzeugen und zu messen sind, da sie im Radiofrequenz- oder Mikrowellenbereich liegen. Bei Cäsiumatomuhren benutzt man dabei zwei bestimmte Hyperfeinstrukturzustände des Isotops 133Cs (nicht radioaktiv!). Der Übergang von einem Zustand in den anderen wird durch Mikrowellenstrahlung mit einer Frequenz laut Definition von 9 192 631 770 Hz induziert. Eine Cäsiumatomuhr ist ein hochpräzises Frequenznormal, das mittels eines Resonanzeffekts stabilisiert wird. Die grundlegenden Arbeiten, die schließlich zur Realisierung der Atomuhr führten, stammen von dem amerikanischen Physiker I. I. Rabi. Er erhielt dafür 1944 den Nobelpreis.

Die Sekunde ist also seit 1967 nicht mehr Bruchteil eines Tages oder eines Jahres. Die atomphysikalische Zeitskala und die astronomische Zeitskala driften auseinander, zur Anpassung der “bürgerlichen Zeit” an die astronomischen Gegebenheiten sind daher Schaltsekunden notwendig.

Bei der 26. Conférence Générale des Poids et Mesures 2018 wurde folgende Definition des Meters beschlossen:

Der Meter, Einheitenzeichen m, ist die SI-Einheit der Länge. Er ist definiert, indem für die Lichtgeschwindigkeit in Vakuum c der Zahlenwert 299 792 458 festgelegt wird, ausgedrückt in der Einheit m/s, wobei die Sekunde mittels ΔνCs definiert ist.

Pierre-François-André Méchain (1744 – 1804)

Damit wird die Lichtgeschwindigkeit im Vakuum auf exakt = 299 792 458 /ms-1 festgelegt. Genaueres über die praktische Realisierung des Meters ist auf der Seite des messtechnischen Fachbereichs Länge zu finden.

Die ursprüngliche Definition und erste Realisierung des Meters reicht in die Zeit der französischen Revolution zurück. Damals waren lokal noch sehr viele unterschiedliche Längeneinheiten vorhanden, die den Handel erheblich behinderten und die aufkeimende industrielle Revolution beeinträchtigten. Dem Geiste der französischen Revolution entsprechend suchte man ein Längennormal, das für alle Menschen gleich sein sollte. Man entschied sich daher, einen bestimmten Bruchteil eines Erdmeridians (also des Umfangs der Erde von Pol zu Pol) als Längennormal einzuführen. 1792 begannen P. F. A. Méchain und J. B. J. Delambre den Meridian, der durch Paris verläuft, von Dünkirchen bis Barcelona zu vermessen. Bedingt durch die Wirren der französischen Revolution konnte diese Arbeit erst sechs Jahre später beendet werden. Man schloss nun von der Länge dieses Teilstücks auf die Gesamtlänge des Meridians und bestimmte nunmehr, dass der 10 000 000. Teil eines Viertels dieses Meridians einem Meter entspricht (daher ist der Umfang der Erde etwa 40 000 km). Nebenbei sei bemerkt, dass diese dem Meter zugrundeliegenden Daten auch zur Entwicklung moderner Methoden der Messdatenauswertung führten (C. F. Gauß, A. M. Legendre).

Jean-Baptiste Joseph Delambre (1749 – 1822)

1799 wurde ein Platinstab, der der ermittelten Länge des Meters entsprach, als Standard in Frankreich eingeführt (“Mètre des Archives”). Ende des 19. Jahrhunderts (1. Conférence Générale des Poids et Mesures 1889) wurde ein Stab aus einer Platin-Iridium Legierung (10% Iridium) als neuer Prototyp des Meters eingeführt. Das Mètre des Archives diente dabei als Referenz. Um diesen Standard weiterzugeben, wurden Kopien (ebenfalls aus Platin-Iridium) für die Mitgliedsstaaten der Meterkonvention (darunter auch das damalige Österreich-Ungarn) angefertigt, die wiederum dort als nationale Normale verwendet wurden.

Schon kurz darauf (1892 – 1893) wurden am BIPM erste erfolgreiche Versuche unternommen das Meter mittels der Interferenz von monochromatischem Licht als Vielfaches der entsprechenden Wellenlänge zu bestimmen (Michelson-Interferometer). Doch erst 1960 wurde eine Definition des Meters beschlossen, die auf der Messung der Wellenlänge monochromatischen Lichts basiert. Man entschied sich in dieser Definition für die Strahlung eines bestimmten Anregungszustands eines Krypton-Isotops (86Kr). Die Wellenlänge dieser Strahlung multipliziert mit 1 650 763,73 ergibt einen Meter.

Aber der Laser wurde etwa zur selben Zeit erfunden und neue, noch genauere Methoden der Längenmessung wurden möglich. Diese führten zu der seit 1983 gültigen Definition des Meters, die das Meter über die Lichtgeschwindigkeit im Vakuum auf die Sekunde zurückführt. Die Lichtgeschwindigkeit im Vakuum wurde in den siebziger Jahren sehr aufwendig und sehr genau gemessen und danach obiger Wert definiert.

Der Meter war somit die erste Basiseinheit, die aufgrund einer wirklichen Naturkonstante, eben der Vakuumlichtgeschwindigkeit, definiert wurde (1983).

Die Sekunde ist jene Basiseinheit, die mit der größten heute möglichen Präzision realisiert werden kann. Um Längen zu messen bestimmt man also heute primär die Frequenz von Laserstrahlung und daraus wiederum über die Lichtgeschwindigkeit die Wellenlänge. Stabilisierte Laser dienen dabei als Frequenz- bzw. Wellenlängennormal.

Der originale Prototyp des Meters von 1889 wird weiterhin in Paris am BIPM aufbewahrt. Hier sei noch erwähnt, dass zur Zeit der französischen Revolution bereits eine alternative Definition des Meters diskutiert wurde. Als Meter sollte die Länge eines Pendels dienen, dessen Schwingungsdauer einer Sekunde entspricht. Diese ebenfalls auf der Sekunde basierende Definition wurde aber damals zugunsten der Meridiandefinition verworfen.

Bei der 26. Conférence Générale des Poids et Mesures 2018 wurde folgende Definition des Kilogramms beschlossen:

Das Kilogramm, Einheitenzeichen kg, ist die SI-Einheit der Masse. Es ist definiert, indem für die Planck-Konstante h der Zahlenwert 6,626 070 15 × 10-34 festgelegt wird, ausgedrückt in der Einheit J s, die gleich kg m2 s-1 ist, wobei der Meter und die Sekunde mittels c und ΔvCs definiert sind.

Der nationale Kilogrammprototyp Nr. 49

Wie für das Meter liegt der Ursprung des Kilogramms in der Zeit der französischen Revolution. Schon unter Louis XVI wurde der Versuch unternommen, die vielen unterschiedlichen Gewichtseinheiten des Landes durch einen einheitlichen Standard abzulösen. Grundlage für diesen Standard war die Masse eines Kubikdezimeters Wasser bei der größten Dichte des Wassers (also bei 4°C). Diese Masseneinheit sollte ursprünglich den Namen “Grave” tragen. Nach der Revolution wurde beschlossen, als neue Masseneinheit das Gramm einzuführen. Dies war vor allem dadurch motiviert, dass damals viele Experimente zur Massenbestimmung mit viel kleineren Massen als dem Kilogramm durchgeführt wurden. Allerdings wäre ein Grammstandard aufgrund seiner geringen Größe sehr unpraktisch und schwierig zu realisieren gewesen, man entschloss sich daher die neue Masseneinheit als 1 Kilogramm Standard
(= 1000 Gramm) zu realisieren. Darin liegt jedenfalls eine der Ursachen, dass der Basiseinheit der Masse ein Präfix vorangestellt ist (Präfix kilo = 1000).

Nach vielen aufwendigen Messungen, die im Wesentlichen auf dem archimedischen Prinzip beruhen, wurden zylindrische Artefakte aus Platin hergestellt, die der neu definierten Masseneinheit 1 Kilogramm entsprachen. Einer dieser Prototypen wurde 1799 zum offiziellen Kilogrammstandard Frankreichs erklärt, dem “Kilogramme des Archives”. Bei der 1. Conférence Générale des Poids et Mesures 1889 wurde ein neuer Standard aus einer Platin-Iridium Legierung (10 % Iridium) als internationales Massenormal eingeführt. Das “Kilogramme des Archives” diente dabei als Referenz. Kopien dieses Standards (ebenfalls aus Platin-Iridium) werden seither in den Mitgliedsstaaten der Meterkonvention als nationale Normale verwendet. Österreich besitzt das Artefakt mit der Nummer 49.

In der Zeit von der Jahrtausendwende bis 2018 wurde versucht mit verschiedenen Methoden eine Neudefinition des Kilogramms zu erreichen, die auf fundamentalen Naturkonstanten basiert und den Kilogrammprototyp somit ersetzen könnte.

Bei der 26. Generalkonferenz für Maß und Gewicht, 13. bis 16. November 2018, war es endlich soweit. Nach vielen Jahren intensivster Forschungstätigkeiten und zahlreichen Vergleichen, konnte die Neudefinition der Masse durch das Festlegen des Zahlenwertes für das Plancksche Wirkungsquantum realisiert werden.

Nun ist auch die letzte makroskopische Basiseinheit, die der Masse, auf eine quantenmechanische Naturkonstante rückgeführt.

Bei der 9. Conférence Générale des Poids et Mesures 1948 wurde folgende Definition des Ampere beschlossen:

André Marie Ampère (1775 – 1836)

Das Ampere (A) ist gleich der Stärke des elektrischen Stromes, der durch zwei geradlinige, dünne, unendlich lange Leiter, die in einer Entfernung von 1 Meter parallel zueinander im leeren Raum angeordnet sind, unveränderlich fließend bewirken würde, dass diese beiden Leiter aufeinander eine Kraft von 0,000 000 2 Newton (2 · 10-7 N) je 1 Meter Länge ausüben.

Die Kraft zwischen zwei stromdurchflossenen Leitern wurde erstmals 1820 von A. M. Ampère beschrieben. Diese Definition der Einheit der Stromstärke ist theoretischer Natur und in der Praxis nicht realisierbar (vgl. unendlich langer Leiter); sie dient vielmehr nur dazu, die Permeabilität des Vakuums µo festzulegen auf: µo = 4p · 10-7 N/A2. Mit der Permeabilität des Vakuums ist auch die Dielektrizitätskonstante des Vakuums eo über die Lichtgeschwindigkeit c definiert, da gilt: 1/eo=c2 · µo. Der Faktor 4p leitet sich von der Oberfläche einer Kugel mit Radius 1 ab. Genaueres zur praktischen Realisierung der elektrischen Größen ist auf der Seite des Fachbereichs elektrische Größen zu finden.

Die gebräuchlichsten elektrischen Einheiten sind das Ampere (A) für die elektrische Stromstärke, das Volt (V) für die elektrische Spannung (elektrische Potentialdifferenz) und das Ohm (W) für den elektrischen Widerstand. Ende des 19. Jahrhunderts wurde erstmals ein praktisches System dieser Einheiten definiert, allerdings auf Basis des von Maxwell und Thomson (später Lord Kelvin) vorgeschlagenen CGS-Systems (c…centimeter, g…gram, s…second). Die damalige Definition des Amperes basierte auf einer genau spezifizierten Lösung aus Silbernitrat in Wasser. Dieses sogenannte “internationale Ampere” ist die Stromstärke jenes Gleichstroms, durch den 0,001 118 Gramm Silber der Silbernitratlösung pro Sekunde an einer Platinanode abgeschieden werden (Elektrolyse).

Der große Nachteil des CGS-Systems war, dass zwischen elektrostatischen und elektromagnetischen Einheiten für dieselbe Größe unterschieden wurde. 1921 wurde bei der 6. Conférence Générale des Poids et Mesures beschlossen, die Aktivitäten des BIPM auf den Bereich der elektrischen Größen auszudehnen. Man suchte in der Folge nach einer Definition, die die existierenden mechanischen Größen (Meter, Kilogramm, Sekunde) mit den elektrischen Größen kombiniert und die Probleme des CGS-Systems vermeidet. Dies führte schließlich zu der heute gültigen Definition des Amperes, das etwa 1,000 15 internationalen Ampere entspricht.

Die Definition einer elektrischen Einheit ist ausreichend, da sich etwa die Einheiten Volt und Ohm aus dem Ampere über die Einheit der Leistung (W) ergeben (W=W/A2; V=W/A). Weil sich mit der damit verbundenen Definition der Konstanten µo auch die Form der Grundgleichungen der Elektrodynamik (Maxwellgleichungen) ändert, werden neben den so definierten SI-Einheiten der elektrischen Größen, die sich besonders für praktische, technische Anwendungen eignen, für mikroskopische bzw. relativistische Probleme durchwegs immer noch die Einheiten des Gauß’schen CGS-Systems verwendet (nicht zu verwechseln mit obigen CGS-Einheiten).

Die Einheiten Volt und Ohm können heute unter Ausnutzung quantenmechanischer Effekte (Josephson-Effekt, Quanten-Halleffekt) mit hoher Präzision realisiert werden. An einer ähnlichen Realisierung der Stromstärke wird zur Zeit noch intensiv geforscht.

Bei der 26. Conférence Générale des Poids et Mesures 2018 wurde folgende Definition des Kelvin beschlossen:

William Thomson meist als Lord Kelvin bezeichnet (1824 – 1907)

Das Kelvin, Einheitenzeichen K, ist die SI-Einheit der thermodynamischen Temperatur. Es ist definiert, indem für die Boltzmann-Konstante k der Zahlenwert 1,380 649 × 10-23 festgelegt wird, ausgedrückt in der Einheit J K-1, die gleich kg m2 s‑2 K-1 ist, wobei das Kilogramm, der Meter und die Sekunde mittels h, c und ΔνCs definiert sind.

Erste brauchbare Thermometer wurden bereits im 17. Jahrhundert entwickelt (Galilei-Thermometer). Der Begriff Temperatur selbst geht auf den griechischen Arzt Galen (ca. 170 n. Chr.) zurück, der acht Grade an “temperamentum” seiner Patienten unterschied, um den Effekt seiner Medizin zu charakterisieren. Im 18. Jahrhundert wurden mehrere unterschiedliche Temperaturskalen entwickelt, von denen die Bekanntesten die Celsiusskala und die Temperatur nach Fahrenheit sind. Alle diese relativen Temperaturskalen basieren auf der Definition von Temperaturfixpunkten. Fahrenheit verwendete für den Nullpunkt seines Quecksilberthermometers die Temperatur einer Salmiak-Schnee-Mischung, die etwa der tiefsten Temperatur im Winter 1708/09 in Danzig entsprach. Der menschlichen Körpertemperatur ordnete er den Zahlenwert 96 zu. Etwas fortschrittlicher war die Definition von Celsius, der Gefrier- und Siedepunkt des Wassers verwendete. Allerdings ordnete Celsius dem Siedepunkt des Wassers 0° und dem Eispunkt 100° zu, was aber bald in die heutige Form geändert wurde.

Alle diese Temperaturdefinitionen sind von speziellen Stoffeigenschaften abhängig, die über einen großen Temperaturbereich nicht konstant sind (vgl. thermischer Ausdehnungskoeffizient von Quecksilber). William Thomson (später Lord Kelvin) erkannte Mitte des 19. Jahrhunderts, dass aus dem zweiten Hauptsatz der Thermodynamik die Existenz einer universellen Temperaturskala folgt, die von den Eigenschaften spezieller Thermometer unabhängig ist. Die so definierte thermodynamische Temperatur ist eine stets positive Größe, deren Nullpunkt ebenfalls der zweite Hauptsatz der Thermodynamik festlegt.

Um die verschiedenen nationalen Temperaturskalen zu harmonisieren, hat das Internationale Komitee für Maß und Gewicht (CIPM) 1927 die Internationale Temperaturskala (ITS) aufgestellt, um möglichst exakt die thermodynamische Temperaturen abzubilden. Grundlage der ITS ist die Kelvin-Skala.

1954 wurde die Einheit der thermodynamischen Temperatur in „Grad Kelvin“ (°K) definiert, wobei der Tripelpunkt von Wasser als grundlegender Fixpunkt ausgewählt und ihm die Temperatur von 273,16 °K zugeordnet wurde.

Als Temperaturfixpunkte eignen sich die Temperaturen von Gleichgewichtszuständen zwischen den Aggregatzuständen reiner Substanzen (z.B. Erstarrungs- bzw. Schmelztemperaturen von reinen Metallen bei einem spezifizierten Druck). Als Tripelpunkt bezeichnet man jenen Zustand, bei dem alle drei Aggregatzustände (fest-flüssig-gasförmig) im thermodynamischen Gleichgewicht stehen. Durch den Faktor 1/273,16 wird gewährleistet, dass einer Temperaturerhöhung von 1 K eine Temperaturerhöhung von 1 °C entspricht. 0 °C entsprechen 273,15 K. Die praktische Realisierung der Temperaturskala erfolgt heute unter Zuhilfenahme verschiedenster Fixpunkte über einen Bereich von 0,65 K bis etwa 1400 K.

1967/68 wurde für die Definition der thermodynamischen Temperatur der Name Kelvin (Symbol „K“) mit folgender Definition übernommen:
Das Kelvin ist der 273,16te Teil der thermodynamischen Temperatur des Tripelpunktes des Wassers.
Daraus ergibt sich die thermodynamische Temperatur des Tripelpunktes von Wasser exakt zu 273,16 Kelvin, TTPW = 273,16 K.

Das CIPM hat 1987 gemäß des Beschlusses der 18. CGPM die ITS-90 verabschiedet, welche mit 01.01.1990 in Kraft getreten ist. Das Internationale Büro für Maß und Gewicht (BIPM) bestätigte 2005 die Definition des Kelvin bezogen auf eine exakt definierte Menge des „Vienna Standard Mean Ocean Water“ mit folgender Isotopenzusammensetzung: 0,000 155 76 Mol ²H pro Mol 1H, 0,000 379 9 Mol 17O pro Mol 16O und 0,002 005 2 Mol 18O pro Mol 16O.

Mit dem Beschluss der CGPM von 2018 wird das Kelvin über die Boltzmann-Konstante k neu definiert. Durch die Festlegung der Boltzmann-Konstante k auf einen bestimmten Wert kann so die Temperatur über die in fundamentalen physikalischen Gesetzen auftretende „thermische Energie“ kT in Joule definiert werden.

Aufgrund der bisherigen Definition des Kelvins ist letztlich jede Temperaturmessung ein Vergleich der Temperatur eines zu messenden Objekts mit TTPW. Nach der Neudefinition wird das Kelvin so definiert, dass die Boltzmann-Konstante k genau den Wert 1,380 648 52 × 10‑23 J K-1 hat. Diese Zahl wurde gewählt, um sicherzustellen, dass TTPW immer noch den gleichen Wert hat (273,16 K = 0,01 °C), wobei er jedoch eine zugehörige Messunsicherheit hat. So wird TTPW in Zukunft als 273,160 000 K ± 0,000 156 K realisiert, da sich die Unsicherheit bei der Bestimmung von k auf den Wert von TTPW überträgt. Der TTPW als ein Temperatur-Fixpunkt nach der ITS-90 bleibt aber eine in der Praxis leicht reproduzierbare Temperatur.

Bei der 26. Conférence Générale des Poids et Mesures 2018 wurde folgende Definition des Mol beschlossen:

Das Mol, Einheitenzeichen mol, ist die SI-Einheit der Stoffmenge. Ein Mol enthält genau 6,022 140 76 × 1023 Einzelteilchen. Diese Zahl entspricht dem für die Avogadro-Konstante NA geltenden festen Zahlenwert, ausgedrückt in der Einheit mol−1, und wird als Avogadro-Zahl bezeichnet.

Lorenzo Romano Amadeo Carlo Avogadro (1776 – 1856)

Die Stoffmenge, Zeichen n, eines Systems ist ein Maß für eine Zahl spezifizierter Einzelteilchen. Bei einem Einzelteilchen kann es sich um ein Atom, ein Molekül, ein Ion, ein Elektron, ein anderes Teilchen oder eine Gruppe solcher Teilchen mit genau angegebener Zusammensetzung handeln.

Das Mol ist somit die einzige Basiseinheit, die keinen Bezug zu der Sekunde (und ihrer Definition) nimmt. Sie ist heute, dank der Neudefinition der Basiseinheiten des SI, einer Anzahlenangabe, vergleichbar mit einem „Dutzend“, gleichwertig.

Ein Mol gab vor der Neudefinition die Anzahl der Teilchen in der Masse eines Stoffes an, die seiner Atommasse in Gramm entspricht. Dadurch wird eine sehr große Zahl definiert (Avogadro-Konstante, früher Loschmidt-Zahl), da die Anzahl der Teilchen pro Mol immer gleich ist. Der österreichische Chemiker Johann Joseph Loschmidt konnte diese Zahl 1865 zum ersten Mal auf Grundlage der kinetischen Gastheorie berechnen. Davor vermutete Amadeo Avogadro (1776 – 1856) bereits, dass ein gegebenes Volumen eines Gases (bei konstanter Temperatur und konstantem Druck) stets die gleiche Anzahl von Atomen aufweist.

Johann Josef Loschmidt (1821 – 1895)

Die Stoffmenge und von ihr abgeleitete Größen sind in der Chemie verwendete und dort sehr wichtige Größen.

Die Atommasseneinheit u ist zwar keine SI-Einheit, die Verwendung dieser Einheit zusammen mit SI-Einheiten wird von der Conférence Générale des Poids et Mesures aber akzeptiert.

Bei der 16. Conférence Générale des Poids et Mesures 1979 wurde folgende Definition der Candela beschlossen:

Relativer spektraler Hellempfindlichkeitsgrad des menschlichen Auges

Die Candela (cd) ist gleich der Lichtstärke einer Strahlungsquelle in einer gegebenen Richtung, welche eine monochromatische Strahlung mit einer Frequenz von 540 · 1012 Hertz aussendet und deren Strahlstärke 1/683 Watt je Steradiant in dieser Richtung beträgt.

Damit entspricht die Lichtstärke dieser monochromatischen Lichtquelle exakt 1/683 Watt je Steradiant. Genaueres über die praktische Realisierung photometrischer Größen ist auf der Seite des Fachbereichs Photometrie zu finden.

Das System photometrischer (lichtmesstechnischer) Begriffe geht im Wesentlichen auf Johann Heinrich Lambert (1728-1777) zurück. Strahlung aus dem sichtbaren Bereich des elektromagnetischen Spektrums (also mit einer Wellenlänge von 380 nm – 780 nm) wird als Licht bezeichnet. Unter dem Begriff Lichtstärke versteht man die Strahlungsleistung pro Raumwinkel in eine gegebene Richtung bewertet nach dem im Auge hervorgerufenen Helligkeitseindruck. Die Einheit der Lichtstärke ist die Candela (cd). 1924 wurde von der Commission Internationale de l’Eclairage (CIE) der spektrale Hellempfindlichkeitsgrad des menschlichen Auges bei Tageslicht definiert und tabelliert.

Ab Mitte des 19. Jahrhunderts wurden in vielen Ländern unterschiedliche Einheiten für die Lichtstärke verwendet, wovon die internationale Kerze (Frankreich, England, USA) und die Hefnerkerze (Deutschland, Österreich, Skandinavien) zu erwähnen sind. Die Realisierung der Hefnerkerze war eine Öllampe mit selben Namen, deren Flamme mittels Visier auf eine bestimmte Höhe eingestellt wurde. Bei der 9. Conférence Générale des Poids et Mesures 1948 wurde die Candela erstmals als Einheit der Lichtstärke definiert: 1 cd ist 1/60 der Lichtstärke, die 1 cm2 der Oberfläche eines schwarzen Strahlers bei der Temperatur des erstarrenden Platins (~2042.5 K) senkrecht zur Oberfläche besitzt.

Diese Definition war allerdings sehr schwer zu realisieren und ist mit einigen Nachteilen verbunden. Man benötigt dazu einen Hohlraum mit kleiner Eintrittsöffnung, um die durch diese Öffnung eintretende Strahlung möglichst vollständig zu absorbieren (schwarzer Strahler). Bringt man diesen Hohlraum auf die Temperatur des erstarrenden Platins, so entspricht die aus der Öffnung austretende Strahlung den Anforderungen der Definition. Durch den Fortschritt bei der Entwicklung von Siliziumphotodioden als Strahlungsdetektoren wurde schließlich die seit 1979 gültige, detektorbezogene Definition der Candela möglich.

Eine Frequenz von 540·1012 Hertz entspricht einer Wellenlänge von etwa 555 nm in Normalluft; bei dieser Wellenlänge ist der spektrale Hellempfindlichkeitsgrad des menschlichen Auges bei Tageslicht maximal (grünes Licht). Der Vorteil der Definition ist, dass dadurch die photometrische Einheit Candela mit der radiometrischen Einheit Strahlstärke (W/sr) verknüpft wird. Photometrische Einheiten sind also nichts anderes als radiometrische Einheiten, die zusätzlich die Eigenschaften des menschlichen Auges berücksichtigen. Grünes oder gelbes Licht wird vom menschlichen Auge heller empfunden als rotes oder blaues Licht derselben Strahlstärke. Der Faktor 1/683 ist dabei im Prinzip willkürlich, wurde aber so gewählt, dass die moderne Definition der Candela der alten Definition der Candela etwa entspricht. Da auch eine Hefnerkerze etwa so groß wie eine Candela ist, ist also eine moderne Lichtstärkeeinheit immer noch etwa gleich der Lichtstärke einer Wachskerze (Candela: lat. für Kerze; Betonung auf der zweiten Silbe)