Man darf
Genauigkeit nicht mit der theoretischen oder tatsächlichen
Auflösung verwechseln.
Die Auflösung kann wesentlich höher als die Genauigkeit sein.
Die Windows
API-Funktion
GetTickCount() hat eine theoretische Auflösung von 1ms.
Die tatsächliche Auflösung beträgt aber 10 bis 16ms.
Die Genauigkeit hängt von der Handware ab (das können mehrere Sekunden Abweichung pro Tag sein.)
Der 128 Bit Timestamp hat so eine hohe Auflösung, dass man ihn in der Praxis nie ausreizen wird.
Dennoch eine Entscheidung von weisser Vorraussicht.
Vielleicht wird die Software von NI am Kernforschungszentrum in Cern eingesetzt und die Timestamps werden von externe Hardware generiert.
Oder man verwendet Labview um die Abweichungen mehrerer Atomuhren zu visualisieren.