GUM (Norm)

GUM (Norm)

Version vom 4. Oktober 2017, 09:05 Uhr von imported>Cms metrology (Aktuellen Link gefunden und wiederhergestellt.)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

GUM ist die Abkürzung für den 1993 veröffentlichten und zuletzt 2008 überarbeiteten ISO/BIPM-Leitfaden „Guide to the Expression of Uncertainty in Measurement“. Die als maßgebliche deutsche Fassung bezeichnete DIN V ENV 13005 ist zurückgezogen worden. Der Regelsetzer empfiehlt die Anwendung der Technischen Regel ISO/IEC Guide 98-3:2008-09 Messunsicherheit - Teil 3: Leitfaden zur Angabe der Unsicherheit beim Messen.

Entstehungsgeschichte

Die Anfänge des GUM reichen bis in das Jahr 1978 zurück. Zu jener Zeit hatte eine deutsche Großforschungseinrichtung ein „Seminar über die Angabe der Messunsicherheit“ veranstaltet. Im Rahmen des Seminars wurde deutlich, dass das uns von Carl Friedrich Gauß übergebene Konzept der Fehlerrechnung unvollständig und die Fehlerrechnung damit zu revidieren sei. In der Tat hatte Gauß einen zweiten, von ihm selbst sehr wohl erkannten und diskutierten Fehler, den „unbekannten systematischen Fehler“, nicht in seinen Formalismen zum Tragen gebracht. Vor dem Hintergrund fortgeschrittener Methoden der Metrologie ließ sich diese Maßnahme jedoch nicht länger vertreten.

Es gab bis dahin also kein einheitlich praktiziertes Verfahren, statistische und nicht-statistische Einflussgrößen auf ein Messergebnis gemeinsam in einem geschlossenen Formalismus zu bewerten. Vor diesem Hintergrund wurden der Begriff der Messunsicherheit definiert und teilweise neue Methoden zu seiner Bestimmung entwickelt. Allerdings sah sich der GUM, parallel zu seinem Entstehen in den Folgejahren, stets der Kritik ausgesetzt. 1995 wurde der GUM mit einem Korrekturblatt versehen, 2008 überarbeitet, um ein Beiblatt ergänzt und neu herausgegeben. Das Beiblatt beschreibt die Anwendung der Monte-Carlo-Methode zur Ermittlung der Messunsicherheit.

Eine Revision des GUM wurde im Jahr 2014 begonnen.[1]

Ziel und Methoden

Ziel des Leitfadens ist eine international einheitliche Vorgehensweise beim Ermitteln und Angeben von Messunsicherheiten, um Messergebnisse weltweit vergleichbar zu machen.

Zur Bewertung aller Einflussgrößen auf eine Messung stehen zwei Kategorien von Methoden zur Verfügung, die auch kombiniert werden können:

  • Typ A: Berechnung der Messunsicherheit durch statistische Analyse der Messungen
  • Typ B: Berechnung der Messunsicherheit mit anderen Mitteln als der statistischen Analyse

Dabei wird für jede Einflussgröße angegeben, mit welcher Methode sie bewertet wird und wie stark sie die gesamte Messunsicherheit beeinflusst. Diese Vorgehensweise soll helfen, eine realistische und nachvollziehbare Messunsicherheit zu ermitteln. Bedeutung hat der GUM vor allem beim Kalibrieren gewonnen, er kann und sollte jedoch auf alle Situationen des Messens angewendet werden. Bei Kalibrierscheinen von akkreditierten Kalibrierlaboratorien, beispielsweise im Deutschen Kalibrierdienst (DKD), ist der GUM die verbindliche Grundlage zur Ermittlung der Messunsicherheit.

Gedanken zum und Kritik am GUM

Von seinen Befürwortern wird der GUM als technische Vorschrift gesehen, die helfen soll, Messungen auf einheitlicher Basis quantitativ zu bewerten. Demgegenüber weisen die Gegner des GUM darauf hin, dass Messunsicherheiten „Ordnungshüter“ in Wissenschaft und Technik seien, die die Objektivität der Aussagen gewährleisten. Da der GUM nicht das Ziel verfolgt, die wahren Werte der Messgrößen mit Hilfe von Intervallen einzuschachteln oder zu lokalisieren, sind GUM-Messunsicherheiten keine „Ordnungshüter“. Der Experimentator weiß nicht, ob seine Messunsicherheit den wahren Wert der Messgröße lokalisiert oder nicht. Übertragen auf die Verknüpfung von Messresultaten und die Fehlerfortpflanzung wäre bei Anwendung der GUM damit zu rechnen, dass an sich wohldefinierten physikalischen Konstanten letztlich unphysikalische Werte zugewiesen werden, dass Widersprüche auftreten, die physikalisch nicht existieren und Übereinstimmungen festgestellt werden, die real nicht vorliegen.

Wenn es Aufgabe der Metrologie ist, die Objektivität in Wissenschaft und Technik zu gewährleisten, müssen Verfahren zum Schätzen von Messunsicherheiten wissenschaftlichen Kriterien genügen, sie rein technisch zu sehen und zu handhaben, widerspräche der Aufgabe der Metrologie, Hüterin der Ordnung zu sein.

Kritisch gesehen wird insbesondere die Anwendung des Bayes-Theorems.[2]

Siehe auch

  • Konfidenzintervall
  • Streuung der Messwerte
  • Standardabweichung

Literatur

  • Internationale Organisation für Normung, ISO/IEC Guide 98-3:2008: Uncertainty of measurement – Part 3: Guide to the expression of uncertainty in measurement. ISO, Genf 2008, ISBN 92-67-10188-9.
  • DIN Deutsches Institut für Normung e.V., Leitfaden zur Angabe der Unsicherheit beim Messen (Deutsche Fassung), DIN V ENV 13005, Beuth Verlag GmbH, Juni 1999.
  • DIN Deutsches Institut für Normung e.V., Guide to the Expression of Uncertainty in Measurement (Deutsche Übersetzung), Beuth Verlag GmbH, 1995, ISBN 3-410-13405-0.
  • DIN Deutsches Institut für Normung e.V., Leitfaden zur Angabe der Unsicherheit beim Messen – Beiblatt 1: Fortpflanzung von Verteilungen unter Verwendung einer Monte-Carlo-Methode, DIN V ENV 13005 Beiblatt 1, Beuth Verlag, Februar 2012

Weblinks

Einzelnachweise

  1. News from the JCGM-WG1 PDF-Download. Abgerufen am 14. März 2015.
  2. Kritische Anmerkungen zur Bayes-Schätzung auf der Seite Denkfallen und Paradoxa von Timm Grams