Messgeräte erfassen physikalische Größen durch Sensoren und geben den ermittelten Messwert aus. Doch Messgeräte messen nicht den wahren Wert einer physikalischen Größe. Ein Voltmeter misst nicht die tatsächliche Spannung, ein Temperatursensor misst nicht die tatsächliche Temperatur und ein Druckgeber misst nicht den tatsächlichen Druck. Kein Messgerät kann den wahren Wert einer physikalischen Größen ohne Fehler messen. Das ist nicht weiter tragisch, denn

solange das Messgerät die physikalische Größe hinreichend genau misst, ist das für bestimme technische Anwendungen akzeptabel. Wenn wir eine Größe messen, dann wissen wir also, dass wir falsch messen, ganz nach dem Motto:"Wer viel misst, misst viel Mist." Messtechniker wissen, dass zu jedem Messwert eine Messunsicherheit gehört (z.B. ± 1K bei einer Temperaturmessung). Das bedeutet, dass der Wert auf der Anzeige des Messgeräts entweder 1K unter dem wahren Temperaturwert liegt, oder 1K über dem wahren Temperaturwert.

So weit so gut. Doch was passiert, wenn ein Messgerät mit der Zeit nicht mehr hinreichend genau misst?

Im Bereich der Messtechnik und des Prüfmittelmanagements ist die Kalibrierung ein zentraler Begriff. Doch was bedeutet Kalibrierung? Und welchen Einfluss hat eine Kalibrierung auf den Messwert?

Kalibrierung

Bei der Kalibrierung wird der angezeigte Messwert eines Messgeräts mit einem Referenzwert verglichen und die Abweichung dokumentiert. Dieses Referenzgerät wird als Kalibriernormal bezeichnet. Es gibt viele Methoden der Kalibrierung. So kann z.B. eine Waage durch hochpräzise Metallgewichte kalibriert werden. Stellt man ein 500g Refernzgewicht auf die Waage und die Waage zeigt 499,7g an, dann beträgt die Abweichung vom Wert des Normals -0,3g. Die Aufnahme des Wertes der Abweichung von -0,3g wird als Kalibrierung bezeichnet. Die Differenz wird gebildet, indem vom (mittleren) Anzeigenwert der Wert des Kalibriernormals abgezogen wird.

In der Praxis werden Messgeräte insbesondere in dem Bereich kalibriert, in dem Sie eingesetzt werden. Wird eine Waage in einem Messbereich von 500g -1000g eingesetzt, dann macht es Sinn, die Abweichung des Messwerts vom Referenzwert in genau diesem Bereich zu ermitteln.

Kalibrierung bedeutet die Feststellung der systematischen Messabweichung.

Man spricht von einer systematischen Messabweichung, wenn der Messfehler bei wiederholten Messungen in ähnlichem Betrag auftritt. Da bei einzelnen Messungen zufällige Einflüsse wirken, wie z.B. Umweltbedingungen und Bedienereinflüsse, werden bei einer Kalibrierung mehrere Messungen durchgeführt und der Mittelwert aus diesen Messungen gebildet. Im unteren Bild werden fünf Messungen durchgeführt und die Messwerte als Kreuz eingetragen. Der Mittelwert aus diesen fünf Messwerten ist der mittlere Anzeigenwert der Waage und wird als rotes Kreuz eingetragen (im Bsp. 700,34g). Der Referenzwert ist der Wert des Kalibriernormals und als grünes Kreuz eingetragen (im Bsp. 700g).  Die Differenz zwischen dem Wert der Kalibriernormals und dem mittleren Messwert wird als Bias bezeichnet. Der Bias ist die systematische Messabweichung und beträgt im Bsp. 0,34g).

 

 q-future - systematische messwertabweichung

Liegt der Bias innerhalb der Unsicherheit des Messgeräts, dann sind keine weiteren Schritte nötig. Der Bias wird in dem Kalibrierprotokoll vermerkt und die Kalibrierung ist abgeschlossen. Das Messgerät wird nicht verändert.

Justierung

Ist der Bias größer als die in der Spezifikation des Messgerätes festgelegte Messunsicherheit, so muss die systematische Messabweichung minimiert werden. Dieser Vorgang wird als Justierung bezeichnet. Bei der Justierung wird aktiv in das Messgerät bzw. die Messkette eingegriffen und die Verschiebung des angezeigten Messwerts in Richtung des richtigen Messwertes (des Normals) vorgenommen. Wie eingangs erwähnt, ist der wirkliche Wert nicht bekannt. Jedoch ist die Unsicherheit des Kalibriernormals bekannt. Diese ist in vielen Fällen ca. 10x besser als die Unsicherheit des Messgeräts. Wir nehmen also einfach das Normal und definieren dessen Referenzwert als "wahren" Wert. Dies ist deshalb möglich, weil Kalibrierung und Justierung anwendungsbezogen sind. Ist die Unsicherheit des Kalibriernormals vergleichsweise gering gegenüber der Unsicherheit des Messgeräts, existiert kein negativer Einfluss auf die Anwendung.

Linearitätsbewertung

Da die feststellung des systematischen Messabweichung an nur einem Messpunkt keine Aussage über das Verhalten des Messgeräts im gesamten Anwedungsbereich gibt, werden in der Praxis mehrere Messpunkte bezüglich der Abweichung bewertet. Es wird eine Kennline aufgenommen. Dazu wird für jeden Punkt der Kennlinie ein Normal benötigt. Wird die Waage aus unserem Beispiel von 500g - 1000g eingesetzt, so werden z.B. Normalgewichte für 500g, 600g, 700g, 800, 900g und 1000g verwendet. Jedes Normal wird mehrmals gemssen wie im oberen Beispiel. Der (gemittelte) Bias darf an jedem Punkt maximal 5% der Toleranz des zu messenden Merkmals betragen. In der Summe sollten mindestens 30 Messwerte zur Linearitätsbewertung erfasst werden.

Sind im eigenen Unternehmen ausreichend genaue Prüfmittel vorhanden, so können auch Inhouse Kalibrierungen durch das Unternehmen durchgeführt werden. Doch dabei ist Vorsicht geboten. Es gibt zahlreiche weitere Randbedingungen, insbesondere in Bezug auf die Regressiongerade (zwischen Normal und Messgerät), die bei der Linearitätebewertung berücksichtigt werden müssen. Ein Beispiel zur Regression finden Sie in im Blog Beitrag Korrelation & Regression.

In unseren Messtechnik Schulungen lernen Sie Schritt für Schritt, wie Sie inhouse Kalibrierungen, Justierungen und Linearitätsbewertungen qualitätsgerecht durchführen.

Q-FUTURE unterstützt Sie gerne bei Fragen zur Kalibrierung und Fähigkeitsnachweisen von Messmitteln. Schreiben Sie uns Ihre Frage an Diese E-Mail-Adresse ist vor Spambots geschützt! Zur Anzeige muss JavaScript eingeschaltet sein!.

 

QM-Blog

Kontakt aufnehmen