Präzision ist ein Kriterium zur Beurteilung der Qualität einer Messung oder eines Messverfahrens. Präzision und Richtigkeit sind Komponenten der Genauigkeit. Die Präzision charakterisiert die Streubreite der erhaltenen Werte.
Um die Begriffe Genauigkeit und Präzision gegeneinander sinnvoll abzugrenzen, ist zunächst festzuhalten, dass hohe Präzision in technischen Zusammenhängen eine notwendige, aber nicht hinreichende Voraussetzung für hohe Genauigkeit darstellt. Dieser Zusammenhang, der sich als logische Konsequenz aus den oben gegebenen Kurzdefinitionen ergibt, wird durch die veraltete Wortgebung "Wiederholgenauigkeit" besser zum Ausdruck gebracht: Präzision ist ein auf den Aspekt der Reproduzierbarkeit eingeschränkter Bestandteil der Genauigkeit. So können technische Vorgänge zwar mit hoher Präzision dennoch ungenau ablaufen, umgekehrt aber kann eine unpräzise Technik keine genauen Ergebnisse hervorbringen; siehe dazu auch die Definition der Präzision nach DIN.
Die Bedeutung des Begriffs Präzision wird unter DIN 55350-13 mit dem Hinweis auf die Bedeutungsgleichheit zum ehemals Wiederholgenauigkeit genannten Merkmal definiert.
Die Bezeichnung „Wiederholgenauigkeit“ soll im Bereich der Normung nicht mehr verwendet werden. Allerdings wird nicht nur in älterer Fachliteratur, sondern auch in neuen Texten häufig die Wiederholgenauigkeit als Qualitätsmerkmal von Messgeräten und auch Produktionsmaschinen quantifiziert.
Details zum Interpretationsspielraum der Unabhängigkeit (von Ermittlungsergebnissen), der Festlegung (des Verfahrens) und der Vorgaben (an Bedingungen) schränken Anwender des Begriffs Präzision nur in sinnvollem Maß ein. Daraus ergeben sich zwei Hauptgebiete der Verwendung von Präzision als Qualitätsmerkmal: Kalibriermaschinen und Robotik.
Im Vergleich zur Absolutgenauigkeit eines Messgerätes spielt die Präzision zwar eine zunächst untergeordnete Rolle in der Bewertung der Qualität des Geräts. Solange es möglich ist, ein genaueres Messverfahren – als das in seiner Qualität zu bewertende – zum unmittelbaren Vergleich heranzuziehen, wird man in der Regel eine Kalibrierung durchführen, um die Qualität des Gerätes absolut anzugeben. Das bedeutet kalibrieren: Eine Messvorrichtung an einer besseren messen (siehe: Normal).
Eine Messvorrichtung kann ein Messgerät kalibrieren, wenn seine absolute Genauigkeit im gesamten Messbereich wenigstens um eine Größenordnung besser ist, als die des Prüflings.
Die jeweils zum Stand der Technik genauesten Geräte können selbst nicht kalibriert werden, da ein zu diesem Zweck benötigtes, deutlich genaueres Messgerät ja nicht existiert. Daher kann diesen Messgeräten mit der jeweils höchsten technisch erreichbaren Genauigkeit keine Quantifizierung ihres größten, absoluten Messfehlers zugeordnet werden.
Allerdings gelingt es mit der Ermittlung der Präzision in diesen Fällen, trotzdem wertvolle Aussagen über die Zuverlässigkeit der Ergebnisse solcher Maschinen zu gewinnen. Wird mehrmals hintereinander (unabhängige Ermittlungsergebnisse) dieselbe Messaufgabe (Verfahren festgelegt und Bedingungen vorgegeben) ausgeführt, können die jeweils einander entsprechenden Abweichungen dieser unabhängigen Ermittlungsergebnisse nach einem vorgegebenen Schema verrechnet werden. Das Ergebnis dieser Prozedur ist die Präzision der neuen Kalibriermaschine.
Für kalibrierbare Geräte, also solche mit weniger hohem Präzisionsniveau, stellt die Messung der Wiederholgenauigkeit eine Chance zur Verbesserung dar. Ein Hersteller solcher Messgeräte kann daraus etwas über systematische Fehler seiner Konstruktion lernen und in die Weiterentwicklung einfließen lassen. Die Wiederholgenauigkeit wird vor allem bei Drehgebern, Winkel- und Längenmessgeräten hoher Präzision angegeben.
Zur Ermittlung der Wiederholgenauigkeit wird der Messbereich mehrmals hintereinander unter möglichst gleichen Bedingungen durchlaufen. Die so entstehenden Messdiagramme werden nun miteinander verglichen. Um derartige „Vergleichsmessungen mit sich selbst“ deutlich von absoluten Kalibrierungen abzugrenzen, ist der Begriff der „Wiederholgenauigkeit“ – im Sinne der Präzision – unverzichtbar vor allem im Bereich der Messsysteme höchster Präzision und höchster Absolutgenauigkeit. Die Wiederholgenauigkeit kann besser sein, als die Absolutgenauigkeit. Aber die Absolutgenauigkeit kann zum Zeitpunkt der Qualitätsfeststellung unmessbar sein im Rahmen des technischen Entwicklungsstandes. Der Unterschied rührt vor allem daher, dass für prinzipiell sehr gut funktionierende Messgeräte die einzelnen Messergebnisse meist als Gaußverteilungen um den tatsächlichen, physikalischen Wert symmetrisch herumgestreut sind. In besonderen Fällen jedoch können systematische Fehler eines Messgerätes die absoluten Messfehler in Teilbereichen des gesamten Messbereichs konzentrieren, während die übrigen Bereiche mit sehr viel höherer Genauigkeit messen. Liegen derartige, systematische Fehler vor, die sich aus den Grenzen der technischen Realisierbarkeit ergeben, wie es bei Messgeräten zur Kalibrierung typisch ist, dann können zwei aufeinander folgende Messreihen nahezu identische Diagramme liefern, welche aber absolut betrachtet typische Fehler in jeweils denselben Spektralbereichen besitzen.
Wenn es überhaupt keine Möglichkeit gibt, einem Kalibriergerät durch ein etwas besseres Messverfahren Messfehler nachzuweisen, dann ist die Wiederholgenauigkeit zunächst der einzige Hinweis für eine wenigstens grobe Schätzung dafür, wie gut das Messverfahren oder die Messmethode sein könnte.
Die bei Eichnormalen relevanten Aspekte der Präzision werden an Messmaschinen der PTB besonders gut erkennbar: Von großer Bedeutung ist eine zusätzliche Kontrolle aller Ermittlungsergebnisse eines Kalibriergerätes durch Vergleich mit den entsprechenden Ermittlungsergebnissen wenigstens einer nicht baugleichen Präzisionsmaschine für dasselbe Einsatzgebiet. [1]
In der industriellen Fertigung werden überwiegend automatische Produktionsanlagen eingesetzt, deren Wert sich daraus ergibt, dass sie unter vorgegebenen Bedingungen (Produktionshalle, Materialien, Formen, …) möglichst oft und schnell hintereinander (Unabhängigkeit) ein und dieselbe Produktionsaufgabe möglichst identisch erfüllen. Dazu sind Produktionsanlagen mit vielen Messgeräten – insbesondere für Längen und Winkel – ausgestattet.
Die Präzision der einzelnen Messgeräte, die dazu dienen, Informationen über den Bearbeitungsraum in eine CNC-verrechenbare Form zu bringen, kann sich bei gelungener Konstruktion der gesamten Anlage auf diese vererben. Um das Gesamtergebnis zu bewerten, wird die Präzision einer kompletten Produktionsanlage genau so ermittelt, wie die Präzision einer Kalibriermaschine.
Wiederholgenauigkeit beschreibt im Kontext einer Linearachse einer automatischen Produktionsanlage die Reproduzierbarkeit eines Messwertes für die Position in dieser Achse unter gleichen Bedingungen für die Ermittelung dieses Wertes.
Sei die Produktionsanlage eine Bearbeitungsmaschine mit drei Linearachsen X, Y und Z. Die Präzision der X-Achse kann gemessen werden, indem die Positionen angefahren werden, an denen die Y- und Z-Achse während der Ermittlung festgehalten werden sollen. Dann werden die festgelegten Rahmenbedingungen (Temperatur, Schmierzustand, …) eingestellt und das Verfahren (definiert durch Angaben zum Beginn der Messstrecke, zum Messweg, zur Anfahrrichtung, zur Verfahrgeschwindigkeit, …) wird mehrmals hintereinander durchlaufen. Die Ermittlungsergebnisse werden schließlich nach DIN verrechnet. Da es sich bei diesem Beispiel um eine Positionieraufgabe handelt, ergibt sich für die Präzision ein Wert in der physikalischen Maßeinheit Meter, aufgrund der Standards zur Genauigkeit von Produktionsanlagen angegeben in Mikrometer. [2]
Oft hat allerdings eine Relativangabe mehr Aussagekraft. Diese gewinnt man im Beispiel dadurch, dass man die ermittelte, absolute Wiederholgenauigkeit durch den jeweils durchlaufenen Messweg teilt. Die Angabe dieser prozentualen Präzision erlaubt in gewissen Maßen den Vergleich sogar recht unterschiedlicher Messgeräte.
Die Bedeutung der Präzision für die Produktionstechnik kann am vereinfachten Beispiel einer relativ trivialen Bearbeitung mittels zweier Linearachsen einer CNC-Maschine besonders gut dargestellt werden: eine Steuerung enthält in der Darstellung eines CNC-Programms alle relevanten Daten zur Herstellung eines bestimmten Werkstücks, das (ohne Beschränkung der Allgemeinheit) aus einem Rohling gefräst werden soll. Das Programm beschreibt die gewünschte Form (Geometrie) und die in jedem Augenblick des Fräsprozesses anzuwendende Technik (Fräser, Vorschub, Spindeldrehzahl, Getriebestufen, Kühlmitteleinsatz sowie viele andere Herstellungsdetails). Um z. B. eine kreisrunde Nut mit den Kreismittelpunktskoordinaten (X = 0, Y = 0) in der Bearbeitungsebene zu fräsen, die von den beiden Maschinenachsen X (links-rechts) und Y (vorne-hinten) definiert wird, müssen die Bewegungsabläufe dieser beiden Linearachsen miteinander interpoliert werden. Im konkreten Beispiel werde eine Kreisnut des Bahnmittenradius R mit einem Bahnvorschub F gefräst. Die Fräsermittelpunktsbahn hat die Länge des Umfangs U dieses Kreises. Die Herstellungszeit T für eine Kreisbahn der Nut beträgt U/F. Der Interpolator prägt der X-Achse zu jedem Zeitpunkt t während der Bearbeitung die Bewegung Rsin(t/T) auf und synchron dazu der Y-Achse Rcos(t/T). Startpunkt sei (X = 0, Y = -R). X startet (t = 0) also mit der Geschwindigkeit F (Beschleunigungsphase vernachlässigt) und fährt mit sinkender Geschwindigkeit die Strecke R nach rechts. Nach Ablauf der Zeit t = T/4 mit Geschwindigkeit 0 dort angekommen, startet die X-Achse in der entgegengesetzten Richtung mit wachsender Geschwindigkeit, passiert mit F den Ursprung (X = 0) und bremst nun den linken Umkehrpunkt an, den sie nach 3T/4 mit Geschwindigkeit 0 erreicht. Das restliche Viertel der Bearbeitungszeit T fährt X wieder mit bis F anwachsender Geschwindigkeit nach rechts bis zum Ursprung (X = 0). Die Y-Achse startet (t = 0) bei -R vor dem Ursprung und fährt aus dem Stand während T/4 mit bis F wachsender Geschwindigkeit zum Ursprung (Y=0), bremst ab dort den hinteren Umkehrpunkt bei Y=R an und bewegt sich während T/2 bis T in der Gegenrichtung nach vorne entsprechend gemäß der zweiten Halbwelle des Cosinus. Während der gesamten Zeit T werden ständig die jeweiligen Positionswerte X(t) und Y(t) gemessen, um sie als Regelgrößen in den Lageregelkreisen der Achsen zu verrechnen. Hohe Präzision der Fräsmaschine bedeutet in diesem Kontext, dass alle Kreisnuten, die auf ihr in derselben Weise nacheinander gefräst werden, möglichst identisch sind. Dieses Ziel kann nur erreicht werden, wenn die Daten der Systeme zur Lagemessung wenigstens bijektive Abbildungen der tatsächlichen Positionen der Linearachsen darstellen. Präzise Lagebestimmung der beiden Achsen X und Y ist also eine notwendige Voraussetzung für die Präzision der ganzen Maschine.
Das metrisch dimensionierte Geometrieprogramm der Steuerung einer ansonsten idealen Maschine erlaube den Wechsel des Maßsystems auf zöllig, verwendet aber als Umrechnungsfaktor fälschlich s = 25 statt 25,4 [1 inch = 25,4 mm]. Bei Programmierung des Kreises mit dem Radius R in Zoll werden alle berechneten Längen gleichmäßig um den Faktor 125/127 gegenüber der zölligen Anzeige gestaucht. Es entstehen ideale Kreisnuten, allerdings jeweils mit rund 1,6 % zu kleinem Radius und Umfang.
Bei der Behebung des geometrischen Fehlers in der CNC-Software wird der korrigierte Faktor s = 25,4 versehentlich nur der X-Achse aufgerechnet, nicht aber der Y-Achse (s(Y) = 1). Dadurch werden alle X-Positionen korrekt angefahren, aber alle Y-Längen mit dem Faktor 1/s = 5/127 gestaucht. Es entstehen lauter identische, elliptische Nuten, keine Kreise.
Kugelumlaufspindeln übertragen bei den meisten realen Linearachsen die Drehbewegungen der Servoantriebe auf den Bearbeitungstisch. Beim Richtungswechsel verursacht die Lose ein zu langes Verharren der Achse im Umkehrpunkt und führt zu den typischen Umkehrspitzen an den Quadrantenübergängen (X = 0) und (Y = 0) der tatsächlich gefahrenen Bahn. Werden die translatorischen Achspositionen aus den Winkeldaten eines hochauflösenden Drehgebers an der Antriebsspindel ermittelt, so existiert bei der Richtungsumkehr im Streckenbereich der Lose keine bijektive Abbildung zwischen den wahren Werten der Tischposition und den gemessenen Winkeln: Der Servoantrieb dreht die Spindel, der Drehgeber misst den Drehwinkel und die Steuerung berechnet dazu Positionen und Positionsänderungen, obwohl der Tisch in dieser Achse steht. Die Längenmessung kann in diesem Beispiel die Präzision des Drehgebers nicht erben, weil die Präzision der Längenmessung auch die dominierenden Fehlerbeiträge aus der Spindelsteigung und der Kopplung (Dehnung des Antriebsriemens, Spindellose und andere Effekte) zwischen Rotation (Servoantrieb, Kugelumlaufspindel) und Translation (Linearachse des Bearbeitungstischs) enthält.
Hohe Vorspannung am Gewindetrieb verringert die Lose und verbessert dadurch die Präzision. Allerdings zum Preis einer erhöhten Reibung und damit einhergehenden Erwärmung der Führungskomponenten. Ein sich erwärmender Kugelgewindetrieb ändert seine Länge, nicht aber die Windungszahl; daher ändern die lokal und temporär auftretenden Temperaturschwankungen seine Spindelsteigung. Die Präzision wird dadurch verschlechtert.
Ein Linearmaßstab, der fest mit dem Bearbeitungstisch verbunden ist, kann die Lagebestimmung der zugeordneten Achse unbeeinflusst von Spindellose und Spindelsteigung messen. Die Präzision eines derartigen Längenmessgerätes kann sich daher auf die Linearachse als ganze Komponente der Maschine vererben.
Da die Wiederholgenauigkeit auch bei Geräten mit systematischen Konstruktionsfehlern der Definition nach nahezu beliebig hoch sein kann, ohne dass daraus unmittelbar Aussagen über die Qualität in der absoluten Genauigkeit abgeleitet werden können, sind Angaben darüber stets kritisch zu prüfen. Nur wenn die Genauigkeit eines Gerätes an sich unzweifelhaft zum Ausdruck kommt, liefert die Angabe der Präzision ein willkommenes und wichtiges Kriterium bei der Entscheidung über die Eignung des Gerätes für die zu lösende Aufgabe.
Vom Standpunkt der Wissenschaft aus betrachtet ist Präzision ein der Genauigkeit deutlich untergeordnetes Qualitätsmerkmal (eines Messgeräts), da Messungen in wissenschaftlichen Experimenten ein möglichst exaktes Abbild der Realität darstellen müssen, um als Tests für Hypothesen zu taugen. Vom Standpunkt der Güterproduktion aus rentiert sich eine Maschine vor allem durch ihre Präzision. Der Unterschied dieser Betrachtungsweisen liegt darin begründet, dass in der Fertigung den Kosten gegenüber ihrem Nutzen stärkeres Gewicht eingeräumt wird, als in der Wissenschaft. Eine Maschine, die schnell und billig Passungen absolut präzise herstellen kann, die alle auf genau dieselbe Art nicht passen, ist eine gute Maschine. Denn man kann ihr beibringen, genau um soviel nicht passende Passungen herzustellen, dass die zum Nichtpassen unpassenden Passungen nun zur ursprünglichen Aufgabe passen. Im Prinzip ist damit das Grundrezept beschrieben, mit dem heute viele systematische Maschinenfehler durch Algorithmen zur Fehlerkompensation in CNC-gesteuerten Produktionsanlagen unschädlich gemacht werden. In der Praxis werden Bearbeitungsmaschinen als Investitionsgüter sehr streng kalkuliert.