Calibración - Calibration

En tecnología de medición y metrología , la calibración es la comparación de los valores de medición entregados por un dispositivo bajo prueba con los de un estándar de calibración de precisión conocida. Dicho estándar podría ser otro dispositivo de medición de precisión conocida, un dispositivo que genere la cantidad a medir, como un voltaje , un tono de sonido o un artefacto físico, como una regla de metro .

El resultado de la comparación puede resultar en uno de los siguientes:

  • no se observa ningún error significativo en el dispositivo bajo prueba
  • Se observa un error significativo pero no se realiza ningún ajuste.
  • un ajuste realizado para corregir el error a un nivel aceptable

Estrictamente hablando, el término "calibración" significa simplemente el acto de comparación y no incluye ningún ajuste posterior.

El estándar de calibración es normalmente trazable a un estándar nacional o internacional en poder de un organismo de metrología.

Definición de BIPM

La definición formal de calibración de la Oficina Internacional de Pesas y Medidas (BIPM) es la siguiente: "Operación que, en condiciones específicas, en un primer paso, establece una relación entre los valores de las cantidades con las incertidumbres de medición proporcionadas por los patrones de medición y las indicaciones correspondientes. con las incertidumbres de medición asociadas (del instrumento calibrado o patrón secundario) y, en un segundo paso, utiliza esta información para establecer una relación para obtener un resultado de medición a partir de una indicación ".

Esta definición establece que el proceso de calibración es puramente una comparación, pero introduce el concepto de incertidumbre de medición al relacionar las precisiones del dispositivo bajo prueba y el estándar.

Procesos de calibración modernos

La creciente necesidad de precisión e incertidumbre conocidas y la necesidad de contar con normas coherentes y comparables a nivel internacional ha llevado al establecimiento de laboratorios nacionales. En muchos países existirá un Instituto Nacional de Metrología (INM) que mantendrá los estándares primarios de medición (las unidades SI principales más un número de unidades derivadas) que se utilizarán para proporcionar trazabilidad a los instrumentos del cliente mediante calibración.

El NMI apoya la infraestructura metrológica en ese país (y a menudo en otros) al establecer una cadena ininterrumpida, desde el nivel superior de estándares hasta un instrumento utilizado para la medición. Ejemplos de institutos nacionales de metrología son NPL en el Reino Unido , NIST en los Estados Unidos , PTB en Alemania y muchos otros. Desde que se firmó el Acuerdo de Reconocimiento Mutuo, ahora es sencillo tomar la trazabilidad de cualquier INM participante y ya no es necesario que una empresa obtenga la trazabilidad para las mediciones del INM del país en el que está ubicada, como el Laboratorio Nacional de Física. en el Reino Unido.

Calidad

Para mejorar la calidad de la calibración y que los resultados sean aceptados por organizaciones externas, es deseable que la calibración y las mediciones posteriores sean "trazables" a las unidades de medición definidas internacionalmente. El establecimiento de la trazabilidad se logra mediante una comparación formal con un estándar que está directa o indirectamente relacionado con estándares nacionales (como NIST en los EE. UU.), Estándares internacionales o materiales de referencia certificados . Esto puede ser realizado por laboratorios de estándares nacionales operados por el gobierno o por empresas privadas que ofrecen servicios de metrología.

Los sistemas de gestión de la calidad requieren un sistema de metrología eficaz que incluya una calibración formal, periódica y documentada de todos los instrumentos de medición. Las normas ISO 9000 e ISO 17025 requieren que estas acciones rastreables sean de alto nivel y establezcan cómo pueden cuantificarse.

Para comunicar la calidad de una calibración, el valor de calibración suele ir acompañado de una declaración de incertidumbre rastreable hasta un nivel de confianza establecido. Esto se evalúa mediante un análisis de incertidumbre cuidadoso. Algunas veces se requiere un DFS (Salida de especificaciones) para operar maquinaria en un estado degradado. Siempre que esto suceda, debe ser por escrito y autorizado por un gerente con la asistencia técnica de un técnico de calibración.

Los dispositivos e instrumentos de medición se clasifican de acuerdo con las cantidades físicas para las que están diseñados. Estos varían internacionalmente, por ejemplo, NIST 150-2G en los EE. UU. Y NABL -141 en la India. Juntos, estos estándares cubren instrumentos que miden diversas cantidades físicas como radiación electromagnética ( sondas de RF ), sonido ( sonómetro o dosímetro de ruido ), tiempo y frecuencia ( intervalómetro ), radiación ionizante ( contador Geiger ), luz ( fotómetro ), magnitudes mecánicas ( final de carrera , manómetro , presostato ) y propiedades termodinámicas o térmicas ( termómetro , controlador de temperatura ). El instrumento estándar para cada dispositivo de prueba varía en consecuencia, por ejemplo, un probador de peso muerto para la calibración del manómetro y un probador de temperatura de bloque seco para la calibración del manómetro.

Mensajes de calibración del instrumento

La calibración puede ser necesaria por las siguientes razones:

  • un nuevo instrumento
  • después de que un instrumento ha sido reparado o modificado
  • moverse de un lugar a otro
  • cuando ha transcurrido un período de tiempo específico
  • cuando ha transcurrido un uso especificado (horas de funcionamiento)
  • antes y / o después de una medición crítica
  • después de un evento, por ejemplo
    • después de que un instrumento ha sido expuesto a un golpe, vibración o daño físico, que potencialmente podría haber comprometido la integridad de su calibración
    • cambios repentinos en el clima
  • siempre que las observaciones parezcan cuestionables o las indicaciones del instrumento no coincidan con el resultado de los instrumentos sustitutos
  • según lo especificado por un requisito, por ejemplo, especificación del cliente, recomendación del fabricante del instrumento.

En el uso general, a menudo se considera que la calibración incluye el proceso de ajustar la salida o la indicación en un instrumento de medición para que coincida con el valor del estándar aplicado, dentro de una precisión especificada. Por ejemplo, un termómetro podría calibrarse para que se determine el error de indicación o la corrección y se ajuste (por ejemplo, mediante constantes de calibración ) para que muestre la temperatura real en grados Celsius en puntos específicos de la escala. Esta es la percepción del usuario final del instrumento. Sin embargo, muy pocos instrumentos se pueden ajustar para que coincidan exactamente con los estándares con los que se comparan. Para la gran mayoría de calibraciones, el proceso de calibración es en realidad la comparación de un desconocido con un conocido y el registro de los resultados.

Proceso de calibración básico

Propósito y alcance

El proceso de calibración comienza con el diseño del instrumento de medición que debe calibrarse. El diseño debe poder "mantener una calibración" a lo largo de su intervalo de calibración. En otras palabras, el diseño tiene que ser capaz de realizar mediciones que estén "dentro de la tolerancia de ingeniería " cuando se utilice dentro de las condiciones ambientales establecidas durante un período de tiempo razonable. Tener un diseño con estas características aumenta la probabilidad de que los instrumentos de medición reales funcionen como se esperaba. Básicamente, el propósito de la calibración es mantener la calidad de la medición, así como garantizar el correcto funcionamiento de un instrumento en particular.

Frecuencia

El mecanismo exacto para asignar valores de tolerancia varía según el país y según el tipo de industria. La medición del equipo es el fabricante generalmente asigna la tolerancia de medición, sugiere un intervalo de calibración (CI) y especifica el rango ambiental de uso y almacenamiento. La organización usuaria generalmente asigna el intervalo de calibración real, que depende del nivel de uso probable de este equipo de medición específico. La asignación de intervalos de calibración puede ser un proceso formal basado en los resultados de calibraciones previas. Los estándares en sí mismos no son claros sobre los valores de CI recomendados:

ISO 17025
"Un certificado de calibración (o etiqueta de calibración) no debe contener ninguna recomendación sobre el intervalo de calibración, excepto cuando se haya acordado con el cliente. Este requisito puede ser reemplazado por regulaciones legales".
ANSI / NCSL Z540
"... se calibrará o verificará a intervalos periódicos establecidos y mantenidos para asegurar una fiabilidad aceptable ..."
ISO 9001
"Cuando sea necesario para asegurar resultados válidos, el equipo de medición debe ... calibrarse o verificarse a intervalos específicos, o antes de su uso ..."
MIL-STD-45662A
"... se calibrarán a intervalos periódicos establecidos y se mantendrán para asegurar una precisión y fiabilidad aceptables ... El contratista deberá acortar o alargar los intervalos, cuando los resultados de calibraciones previas indiquen que tal acción es apropiada para mantener fiabilidad."

Estándares requeridos y precisión

El siguiente paso es definir el proceso de calibración. La selección de un estándar o estándares es la parte más visible del proceso de calibración. Idealmente, el estándar tiene menos de 1/4 de la incertidumbre de medición del dispositivo que se calibra. Cuando se cumple este objetivo, la incertidumbre de medición acumulada de todos los estándares involucrados se considera insignificante cuando la medición final también se realiza con la relación 4: 1. Esta relación probablemente se formalizó por primera vez en el Manual 52 que acompañó a MIL-STD-45662A, una de las primeras especificaciones del programa de metrología del Departamento de Defensa de EE. UU. Fue 10: 1 desde su inicio en la década de 1950 hasta la década de 1970, cuando el avance de la tecnología hizo imposible 10: 1 para la mayoría de las mediciones electrónicas.

Mantener una relación de precisión de 4: 1 con equipos modernos es difícil. El equipo de prueba que se calibra puede ser tan preciso como el estándar de trabajo. Si la relación de precisión es inferior a 4: 1, la tolerancia de calibración se puede reducir para compensar. Cuando se alcanza 1: 1, solo una coincidencia exacta entre el estándar y el dispositivo que se está calibrando es una calibración completamente correcta. Otro método común para lidiar con esta falta de coincidencia de capacidades es reducir la precisión del dispositivo que se está calibrando.

Por ejemplo, un medidor con una precisión del 3% indicada por el fabricante se puede cambiar al 4% para que se pueda usar un estándar de precisión del 1% a 4: 1. Si el medidor se usa en una aplicación que requiere una precisión del 16%, reducir la precisión del medidor al 4% no afectará la precisión de las mediciones finales. A esto se le llama calibración limitada. Pero si la medición final requiere un 10% de precisión, entonces el indicador del 3% nunca puede ser mejor que 3.3: 1. Entonces quizás ajustar la tolerancia de calibración para el medidor sería una mejor solución. Si la calibración se realiza a 100 unidades, el estándar del 1% en realidad estaría entre 99 y 101 unidades. Los valores aceptables de calibraciones donde el equipo de prueba está en una proporción de 4: 1 serían de 96 a 104 unidades, inclusive. Cambiar el rango aceptable de 97 a 103 unidades eliminaría la contribución potencial de todos los estándares y conservaría una proporción de 3.3: 1. Continuando, un cambio adicional al rango aceptable de 98 a 102 restaura una relación final de más de 4: 1.

Este es un ejemplo simplificado. Las matemáticas del ejemplo pueden cuestionarse. Es importante que cualquier pensamiento que guió este proceso en una calibración real sea registrado y accesible. La informalidad contribuye a las acumulaciones de tolerancia y otros problemas posteriores a la calibración difíciles de diagnosticar.

También en el ejemplo anterior, idealmente el valor de calibración de 100 unidades sería el mejor punto en el rango del medidor para realizar una calibración de un solo punto. Puede ser la recomendación del fabricante o puede ser la forma en que ya se están calibrando dispositivos similares. También se utilizan calibraciones de múltiples puntos. Dependiendo del dispositivo, un estado de unidad cero, la ausencia del fenómeno que se está midiendo, también puede ser un punto de calibración. O el usuario puede reiniciar el cero; hay varias variaciones posibles. Nuevamente, se deben registrar los puntos que se utilizarán durante la calibración.

Puede haber técnicas de conexión específicas entre el estándar y el dispositivo que se está calibrando que pueden influir en la calibración. Por ejemplo, en calibraciones electrónicas que involucran fenómenos analógicos, la impedancia de las conexiones de los cables puede influir directamente en el resultado.

Calibraciones manuales y automáticas

Los métodos de calibración para dispositivos modernos pueden ser manuales o automáticos.

Calibración manual: militar estadounidense calibrando un manómetro. El dispositivo bajo prueba está a su izquierda y el estándar de prueba a su derecha.

Como ejemplo, se puede utilizar un proceso manual para la calibración de un manómetro. El procedimiento requiere varios pasos, conectar el manómetro bajo prueba a un manómetro maestro de referencia y una fuente de presión ajustable, aplicar presión de fluido tanto a los manómetros de referencia como a los manómetros de prueba en puntos definidos sobre el intervalo del manómetro y comparar las lecturas del medidor. dos. El manómetro bajo prueba puede ajustarse para asegurar que su punto cero y la respuesta a la presión se ajusten lo más posible a la precisión deseada. Cada paso del proceso requiere un registro manual.

Calibración automática: un técnico de EE. UU. Que utiliza un calibrador de presión automático 3666C

Un calibrador de presión automático es un dispositivo que combina una unidad de control electrónico, un intensificador de presión que se utiliza para comprimir un gas como el nitrógeno , un transductor de presión que se utiliza para detectar los niveles deseados en un acumulador hidráulico y accesorios como trampas de líquido y accesorios de medición . Un sistema automático también puede incluir instalaciones de recopilación de datos para automatizar la recopilación de datos para el mantenimiento de registros.

Descripción y documentación del proceso

Toda la información anterior se recopila en un procedimiento de calibración, que es un método de prueba específico . Estos procedimientos capturan todos los pasos necesarios para realizar una calibración exitosa. El fabricante puede proporcionar uno o la organización puede preparar uno que también capture todos los demás requisitos de la organización. Existen cámaras de compensación para los procedimientos de calibración, como el Programa de intercambio de datos entre el gobierno y la industria (GIDEP) en los Estados Unidos.

Este proceso exacto se repite para cada uno de los estándares utilizados hasta alcanzar los estándares de transferencia, materiales de referencia certificados y / o constantes físicas naturales, los estándares de medición con menor incertidumbre en el laboratorio. Esto establece la trazabilidad de la calibración.

Consulte Metrología para conocer otros factores que se tienen en cuenta durante el desarrollo del proceso de calibración.

Después de todo esto, los instrumentos individuales del tipo específico discutido anteriormente finalmente se pueden calibrar. El proceso generalmente comienza con una verificación de daños básica. Algunas organizaciones, como las plantas de energía nuclear, recopilan datos de calibración "tal como se encuentran" antes de realizar cualquier mantenimiento de rutina . Después de abordar el mantenimiento de rutina y las deficiencias detectadas durante la calibración, se realiza una calibración "como se dejó".

Más comúnmente, un técnico de calibración se encarga de todo el proceso y firma el certificado de calibración, que documenta la finalización de una calibración exitosa. El proceso básico descrito anteriormente es un desafío difícil y costoso. El costo de soporte de equipo ordinario es generalmente alrededor del 10% del precio de compra original sobre una base anual, como una regla empírica comúnmente aceptada . Los dispositivos exóticos como los microscopios electrónicos de barrido , los sistemas de cromatografía de gases y los dispositivos de interferómetro láser pueden ser incluso más costosos de mantener.

El dispositivo de "medición única" utilizado en la descripción básica del proceso de calibración anterior existe. Pero, dependiendo de la organización, la mayoría de los dispositivos que necesitan calibración pueden tener varios rangos y muchas funcionalidades en un solo instrumento. Un buen ejemplo es un osciloscopio moderno común . Fácilmente podría haber 200,000 combinaciones de configuraciones para calibrar completamente y limitaciones sobre la cantidad de una calibración completa que se puede automatizar.

Un bastidor de instrumentos con sellos de indicación de manipulación

Para evitar el acceso no autorizado a un instrumento, los sellos a prueba de manipulaciones generalmente se aplican después de la calibración. La imagen de la gradilla del osciloscopio los muestra, y demuestra que el instrumento no ha sido removido desde la última vez que fue calibrado ya que posiblemente no estén autorizados a los elementos de ajuste del instrumento. También hay etiquetas que muestran la fecha de la última calibración y cuándo el intervalo de calibración dicta cuándo se necesita la siguiente. Algunas organizaciones también asignan una identificación única a cada instrumento para estandarizar el mantenimiento de registros y realizar un seguimiento de los accesorios que son parte integral de una condición de calibración específica.

Cuando los instrumentos que se calibran están integrados con computadoras, los programas de computadora integrados y cualquier corrección de calibración también están bajo control.

Desarrollo historico

Orígenes

Las palabras "calibrar" y "calibración" entraron en el idioma inglés tan recientemente como la Guerra Civil estadounidense , en descripciones de artillería , que se cree que se derivan de la medición del calibre de un arma.

Algunos de los primeros sistemas conocidos de medición y calibración parecen haber sido creados entre las antiguas civilizaciones de Egipto , Mesopotamia y el Valle del Indo , con excavaciones que revelan el uso de gradaciones angulares para la construcción. El término "calibración" probablemente se asoció primero con la división precisa de la distancia lineal y los ángulos usando un motor divisor y la medición de la masa gravitacional usando una balanza . Estas dos formas de medición por sí solas y sus derivados directos apoyaron casi todo el desarrollo del comercio y la tecnología desde las primeras civilizaciones hasta aproximadamente el 1800 d.C.

Calibración de pesos y distancias ( c.  1100 CE )

Un ejemplo de una báscula con un error de calibración de ½ onza en cero. Se trata de un "error de puesta a cero" que se indica de forma inherente y que normalmente puede ser ajustado por el usuario, pero puede deberse a la cuerda y la goma elástica en este caso.

Los primeros dispositivos de medición eran directos , es decir, tenían las mismas unidades que la cantidad que se estaba midiendo. Los ejemplos incluyen la longitud usando una vara de medir y la masa usando una balanza. A principios del siglo XII, durante el reinado de Enrique I (1100-1135), se decretó que una yarda sería "la distancia desde la punta de la nariz del rey hasta la punta de su pulgar extendido". Sin embargo, no fue hasta el reinado de Ricardo I (1197) que encontramos evidencia documentada.

Assize de Medidas
"En todo el reino habrá el mismo patio del mismo tamaño y debería ser de hierro".

Siguieron otros intentos de estandarización, como la Carta Magna (1225) para las medidas líquidas, hasta el Mètre des Archives de Francia y el establecimiento del sistema métrico .

La calibración temprana de instrumentos de presión

Diseño de lectura directa de un manómetro de tubo en U

Uno de los primeros dispositivos de medición de presión fue el barómetro de mercurio, atribuido a Torricelli (1643), que leía la presión atmosférica utilizando mercurio . Poco después, se diseñaron manómetros llenos de agua . Todos estos tendrían calibraciones lineales utilizando principios gravimétricos, donde la diferencia de niveles era proporcional a la presión. Las unidades de medida normales serían las convenientes pulgadas de mercurio o agua.

En el diseño del manómetro hidrostático de lectura directa de la derecha, la presión aplicada P a empuja el líquido hacia abajo por el lado derecho del tubo en U del manómetro, mientras que una escala de longitud junto al tubo mide la diferencia de niveles. La diferencia de altura resultante "H" es una medida directa de la presión o el vacío con respecto a la presión atmosférica . En ausencia de presión diferencial, ambos niveles serían iguales, y esto se usaría como punto cero.

La Revolución Industrial vio la adopción de dispositivos de medición de presión "indirectos", que eran más prácticos que el manómetro. Un ejemplo son las máquinas de vapor de alta presión (hasta 50 psi), donde se usó mercurio para reducir la longitud de la escala a aproximadamente 60 pulgadas, pero tal manómetro era costoso y propenso a sufrir daños. Esto estimuló el desarrollo de instrumentos de lectura indirecta, de los cuales el tubo de Bourdon inventado por Eugène Bourdon es un ejemplo notable.

Diseño de lectura indirecta que muestra un tubo de Bourdon desde el frente
Diseño de lectura indirecta que muestra un tubo de Bourdon desde la parte trasera
Diseño de lectura indirecta que muestra un tubo de Bourdon en la parte delantera (izquierda) y trasera (derecha).

En las vistas frontal y posterior de un manómetro Bourdon a la derecha, la presión aplicada en el accesorio inferior reduce el rizado en la tubería aplanada proporcionalmente a la presión. Esto mueve el extremo libre del tubo que está vinculado al puntero. El instrumento se calibraría contra un manómetro, que sería el estándar de calibración. Para la medición de cantidades indirectas de presión por unidad de área, la incertidumbre de la calibración dependería de la densidad del fluido del manómetro y de los medios para medir la diferencia de altura. A partir de esto, se podrían inferir y marcar en la escala otras unidades, como libras por pulgada cuadrada.

Ver también

Referencias

Fuentes

  • Crouch, Stanley y Skoog, Douglas A. (2007). Principios del análisis instrumental . Pacific Grove: Brooks Cole. ISBN  0-495-01201-7 .