Instrumentos, mediciones e incertidumbres Dra. María de los Dolores Ayala Velázquez Departamento de Física, División de CBI Realizar mediciones requiere el uso de algún instrumento que dará un número que representa la relación de la cantidad observada a una de las unidades patrón conocidas. Una medición es una comparación de la cantidad desconocida con la unidad estándar. El aparato o instrumento de medición indica la magnitud de la cantidad medida por medio de algún sistema indicador. Para ello es necesaria su calibración, que consiste en obtener la relación funcional entre la magnitud medida y la indicación, mediante la comparación directa o indirecta con una referencia o patrón que engloba, posee o genera una magnitud fija o reproducible de la cantidad física que se toma como la unidad o bien, algún múltiplo o fracción de la unidad. Cualquier cantidad medida puede expresarse entonces como un número (que es la razón de estas magnitudes) y el nombre de la unidad. Medir Al medir obtenemos una respuesta aproximada de la magnitud de interés y las mediciones no son nunca números ''exactos''. Tenemos que conformarnos con valores medidos que toman la forma de intervalos, dentro de los cuales tenemos confianza de que se encuentra el valor deseado. El acto de medir implica que determinemos la ubicación y la extensión de ese intervalo, lo cual requiere que cada vez que midamos apliquemos el uso cuidadoso del juicio y de la apreciación visual. Los extremos del intervalo pueden ser encontrados por separado uno del otro. Si m representa el valor de la cantidad medida, se define o identifica el intervalo (m1, m2) en la escala del instrumento para el cual podemos afirmar, con una seguridad que en general, es relativa, que: m < m2 y m > m1, de manera que m1 < m < m2. Si la mínima división de la escala del instrumento es de tamaño apreciable y la respuesta del instrumento no fluctúa, es decir, no oscila (indebidamente) para una entrada constante, es posible que se pueda medir una magnitud bien definida y constante, con cierto optimismo y una buena agudeza visual, leyendo en la escala del instrumento y estimando una cierta fracción dentro de la mínima división, procedimiento que recibe el nombre de interpolación. También al interpolar, es necesario estimar el tamaño del intervalo de confianza, con un criterio que sea compatible con la capacidad de interpolación que nos reconocemos. El resultado de toda medición debe especificarse como un intervalo No hay una regla universalmente válida para determinar el tamaño del intervalo. Podemos identificar algunos factores que influyen en su extensión: 1) Tipo de medición; 2) Resolución de la escala, que determina el valor de la mínima división y la manera en que se hace su lectura (corte o redondeo); 3) Condiciones físicas y de iluminación de la escala; 4) Agudeza visual del observador; 5) Error de paralaje causado por una separación apreciable entre la escala y el objeto que se mide, y que hace que su posición relativa varíe con cambios en la posición del ojo y la dirección desde la que observamos. Suponer que el tamaño del intervalo es siempre igual a la mitad de la mínima división de la escala graduada del instrumento usado es una sobre simplificación peligrosa, a menudo errónea Por ejemplo, podemos usar un instrumento con escala muy fina para medir un objeto con orillas mal definidas y el intervalo tendrá un ancho varias veces mayor que la división más pequeña de la escala. Por el contrario, en algunos casos, un objeto bien definido y buenas condiciones de iluminación y de observación permiten un intervalo de tamaño inferior a la escala mínima. Por esta razón, cada situación debe ser evaluada por separado. Una forma alterna de expresar el intervalo (m1, m2) es como: m = mc ± Δm Aquí se introdujo el valor central, que es mc = {m1 + m2} / 2 Y la incertidumbre absoluta: Δm = | m1 - m2 | / 2 recibe también el nombre de error absoluto. En metrología moderna se sugiere abandonar definitivamente la palabra “precisión”, que usamos por costumbre para este tipo de incertidumbre. Esta forma es muy conveniente para los cálculos, porque cualquier función f(m) de m, se puede calcular en el valor central mc, y la incertidumbre de la función puede encontrarse aplicando las reglas para su estimación, o bien, y usando cálculo diferencial con el que podemos identificar con claridad la manera en que una incertidumbre Δm en la variable m, produce la incertidumbre de la función f(m). Esto corresponde al cálculo de la propagación de las incertidumbres. Las mediciones reales no son perfectas. En ellas se manifiestan las limitaciones implícitas a la variable que se mide o mensurando, al experimentador, al procedimiento y al instrumento empleado para realizar una medición. De acuerdo con su origen y características, estas limitaciones reciben nombres diferentes. Algunos de los factores que pueden intervenir son la calibración, la resolución y la sensibilidad instrumental, la histéresis, repetibilidad (antes llamada precisión), la exactitud. Todos estos factores definen lo que se puede determinar sobre la magnitud numérica del mensurando; como disminuyen nuestra "certeza" sobre lo que sabemos, contribuyen a la "incertidumbre" de la medición. El proceso de tomar cualquier medición por cualquier medio conocido siempre involucra alguna incertidumbre. Esta incertidumbre se llama usualmente error experimental. Al realizar mediciones, tratamos de mantener al mínimo el error experimental. Tipos de incertidumbres experimentales 1 En los datos medidos usualmente contribuyen dos tipos de incertidumbres experimentales: las incertidumbres corregibles sistemáticas y las aleatorias. 1 Los metrólogos hoy en día usan otra clasificación Incertidumbre sistemática Las incertidumbres sistemáticas se deben a causas identificables, factores que desvían las mediciones siempre en un sólo sentido y por una magnitud constante y pueden, en principio, corregirse. Incertidumbres de este tipo resultan de valores medidos que son consistentemente demasiado grandes o demasiado pequeños. Las incertidumbres sistemáticas pueden ser de cuatro tipos: 1. Instrumentales. Por ejemplo, un instrumento mal calibrado como un termómetro que lee 102 °C cuando está sumergido en agua hirviendo y 2 °C cuando está sumergido en agua helada a presión atmosférica. Tal termómetro producirá mediciones que son consistentemente demasiado altas. 2. De observación. Por ejemplo, de paralaje en la lectura de una escala métrica. 3. Del medio ambiente. Por ejemplo, una baja de tensión eléctrica que causa corrientes medidas que son consistentemente muy bajas. 4. Teóricas. Debidas a simplificaciones del sistema modelo o aproximaciones en las ecuaciones que lo describen. Por ejemplo, si una fuerza de fricción está actuando durante el experimento pero no está incluida en la teoría, los resultados estarán en desacuerdo consistentemente. En principio un experimentador desea identificar y corregir estas incertidumbres sistemáticas. Errores de calibración de instrumentos En general, la calibración de un instrumento no puede ser perfecta, a causa de la incertidumbre en la constancia y reproducibilidad del patrón con el cual se calibra y posibles cambios en la respuesta del instrumento después de su última calibración. Cuando los errores sistemáticos provienen de la mala calibración del instrumento de medición, se pueden detectar calibrándolo al compararlo con un patrón previamente establecido. Resolución instrumental Al usar un instrumento de medición cualquiera, independientemente de su calidad y grado de sofisticación, se tiene una cierta capacidad finita de distinguir entre dos valores cercanos del mensurando, cuyo valor recibe el nombre de capacidad de resolución, o simplemente resolución, del instrumento y que se representa por Δr. Si al hacer una medición se lee el instrumento a la división más cercana de la escala (por ejemplo, una regla graduada en milímetros o un termómetro graduado en décimas de grado), no será posible (a menos que se recurra a estimar fracciones de la mínima división, es decir, que se interpole) distinguir entre valores que difieran dentro de una división alrededor de una marca de la escala, por lo que cualquier valor comprendido en el intervalo entre la (lectura - una división mínima, lectura + una división mínima) representa el valor lectura. En consecuencia, la resolución de un instrumento es igual a una unidad del valor de la mínima división de la escala. Al emplear un instrumento cualquiera debemos dedicar unos instantes a familiarizarnos con su escala e identificar su resolución para entender que las mediciones que realicemos con él tienen, en el mejor de los casos, el significado indicado por el intervalo de arriba, que puede expresarse también en la forma: lectura ± una unidad de la mínima división de escala Tipos de Instrumentos En general podemos distinguir dos tipos de instrumentos: • continuos, los que permiten realizar una lectura interpolando entre dos divisiones mínimas sucesivas de la escala, como el metro, la balanza granataria e instrumentos analógicos (multímetro de aguja, etc.) • discretos, los que sólo permiten leer hasta una unidad de la mínima división de escala, como el cronómetro, el vernier y los instrumentos digitales. De acuerdo a esta clasificación, para el caso de los instrumentos continuos, podemos asociar frecuentemente una incertidumbre por resolución del instrumento igual a ½ unidad de la mínima división de la escala. Instrumentos digitales 2 Los instrumentos en los que se leen directamente los dígitos de los que consta el valor medido. No hay una regla general, pues los hay de dos tipos. Algunos, como los cronómetros y los odómetros (medidores de la distancia recorrida por un vehículo) están diseñados de manera que cambian el dígito menos significativo (el primero a la extrema derecha) cuando la cantidad toma ese valor. Por consiguiente, el intervalo que se puede asociar a las mediciones con este primer tipo de instrumentos digitales se extiende, en el mejor de los casos, desde el valor indicado hasta este valor adicionado en una unidad del dígito menos significativo. El otro tipo de instrumentos digitales redondean la lectura, es decir, están construidos de manera que el valor indicado es el mismo para todos los valores de la variable comprendidos dentro de una distancia a la lectura de ½ unidad del dígito menos significativo. Sensibilidad Podemos entender la sensibilidad instrumental como el cociente que resulta del cambio en la indicación del instrumento dividido por el cambio en la variable medida que causa al primero. Por ejemplo, un termómetro de mercurio en vidrio en el que la escala vaya de 0 ºC a 100 ºC en una longitud de 25 cm, tiene una sensibilidad de 25 cm / 100 ºC, la cual puede expresarse también como 2.5 mm / ºC. Deriva Es el cambio gradual y continuo de la lectura o indicación del instrumento después de cambiar la cantidad medida a un valor diferente pero constante. 2 Esta sección fue elaborada por el Dr. Pablo Lonngi Atraso Incapacidad de la indicación del instrumento para seguir instantáneamente cambios en la cantidad medida. Histéresis Resulta de las dos anteriores, y es la diferencia entre las lecturas de la cantidad medida para magnitudes correspondientes de esa cantidad cuando crece y cuando decrece; es la diferencia que hay entre las indicaciones de la cantidad medida entre su crecimiento y su decrecimiento. Error de lectura Hemos apreciado la incertidumbre que se introduce por el sólo uso de cualquier instrumento. Pero en realidad, el error al realizar cualquier medición, es una combinación de diversos factores: • agudeza visual del observador, • sensibilidad, atraso, deriva, histéresis del instrumento, • calidad de las marcas en la escala, • grosor o deformación de la aguja o cursor • uso de aparatos auxiliares, etc Así como la resolución del instrumento nos pone un límite en la exactitud con la que podemos realizar una medición, también nosotros debemos estimar la contribución que introducimos al medir. Aquí se nos presenta el problema de estimar una magnitud razonable para esta incertidumbre. Si pensamos que la mínima contribución, en condiciones óptimas de observación, debe ser del orden de la resolución instrumental, encontraremos conveniente asociarle un valor Δo = Δr. Consideremos un ejemplo que nos puede ilustrar bien esta recomendación. Necesitamos determinar un cierto ángulo usando un transportador con mínima división de su escala de medio grado y una cuerda cuya sección transversal ocupa 3 grados. Sabemos que la incertidumbre por resolución es Δr = 0.5 °, ¿cuál es el valor mínimo que debemos asociar a Δo? En este caso una incertidumbre en la observación introducida por el grosor de la cuerda que nos conduce a estimar una Δo de 3.5 °. Incertidumbres aleatorias Tienen que ver con fluctuaciones positivas y negativas en las medidas, ocasionadas por la combinación de efectos: del instrumento, quien mide y de las condiciones en las que se realiza el experimento. Las fuentes de los errores aleatorios no siempre pueden ser identificadas. Para estimar estos errores repetimos varias veces las mediciones y así podremos obtener una medida de la repetibilidad, es decir, la dispersión o cercanía entre los valores medidos en tiempos diferentes. La distinción entre errores aleatorios y sistemáticos puede ilustrarse con el siguiente ejemplo. Supongamos que repetimos la medición de una cantidad física cinco veces bajo las mismas condiciones. Si sólo existen errores al azar, entonces los cinco valores medidos estarán dispersos alrededor del “valor verdadero”; algunos serán mayores y otros más pequeños, como se muestra en la siguiente figura: parámetro que se está midiendo (a) (b) ⎯⎯⎯⎯⎯⎯⎯⎯⎯⏐⎯⏐⎯⏐⎯⎯⏐⎯⏐⎯⎯⎯⎯⎯⎯⎯⎯→ ↑ Valor verdadero ⎯⎯⏐⎯⏐⎯⏐⎯⎯⏐⎯⏐⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯→ ↑ Valor verdadero Fig. Conjunto de mediciones con (a) sólo errores aleatorios y (b) errores sistemáticos y aleatorios. Cada marca indica el resultado de una medición. Si además de los errores aleatorios hay también un error sistemático, entonces los cinco valores medidos estarán dispersos no alrededor del valor verdadero, sino alrededor de un valor desplazado. Repetibilidad y reproducibilidad Algunas variables o propiedades de sistemas (objetos) pueden ser medidas repetidamente sin dificultad o con poca dificultad relativa. Esto requiere tomar las precauciones y previsiones necesarias para asegurar que el sistema que se estudia y los aparatos están en las mismas condiciones. Estrictamente hablando, para medir la repetibilidad estas condiciones deben permanecer constantes, incluyendo al observador, la única variable es el tiempo. Sin embargo, la repetición de la medición no se reduce a que el mismo observador u otro diferente vuelva a leer el instrumento. Determinamos la reproducibilidad cuando cambiamos otras condiciones del experimento, diferentes del tiempo. El propósito de repetir las mediciones es estimar la variabilidad (o dispersión) que hay entre las repeticiones. Cuando esta variabilidad es pequeña, se puede decir que las mediciones son repetibles; si la variabilidad es grande, se dice que no lo son. Específicamente, podemos definir la repetibilidad de las medidas como la proximidad de concordancia entre los resultados de mediciones sucesivas del mismo mensurando efectuadas bajo las mismas condiciones, que reciben el nombre de condiciones de repetibilidad, y que incluyen: • mismo procedimiento de medición, • mismo observador, • mismo instrumento de medición, usado bajo las mismas condiciones, • mismo lugar o laboratorio, • repetición de la medición en periodos cortos de tiempo. La reproducibilidad supone que alguna (o varias) de las condiciones anteriores no se cumple, así que reproducibilidad es la cercanía de concordancia entre los resultados de mediciones del mismo mensurando que se han llevado a cabo bajo condiciones de medición ligeramente diferentes. Por consiguiente, en la reproducibilidad debería especificarse en qué consiste el cambio en las condiciones, por ejemplo, si cambió el observador, el instrumento, el laboratorio donde se efectuaron las repeticiones o si transcurrió un tiempo considerable entre ellas. La repetibilidad debe ser reproducible en medidas reproducibles. Algunas mediciones pueden ser inherentemente poco repetibles o reproducibles, pues el mensurando puede: a) ser una cantidad sujeta a fluctuaciones de cualquier signo y magnitud (dentro de ciertos límites); b) estar sometida a la influencia de gran cantidad de factores que la alteran, sobre los que no se tiene ningún control; c) no ser una cantidad estática sino dinámica; d) ser una variable intrínsecamente aleatoria, porque el fenómeno está regulado por leyes probabilísticas en lugar de leyes causales. En los casos a) y b) identificamos a las variables también como aleatorias (i. e., inciertas). Ejemplos de a) serían la medición del flujo o gasto en un río o la posición de un móvil a un cierto tiempo después de empezar su movimiento con ciertas condiciones iniciales que no pueden reproducirse cabalmente. Un ejemplo de b) es la salida de producto(s) de un reactor químico, que depende de concentraciones, temperatura, presión, flujo de masa y de calor, etc. en cada punto del reactor. Son ejemplos de d) el número de desintegraciones en un cierto tiempo de una muestra radiactiva, o el número de electrones que llegan a un detector de partículas cargadas. Podemos decir que en cualquiera de estos casos el resultado de la medición está sujeto a errores aleatorios. La variabilidad de las mediciones repetidas revela la existencia de los errores aleatorios. Cuando los errores aleatorios son pequeños se dice que la medición tiene una alta precisión. El error aleatorio se refiere al grado de reproducibilidad de una medición, que se representa por Δp y puede expresarse también como una corrección a la lectura ± Δp. Una medición reproducible no necesariamente tiene una gran exactitud. Por ejemplo, uno puede determinar el punto de ebullición de un líquido con un error aleatorio de ± 0.01 °C, pero cualquier impureza en el líquido puede evitar la determinación exacta del verdadero punto de fusión del líquido. El término exactitud se refiere a qué tan cerca está nuestra medición del valor verdadero y se representa por Δe. El valor verdadero es un valor comúnmente aceptado por los mejores científicos en el campo. Este valor está sujeto a cambios conforme las mediciones se realicen con mejores métodos y mejores instrumentos. Por lo anterior, los términos exactitud y reproducibilidad no son intercambiables. Tienen significados diferentes y deben usarse sólo cuando corresponda correctamente. Errores de redondeo y de truncado Podemos introducir también errores de redondeo er, asociados al número de cifras con las que realizamos las operaciones aritméticas en las mediciones indirectas. Para evitarlo, se recomienda retener un número razonable (al menos dos dígitos decimales más alla de las cifras significativas) para la aritmética y expresar el resultado final considerando correctamente el número de cifras significativas. También hay errores de truncado et, asociados a la aproximación que se emplea para representar algún número función. Por ejemplo, π es un número que siempre representamos en forma aproximada y con con un error de truncado y de redondeo: π ≈ 3.1415926… Otro ejemplo: si deseamos aproximar la función trigonométrica sen x por la serie sen x ≈ x - x3 / 3 + x5 / 5 + … se introduce un error de truncado al aproximar la serie infinita por un número finito de términos. Error inherente El intervalo de incertidumbre o intervalo de error inherente al proceso de medición es una pequeña cantidad alrededor del valor representativo de una medida, donde confiamos que se encuentra el valor real de la medición. Este error se obtiene por la contribución de todos los errores que intervienen en la medición x y se representa con Δx. De modo que 3 Δx = Δp + Δs + Δe + er + et (1) donde Δp representa la irrepetibilidad; Δs =Δr + Δo, representa el error por el instrumento y el observador, Δe representa la inexactitud de la medición; er es el error por redondeo numérico y et el error de aproximación por el truncado. 3 Cf. F. del Río, El arte de Investigar, Ed. UAM, Colec. CBI, México 1990, pp. 87-91. De manera que el resultado de la medición se expresa como (x ± Δx) ux, en donde ux representa las unidades de la magnitud medida. Dependiendo de la magnitud relativa de estas incertidumbres podemos hacer algunas simplificaciones al considerar la contribución de cada una a la incertidumbre total. Cuando Δx ≥ Δs, Δs es el límite inferior de la incertidumbre. Las contribuciones a la incertidumbre de la irrepetibilidad Δp y la inexatitud Δe son independientes; er y et aparecen en el proceso de los cálculos. En principio deberíamos conocer Δp y Δe para determinar Δx, pero bajo ciertas circunstancias podemos no necesitarlo, al considerar las situaciones siguientes: 1. Cuando la medición es muy exacta pero no muy repetible, Δp >> Δe, podemos aproximar: Δx = Δp ≥ Δs. En estas condiciones, es también común encontrar que la inexactitud por el instrumento sea del mismo orden que su resolución límite, Δe ≈ Δr, ya que disminuir a Δe muy por debajo de Δr no produce ningún beneficio al usuario y es muy costoso para el fabricante. 2. Cuando la medición es muy repetible pero poco exacta, Δe >> Δp, la inexactitud domina en la incertidumbre y se trata de situaciones en las que el experimento o los instrumentos fueron mal diseñados: Δx = Δe >> Δp ≥ Δs 3. Cuando la irrepetibilidad es del orden de la inexactitud, Δp ≈Δe. Este caso es característico de mediciones en las que se está tratado de aprovechar al máximo los instrumentos disponibles, ningún término predomina; ambos contribuyen a la incertidumbre: Δx = Δe + Δp ≥ Δs Ya que es imposible eliminar los errores, se han desarrollado métodos para calcular la cantidad de error que existe en cada medición. Determinación de la repetibilidad Para estimar la magnitud de la irrepetibilidad Δp, debe distinguirse si se trata de una medida directa o indirecta. En la medición directa la magnitud X se mide directamente con el instrumento; en las mediciones indirectas, X es una función de una o más variables directas. Para estimar la incertidumbre aleatoria que ocasiona la irrepetibilidad de una medida, procedemos a realizar varias lecturas sucesivas de la magnitud de interés, estimando para cada una, la contribución a la incertidumbre producida por la resolución, el observador, el uso repetido del instrumento y posibles fuentes sistemáticas. El valor promedio de las lecturas < x > = Σi=1 n xi = ( x1 + x2 + x3 + … + xn ) / n será el valor que asociamos a la medida y su incertidumbre la estimamos considerando los valores extremos xmin y xmáx del intervalo de observación, escogiendo la magnitud que resulte mayor al considerar su diferencia con respecto al valor promedio < x >, es decir: Δp = máx { < x > - xmin; |< x > - xmáx | } Esta es una estimación pesimista de la incertidumbre ya que nos da la máxima magnitud de la irrepetibilidad, más adelante veremos otras formas menos pesimistas de estimarla. Podemos notar que, en el caso en que el valor promedio < x > se localiza a la mitad del intervalo definido por xmin y xmáx , Δp = [ xmáx - xmin ] / 2 Errores absoluto, relativo y porcentual Una vez determinado el intervalo de error de una medida que hemos expresado en su forma absoluta como x ± Δx ux éste se puede expresar en forma relativa o como porcentaje del valor medido. Consideremos por ejemplo, que medimos la masa de un pequeño objeto y obtenemos: m ± Δm = (45.94 ± 0.55) g El error absoluto de 0.55 g es el intervalo de error expresado en las mismas unidades que el valor medido. También podemos expresar este valor en forma relativa, escribiendo: m ± Δm / m = 45.94 g ± 0.55 / 45.94 = 45.94 g ± 0.012 de modo que el error relativo es el cociente del error absoluto entre el valor medido, magnitud adimensional que vale 0.012. Esta forma de expresar el error tiene el inconveniente de ser una cantidad muy pequeña, que se nos dificulta analizar, por lo que se acostumbra dar el porcentaje de error (error porcentual) y que es el error relativo multiplicado por 100. En el caso del ejemplo, m ± (Δm / m)% = 45.94 g ± 1.2% lo cual significa que la masa del objeto se determinó con un porcentaje del error también mal llamado precisión, de 1.2%, mientras que su error relativo es de 0.012. Estas son las tres formas de representar el intervalo de error o error inherente a toda medición. Conviene resaltar la importancia de representar toda medición con su incertidumbre, en cualquiera de sus tres formas, ya que es a través de la incertidumbre como se muestra la calidad de las medidas y su confiabilidad. Una medición expresada sin incertidumbre puede carecer totalmente de significado, o se puede caer en el error de suponer un significado equivocado ya que la incertidumbre determina el número de cifras significativas de toda medición. Nuestra tarea es familiarizar a los alumnos en la correcta estimación y representación de la incertidumbre en sus tres formas, resaltando el hecho de que la información que nos proporcionan se complementa. Es también muy importante insistir en que no se trata de equivocaciones al medir, sino de una correcta estimación del intervalo en el cual estamos seguros de que se localiza el valor de la medida.