Instrumentos, mediciones e incertidumbres

Anuncio
Instrumentos, mediciones e incertidumbres
Dra. María de los Dolores Ayala Velázquez
Departamento de Física, División de CBI
Realizar mediciones requiere el uso de algún instrumento que dará un número
que representa la relación de la cantidad observada a una de las unidades
patrón conocidas. Una medición es una comparación de la cantidad
desconocida con la unidad estándar.
El aparato o instrumento de medición indica la magnitud de la cantidad medida
por medio de algún sistema indicador. Para ello es necesaria su calibración,
que consiste en obtener la relación funcional entre la magnitud medida y la
indicación, mediante la comparación directa o indirecta con una referencia o
patrón que engloba, posee o genera una magnitud fija o reproducible de la
cantidad física que se toma como la unidad o bien, algún múltiplo o fracción de
la unidad. Cualquier cantidad medida puede expresarse entonces como un
número (que es la razón de estas magnitudes) y el nombre de la unidad.
Medir
Al medir obtenemos una respuesta aproximada de la magnitud de interés y las
mediciones no son nunca números ''exactos''. Tenemos que conformarnos con
valores medidos que toman la forma de intervalos, dentro de los cuales
tenemos confianza de que se encuentra el valor deseado. El acto de medir
implica que determinemos la ubicación y la extensión de ese intervalo, lo cual
requiere que cada vez que midamos apliquemos el uso cuidadoso del juicio y
de la apreciación visual.
Los extremos del intervalo pueden ser encontrados por separado uno del otro.
Si m representa el valor de la cantidad medida, se define o identifica el intervalo
(m1, m2) en la escala del instrumento para el cual podemos afirmar, con una
seguridad que en general, es relativa, que:
m < m2 y m > m1,
de manera que
m1 < m < m2.
Si la mínima división de la escala del instrumento es de tamaño apreciable y la
respuesta del instrumento no fluctúa, es decir, no oscila (indebidamente) para
una entrada constante, es posible que se pueda medir una magnitud bien
definida y constante, con cierto optimismo y una buena agudeza visual, leyendo
en la escala del instrumento y estimando una cierta fracción dentro de la
mínima división, procedimiento que recibe el nombre de interpolación. También
al interpolar, es necesario estimar el tamaño del intervalo de confianza, con un
criterio que sea compatible con la capacidad de interpolación que nos
reconocemos.
El resultado de toda medición debe especificarse como un
intervalo
No hay una regla universalmente válida para determinar el tamaño del
intervalo. Podemos identificar algunos factores que influyen en su extensión:
1)
Tipo de medición;
2)
Resolución de la escala, que determina el valor de la mínima división y la
manera en que se hace su lectura (corte o redondeo);
3)
Condiciones físicas y de iluminación de la escala;
4)
Agudeza visual del observador;
5)
Error de paralaje causado por una separación apreciable entre la escala y
el objeto que se mide, y que hace que su posición relativa varíe con
cambios en la posición del ojo y la dirección desde la que observamos.
Suponer que el tamaño del intervalo es siempre igual a la mitad
de la mínima división de la escala graduada del instrumento
usado es una sobre simplificación peligrosa, a menudo errónea
Por ejemplo, podemos usar un instrumento con escala muy fina para medir un
objeto con orillas mal definidas y el intervalo tendrá un ancho varias veces
mayor que la división más pequeña de la escala. Por el contrario, en algunos
casos, un objeto bien definido y buenas condiciones de iluminación y de
observación permiten un intervalo de tamaño inferior a la escala mínima. Por
esta razón, cada situación debe ser evaluada por separado.
Una forma alterna de expresar el intervalo (m1, m2) es como:
m = mc ± Δm
Aquí se introdujo el valor central, que es
mc = {m1 + m2} / 2
Y la incertidumbre absoluta:
Δm = | m1 - m2 | / 2
recibe también el nombre de error absoluto. En metrología moderna se
sugiere abandonar definitivamente la palabra “precisión”, que usamos por
costumbre para este tipo de incertidumbre.
Esta forma es muy conveniente para los cálculos, porque cualquier función f(m)
de m, se puede calcular en el valor central mc, y la incertidumbre de la función
puede encontrarse aplicando las reglas para su estimación, o bien, y usando
cálculo diferencial con el que podemos identificar con claridad la manera en
que una incertidumbre Δm en la variable m, produce la incertidumbre de la
función f(m). Esto corresponde al cálculo de la propagación de las
incertidumbres.
Las mediciones reales no son perfectas. En ellas se manifiestan las
limitaciones implícitas a la variable que se mide o mensurando, al
experimentador, al procedimiento y al instrumento empleado para realizar una
medición. De acuerdo con su origen y características, estas limitaciones
reciben nombres diferentes. Algunos de los factores que pueden intervenir son
la calibración, la resolución y la sensibilidad instrumental, la histéresis,
repetibilidad (antes llamada precisión), la exactitud. Todos estos factores
definen lo que se puede determinar sobre la magnitud numérica del
mensurando; como disminuyen nuestra "certeza" sobre lo que sabemos,
contribuyen a la "incertidumbre" de la medición.
El proceso de tomar cualquier medición por cualquier medio conocido siempre
involucra alguna incertidumbre. Esta incertidumbre se llama usualmente error
experimental. Al realizar mediciones, tratamos de mantener al mínimo el error
experimental.
Tipos de incertidumbres experimentales 1
En los datos medidos usualmente contribuyen dos tipos de incertidumbres
experimentales: las incertidumbres corregibles sistemáticas y las aleatorias.
1
Los metrólogos hoy en día usan otra clasificación
Incertidumbre sistemática
Las incertidumbres sistemáticas se deben a causas identificables, factores
que desvían las mediciones siempre en un sólo sentido y por una magnitud
constante y pueden, en principio, corregirse. Incertidumbres de este tipo
resultan de valores medidos que son consistentemente demasiado grandes o
demasiado pequeños. Las incertidumbres sistemáticas pueden ser de cuatro
tipos:
1. Instrumentales. Por ejemplo, un instrumento mal calibrado como un
termómetro que lee 102 °C cuando está sumergido en agua hirviendo y 2 °C
cuando está sumergido en agua helada a presión atmosférica. Tal
termómetro producirá mediciones que son consistentemente demasiado
altas.
2. De observación. Por ejemplo, de paralaje en la lectura de una escala
métrica.
3. Del medio ambiente. Por ejemplo, una baja de tensión eléctrica que causa
corrientes medidas que son consistentemente muy bajas.
4. Teóricas. Debidas a simplificaciones del sistema modelo o aproximaciones
en las ecuaciones que lo describen. Por ejemplo, si una fuerza de fricción
está actuando durante el experimento pero no está incluida en la teoría, los
resultados estarán en desacuerdo consistentemente.
En principio un experimentador desea identificar y corregir estas incertidumbres
sistemáticas.
Errores de calibración de instrumentos
En general, la calibración de un instrumento no puede ser perfecta, a causa de
la incertidumbre en la constancia y reproducibilidad del patrón con el cual se
calibra y posibles cambios en la respuesta del instrumento después de su
última calibración. Cuando los errores sistemáticos provienen de la mala
calibración del instrumento de medición, se pueden detectar calibrándolo al
compararlo con un patrón previamente establecido.
Resolución instrumental
Al usar un instrumento de medición cualquiera, independientemente de su
calidad y grado de sofisticación, se tiene una cierta capacidad finita de
distinguir entre dos valores cercanos del mensurando, cuyo valor recibe el
nombre de capacidad de resolución, o simplemente resolución, del instrumento
y que se representa por Δr.
Si al hacer una medición se lee el instrumento a la división más cercana de la
escala (por ejemplo, una regla graduada en milímetros o un termómetro
graduado en décimas de grado), no será posible (a menos que se recurra a
estimar fracciones de la mínima división, es decir, que se interpole) distinguir
entre valores que difieran dentro de una división alrededor de una marca de la
escala, por lo que cualquier valor comprendido en el intervalo entre la
(lectura - una división mínima, lectura + una división mínima)
representa el valor lectura.
En consecuencia, la resolución de un instrumento es igual a una unidad
del valor de la mínima división de la escala.
Al emplear un instrumento cualquiera debemos dedicar unos instantes a
familiarizarnos con su escala e identificar su resolución para entender que las
mediciones que realicemos con él tienen, en el mejor de los casos, el
significado indicado por el intervalo de arriba, que puede expresarse también
en la forma:
lectura ± una unidad de la mínima división de escala
Tipos de Instrumentos
En general podemos distinguir dos tipos de instrumentos:
• continuos, los que permiten realizar una lectura interpolando entre dos
divisiones mínimas sucesivas de la escala, como el metro, la balanza
granataria e instrumentos analógicos (multímetro de aguja, etc.)
• discretos, los que sólo permiten leer hasta una unidad de la mínima división
de escala, como el cronómetro, el vernier y los instrumentos digitales.
De acuerdo a esta clasificación, para el caso de los instrumentos continuos,
podemos asociar frecuentemente una incertidumbre por resolución del
instrumento igual a ½ unidad de la mínima división de la escala.
Instrumentos digitales
2
Los instrumentos en los que se leen directamente los dígitos de los que consta
el valor medido. No hay una regla general, pues los hay de dos tipos. Algunos,
como los cronómetros y los odómetros (medidores de la distancia recorrida por
un vehículo) están diseñados de manera que cambian el dígito menos
significativo (el primero a la extrema derecha) cuando la cantidad toma ese
valor. Por consiguiente, el intervalo que se puede asociar a las mediciones con
este primer tipo de instrumentos digitales se extiende, en el mejor de los casos,
desde el valor indicado hasta este valor adicionado en una unidad del dígito
menos significativo.
El otro tipo de instrumentos digitales redondean la lectura, es decir, están
construidos de manera que el valor indicado es el mismo para todos los valores
de la variable comprendidos dentro de una distancia a la lectura de ½ unidad
del dígito menos significativo.
Sensibilidad
Podemos entender la sensibilidad instrumental como el cociente que resulta del
cambio en la indicación del instrumento dividido por el cambio en la variable
medida que causa al primero. Por ejemplo, un termómetro de mercurio en
vidrio en el que la escala vaya de 0 ºC a 100 ºC en una longitud de 25 cm, tiene
una sensibilidad de 25 cm / 100 ºC, la cual puede expresarse también como 2.5
mm / ºC.
Deriva
Es el cambio gradual y continuo de la lectura o indicación del instrumento
después de cambiar la cantidad medida a un valor diferente pero constante.
2
Esta sección fue elaborada por el Dr. Pablo Lonngi
Atraso
Incapacidad de la indicación del instrumento para seguir instantáneamente
cambios en la cantidad medida.
Histéresis
Resulta de las dos anteriores, y es la diferencia entre las lecturas de la cantidad
medida para magnitudes correspondientes de esa cantidad cuando crece y
cuando decrece; es la diferencia que hay entre las indicaciones de la cantidad
medida entre su crecimiento y su decrecimiento.
Error de lectura
Hemos apreciado la incertidumbre que se introduce por el sólo uso de cualquier
instrumento. Pero en realidad, el error al realizar cualquier medición, es una
combinación de diversos factores:
• agudeza visual del observador,
• sensibilidad, atraso, deriva, histéresis del instrumento,
• calidad de las marcas en la escala,
• grosor o deformación de la aguja o cursor
• uso de aparatos auxiliares, etc
Así como la resolución del instrumento nos pone un límite en la exactitud con la
que podemos realizar una medición, también nosotros debemos estimar la
contribución que introducimos al medir. Aquí se nos presenta el problema de
estimar una magnitud razonable para esta incertidumbre. Si pensamos que la
mínima contribución, en condiciones óptimas de observación, debe ser del
orden de la resolución instrumental, encontraremos conveniente asociarle un
valor Δo = Δr.
Consideremos un ejemplo que nos puede ilustrar bien esta recomendación.
Necesitamos determinar un cierto ángulo usando un transportador con mínima
división de su escala de medio grado y una cuerda cuya sección transversal
ocupa 3 grados. Sabemos que la incertidumbre por resolución es Δr = 0.5 °,
¿cuál es el valor mínimo que debemos asociar a Δo? En este caso una
incertidumbre en la observación introducida por el grosor de la cuerda que nos
conduce a estimar una Δo de 3.5 °.
Incertidumbres aleatorias
Tienen que ver con fluctuaciones positivas y negativas en las medidas,
ocasionadas por la combinación de efectos: del instrumento, quien mide y de
las condiciones en las que se realiza el experimento. Las fuentes de los errores
aleatorios no siempre pueden ser identificadas.
Para estimar estos errores repetimos varias veces las mediciones y así
podremos obtener una medida de la repetibilidad, es decir, la dispersión o
cercanía entre los valores medidos en tiempos diferentes.
La distinción entre errores aleatorios y sistemáticos puede ilustrarse con el
siguiente ejemplo. Supongamos que repetimos la medición de una cantidad
física cinco veces bajo las mismas condiciones. Si sólo existen errores al azar,
entonces los cinco valores medidos estarán dispersos alrededor del “valor
verdadero”; algunos serán mayores y otros más pequeños, como se muestra
en la siguiente figura:
parámetro que se está midiendo
(a)
(b)
⎯⎯⎯⎯⎯⎯⎯⎯⎯⏐⎯⏐⎯⏐⎯⎯⏐⎯⏐⎯⎯⎯⎯⎯⎯⎯⎯→
↑ Valor verdadero
⎯⎯⏐⎯⏐⎯⏐⎯⎯⏐⎯⏐⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯⎯→
↑ Valor verdadero
Fig. Conjunto de mediciones con (a) sólo errores aleatorios y (b) errores sistemáticos y aleatorios. Cada
marca indica el resultado de una medición.
Si además de los errores aleatorios hay también un error sistemático, entonces
los cinco valores medidos estarán dispersos no alrededor del valor verdadero,
sino alrededor de un valor desplazado.
Repetibilidad y reproducibilidad
Algunas variables o propiedades de sistemas (objetos) pueden ser medidas
repetidamente sin dificultad o con poca dificultad relativa. Esto requiere tomar
las precauciones y previsiones necesarias para asegurar que el sistema que se
estudia y los aparatos están en las mismas condiciones. Estrictamente
hablando, para medir la repetibilidad estas condiciones deben permanecer
constantes, incluyendo al observador, la única variable es el tiempo. Sin
embargo, la repetición de la medición no se reduce a que el mismo observador
u otro diferente vuelva a leer el instrumento.
Determinamos la reproducibilidad cuando cambiamos otras condiciones del
experimento, diferentes del tiempo. El propósito de repetir las mediciones es
estimar la variabilidad (o dispersión) que hay entre las repeticiones. Cuando
esta variabilidad es pequeña, se puede decir que las mediciones son
repetibles; si la variabilidad es grande, se dice que no lo son. Específicamente,
podemos definir la repetibilidad de las medidas como la proximidad de
concordancia entre los resultados de mediciones sucesivas del mismo
mensurando efectuadas bajo las mismas condiciones, que reciben el nombre
de condiciones de repetibilidad, y que incluyen:
•
mismo procedimiento de medición,
•
mismo observador,
•
mismo instrumento de medición, usado bajo las mismas condiciones,
•
mismo lugar o laboratorio,
•
repetición de la medición en periodos cortos de tiempo.
La reproducibilidad supone que alguna (o varias) de las condiciones anteriores
no se cumple, así que reproducibilidad es la cercanía de concordancia entre los
resultados de mediciones del mismo mensurando que se han llevado a cabo
bajo condiciones de medición ligeramente diferentes. Por consiguiente, en la
reproducibilidad debería especificarse en qué consiste el cambio en las
condiciones, por ejemplo, si cambió el observador, el instrumento, el laboratorio
donde se efectuaron las repeticiones o si transcurrió un tiempo considerable
entre ellas. La repetibilidad debe ser reproducible en medidas reproducibles.
Algunas
mediciones
pueden
ser
inherentemente
poco
repetibles
o
reproducibles, pues el mensurando puede:
a) ser una cantidad sujeta a fluctuaciones de cualquier signo y magnitud
(dentro de ciertos límites);
b) estar sometida a la influencia de gran cantidad de factores que la alteran,
sobre los que no se tiene ningún control;
c) no ser una cantidad estática sino dinámica;
d) ser una variable intrínsecamente aleatoria, porque el fenómeno está
regulado por leyes probabilísticas en lugar de leyes causales.
En los casos a) y b) identificamos a las variables también como aleatorias (i. e.,
inciertas). Ejemplos de a) serían la medición del flujo o gasto en un río o la
posición de un móvil a un cierto tiempo después de empezar su movimiento
con ciertas condiciones iniciales que no pueden reproducirse cabalmente. Un
ejemplo de b) es la salida de producto(s) de un reactor químico, que depende
de concentraciones, temperatura, presión, flujo de masa y de calor, etc. en
cada punto del reactor. Son ejemplos de d) el número de desintegraciones en
un cierto tiempo de una muestra radiactiva, o el número de electrones que
llegan a un detector de partículas cargadas.
Podemos decir que en cualquiera de estos casos el resultado de la medición
está sujeto a errores aleatorios. La variabilidad de las mediciones repetidas
revela la existencia de los errores aleatorios. Cuando los errores aleatorios son
pequeños se dice que la medición tiene una alta precisión. El error aleatorio se
refiere al grado de reproducibilidad de una medición, que se representa por Δp
y puede expresarse también como una corrección a la lectura ± Δp.
Una medición reproducible no necesariamente tiene una gran exactitud. Por
ejemplo, uno puede determinar el punto de ebullición de un líquido con un error
aleatorio de ± 0.01 °C, pero cualquier impureza en el líquido puede evitar la
determinación exacta del verdadero punto de fusión del líquido. El término
exactitud se refiere a qué tan cerca está nuestra medición del valor verdadero
y se representa por Δe. El valor verdadero es un valor comúnmente aceptado
por los mejores científicos en el campo. Este valor está sujeto a cambios
conforme las mediciones se realicen con mejores métodos y mejores
instrumentos.
Por
lo
anterior,
los
términos
exactitud
y
reproducibilidad
no
son
intercambiables. Tienen significados diferentes y deben usarse sólo cuando
corresponda correctamente.
Errores de redondeo y de truncado
Podemos introducir también errores de redondeo er, asociados al número de
cifras con las que realizamos las operaciones aritméticas en las mediciones
indirectas. Para evitarlo, se recomienda retener un número razonable (al menos
dos dígitos decimales más alla de las cifras significativas) para la aritmética y
expresar el resultado final considerando correctamente el número de cifras
significativas.
También hay errores de truncado et, asociados a la aproximación que se
emplea para representar algún número función. Por ejemplo, π es un número
que siempre representamos en forma aproximada y con con un error de
truncado y de redondeo:
π ≈ 3.1415926…
Otro ejemplo: si deseamos aproximar la función trigonométrica sen x por la
serie
sen x ≈ x - x3 / 3 + x5 / 5 + …
se introduce un error de truncado al aproximar la serie infinita por un número
finito de términos.
Error inherente
El intervalo de incertidumbre o intervalo de error inherente al proceso de
medición es una pequeña cantidad alrededor del valor representativo de una
medida, donde confiamos que se encuentra el valor real de la medición. Este
error se obtiene por la contribución de todos los errores que intervienen en la
medición x y se representa con Δx. De modo que 3
Δx = Δp + Δs + Δe + er + et
(1)
donde Δp representa la irrepetibilidad; Δs =Δr + Δo, representa el error por el
instrumento y el observador, Δe representa la inexactitud de la medición; er es
el error por redondeo numérico y et el error de aproximación por el truncado.
3
Cf. F. del Río, El arte de Investigar, Ed. UAM, Colec. CBI, México 1990, pp. 87-91.
De manera que el resultado de la medición se expresa como (x ± Δx) ux, en
donde ux representa las unidades de la magnitud medida.
Dependiendo de la magnitud relativa de estas incertidumbres podemos hacer
algunas simplificaciones al considerar la contribución de cada una a la
incertidumbre total. Cuando Δx ≥ Δs,
Δs
es
el
límite
inferior
de
la
incertidumbre. Las contribuciones a la incertidumbre de la irrepetibilidad Δp y la
inexatitud Δe son independientes; er y et aparecen en el proceso de los
cálculos.
En principio deberíamos conocer Δp y Δe para determinar Δx, pero bajo ciertas
circunstancias podemos no necesitarlo, al considerar las situaciones siguientes:
1. Cuando la medición es muy exacta pero no muy repetible, Δp >> Δe,
podemos aproximar:
Δx = Δp ≥ Δs.
En estas condiciones, es también común encontrar que la inexactitud por el
instrumento sea del mismo orden que su resolución límite, Δe ≈ Δr, ya que
disminuir a Δe muy por debajo de Δr no produce ningún beneficio al usuario
y es muy costoso para el fabricante.
2. Cuando la medición es muy repetible pero poco exacta, Δe >> Δp, la
inexactitud domina en la incertidumbre y se trata de situaciones en las que el
experimento o los instrumentos fueron mal diseñados:
Δx = Δe >> Δp ≥ Δs
3. Cuando la irrepetibilidad es del orden de la inexactitud, Δp ≈Δe. Este caso es
característico de mediciones en las que se está tratado de aprovechar al
máximo los instrumentos disponibles, ningún término predomina; ambos
contribuyen a la incertidumbre:
Δx = Δe + Δp ≥ Δs
Ya que es imposible eliminar los errores, se han desarrollado métodos para
calcular la cantidad de error que existe en cada medición.
Determinación de la repetibilidad
Para estimar la magnitud de la irrepetibilidad Δp, debe distinguirse si se trata de
una medida directa o indirecta. En la medición directa la magnitud X se mide
directamente con el instrumento; en las mediciones indirectas, X es una
función de una o más variables directas.
Para estimar la incertidumbre aleatoria que ocasiona la irrepetibilidad de una
medida, procedemos a realizar varias lecturas sucesivas de la magnitud de
interés, estimando para cada una, la contribución a la incertidumbre producida
por la resolución, el observador, el uso repetido del instrumento y posibles
fuentes sistemáticas. El valor promedio de las lecturas
< x > = Σi=1 n xi = ( x1 + x2 + x3 + … + xn ) / n
será el valor que asociamos a la medida y su incertidumbre la estimamos
considerando los valores extremos xmin y xmáx del intervalo de observación,
escogiendo la magnitud que resulte mayor al considerar su diferencia con
respecto al valor promedio < x >, es decir:
Δp = máx { < x > - xmin; |< x > - xmáx | }
Esta es una estimación pesimista de la incertidumbre ya que nos da la máxima
magnitud de la irrepetibilidad, más adelante veremos otras formas menos
pesimistas de estimarla. Podemos notar que, en el caso en que el valor
promedio < x > se localiza a la mitad del intervalo definido por xmin y xmáx ,
Δp = [ xmáx - xmin ] / 2
Errores absoluto, relativo y porcentual
Una vez determinado el intervalo de error de una medida que hemos
expresado en su forma absoluta como
x ± Δx ux
éste se puede expresar en forma relativa o como porcentaje del valor medido.
Consideremos por ejemplo, que medimos la masa de un pequeño objeto y
obtenemos:
m ± Δm = (45.94 ± 0.55) g
El error absoluto de 0.55 g es el intervalo de error expresado en las mismas
unidades que el valor medido.
También podemos expresar este valor en forma relativa, escribiendo:
m ± Δm / m = 45.94 g ± 0.55 / 45.94 = 45.94 g ± 0.012
de modo que el error relativo es el cociente del error absoluto entre el valor
medido, magnitud adimensional que vale 0.012. Esta forma de expresar el error
tiene el inconveniente de ser una cantidad muy pequeña, que se nos dificulta
analizar, por lo que se acostumbra dar el porcentaje de error (error porcentual)
y que es el error relativo multiplicado por 100. En el caso del ejemplo,
m ± (Δm / m)% = 45.94 g ± 1.2%
lo cual significa que la masa del objeto se determinó con un porcentaje del error
también mal llamado precisión, de 1.2%, mientras que su error relativo es de
0.012. Estas son las tres formas de representar el intervalo de error o error
inherente a toda medición.
Conviene resaltar la importancia de representar toda medición con su
incertidumbre, en cualquiera de sus tres formas, ya que es a través de la
incertidumbre como se muestra la calidad de las medidas y su confiabilidad.
Una medición expresada sin incertidumbre puede carecer totalmente de
significado, o se puede caer en el error de suponer un significado equivocado
ya que la incertidumbre determina el número de cifras significativas de toda
medición.
Nuestra tarea es familiarizar a los alumnos en la correcta estimación y
representación de la incertidumbre en sus tres formas, resaltando el hecho de
que la información que nos proporcionan se complementa. Es también muy
importante insistir en que no se trata de equivocaciones al medir, sino de una
correcta estimación del intervalo en el cual estamos seguros de que se localiza
el valor de la medida.
Descargar