Descargar - Química I - Universidad Nacional de Quilmes

Anuncio
MEDICIONES DE MAGNITUDES FÍSICAS Y QUÍMICAS
Lic. Evelina SB Maranzana – Universidad Nacional de Quilmes
Introducción
La química es una ciencia que describe experimentalmente la materia, sus propiedades
físicas y químicas, los cambios que ésta experimenta como así también las variaciones
de energía que están asociados a estos procesos.
Los resultados de cualquier tipo de observación experimental que se realice para
calcular el grado en que ocurren los cambios o variaciones en las propiedades de la
materia y energía se efectúan mediante mediciones. Todo proceso de medición implica
comparar el objeto o propiedad de estudio con un patrón de referencia, proceso que
permite la obtención de valores numéricos. Sin embargo, los datos numéricos que se
obtienen al realizar mediciones de magnitudes físicas o químicas tienen un cierto grado
de incertidumbre. Por lo tanto, encontrar en la práctica el valor real o exacto de una
magnitud es imposible, podemos sólo aproximarnos a ese valor, pero nunca sabremos si
realmente es dicho valor, porque ni los instrumentos de medición son perfectos ni
nuestros sentidos son absolutamente perspicaces.
Por otro lado, en muchos casos en el proceso de tratamiento de datos intervienen
números irracionales (p, e, etc.) o bien operaciones matemáticas cuyos resultados no
pueden tomarse con todas sus cifras (log, trigonométricas, etc.) sino que hay que
tomarlos con un número limitado de cifras decimales.
Podemos asegurar, por tanto, que toda medida que efectuamos, cualquiera sea la
bondad del instrumento utilizado y la pericia del operador, es inexacta, pues aún
suponiendo que casualmente alguna fuera exacta, no tenemos medio de comprobarlo y
por ello de saberlo.
El problema radica entonces en establecer los límites de la incertidumbre existentes al
determinar el valor de una magnitud.
Por tanto, el resultado de una medida debe ir siempre acompañado de esa
incertidumbre que nos indica la calidad de la medición realizada.
1. Mediciones
Una magnitud física es un atributo de un cuerpo, un fenómeno o una sustancia, que
puede ser determinada cuantitativamente, es decir, es un atributo susceptible de ser
medido. El mesurando es la magnitud de un objeto o fenómeno específico que estamos
interesados en medir.
Para establecer el valor de un mesurando debemos utilizar instrumentos de medición y
un método de medición. Asimismo para llevar a cabo esta operación es necesario definir
unidades de medición.
La medición es el proceso de cuantificar nuestra experiencia del mundo exterior. Es la
técnica mediante la cual asignamos un número 1 , generalmente un número real, a una
propiedad física o química, como resultado de una comparación con otra similar tomada
como patrón que es adoptada como unidad.
Si estamos interesados en medir el largo de la mesa en la cual estamos sentados en frente en este
momento, la longitud, es el atributo – magnitud - que deseamos determina. En tanto que esa
longitud específica – la de la mesa - será el mesurando. Si al determinar esta longitud específica
utilizamos la cinta métrica, ésta será el instrumento de medición. Como dicha cinta se encuentra
graduada de acuerdo al Sistema Internacional de Unidades (SI), la unidad será el metro y la cinta a
usar deberá estar debidamente calibrada en esa unidad (o submúltiplos). El método de medición
que llevaremos acabo por lo tanto constituirá en determinar cuantas veces la cinta y fracciones de
ella entran en la longitud deseada.
Se debe tener siempre presente que todo proceso de medición presenta errores
experimentales o incertezas.
1
Hay magnitudes físicas que no quedan completamente descriptas con un número, se necesita indicar además
su dirección y su sentido, las cuales se las conocen como magnitudes vectoriales
Química 1 - Medidas y unidades -
1
En ciencias e ingeniería, el concepto error tiene un significado diferente del uso habitual
de este término. Coloquialmente, es usual el empleo del término error como análogo o
equivalente a equivocación. En el campo de las ciencias y la ingeniería, sin embargo, el
error, como veremos a continuación, está más bien asociado al concepto de incerteza
en la determinación del resultado de una medición.
A pesar de los avances tecnológicos, del diseño de instrumentos de medición más
sofisticados, y aún siendo asistidos por computadoras, siempre se cometen incertezas.
Además se debe agregar la dificultad de que al utilizar programas prediseñados para el
procesamiento de datos obtenidos después de la medición, esto introduce la dificultad
de controlar estos resultados.
Como futuros profesionales tendremos que aprender a comprender, estimar y controlar
las incertezas que se propagan en nuestros cálculos.
Es por ello, que al realizar cualquier tipo de medición debemos siempre evitar en pensar
sobre la misma como un procedimiento para reproducir un cierto resultado “correcto”.
En la vida real nadie nos dirá cuál debe ser el resultado, nuestro criterio y capacidad,
bien formados, nos permitirán tomar decisiones para resolver las situaciones que se nos
presenten.
Es importante al realizar las mediciones, tomar cierto tiempo para planificar
anticipadamente el procedimiento. También es importante que aprendamos a trabajar en
el marco de los instrumentos que tengamos disponibles. Los instrumentos nunca serán
ideales, y es virtud del operador aprender a identificar las fuentes de errores, evaluarlas
y si es posible eliminarlas o hacer las correcciones que se necesiten.
Un principio básico para realizar todo tipo de medición, es que, al medir pongamos
extremo cuidado en no perturbar el sistema que está bajo observación (ni con nuestra
presencia, ni con los instrumentos de medición).
En el campo macroscópico, es posible que la perturbación sea mucho más pequeña, en
varios ordenes de magnitud, que las incertezas.
Pero en el campo microscópico, las perturbaciones sobre el sistema son del orden de las
incertezas, y no son posibles de ser estimadas en valor. Para la obtención de los valores
medidos en este campo, debemos manejar conceptos de la física conocidos como
mecánica cuántica, que escapa a los alcances del presente curso y son estudiados en
Física III.
Decimos que conocemos el valor de una magnitud determinada, en la medida que
conocemos sus errores. En el campo de las ciencias y la ingeniería consideramos que la
medición de una magnitud con un cierto error no significa que se haya cometido una
equivocación o que se haya realizado una mala medición. Con la indicación del error de
medición expresamos, en forma cuantitativa y lo más precisamente posible, las
limitaciones que nuestro proceso de medición introduce en la determinación de la
magnitud medida.
¡ES IMPRESCINDIBLE EN CIENCIAS E INGENIERIA ESPECIFICAR LOS ERRORES DE
MEDICION!
Variables discretas y continuas: La variable se representa mediante símbolos. Estas
pueden asumir cualquier valor dentro de un conjunto de valores prescrito denominado
dominio de la variable. Si la variable sólo puede asumir un valor, entonces se denomina
constante. Una variable que puede asumir cualquier valor entre los valores extremos del
dominio, se denomina variable continua, de lo contrario se llama variable discreta.
Química 1 - Medidas y unidades -
2
En general, las mediciones generan datos continuos mientras que los conteos
generan datos discretos.
La cantidad de alumnos presentes en un aula puede asumir valores de 0, 1,3, 4, 5, etc., y hasta su
máxima capacidad, pero no puede tener valores fraccionarios. En tanto que la cantidad de
sustancia contenida en un recipiente, puede tener valores fraccionarios limitados sólo por la
sensibilidad del instrumento empleado para medirla, así puede tomar valores tales como 1,1002
gr, 1,50 gr, etc.
Mediciones y medidas directas: Cuando la magnitud física a medir es cuantificable con
el propio instrumento de medición. Es decir cuando la lectura se hace en un instrumento
aplicado a medir la magnitud deseada.
Mediciones y medidas indirectas: Cuando para obtener el valor de magnitud física es
indispensable valerse de otros parámetros mensurables. Es decir, cuando se hace una
lectura o más en los instrumentos aplicados a medir cierta magnitud física y luego se
calcula la medida de la magnitud deseada.
Es imposible realizar un análisis físico o químico sin que los resultados estén totalmente
libres de errores. Sin embargo, es función de quien las realice minimizarlos y estimar su
magnitud con una exactitud aceptable. Cada medición está sujeta a muchas
imprecisiones (errores) que cuando se combinan producen una diversidad de resultados
alejados, en mayor o menor grado del valor verdadero. La presencia de éstas
imprecisiones o incertezas en las medidas originales traerá aparejadas incertezas en el
valor de la cantidad final, para ello en los cálculos deberemos propagar estas incertezas
para conocer el intervalo de la medida final.
Lo que se debe procurar en toda medición es conocer las cotas (o límites probabilísticos)
de estas incertezas. Gráficamente hablando, al realizar una medición se busca
establecer un intervalo x − ∆x ≤ x ≤ x + ∆x donde con cierta probabilidad, se puede
decir que se encuentra el mejor valor de la magnitud x. Este valor x es el más
representativo de nuestra medición y el intervalo Dx se lo denomina la incerteza o
error absoluto de la medición.
x−∆x
x
x −∆x
Figura 1.1: Intervalo asociado al resultado de una medición. Nótese que, en lugar de dar un único número, se
define un intervalo. Al valor representado en el centro del intervalo
x
se lo llama el mejor valor de la
medición, y el intervalo se denomina incertidumbre o error absoluto de la medición.
Química 1 - Medidas y unidades -
3
2. Precisión y Exactitud
Precisión
El término precisión se utiliza para describir la reproducibilidad de los resultados
obtenidos, esto es, la concordancia entre los valores numéricos de dos o más
mediciones repetidas que se han realizado exactamente de la misma forma. Dado un
valor fijo de una variable, la precisión es la medida del grado con el cual, mediciones
sucesivas difieren una de la otra.
En general, la precisión de un método analítico se obtiene con facilidad simplemente
repitiendo la medición y depende de la capacidad del instrumento de medición de dar el
mismo resultado en mediciones diferentes realizadas en las mismas condiciones. Para
describir la precisión de un conjunto de datos se usan principalmente tres parámetros:
desviación estándar, varianza y coeficiente de variación, términos que tienen una
significación estadística cuya definición y aplicación exceden el nivel de este curso.
Exactitud
La exactitud describe la veracidad de un resultado experimental. Estrictamente
hablando, el único tipo de medición totalmente exacta es el contar objetos. Todas
las demás mediciones contienen errores y dan sólo una aproximación de la realidad. La
exactitud es un término relativo ya que el hecho de que un método sea o no exacto
depende en gran medida de las necesidades de quien realice las mediciones o de la
dificultad del problema analítico.
El término exactitud indica la proximidad de una medida a su valor aceptado y se
expresa en términos de error absoluto o relativo.
Cabe destacar la diferencia fundamental que existe entre exactitud y precisión.
Exactitud supone una comparación con un valor verdadero o aceptado como tal,
mientras que la precisión indica la concordancia entre las medidas que han sido
realizadas de la misma manera. En otras palabras, exactitud implica la cercanía con la
cual la lectura de un instrumento de medida se aproxima al valor verdadero de la
variable medida. Implica precisión pero el recíproco no es verdadero (precisión no
implica exactitud) es decir, la precisión se relaciona con la concordancia de los
resultados experimentales entre sí mismos, sin relacionarse con el valor real Vreal (Ver
Figura 1.2)
La precisión de una medida se determina fácilmente repitiendo la medición en las
mismas condiciones. No puede decirse lo mismo para la exactitud ya que para ello se
requiere conocer el valor verdadero, es decir, la misma información que se desea
obtener.
Química 1 - Medidas y unidades -
4
FIGURA 1.2: Esta figura ilustra de modo esquemático los conceptos de precisión y exactitud. Los centros de
los círculos indican la posición del “valor verdadero” del mesurando y los puntos grises los valores de varias
determinaciones del centro. La dispersión de los puntos da una idea de la precisión, mientras que su centro
efectivo (centroide) está asociado a la exactitud. El primer esquema es una determinación exacta pero no
precisa (observe la dispersión de los puntos grises). El segundo esquema ilustra una determinación precisa
pero inexacta del mesurando. El primer esquema inferior por otro lado es una determinación inexacta e
imprecisa del mesurando en tanto que el segundo esquema muestra una medición exacta y precisa del
mesurando a determinar.
3. Teoría de errores
En todo proceso de medición existen limitaciones dadas por los instrumentos que se
utilizan, el método de medición y el observador (u observadores) que realizan la
medición. Asimismo el proceso de medición en sí introduce errores o incertezas,
particularmente como se mencionó anteriormente, cuando el instrumento de medición
interactúa de alguna manera con el objeto a medir.
Cuando usamos un termómetro para medir una temperatura, parte del calor del objeto fluye al
termómetro (o viceversa), de modo que el resultado de la medición es un valor aproximado al
verdadero valor de la temperatura del cuerpo debido a la inevitable interacción que existe entre el
cuerpo y el termómetro. Es claro que esta interacción podrá o no ser significativa: Si estamos
midiendo la temperatura de un metro cúbico de agua, la cantidad de calor transferida al
termómetro puede no ser significativa, pero si lo será si el volumen en cuestión es una pequeña
fracción del mililitro.
Tanto los instrumentos que usamos para medir, como las magnitudes mismas son
fuente de incertezas al momento de medir. Los instrumentos tienen una precisión finita,
por lo que, para un instrumento dado, siempre existe una variación mínima de la
magnitud que puede detectar. Esta mínima cantidad se denomina la apreciación
nominal del instrumento.
A su vez, las magnitudes a medir no están definidas con infinita precisión, a ésta
limitación intrínseca se denomina incerteza intrínseca (o falta de definición) de la
magnitud en cuestión.
La apreciación nominal de un de una regla graduada en milímetros no permite detectar
variaciones menores que una fracción de milímetro. Por otro lado, para entender el concepto de
incerteza intrínseca de una magnitud, imaginemos que queremos medir el largo de una mesa. Es
posible que al utilizar instrumentos cada vez más precisos empecemos a notar las irregularidades
típicas del corte de los bordes o, al ir aún más allá, finalmente detectemos la naturaleza molecular
o atómica del material que la constituye. Es claro que en ese punto la longitud dejará de estar bien
definida. En la práctica, es posible que mucho antes de estos casos límite, la falta de paralelismo
Química 1 - Medidas y unidades -
5
en sus bordes haga que el concepto de la “longitud de la mesa” comience a hacerse cada vez
menos definido.
Otra fuente de error que se origina en los instrumentos además de la precisión es la
exactitud de los mismos. Como vimos hasta aquí, la precisión de un instrumento o de un
método de medición está asociada a la sensibilidad o menos variación de la magnitud
que se puede detectar con dicho instrumento o método.
Un tornillo micrométrico (con una apreciación nominal de 10 mm) es más preciso que una regla
graduada en milímetros, o un cronómetro es más preciso que un reloj común, etc.
La exactitud de un instrumento o método de medición está asociada a la calidad de la
calibración del mismo. La exactitud es la medida de la calidad de la calibración de
nuestro instrumento respecto de patrones de medida o referencia aceptados
internacionalmente. En general los instrumentos vienen calibrados, pero dentro de
ciertos límites. Es deseable que la calibración de un instrumento sea tan buena como la
apreciación del mismo.
En resumen, como el resultado de toda medición siempre tiene cierto grado de
incertidumbre debido a las limitaciones de los instrumentos de medida, las condiciones
en que se realiza la medición, así como también, a las capacidades del experimentador,
para tener una idea correcta de la magnitud con la que se está trabajando, es
indispensable establecer los límites entre los cuales se encuentra el valor real de dicha
magnitud. La teoría de errores establece estos límites.
CLASES DE ERRORES
Existen varias formas de clasificar y expresar los errores de una medición. De acuerdo a
su fuente pueden ser clasificados de la siguiente manera:
1. Errores introducidos por el instrumento de medición
2. Errores introducido por la interacción método de medición – mesurando
3. Errores intrínsecos del mesurando
1. Errores introducidos por el instrumento de medición
Error de apreciación sap
Si el instrumento de medición está correctamente calibrado la incertidumbre que
tendremos al realizar una medición estará asociada a la mínima división de su
escala o a la mínima división que podemos resolver con algún método de
medición. Nótese que no decimos que el error de apreciación es la mínima
división de la escala del instrumento, sino la mínima división que es discernible
por el observador. La mínima cantidad que puede medirse con un instrumento
dado se denomina apreciación nominal. El error de apreciación puede ser mayor
o menor que la apreciación nominal, dependiendo de la habilidad (o falta de ella)
del observador.
Es posible que un observador entrenado pueda apreciar con una regla común fracciones
del milímetro mientras que otro observador, con la misma regla pero con dificultades de
visión sólo pueda apreciar 2 mm.
Error de exactitud sexac
Este error representa el error absoluto con el que el instrumento en cuestión ha
sido calibrado.
2. Error introducido por interacción método de medición - mesurando sint
Esta incerteza proviene de la interacción del método de medición con el objeto a medir.
Su determinación depende de la medición que se realiza y su valor se estima a partir de
un análisis riguroso del método utilizado.
Química 1 - Medidas y unidades -
6
3. Error intrínseco del mesurando sdef
Como se mencionó anteriormente, las magnitudes a medir no están definidas con una
precisión infinita, esta falta de definición del objeto sujeto a medición o incertidumbre
asociada con la falta de definición del objeto a medir representa su incertidumbre
intrínseca.
En general, para un experimento dado, todas las fuentes de incertidumbre estarán
presentes, de modo que resulta útil definir el error nominal de una medición, snom , como:
s2 nom = s2 ap + s2 def + s2 int + s2 exac
Este procedimiento de sumar los cuadrados de los errores es un resultado de la
estadística, y proviene de suponer que todas las distintas fuentes de error son
independientes unas de otras. Explicación que excede el nivel de este curso.
Según la característica de los fenómenos responsables de las incertidumbres de una
medición, los errores también pueden ser clasificados como:
1. Errores determinados o sistemáticos
2. Errores indeterminados o aleatorios
3. Errores evidentes o espúreos
1. Errores determinados o sistemáticos
Se caracterizan por ser constantes a lo largo de todo el proceso de medición si ésta se
realiza bajo condiciones iguales. Son errores cuyas causas están definidas y son, por lo
tanto, predecibles y reproducibles. Afectan a todas las mediciones de una manera
unidireccional en el sentido que todos los resultados de una serie de mediciones
repetidas bien poseen desviaciones positivas ó negativas, pero no positivas y negativas
simultáneamente.
Estos tipos de errores al tener un valor definido, una causa asignable y, para las
mediciones repetidas que se realizan exactamente de la misma manera, tienen el mismo
signo y magnitud pueden ser eliminados si se conoce su causa.
Los errores sistemáticos determinan la exactitud de una técnica de medición y se
pueden subclasificar en tres tipos:
Tipos de errores sistemáticos:
Errores instrumentales
Errores de método
Errores personales
Errores instrumentales: Todo instrumento de medición es potencial fuente de error, bien por
imperfecciones en su construcción, por el desgaste producto del uso continuo y, en el peor de los
casos , por el uso inadecuado y descuidado de éste. Los errores instrumentales serán constantes
en cuanto a su valor y signo (por defecto o exceso). Este mismo carácter les hace en gran parte
controlables pudiendo ser corregidos en mayor o menor grado. Solo pueden ser puestos de
manifiesto cambiando el observador o de instrumento de medida.
Los errores instrumentales sistemáticos se suelen detectar y corregir mediante la calibración con
materiales estándar adecuados. Siempre debe hacerse una calibración periódica de los
instrumentos ya que la respuesta de la mayoría de los instrumentos varía con el tiempo a
consecuencia del desgaste, la corrosión o del trato inadecuado.
La calibración eliminará la mayoría de los errores determinados de este tipo.
Algunas causas típicas de errores instrumentales son: derivas de los circuitos electrónicos, fugas
en los sistemas de vacío, efectos de la temperatura en los detectores, errores de calibración en los
medidores, balanzas y equipos volumétricos.
Química 1 - Medidas y unidades -
7
Errores de método: Se presentan comúnmente cuando se lleva a cabo la determinación de una
medida mediante un método que no es idóneo para tal fin. Entre este tipo de errores podemos
citar el comportamiento físico o químico no ideal de los fenómenos a observar, el tipo de
reacciones o reactivos que se utilizan en los análisis cuantitativos, la utilización de un instrumento
apto, pero inadecuado para la medida que se desea realizar.
Los errores inherentes en un método son frecuentemente difíciles de detectar y son por ello el tipo
más grave de errores determinados.
Errores personales: Los errores personales se introducen como consecuencia de las limitaciones
en los sentidos o factores psicológicos del observador. Debido a que, en este sentido, las
mediciones requieren el juicio del experimentador que las hace, pueden introducirse errores
imprevisibles o de carácter anárquico.
Cada observador tiene una forma característica de apreciar los fenómenos, y en particular, de
efectuar lecturas en las mediciones. Lo curioso que nos muestra la experiencia, es que cada
observador repite su modalidad en forma sistemática. De allí que se denomine a esta característica
ecuación personal e introducen errores unidireccionales en forma sistemática.
Entre los errores personales podemos citar los más frecuentes:
Errores de apreciación de la indicación: En muchas mediciones, el resultado se obtiene
por la observación de una aguja indicadora entre dos divisiones de una escala graduada,
originándose así errores de apreciación. Estos a su vez tienen dos causas diferentes que
pasamos a explicar:
Error de paralaje: Se origina en la falta de perpendicularidad entre la visual del
observador y la escala del instrumento de medición. Esta incertidumbre se puede reducir
colocándose el observador de forma tal que la visual que pasa por la punta de la aguja sea
normal al plano de la escala. Algunos aparatos llevan a tal efecto la escala sobre un
espejo, debiéndose hacer la lectura en la posición en que coincida la aguja y su imagen.
Así la perpendicularidad del rayo visual se logrará cuando el observador no vea la imagen
del mismo en el espejo.
Error del límite de resolución visual: El ojo humano normal puede discriminar entre dos
puntos separados a más de 0,1 mm, cuando se observa desde una distancia de 300 mm.
Por lo tanto, si dos puntos están separados a menos de esa distancia no podrá
distinguirlos.
La magnitud de este error es típicamente subjetiva, pues hay personas que tienen una
visión mejor o peor que la normal.
Una fuente casi universal de error personal es el prejuicio o predisposición. La mayoría de
los experimentadores, por muy objetivos que pretendan ser, tienen una propensión a
estimar las lecturas en un sentido que tiende a mejorar la precisión de una serie de
resultados, o a dar mayor crédito a los datos que se encuentran más cercanos a un valor
preconcebido como verdadero para la medida. Incluso, la predisposición numérica es otra
fuente común de error personal. Se tiende a preferir los números 0 y 5, frente a otros, al
estimar la posición de un indicador con respecto a una escala; igualmente frecuente es
prejuzgar a favor de cifras pequeñas frente a las grandes, e incluso números enteros
frente a decimales.
Finalmente, existe el error personal que resulta de cometer una gran equivocación, éstos
son originados debido a suposiciones teóricas incorrectas, errores de cálculo,
transposición de números al apuntar datos, lectura de una escala al revés, inversión de un
signo, o uso de una escala incorrecta, son ejemplos comunes. Estos errores pueden
afectar a un solo valor o a una serie completa de medidas. Generalmente, los errores de
este tipo pueden ser consecuencia de descuido y se pueden eliminar mediante la
autodisciplina.
Efecto de los errores determinados en los resultados de un análisis
Los errores determinados pueden clasificarse en constantes y proporcionales. La
magnitud de un error constante es independiente de las dimensiones de la cantidad
medida. Por el contrario, los errores proporcionales aumentan o disminuyen en
proporción al tamaño de la muestra tomada para el análisis.
Errores constantes: Para cualquier análisis, un error constante será más importante
cuando disminuya la magnitud de la cantidad medida. Una forma de minimizar el efecto
del error constante en utilizar una muestra tan grande como lo permita el método en
cuestión.
Química 1 - Medidas y unidades -
8
Errores proporcionales: El efecto de los contaminantes que interfieren en una muestra,
si no se eliminan de alguna manera, causará un error proporcional. Estas
contaminaciones pueden causar interferencias en los métodos de determinación
mediados por reacciones y los resultados serán incorrectos. La magnitud de este tipo de
errores vendrá determinado por la fracción de contaminante y producirá el mismo error
relativo, independientemente del tamaño de la muestra.
Detección y eliminación de errores determinados instrumentales y personales
Los errores instrumentales normalmente se detectan y corrigen mediante la calibración.
La respuesta de la mayoría de los instrumentos sufrirá variaciones con el tiempo debido
al uso, la corrosión o a los malos tratos. Por tanto, siempre es aconsejable calibrar
periódicamente los instrumentos.
Los errores personales pueden ser minimizados trabajando con cuidado y autodisciplina.
Por ello, los científicos practican la costumbre de comprobar sistemáticamente las
lecturas de los instrumentos, las anotaciones en el diario de laboratorio y los cálculos.
Los errores que resultan de alguna deficiencia física se evitan normalmente con una
adecuada elección del método – en el supuesto de que se conozca la deficiencia.
Detección de errores determinados del método
Los errores determinados del método son particularmente difíciles de detectar. La
identificación y compensación de tales errores puede conseguirse por uno o más de los
siguientes sistemas:
Análisis de muestras patrón: Los errores determinados de método pueden comprobarse
mediante el análisis de una muestra sintética cuya composición se conoce y es muy parecida a la
del material para el que se ensaya el análisis. Este tipo de muestras deben prepararse
cuidadosamente para asegurar que la concentración del analito se conoce con un alto grado de
certeza.
Análisis independiente: Cuando no se dispone de muestras de composición conocida, es
importante realizar un análisis paralelo de la muestra con un método distinto y de fiabilidad
garantizada. En general, el método independiente no debería parecerse al que se investiga para
evitar la posibilidad de que algún factor común de la muestra tenga efectos semejantes en ambos
métodos.
Determinaciones en blanco: Es posible detectar los errores constantes que afectan a las medidas
físicas mediante una determinación en blanco, en la que todas las etapas del análisis se llevan a
cabo en ausencia de la muestra. El resultado obtenido se utiliza para corregir la medida
correspondiente a la muestra. Las determinaciones en blanco son particularmente útiles para
descubrir los errores debidos a la introducción de contaminantes que interfieren procedentes de
reactivos, y de recipientes utilizados en el método. Los blancos también permiten al analista
corregir los datos de la valoración respecto al volumen de reactivo necesario para originar el
cambio del color del indicador en el punto final.
Variación del tamaño de la muestra: El hecho de que un error constante disminuya al aumentar
la magnitud que se mide, puede utilizarse para detectar tales errores en un método analítico. Se
llevan a cabo una serie de análisis en los que se varía lo más ampliamente posible el tamaño de la
muestra. La observación de los resultados permitirá correlacionar aumentos o disminuciones
sistemáticas con el tamaño de la muestra.
2. Errores Indeterminados o aleatorios
Se caracterizan por ser de carácter variable, es decir que al repetir un experimento en
condiciones idénticas, los resultados obtenidos no son iguales en todos los casos. Las
diferencias en los resultados de las mediciones no siguen ningún patrón definido y son
producto de la acción conjunta de una serie de factores que no siempre están
identificados. Este tipo de error se trabaja estadísticamente. El error aleatorio se puede
minimizar aumentando el número de mediciones.
En otras palabras, la presencia de un error indeterminado se manifiesta por la
fluctuación aleatoria de los resultados que se obtiene al repetir varias veces el análisis.
Química 1 - Medidas y unidades -
9
Como su nombre lo indica, las causas específicas de este tipo de error se desconocen
dado que no tiene un único origen, sino que proceden de la acumulación de
incertidumbres individuales demasiado pequeñas para detectarse.
Las variaciones entre los resultados pueden explicarse suponiendo que cualquier
proceso de medida se ve afectado por numerosas y pequeñas incertidumbre del método,
instrumentales y personales, las cuales no es posible detectar individualmente y se
deben a variables experimentales incontroladas. El efecto acumulativo de tales
incertidumbres es igualmente variable. Normalmente tienden a contrarrestarse unas con
otras y por ello resulta un efecto mínimo. Sin embargo, es posible que en alguna ocasión
coincidan en el mismo sentido para producir un error positivo o negativo relativamente
grande.
Las fuentes de incertidumbre en la calibración de una pipeta pueden consistir en la apreciación
visual del nivel del líquido con respecto a la marca grabada en la pipeta (menisco), el nivel de
mercurio en el termómetro y la posición del cursor indicador en la escala de la balanza (todas
incertidumbres personales). Otras fuentes incluyen variaciones en el tiempo de vertido, el ángulo
de la pipeta en la posición de vertido (ambos, errores de método), y los cambios de temperatura
debidos al manejo de la pipeta (error instrumental)
Sin duda, existen además otras muchas causas de incertidumbre que se pueden añadir a las ya
citadas. Es evidente que muchas variables pequeñas e incontroladas acompañan incluso a un
proceso tan simple como la calibración de una pipeta. Aunque no es posible detectar la influencia
de ninguna de estas incertidumbres, su efecto acumulado es un error indeterminado, que es el
responsable de la dispersión de los resultados alrededor de la media.
3. Errores evidentes
Existe un tercer tipo de error que se encuentra en ciertas ocasiones, y son los errores
evidentes, los cuales surgen en la mayoría de los casos por falta de cuidado, ineptitud,
indolencia o mala suerte del experimentador. Algunas causas típicas de estos errores
son: transposiciones de números al escribir los datos, pérdida de muestra, utilización de
la escala equivocada del instrumento, introducción accidental de contaminantes y
cambios de signo al leer los instrumentos. Un error evidente de un conjunto de medidas
repetidas aparecerá como un resultado aberrante – un dato que es muy diferente del
resto del conjunto.
PARAMETROS PARA DEFINIR EXACTITUD Y PRECISIÓN
1. Exactitud
El error total es igual a la suma de estos tres tipos de errores. Aun cuando el error total
se puede minimizar, es imposible eliminarlo del todo debido a que el error nominal está
siempre presente. Por lo tanto, el error total no tiende a cero sino a cierto valor
constante.
Cuando la medición se realiza una sola vez el error está dado por:
∆x = ∆ nominal + ∆ sistemático
Cuando la medición se realiza varias veces, el error total está dado por:
∆x = ∆ nominal + ∆ sistemático + ∆ aleatorio
Además de los mencionados existen otros tipos de errores tales como los errores
estáticos y los errores dinámicos.
Los errores estáticos se originan debido a las limitaciones de los instrumentos de
medición o por las leyes físicas que gobiernan su comportamiento.
En un micrómetro se introduce un error estático cuando al eje se aplica una fuerza excesiva.
Química 1 - Medidas y unidades -
10
Los errores dinámicos se originan debido a que el instrumento de medición no responde
lo suficientemente rápido para seguir los cambios de la variable medida. Para cualquier
tipo adicional de error se puede clasificar en uno de los grupos mencionados.
1.1. Error absoluto
El error absoluto Ea de una medida es la diferencia entre el valor observado
experimentalmente xi y el valor verdadero o aceptado como verdadero xr
E a = xi − x r
En contraste con la precisión donde el único interés es una diferencia numérica, el signo
asociado con el error es tan importante como el mismo valor numérico, porque el
experimentador necesita conocer si el efecto del error ha provocado un aumento o
disminución del resultado (o resultados)
El valor aceptado puede estar sujeto a un error apreciable; consecuentemente suele ser
difícil establecer una estimación real de la exactitud de una medida.
En tanto que el error absoluto Ea de la media (o promedio) de un pequeño conjunto de
análisis repetidos viene dado por la relación:
E a = x − xr
Donde x es el valor promedio de las mediciones realizadas y x r es el valor aceptado
como verdadero de la cantidad que se mide.
Al realizar varias mediciones de una misma magnitud todas ellas difieren en su valor, sin
embargo oscilan en torno a un valor medio x que es el valor más probable de una
medida variable.
Este valor se expresa:
Donde:
x
es la media aritmética o promedio
mediciones experimentales
número de mediciones
Media aritmética y promedio son términos sinónimos para el valor numérico que se obtiene
dividiendo la suma de una serie de medidas repetidas por el número de los resultados individuales
en la serie.
Aun cuando las mediciones se realizaron con el mismo instrumento cada medición
experimental x i tiene su error ∆x i con respecto a x.
Si definimos ∆x como el máximo error posible entre todos los valores ∆x i , entonces la
forma correcta de escribir el valor de la magnitud física medida es:
Definimos ∆x como:
Donde:
mayor lectura
menor lectura
Química 1 - Medidas y unidades -
11
La forma de expresar ∆x en la expresión
sus unidades son las del promedio.
Química 1 - Medidas y unidades -
, se conoce como error absoluto y
12
1.2. Error relativo y error relativo porcentual
A menudo es útil expresar la exactitud en términos de error relativo. Para ello cuando Dx
se divide por la media aritmética o el valor aceptado como el valor verdadero, entonces
la cantidad que denominamos error relativo se expresa como:
Er =
∆x
x
Por otro lado el error relativo porcentual se expresa como:
Er % =
∆x
.100 %
x
Obsérvese que tanto el error absoluto como el relativo tienen signo pero no tienen unidades; si el
signo es positivo indica que el resultado medido es mayor que el valor aceptado como verdadero y
si es negativo, lo contrario.
Cálculo del error en la adición y sustracción de datos experimentales
Sean a y b magnitudes experimentalmente obtenidas con sus errores respectivos:
y c la magnitud a determinar a partir de ellas. Entonces, si
el error absoluto de c estará dado por:
El error absoluto de la suma o de la diferencia de magnitudes experimentalmente
obtenidas, es igual a la suma de los errores absolutos de esas magnitudes. Cabe
destacar que en el caso de la diferencia si restásemos los errores, eventualmente
obtendríamos un error nulo, lo cual está descartado por lo cual consideramos la peor
situación, es decir sumamos los errores.
Cálculo del error en el producto y cociente de datos experimentales
Sean a y b magnitudes experimentalmente obtenidas con sus errores respectivos:
y c la magnitud a determinar a partir de ellas. Entonces, si
ó
el error relativo de c está dado por:
El error relativo del producto o el cociente de magnitudes experimentalmente obtenidas,
es igual a la suma de los errores relativos de cada una de esas magnitudes.
Química 1 - Medidas y unidades -
13
2. Precisión
Un método común para expresar la precisión de una serie de mediciones realizadas en
las mismas condiciones es la desviación de cada medida respecto a la media ( x i − x )
Consiste simplemente, en la diferencia numérica, sin tener en cuenta el signo, entre el
valor experimental y la media de la serie de valores medidos.
La desviación estándar y la varianza son otras medidas de precisión más significativas.
Frecuentemente es más conveniente indicar la desviación relativa respecto a la media en
términos de tanto por ciento.
2.1. Desviación respecto de la media
La desviación es el alejamiento de una lectura dada de la media aritmética del grupo de
lecturas. Si d 1 es la desviación de la primera lectura x 1 y d 2 es para la segunda lectura x 2
entonces la desviación de la media se puede expresar como:
Donde:
x
es la media aritmética o promedio
mediciones experimentales
Tenga presente que el valor de las desviaciones de la media pueden tener valores
tanto positivos como negativos y que la suma algebraica de todas las desviaciones
debe ser cero.
2.2. Desviación promedio
La desviación promedio es una indicación de la precisión de los instrumentos empleados
al realizar las mediciones. Por regla general, los Instrumentos altamente precisos darán
una desviación promedio baja. Por definición la desviación promedio es la suma de los
valores absolutos de las desviaciones dividida por el número de lecturas.
2.3. Desviación estándar
Por definición la desviación estándar de un número finito de datos está dada por:
Química 1 - Medidas y unidades -
14
4. Cifras significativas
Debido a que los valores obtenidos mediante una medición nunca son cifras exactas
(siempre poseen algún grado de incertidumbre) como consecuencia de las limitaciones o
rango de error que posee el instrumento de medición y obviamente la habilidad de quien
efectúa tal medición; se debe procurar que, al registrar datos experimentales, éstos no
digan más de lo que pueden decir según las condiciones en que las mediciones fueron
realizadas. Es decir, que los valores numéricos expresen de alguna manera la
confiabilidad o precisión. Por ello se debe poner cuidado en el número de cifras con que
se expresa el resultado de una medida con el propósito de incluir sólo aquellas que
tienen algún significado experimental. Tales cifras reciben el nombre de cifras
significativas.
Una cifra es significativa cuando se conoce con una precisión aceptable.
Así, cuando se mide con un termómetro que aprecia hasta 0,1 °C no tiene ningún sentido que se
escriban resultados del tipo 26,25 °C o 32,185 °C, por ejemplo.
Todas las cifras que figuran en un resultado deben ser significativas. Este mismo criterio
general debe respetarse cuando se opera con datos experimentales; es una cuestión de
sentido común que por el simple hecho de operar con los números no es posible
mejorar la precisión de los resultados si éstos tienen una base experimental. Cuando un
resultado se escribe de modo que todas sus cifras sean significativas proporciona por sí
mismo información sobre la precisión de la medida.
Cabe destacar que los valores numéricos que se obtienen al realizar conteos son cifras
exactas. Los números exactos no tienen incertidumbre y por lo tanto tienen un número
infinito de cifras significativas.
REGLAS PARA DETERMINAR LAS CIFRAS SIGNIFICATIVAS EN UNA MEDICION
Para cualquier medición, todos los números distintos del cero son significativos. No
obstante, los ceros pueden ser cifras significativas o no dependiendo de su posición en
el número.
El cero no sólo actúa como un número, sino que también sirve para localizar la coma (o
punto) decimal en números muy grandes o muy pequeños. Está claro que se debe
distinguir entre los ceros que tienen significado físico (esto es, ceros que son cifras
significativas) de aquellos que son desconocidos o que carecen de sentido debido a las
limitaciones de la medida.
El cero ES SIGNIFICATIVO cuando está:
1. Entre dígitos distinto de cero:
306 tiene tres cifras significativas (3, 0 y 6)
3,06 tiene tres cifras significativas (3, 0 y 6)
21,08 tiene cuatro cifras significativas (2, 1, 0 y 8)
2. Al final de un número que incluye un punto decimal:
0,800 tiene tres cifras significativas (8, 0 y 0)
35,280 tiene cinco cifras significativas (3, 5, 2, 8 y 0)
2,00 tiene tres cifras significativas (2, 0 y 0)
30, tiene dos cifras significativas (3 y 0)
El cero NO ES SIGNIFICATIVO cuando está:
1. Antes del primer dígito no cero. Estos ceros se utilizan para fijar el punto decimal:
0,0035 tiene dos cifras significativas (2 y 5)
0,0450 tiene tres cifras significativas (4,5 y 0)
1000 es una medición ambigua
590 es una medición ambigua
Química 1 - Medidas y unidades -
15
Los dos últimos valores si han sido obtenidos mediante conteo podemos decir que
poseen infinita cantidad de cifras significativas, en tanto que si los mismos fueron
obtenidos mediante una medición, el valor de los ceros en cada caso es ambiguo porque
en ninguno de los casos sabemos si los ceros se utilizan para ubicar el punto decimal o
si representan realmente cifras significativas. Para eliminar esta ambiguedad, la regla
general es que los ceros finales de un dato entero (sin punto decimal) no son
significativos; si se desea expresar que son significativos, se convierte el dato en real
añadiendo un punto decimal o se expresa en notación de mantisa indicando la cantidad
de cifras consideradas como significativas y potencia de diez (notación científica,
procedimiento que se explica en detalle en la próxima sección)
Ejemplo:
El número 5.000 expresado de esta forma, no se puede estar nunca seguro de si 5.000 significa
5.000 ± 1 (en cuyo caso serían cuatro cifras significativa), 5.000 ± 10 (tres cifras significativas),
5.000 ± 100 (dos cifras significativas) o 5.000 ± 1000 (una cifra significativa). La mejor manera de
resolver la ambigüedad que se puede presentar en estos casos es expresar los números utilizando
notación científica.
PROPAGACION
DE
IMPRECISIONES: Operaciones
experimentales considerando cifras significativas
aritméticas
con
datos
Los errores o las imprecisiones de un dato se propagan a todos los datos que se generan
a partir de él. Es posible calcular con bastante rigor el error asociado a un resultado de
una operación aritmética que involucra una colección de datos de los que se conoce su
error, para hacerlo se utilizan las expresiones que derivan del cálculo diferencial, que si
bien son de sencilla aplicación, resultan bastante tediosas y exceden los conocimientos
de este curso.
Debe recordarse siempre que los resultados de un cálculo cuyos datos han sido
obtenidos mediante mediciones no pueden tener mayor precisión que la medición
menos precisa.
En los casos en los que el objetivo del análisis de propagación de errores no sea
determinar rigurosamente la imprecisión final del resultado, sino, simplemente, estimar
dicha precisión, es suficiente con un análisis del número de cifras significativas del
resultado utilizando las siguientes reglas aproximadas:
Operaciones intermedias
No perder cifras significativas en las operaciones intermedias. Esto se asegura si todas
las operaciones intermedias se hacen con una o dos cifras más de las realmente
significativas.
Producto y cociente:
El número de cifras significativas del resultado debe contener igual número de cifras
significativas que las que tenga el dato con menor número de cifras significativas:
2,62 / 8,14732116 = 0,322
2,62 posee tres cifras significativas
8,14732116 posee nueve cifras significativas, por lo tanto el resultado de la operación debe
expresarse con tres cifras significativas.
Adición y sustracción:
Los resultados de una adición o sustracción se deben expresar con la misma precisión
que la medición menos precisa. Esto significa que la última cifra significativa del
resultado es la del sumando que tenga menor cantidad de cifras decimales (o dicho de
otra manera, tenga su última cifra significativa más a la izquierda):
2212,342 + 5,6 = 2217,9
Química 1 - Medidas y unidades -
16
REDONDEO Y CIFRAS SIGNIFICATIVAS
Al realizar operaciones aritméticas con datos obtenidos mediante mediciones con
frecuencia obtenemos números que poseen más dígitos de los que se justifican utilizar.
Cuando se deben eliminar (truncar) dígitos de un número se determina el valor del
último dígito retenido mediante un proceso conocido como redondeo de cifras.
Reglas:
1. Cuando el primer dígito e eliminar es 4 o menor, se eliminan ese dígito y los
restantes a su derecha. El último dígito retenido no cambia.
Redondear 2,62589 a 2 cifras significativas resulta en 2,6
2. Cuando el primer dígito después de los que se desea retener es 5 o mayor, se
eliminan ese dígito y los restantes a su derecha, y el dígito precedente retenido
se incrementa en una unidad con las siguientes consideraciones:
Redondear 2,03636 a 3 cifras significativas resulta en 2,04
Redondear 14,03500 a 4 cifras significativas resulta en 14,04
3. Si el primer dígito a truncar es cinco y hay dígitos diferentes de cero después del
cinco, incrementa el dígito precedente en 1.
Redondear 1,61562 a 3 cifras significativas resulta en 1,62
Redondear 1,6250003 a 3 cifras significativas resulta en 1,63
4. Si el primer dígito a truncar es cinco y hay únicamente ceros después de cinco,
redondee al número par.
Redondear 1,655000 a 3 cifras significativas resulta en 1,66
Redondear 1,6225000 a 3 cifras significativas resulta en 1,62
Química 1 - Medidas y unidades -
17
5. Notación científica
La notación científica es un formato que se utiliza para escribir números muy grandes o
pequeños de tal forma que puedan manejarse con facilidad. La notación exponencial es
basada en usar potencia teniendo como base el 10. La ecuación general es la siguiente:
A x 10 a
Donde:
A = número mayor que la unidad y menos que 10
a = exponente de la base 10
Ventajas:
1. Para operar con números grandes o números pequeños se pueden escribir
usando notación exponencial en una forma más manejable para facilitar los
cálculos
2. También los números expresados en notación exponencial pueden ser usados
con mayor facilidad en las computadoras y calculadoras.
Números mayores que 10
1. Primero localizamos el punto decimal para mover este punto a la derecha o
izquierda hasta lograr que esté a la izquierda un solo dígito diferente de cero.
2. Este dígito diferente de cero colocado a la izquierda del punto decimal origina la
expresión estándar de la notación científica.
3. Cuente el número de lugares que desplazó el punto decimal para satisfacer el
paso 1.
4. El número de espacios que desplazó el punto decimal hasta la izquierda antes
del primer dígito es lo que determina el valor del exponente de la base 10. En
otras palabras, la potencia de 10 es igual al número de lugares que se ha
desplazado el punto decimal, al moverse el punto decimal a la izquierda, la
potencia de 10 es un número positivo.
Números menores 1
1. Primero localizamos el punto decimal a la derecha del primer dígito distinto de
cero moviéndonos desde la izquierda.
2. Este dígito diferente de cero colocado a la izquierda del punto decimal origina la
expresión estándar de la notación científica.
3. Cuente el número de lugares que desplazó el punto decimal para satisfacer el
paso 1.
4. El número de espacios que desplazó el punto decimal hasta el punto decimal es
lo que determina el valor del exponente de la base 10. En otras palabras, la
potencia de 10 es igual al número de lugares que se ha desplazado el punto
decimal, al moverse el punto decimal a la derecha, la potencia de 10 es un
número negativo.
Ejemplos:
Expresar en notación científica el siguiente número: 4142618
1. Posicione el punto decimal hasta que deje una sola cifra entera a la izquierda
del punto decimal: 4,142618
2. Cuente el número de dígitos por encima del cual se corrió el punto decimal
hacia la izquierda y ese será el valor positivo del exponente de la base 10:
10 6
3. El número resultante en notación científica será: 4,142618 x 10 6
Química 1 - Medidas y unidades -
18
Expresar en notación científica el siguiente número: 0,00087
1. Posicione el punto decimal hasta que deje una sola cifra entera a la izquierda del
punto decimal: 00008,7
2. Cuente el número de dígitos por encima del cual se corrió el punto decimal hacia
la derecha y ese será el valor negativo del exponente de la base 10: 10 - 4
3. El número resultante en notación científica resultará: 8,7 x 10 - 4
Cuando se mueve el punto decimal en el coeficiente una posición a la izquierda,
tiene que añadir uno al exponente.
Ejemplos:
42 x 10 6 = 4,2 x 10 7
4200 x 10 6 = 4,200 x 10 9
42 x 10 - 6 = 4,2 x 10 - 5
Cuando se mueve el punto decimal en el coeficiente una posición a la derecha,
tiene que restar uno al exponente.
Ejemplos:
0,42 x 10 6 = 4,2 x 10 5
0,000043 x 10 6 = 4,3 x 10 1
0,42 x 10 - 6 = 4,2 x 10 - 7
Operaciones aritméticas en notación científica
1. Cuando se realizan adiciones o sustracciones de números en notación
científica, se necesita igualar los exponentes de ambas cantidades y luego sumar
los coeficientes de forma tal que ambas cantidades estén con los mismos
exponentes.
2. En operaciones de producto y cociente con notación científica se deben seguir
las reglas de los exponentes:
Cuando se multiplican dos números se multiplican los coeficientes y se suman los
exponentes
Cuando se divide dos números, se dividen los coeficientes y se restan los
exponentes.
Ejemplos:
Adición:
4,2 x 10 6 + 6,4 x 10 5 = 4,2 x 10 6 + 0,64 x 10 6 = (4,2 + 0,64) x 10 6
Sustracción:
4,2 x 10 - 6 - 6,4 x 10 - 5 = 0,42 x 10 - 5 - 6,4 x 10 - 5 = (0,42- 6,4) x 10 - 5 = - 2,2 x 10 - 5
Producto:
4,3 x 10 6 . 2,0 x 10 2 = (4,3 . 2,0) x 10 (6+2) = 8,6 x 10 8
4,3 x 10 6 . 2,0 x 10 - 2 = (4,3 . 2,0) x 10 (6+(- 2)) = 8,6 x 10 4
Cociente:
4,2 x 10 6 / 2,0 x 10 2 = (4,2 / 2,0) x (10 6 :10 2 ) = 2,1 x 10 (6- 2) = 2,1 x 10 4
4,2 x 10 - 6 / 2,0 x 10 - 2 = (4,2 / 2,0) x (10 - 6 : 10 - 2 ) = 2,1 x 10 (- 6- (- 2)) = 2,1 x 10 - 4
Química 1 - Medidas y unidades -
19
6. Sistema Métrico Decimal – Sistema Internacional de Unidades
Antecedentes históricos
En los tiempos medievales la diversidad e incoherencia de los sistemas de medición existentes era
tan abrumadora que cada país, incluso cada región, tenía su propio sistema de pesos y medidas. A
medida que las naciones europeas se convertían en países unificados, la existencia de un
sinnúmero de sistemas de medición arbitrarios era una de las causas más frecuentes de disputas
entre mercaderes, ciudadanos y funcionarios del fisco. La longitud, por ejemplo, podía ser medida
en pies, pulgadas, palmos, codos, manos, varas, cadenas, leguas, etc. La falta de una norma
común estándar constituía el principal conflicto en los intercambios e integridad en las
operaciones comerciales entre las regiones.
Con el surgimiento de la República, como resultado de la Revolución Francesa en 1789, se impuso
la necesidad de solucionar la diversidad y disparidad de los sistemas de medición existentes; por
uno de carácter único, uniforme, abstracto, decimal y de aplicación universal; consecuentemente
acorde con el avance intelectual y la capacidad de abstracción alcanzado por la sociedad.
El debate se centró en lo que se refería a la medida de longitud, a fin de desvincularla de
referencias antropológicas concretas, pero ciertamente indeterminadas, como lo era el tamaño del
pulgar que mide, o del pie del rey de turno que se oficializaba mediante la construcción de una
pieza de metal patrón, pero este patrón cambiaba tras las sucesiones del rey.
Las dos unidades de mayor importancia a definir para las necesidades prácticas cotidianas de
aquel momento eran las de longitud y peso.
En 1790, la Asamblea Nacional Francesa encomendó a la Academia de Ciencias diseñar un sistema
de unidades de medición más adecuado y simple. Después de muchas deliberaciones, prefijaron
para la definición de un sistema de medidas universal basarse en las propiedades de objetos de la
naturaleza, concretamente, el tamaño de la Tierra, y el peso del agua, y en relaciones sencillas
entre una unidad y la otra.
Finalmente la Comisión de la Academia de Ciencias propone como longitud de referencia la cuarta
parte del meridiano terrestre, y su unidad fundamental, el METRO, a la diezmillonésima parte de
esta longitud.
A fin de determinar esta unidad con la mayor precisión posible, enviaron varios equipos de
expertos para medir la longitud de un arco de meridiano terrestre tan largo como fuera posible.
Para ello se decidió medir la longitud del meridiano que va desde la torre del fuerte en Montjuic
(Barcelona) a Dunquerque (Francia), ya que éste era el segmento terrestre más largo casi
totalmente dentro de territorio francés. Es destacable mencionar que durante el proceso de
medición, el cual llevó seis años, hubo hostilidades bélicas entre Francia y España, pero el
desarrollo del nuevo sistema de medidas se consideró de tal importancia que el grupo de
medición francés fue escoltado por tropas españolas dentro de territorio español a fin de asegurar
la continuidad de la medición.
Establecida la unidad de longitud y por ende la de volumen, se pudo definir la de la fuerza, el
gramo, como la milésima parte del kilogramo que correspondió a la fuerza que ejerce la gravedad
sobre la masa del volumen de 1 dm 3 de agua destilada a su máxima densidad (4° C, a nivel del
mar y a una latitud determinada)
El proceso culminó en la proclamación el 22 de junio de 1799 del Sistema Métrico con la entrega a
los Archivos de la República de los patrones del metro y el kilogramo confeccionados en aleación
de platino e iridio.
Posteriores mejoras en la medición tanto del tamaño de la Tierra como también de las
propiedades del agua resultaron en discrepancias con los patrones. La Revolución Industrial ya
estaba en camino y la normalización de las piezas mecánicas, fundamentalmente tornillos y
tuercas, era la mayor importancia y estos dependían de mediciones precisas. Cambiar los patrones
de medida para ajustarse a las nuevas mediciones hubiera sido impráctico, particularmente
porque a medida que los instrumentos fueron mejorando acabarían encontrando nuevos valores
cada vez más precisos. Por ello se decidió romper con la relación que existía entre los patrones y
sus fuentes naturales de tal forma que los patrones en sí se convirtieron en la base del sistema y
permanecieron como tales hasta 1960 cuando se redefinió el metro en funciones de propiedades
físicas y posteriormente en 1983, cuando se redefinió como el espacio que recorre la luz en una
cierta fracción de segundo. De esta forma, el metro recobró su relación con un fenómeno natural,
Química 1 - Medidas y unidades -
20
esta vez realmente inmutable y universal. El kilogramo, sin embargo, permanece formalmente
definido sobre la base del patrón que ya tiene dos siglos de antigüedad.
El Sistema Métrico Decimal (MKSA, metro, kilogramo masa, segundo, ampere) se adoptó
internacionalmente en la 1° Conferencia General de Pesos y Medidas de 1889.
Uno de los problemas del Sistema Métrico Decimal, a pesar de su aparente claridad y seguridades
iniciales, eran las definiciones de masa y fuerza. Lo que en un principio era unidad de fuerza pasó
paulatinamente a considerarse como unidad de masa.
El peso es la fuerza que ejerce la gravedad sobre una masa y ambas magnitudes son
proporcionales entre sí, pero no iguales, pues están vinculadas por el factor aceleración de la
gravedad, como veremos más adelante.
Sistema Internacional de Unidades (SI)
La 11° Conferencia General de Pesas y Medidas (CGPM), en sus sesiones de 1960
celebradas en París, estableció definitivamente el Sistema Internacional de Medidas (SI),
basado en 6 unidades fundamentales - metro, kilogramo, segundo, ampere, Kelvin,
candela- , perfeccionado y completado posteriormente, agregándose en 1971 la séptima
unidad fundamental, el mol, que cuantifica la cantidad de materia.
El Sistema Internacional de Medidas está dividido en dos clases de unidades:
1. Unidades fundamentales
2. Unidades derivadas
Desde el punto de vista científico, la división de unidades en estas dos clases es en
cierta forma arbitraria, pero la CGPM, considerando las ventajas de implementar un
sistema de unidades simple, práctico, de uso mundial para las relaciones
internacionales, la enseñanza y el trabajo científico, decidió basar el SI en la elección de
siete unidades bien definidas, las cuales por definición son referidas como unidades
dimensionalmente independientes: el metro, el kilogramo, el segundo, el ampere, el
kelvin, el mol y la candela. Estas unidades del SI son las unidades base o
fundamentales.
El segundo tipo de unidades del SI son las unidades derivadas. Estas unidades se
obtienen mediante operaciones matemáticas de las unidades fundamentales de acuerdo
a las relaciones algebraicas que relacionan las unidades fundamentales asociadas. Los
nombre y símbolos de algunas de las unidades derivadas a partir de las fundamentales
pueden ser reemplazadas por nombres especiales y diferentes símbolos como veremos
más adelante.
Las unidades SI forman un conjunto de unidades coherentes, donde el término
coherente significa que el sistema esta formado por unidades que están mutuamente
relacionadas por reglas de multiplicación y división relacionadas entre sí por un factor
numérico igual a 1.
Es importante destacar que cada magnitud física tiene únicamente una unidad SI,
aunque cada una de ellas puede ser expresada de diferentes formas. Sin embargo, lo
inverso no es verdadero, en algunos casos la misma unidad SI puede ser utilizada para
expresar los valores de diferentes magnitudes físicas.
Química 1 - Medidas y unidades -
21
Unidades Fundamentales del Sistema Internacional (SI)
Unidad de longitud: METRO
La definición de 1889 del metro, la cual se basaba en el prototipo de platino- iridio, fue
reemplazada en la 11° CGPM puesto que la definición de un patrón en términos de una
única pieza de metal no era satisfactoria, ya que su estabilidad no podía garantizarse a
lo largo de los años por mucho cuidado que se tuviese en su conservación. Debido al
avance de la ciencia el que permitió la identificación de las líneas espectrales de los
átomos, y considerando que la velocidad de la luz en el vacío es constante, midiendo la
frecuencia y la longitud de onda de alguna radiación de alta frecuencia se redefinió la
unidad de metro utilizando una definición basada en una longitud de onda de la
radiación del kriptón- 86. Se adoptó esta definición con el objetivo de mejorar la
precisión con la cual puede definirse el metro. Asimismo, fue nuevamente redefinida en
la 17° CGPM de 1983:
El metro (m) es la longitud del trayecto recorrido por la luz en el vacío durante un
intervalo de tiempo equivalente a 1/ 299.792.458 segundo.
Es de destacar que esta definición fija la velocidad de la luz en el valor de 299.792.458
m/s
Unidad de masa: KILOGRAMO
El prototipo internacional del kilogramo, construido en aleación de platino- iridio, se
encuentra actualmente en la Oficina Internacional de Pesos y Medidas (Sèvres, Francia),
bajo las condiciones especificadas en la 1° CGPM de 1889. Este prototipo es aún
considerado como la unidad de masa:
El kilogramo (kg) es la unidad de masa, la cual es igual a la masa del prototipo
internacional de kilogramo.
Unidad de tiempo: SEGUNDO
La unidad de tiempo, el segundo, una vez fue considerada como la 1/86400 parte del
día solar promedio, definición basada en teorías astronómicas. Sin embargo
posteriormente las mediciones han mostrado que las irregularidades presentes en la
rotación de la Tierra no eran tenidas en cuenta por la teoría y que el efecto es que esta
definición no permitía la precisión requerida para ser utilizada como unidad de medida.
En 1960, en común acuerdo con la International Astronomical Union, la CGPM adoptó la
utilización de la definición del segundo basándose en el año tropical. Sin embargo, los
trabajos experimentales posteriormente mostraron que los estándares atómicos de
intervalos de tiempo, basados en la transición entre dos niveles de energía de un átomo
o molécula, podrían ser utilizados y reproducidos en forma mucho más precisa.
Considerando la necesidad de utilizar una definición precisa para la unidad de tiempo,
en 1968 la definición de segundo fue reemplazada:
El segundo (s) es la duración de 9.192.631.770 periodos de la radiación
correspondiente a la transición entre dos niveles hiperfinos del estado basal del
átomo de cesio 133 a una temperatura de 0 K.
Unidad de intensidad de corriente eléctrica: AMPERE
El ampere (A) es la intensidad de una corriente constante que manteniéndose en dos
conductores paralelos, rectilíneos, de longitud infinita, de sección circular
despreciable y distanciados a una distancia de un metro entre sí en el vacío, produce
una fuerza igual a 2 x 10 - 7 N/m
Química 1 - Medidas y unidades -
22
Unidad de temperatura termodinámica: KELVIN
La definición de unidad termodinámica de temperatura para una sustancia dada fue
elegida durante la 10° CGPM en 1954, seleccionándose el punto triple del agua como
punto de referencia asignándole el valor de 273,16 K
El kelvin (K), unidad de temperatura termodinámica, es la 1/ 273,16 fracción de la
temperatura termodinámica del punto triple del agua.
Unidad de cantidad de sustancia: MOL
Mediante un acuerdo entre la International Union of Pure and Applied Physics (IUPAP) y la
International Union of Pure and Applied Chemistry (IUPAC) en 1960, acordaron asignar el
valor 12 como la masa atómica relativa, del isótopo de carbono con número de masa 12
(12 C) para ser utilizada como escala para la obtención de los valores de masas atómicas
relativas.
Por otro lado, era necesario definir la unidad de cantidad de sustancia relacionándose
con la unidad de masa atómica relativa. Mediante acuerdo internacional se fijó la unidad
de cantidad de sustancia (mol) para un valor de 0,012 kg.
1.
2.
El mol (mol) es la cantidad de sustancia de un sistema el cual contiene tantas
entidades elementales como átomos presentes en 0,012 kilogramos de carbono 12.
Cuando se utiliza la definición de mol, deben especificarse las unidades elementales,
éstas pueden ser átomos, moléculas, iones, otras partículas o grupos específicos de
tales partículas.
Unidad de intensidad luminosa: CANDELA
La candela (cd) es la intensidad luminosa, en una dirección dada, que produce una
fuente de radiación monocromática de frecuencia equivalente a 540 x 10 12 hertz y
cuya intensidad energética en dicha dirección es 1/683 watt por esteroradián .
Unidades Fundamentales del Sistema Internacional
Magnitud física
Longitud
Unidad
metro
Símbolo
m
kilogramo
kg
Tiempo
segundo
s
Corriente eléctrica
ampere
A
kelvin
K
candela
cd
mol
mol
Masa
Temperatura
Intensidad luminosa
Cantidad de sustancia
Química 1 - Medidas y unidades -
Definición de la unidad
1.650.763,73 longitudes de onda en el vacío
correspondiente a la transición entre los niveles
2p10 y 5d5 del átomo del krypton- 86
Masa del prototipo internacional, que se
encuentra en la Oficina del Comité Internacional
de Pesos y Medidas (Sevrès, Francia)
La duración de 9.192.631.770 períodos de la
radiación correspondiente a la transición entre
los dos niveles hiperfinos del estado basal del
átomo de cesio- 133
La magnitud de la corriente que fluye en dos
conductores paralelos, distanciados entre sí a
un metro, en el vacío, que produce una fuerza
entre ambos conductores (a causa de sus
campos magnéticos) de 2 x 10- 7 N/m
La fracción 1/ 273,16 de la temperatura
termodinámica del punto triple del agua
La
intensidad
luminosa,
en
dirección
perpendicular, de una superficie de 1/600.000
m2 de un cuerpo negro a la temperatura de
congelamiento del platino (2,042 K), bajo una
presión de 101,325 N/m2
La cantidad de sustancia de un sistema que
contiene un número de entidades elementales
igual al número de átomos presentes en 0,012
kg de carbono- 12
23
Unidades del Sistema Internacional derivadas expresadas en términos de las
unidades fundamentales
Magnitud física
Unidad
Metro cuadrado
Símbolo
Área
m2
Metro cúbico
Volumen
m3
Velocidad
Metro por segundo
m/ s
Metro por segundo cuadrado
m / s2
Recíproco del metro
m- 1
Densidad
Kilogramo por metro cúbico
Kg / m 3
Volumen específico
Metro cúbico por kilogramo
m 3 / kg
Densidad de corriente
Ampere por metro cuadrado
A / m2
Ampere por metro
A/ m
Mol por metro cúbico
mol / m 3
Candela por metro cuadrado
Cd / m 2
Aceleración
Número de onda
Fuerza del campo magnético
Concentración
Luminosidad
Unidades derivadas sin dimensión
Unidad de ángulo plano: El radián (rad) es el ángulo plano comprendido entre dos radios de un
círculo que, sobre la circunferencia de dicho círculo, interceptan un arco de longitud igual a la del
radio.
Unidad de ángulo sólido: El estereorradián (sr) es el ángulo sólido que, teniendo su vértice en el
centro de una esfera, intercepta sobre la superficie de dicha esfera un área igual a la de un
cuadrado que tenga por lado el radio de la esfera.
Magnitud física
Unidad
Símbolo
Angulo plano
radian
Rad
m . m- 1
Angulo sólido
Estereo - radian
Sr
m2 . m- 2
Química 1 - Medidas y unidades -
Equivalencia
Expresión de términos
SI
24
Unidades derivadas con nombres y símbolos especiales
Magnitud física
Unidad
Símbolo
hertz
Hz
s- 1
Fuerza
newton
N
kg . m . s- 2
Presión
Pascal
Pa
N / m2
kg . m - 1 . s- 2
Energía,
trabajo,
cantidad de calor
joule
J
N.m
kg . m 2 . s- 2
Potencia
watt
W
J/ s
kg . m 2 . s- 3
coulomb
C
Volt
V
W/ A
kg .m 2 . s- 3 . A- 1
Faraday
F
C/ V
kg - 1 . m - 2 . s4 . A2
Ohm
Ω
V/ A
kg.m 2 .s- 3 . A- 2
siemens
S
A/ V
kg - 1 .m - 2 .s3 .A 2
weber
Wb
V. s
kg.m 2 .s- 2 .A - 1
Tesla
T
Wb / m 2
kg.s - 2 .A - 1
Inductancia
henry
H
Wb / A
kg.m 2 .s- 2 .A - 2
Flujo luminoso
lumen
Lm
cd.sr
m 2 .m - 2 .cd
lux
Lx
lm / m 2
m 2 .m - 4 .cd
Becquerel
Bq
Frecuencia
Carga
eléctrica,
cantidad de electricidad
Diferencia
potencial
eléctrico,
fuerza
electromotriz
Capacitancia
Resistencia eléctrica
Conductancia eléctrica
Flujo magnético
Densidad
magnético
de
flujo
Iluminancia
Actividad radioactiva
Química 1 - Medidas y unidades -
Equivalencia
Expresión de términos
SI
s. A
s- 1
25
Unidad de frecuencia
Un hertz (Hz) es la frecuencia de un fenómeno periódico
cuyo periodo es 1 segundo.
Unidad de fuerza
Un newton (N) es la fuerza que, aplicada a un cuerpo que
tiene una masa de 1 kilogramo, le comunica una aceleración
de 1 metro por segundo cuadrado.
Unidad de presión
Un pascal (Pa) es la presión uniforme que, actuando sobre
una superficie plana de 1 metro cuadrado, ejerce
perpendicularmente a esta superficie una fuerza total de 1
newton.
Unidad de energía,
Un joule (J) es el trabajo producido por una fuerza de 1
trabajo, cantidad de calor newton, cuyo punto de aplicación se desplaza 1 metro en la
dirección de la fuerza.
Unidad de potencia, flujo Un watt (W) es la potencia que da lugar a una producción de
energía igual a 1 joule por segundo.
radiante
Unidad de cantidad de
Un coulomb (C) es la cantidad de electricidad transportada
electricidad, carga
en 1 segundo por una corriente de intensidad 1 ampere.
eléctrica
Unidad de potencial
Un volt (V) es la diferencia de potencial eléctrico que existe
eléctrico, fuerza
entre dos puntos de un hilo conductor que transporta una
corriente de intensidad constante de 1 ampere cuando la
electromotriz
potencia disipada entre estos puntos es igual a 1 watt.
Unidad de resistencia
Un ohm (Ω) es la resistencia eléctrica que existe entre dos
eléctrica
puntos de un conductor cuando una diferencia de potencial
constante de 1 volt aplicada entre estos dos puntos
produce, en dicho conductor, una corriente de intensidad 1
ampere, cuando no haya fuerza electromotriz en el
conductor.
Unidad de capacidad
Un farad (F) es la capacidad de un condensador eléctrico
que entre sus armaduras aparece una diferencia de
eléctrica
potencial eléctrico de 1 volt, cuando está cargado con una
cantidad de electricidad igual a 1 coulomb.
Unidad de flujo
Un weber (Wb) es el flujo magnético que, al atravesar un
magnético
circuito de una sola espira produce en la misma una fuerza
electromotriz de 1 volt si se anula dicho flujo en un
segundo por decaimiento uniforme.
Unidad de inducción
Una tesla (T) es la inducción magnética uniforme que,
repartida normalmente sobre una superficie de 1 metro
magnética
cuadrado, produce a través de esta superficie un flujo
magnético total de 1 weber.
Unidad de inductancia
Un henry (H) es la inductancia eléctrica de un circuito
cerrado en el que se produce una fuerza electromotriz de 1
volt, cuando la corriente eléctrica que recorre el circuito
varía uniformemente a razón de un ampere por segundo.
Química 1 - Medidas y unidades -
26
Unidades derivadas cuyos nombres y símbolos incluyen unidades derivadas con
nombres y símbolos especiales
Magnitud física
Unidad
Símbolo
Expresión de
términos SI
Viscosidad dinámica
Pascal segundo
Pa.s
kg.m - 1 .s- 1
Capacidad
entropía
Joule por Kelvin
J/ K
m 2 . kg.s - 2 .K- 1
Joule por kilogramo kelvin
J / (kg.K)
m 2 .s- 2 .K- 1
Watt por metro kelvin
W /(m.K)
kg.m.s - 3 .K- 1
Volt por metro
V/ m
kg.m.s - 3 .A - 1
calorífica,
Capacidad calor específico,
entropía específica
Conductividad térmica
Intensidad
eléctrico
del
campo
Unidad de viscosidad dinámica Un pascal segundo (Pa·s) es la viscosidad dinámica de
un fluido homogéneo, en el cual, el movimiento
rectilíneo y uniforme de una superficie plana de 1
metro cuadrado, da lugar a una fuerza retardatriz de 1
newton, cuando hay una diferencia de velocidad de 1
metro por segundo entre dos planos paralelos
separados por 1 metro de distancia.
Unidad de entropía
Un joule por kelvin (J/K) es el aumento de entropía de
un sistema que recibe una cantidad de calor de 1
joule, a la temperatura termodinámica constante de 1
kelvin, siempre que en el sistema no tenga lugar
ninguna transformación irreversible.
Unidad de capacidad térmica
Un joule por kilogramo kelvin (J/(kg·K) es la
capacidad térmica másica de un cuerpo homogéneo de
másica
una masa de 1 kilogramo, en el que el aporte de una
cantidad de calor de un joule, produce una elevación
de temperatura termodinámica de 1 kelvin.
Unidad de conductividad
Un watt por metro kelvin W/(m·K) es la conductividad
térmica de un cuerpo homogéneo isótropo, en la que
térmica
una diferencia de temperatura de 1 kelvin entre dos
planos paralelos, de área 1 metro cuadrado y distantes
1 metro, produce entre estos planos un flujo térmico
de 1 watt.
Unidad de intensidad del
Un volt por metro (V/m) es la intensidad de un campo
campo eléctrico
eléctrico, que ejerce una fuerza de 1 newton sobre un
cuerpo cargado con una cantidad de electricidad de 1
coulomb.
Química 1 - Medidas y unidades -
27
Unidades fuera del Sistema Internacional
Las unidades del Sistema Internacional están recomendadas para ser utilizadas en la
ciencia, la tecnología y el comercio. Fueron aceptadas internacionalmente mediante las
diferentes Conferencias Generales de Pesos y Medidas, y proporcionan un marco de
referencia para el cual todas las otras medidas se pueden definir. Sin embargo, hay aún
algunas unidades no- SI que se siguen utilizando ampliamente en la literatura científica,
técnica y comercial, las que continuaran siendo usadas por muchos años. Otras, como
las unidades de tiempo, son utilizadas en la vida cotidiana y están profundamente
enraizadas en la cultura, las que probablemente se seguirán utilizando para siempre.
La CGPM en 1969, clasificó estas unidades no- SI en tres categorías: Unidades a ser
mantenidas, unidades a ser toleradas temporalmente, y unidades a ser evitadas de
utilizar.
Unidades aceptadas para ser utilizadas con el SI
Estas contienen las unidades de uso cotidiano, en particular las tradicionales unidades
de tiempo y ángulos, junto con otras que tienen importancia técnica.
Nombre
Símbolo
Valor en unidades SI
min
1 min = 60 s
hora
h
1 h = 3600 s
día
d
1 d = 86.400 s
grado
°
1° = (π /180) rad
minuto
‘
1’ = (1/60)° = (π /10800)rad
segundo
“
1” = (1/60)’ = (π / 648000)rad
litro
l
1 l = 1 dm 3 = 10 - 3 m 3
tonelada
t
1 t = 10 3 kg
minuto
Unidades no- SI aceptadas para ser utilizadas con el SI cuyos valores en unidades SI
fueron obtenidos experimentalmente
Nombre
Electronvolt
Unidad
atómica
de
masa
Unidad astronómica
Símbolo
Valor en unidades SI
eV
1 eV = 1,60217733 x 10 - 19 J
u
1 u = 1,6605402 x 10 - 27 kg
ua
1 ua = 1,49597870691 x 10 11 m
Química 1 - Medidas y unidades -
28
Unidades no – SI las cuales son comúnmente utilizadas para uso con el SI las que
satisfacen necesidades comerciales, legales o intereses científicos específicos.
Estas unidades deben ser definidas en relación con el SI en cada reporte técnico en el cual son
utilizadas
Nombre
Símbolo
Valor en unidades SI
1 milla náutica = 1852 m
milla náutica
nudo
1 milla náutica por hora = (1852 /3600) m/s
area
a
1 a = 1 dam 2 = 10 2 m 2
hectárea
ha
1 ha = 1 hm 2 = 10 4 m 2
bar
bar
1 bar = 0,1 Mpa = 100 kPa = 1000 hPa = 10 5 Pa
Å
1 Å = 0,1 nm = 10 - 10 m
Angstrom
Otras unidades no - SI: Equivalencias del Sistema CGS y SI
En el campo de la mecánica, el sistema CGS (centímetro – gramo – segundo) de
unidades fue creado bajo tres magnitudes que se correspondes con las unidades base
centímetro, gramo y segundo. En el campo de la electricidad y magnetismo, las unidades
fueron expresadas en términos de estas tres unidades base.
Nombre
Símbolo
Valores de unidades SI
ergio
erg
1 erg = 10 - 7 J
dina
dyn
1 dyn = 10 - 5 N
poise
p
1 P = 1 dyn.s/cm 2 = 0,1 Pa.s
Stokes
St
1 St = 1 cm 2 /s = 10 - 4 m 2 /s
Gauss
G
1 G = 10 - 4 T
Oersted
Oe
1 Oe = (1000/4 ) A/m
Maxwell
Mx
1 Mx = 10 - 8 Wb
Química 1 - Medidas y unidades -
29
Otras unidades no – SI
Nombre
Símbolo
Valores de unidades SI
Curie
Ci
1 Ci = 3,7 x 10 10 Bq
Röntgen
R
1 R = 2,58 x 10- 4 C/kg
Unidad X
1 unidad X = 1,002 x 10 - 4 nm
Gamma
1 γ = 1 nT = 10 - 9 T
g
Fermi
1 fermi = 1 fm = 10 - 15 m
Torr
Torr
1 Torr = 101.325/760 Pa
Atmósfera
atm
1 atm = 101.325 Pa
Caloría
cal
1 cal = 4.184 J
Prefijos – Múltipos y submúltiplos decimales
La Conferencia General de Pesos y Medidas en 1960 adoptó una serie de símbolos y
prefijos para formar los nombres y símbolos de los múltiplos y submúltiplos decimales
del Sistema Internacional de medidas:
Factor
Nombre
Símbolo
Factor
Nombre
Símbolo
10 24
10 21
10 18
10 15
10 12
10 9
10 6
10 3
10 2
10 1
Yotta
Zetta
Exa
Peta
Tera
Giga
Mega
kilo
hecto
deca
Y
Z
E
P
T
G
M
k
h
da
10 - 1
10 - 2
10 - 3
10 - 6
10 - 9
10 - 12
10 - 15
10 - 18
10 - 21
10 - 24
deci
centi
mili
micro
nano
pico
femto
atto
zepto
yocto
d
c
m
µ
n
p
f
a
z
y
Química 1 - Medidas y unidades -
30
Caso especial: Unidad de Fuerza (Newton)
La masa, es una medida de la cantidad de materia que posee un objeto; por lo tanto, la
masa de un cuerpo es una propiedad intrínseca del mismo y no varía aunque cambien el
lugar donde se encuentra. La masa de un objeto es constante.
La masa se determina en una balanza. La medición consiste en comparar la masa de un
objeto desconocido con la masa de un objeto cuya masa se conoce previamente. Para
describir esta operación común, coloquialmente utilizamos el verbo “pesar”, y, como
consecuencia de ello, nos hemos acostumbrado a utilizar la palabra “peso” para designar
la cantidad de masa que posee un objeto.
Peso y masa se utiliza indistintamente para designar la cantidad de materia, pero
debemos ser conscientes de que ambas magnitudes no son lo mismo y que la forma
correcta de designar la cantidad de materia de un objeto es referirse a su masa.
Para evitar la posible confusión que puede surgir entre los conceptos peso y masa basta
con tener en cuenta que el peso de un cuerpo es la fuerza de atracción gravitatoriaque la
Tierra ejerce sobre él. Así de esta manera, al contrario de lo que ocurre con la masa, el
peso no es constante, puesto que la atracción gravitatoria no lo es.
La masa de un objeto se puede considerar como la resistencia que éste ofrece al ser
acelerado; el peso es el resultado de la atracción de la gravedad o cualquier objeto de
grandes dimensiones. De acuerdo al siguiente principio:
Si una fuerza constante (F) – en el vacío- empuja a una masa (M), ésta cobrará cada vez
mayor velocidad - se acelerará- , y al cabo de cierto tiempo (t) medido en segundo [s], la
velocidad final (v2 ) medida en metros por segundo [m/s] será mayor que la velocidad
inicial (v1 ); ello se denomina aceleración (a) y su valor surge de la relación de
dimensiones medibles entre la diferencia entre ambas velocidades y el tiempo
transcurrido:
a=
v 2 − v1
t
Dado que dicha aceleración fue consecuencia de la aplicación de la fuerza constante a la
masa, y que el valor de la aceleración se verifica que es proporcional a la fuerza e
inversamente proporcional al de la masa, el valor de la aceleración también vendrá dado
por:
a=
F
M
o bien
F = M .a
Que representa la segunda ley fundamental de la dinámica formulada por Newton
Esta ley de la física surge de observaciones experimentales, lo que implica que se han
hecho experimentos que han demostrado que una fuerza F actuando sobre una masa M
le comunicó una aceleración a y cuando se midió dos cualesquiera de dichas magnitudes
se verificó el resultado de la tercera.
Aquí encontramos tres magnitudes relacionadas entre sí, a las que un sistema de
medidas debe asignar unidades.
Teniendo la aceleración [m/s 2 ] unidades iguales a las ya definidas por el Sistema Métrico
Decimal y adoptadas por el Sistema Internacional, quedaban pendientes de definición
una de las otras dos, fuerza (F) y masa (M). Definida una de ellas, la tercera surge como
consecuencia, y resulta unidad derivada.
Química 1 - Medidas y unidades -
31
La masa (M) de un cuerpo es una propiedad invariante del mismo, independientemente
de su velocidad (aunque la teoría de la relatividad demuestra que en velocidades
próximas a la de la luz, la masa de un cuerpo se incrementa), de su aceleración, o de su
posición y/o altura sobre la superficie terrestre.
La fuerza (F), con una definición posible como el peso de una masa determinada –tal
como lo estableció en sus orígenes el Sistema Métrico Decimal- requiere de la
aceleración de la gravedad como factor de definición, la que como se sabe varía según la
altura o el lugar sobre la superficie terrestre donde se halle la masa.
Por estas últimas circunstancias y otras consideraciones científicas, surge evidente que
de ambas, la masa es la magnitud cuya unidad de medida es más apropiada para
considerarse básica, tal como lo establece el SI, y la de fuerza la unidad derivada.
Para unidad de masa el SI utiliza, como ya hemos mencionado, un patrón de platinoiridio, equivalente a aquel patrón de peso de platino de 1795 que correspondía al dm 3
de agua, y que se denomina igual 1 kilogramo.
Como unidad de fuerza el SI designa el Newton (N), que naturalmente se relaciona con
los otros dos factores de la formula del siguiente modo:
1 N (fuerza) = 1 kg (masa) x 1 m/s 2 (aceleración)
1N =
1kgm
s2
Relación entre el kilogramo – fuerza y el Newton
Cuando se definió el Sistema Métrico Decimal, el gramo como unidad de fuerza,
correspondiente a la milésima parte del kilogramo que era el peso de 1 dm 3 de agua en
su estado de máxima densidad, cumpliéndose la ley de Newton, la fuerza era el peso (G)
y la aceleración era la de la gravedad (g), quedando la masa (M) en la indeterminación
evidenciada por los distintos textos de leyes.
De este modo la relación era la siguiente:
G = M . g (equivalente a F = M . a)
En unidades, llamando Kgf (kilogramo- fuerza) al kg del Sistema Métrico Decimal
1 Kgf = m. 9,80665 m/s 2
Y si el Sistema Internacional designa al Kg como unidades de masa:
1 Kgf = 1 kg . 9,80665 m/s 2
al ser 1 N = 1 kg m/s 2
Resultará que la equivalencia entre las unidades de fuerza del Sistema Métrico Decimal
(kilogramo – fuerza) y la unidad de fuerza del Sistema Internacional (Newton) será:
1 kgf = 9,80665 N
Química 1 - Medidas y unidades -
32
7. Análisis Dimensional
La palabra dimensión tiene un significado especial en física y química. Por lo común
denota la naturaleza física de una cantidad. Ya sea que la separación entre dos puntos
se mida en unidades de pies o metros, es una distancia. Decimos entonces que su
dimensión es la longitud.
Los símbolos que utilizaremos para especificar por ejemplo la longitud, masa y el tiempo
son L, M y T, respectivamente. Es frecuente el uso de corchetes [ ] para denotar las
dimensiones de una cantidad física o química.
Por ejemplo: en esta notación las dimensiones de velocidad v se escriben [v] = L / T, y
las de área A son [A] = L2
En muchas situaciones será necesario deducir o comprobar si una fórmula específica es
correcta (expresión o ecuación matemática). Aun cuando el lector haya olvidado los
detalles de la deducción, puede utilizar un procedimiento llamado análisis dimensional,
el cual hace uso del hecho de que las dimensiones pueden ser tratadas como cantidades
algebraicas, esto quiere decir que las cantidades se pueden sumar o restar sólo si tienen
las mismas dimensiones y están expresadas en las mismas unidades. Además, los
términos a ambos lados de la ecuación deben tener las mismas dimensiones. Si se
siguen estas reglas sencillas, es posible usar el análisis dimesional como auxiliar para
determinar si una expresión tiene o no la forma correcta. La relación puede ser correcta
sólo si las dimensiones en ambos lados de la ecuación son las mismas.
Resolución de problemas - Método de análisis dimensional
Muchos principios físicos o químicos pueden ser expresados matemáticamente, es por
ello que resulta necesario aprender a plantear y resolver problemas numéricos en forma
sistemática (algo que resulta indispensable para estudiar física o química)
Un problema puede ser resuelto por varios métodos. Pero en todos ellos lo mejor
- especialmente para los estudiantes principiantes- es utilizar un enfoque sistemático,
prolijo y ordenado.
En este caso hacemos énfasis en el método de análisis dimensional porque proporciona
una forma sistemática y directa para plantear y resolver los problemas ofreciendo una
comprensión clara de los principios teóricos que se verán durante la cursada.
Por otro lado, permite desarrollar habilidades para organizar y evaluar datos. El análisis
dimensional permite identificar errores, pues las unidades no deseadas no se pueden
eliminar si el planteo del problema resulta incorrecto.
Los pasos básicos para resolver los problemas en física y química consisten en:
1. Leer cuidadosamente el enunciado del problema. Determinar qué es lo que debes
resolver y escríbelo.
2. Tabula los datos del problema. Es importante identificar todos los factores y
medidas con las unidades apropiadas.
3. Determina los principios involucrados en el enunciado del problema y las
relaciones de unidades necesarias para resolver el problema. Puede que
necesites tablas para obtener datos que no son suministrados en el planteo del
problema.
4. Plantea el problema en forma clara, organizada y lógica, asegurándote de
cancelar las unidades no deseadas. Guíate por los problemas resueltos que se
encuentran en los libros de texto para poder aprender y revisar el tipo de
planteamiento que realices.
5. Efectúa las operaciones matemáticas necesarias. Asegúrate de que tu respuesta
contiene el número apropiado de cifras significativas.
6. Verifica siempre si la respuesta es razonable.
Respecto a la solución de problemas: No permitas que ningún método formal de
resolución de problemas limite tu sentido común e intuición.
Química 1 - Medidas y unidades -
33
Si el problema te resulta claro y su solución parece más sencilla por otro método, no
dudes en utilizarlo. Sin embargo, a la larga, deberás ser capaz de resolver problemas
que sin el uso del análisis dimensional serían difíciles de resolver.
El análisis dimensional convierte una unidad en otra con los factores de conversión.
Unidad1 x factor de conversión = unidad2
Ejemplo: Se desea determinar cuantos miligramos hay en 3,6 gramos.
Es necesario convertir entonces los gramos (g) a miligramos (mg)
g x factor de conversión = mg
Este factor de conversión debe cumplir con dos aspectos: cancelar (o eliminar) la unidad
gramos e introducir la unidad miligramos - la unidad que se desea en la respuesta- . Tal
factor de conversión debe estar en forma fraccionaria, y tener gramos en el
denominador y miligramos en el numerador:
g x g/mg = mg
Sabemos que 1 gramo equivale a mil miligramos (1 g = 1000 mg). A partir de esta
relación podemos escribir dos factores de conversión - dividiendo ambos lados de la
ecuación entre la misma cantidad:
1 g / 1000 mg o bien 1000 mg / 1 g
Al escoger el factor de conversión apropiado para nuestro problema, (1000 mg / g)
podemos plantear el cálculo para la conversión de 3,6 gramos a miligramos:
2,6 g 1000 mg / g = 3600 mg ó 3,6 x 10 3 mg
Observa que, al hacer este tipo de cálculo, las unidades son tratadas como números; los
gramos en el numerador se cancelan por gramos en el denominador.
Química 1 - Medidas y unidades -
34
Descargar