∑ ∑ ∑

Anuncio
Formulario de Estadística Aplicada a la Medición Química
por Francisco Rojo Callejas
Introducción
La medición química es un proceso generalmente costoso, por lo que el tamaño
de muestras es generalmente pequeño. Esta característica hace que la estadística
aplicada a la misma presente ciertas particularidades:
Primeramente, si bien llegan a usarse, los diagramas de puntos y todas las variantes de
histogramas de frecuencias (barras, pasteles, etc.) tienen uso limitado en esta área. Dada
la distribución muestral continua de las mediciones químicas, los diagramas de pareto y
semejantes casi nunca se utilizan.
En segundo lugar, la variación de la mayoría de las técnicas y equipos de medición
(balanzas, material volumétrico, espectrómetros, cromatógrafos, potenciómetros, etc.)
no presenta sesgos, por lo que es válido asumir que los resultados se distribuyen
normalmente. Esto implica que las técnicas normales de la estadística paramétrica son
válidas y son las más utilizadas (pruebas de hipótesis, análisis de regresión, análisis de
varianza). En algunos casos especiales, como son el análisis de trazas en equipos que
nunca reportan resultados inferiores a cero (p. ej. cromatografía), la distribución es lognormal, por lo que deben aplicarse las transformaciones pertinentes antes de aplicar la
estadística.
Finalmente, las pruebas no-paramétricas, de tanta importancia en las ciencias sociales se
usan en mucho menor grado, aunque unas pocas son muy útiles (Kolmogorov-Smirnov,
McNemar, Wilcoxon, rachas, Spearman).
Formulario
A continuación se presenta un resumen de las fórmulas estadísticas mas utilizadas en la
medición química.
Medidas de tendencia central (promedio)
Media aritmética
n
µˆ = x =
∑x
i =1
i
donde xi representa cada una de las medidas y n es el número de datos, x
n
es el estimador de la media poblacional (µ) obtenido a partir de una muestra.
Media de datos agrupados en clases
n
x=
∑x f
i
i
i =1
donde xi representa la marca de clase y fi la frecuencia de clase.
n
Media ponderada
n
x=
∑x w
i
i =1
n
∑w
i
donde wi representa el peso relativo de cada medición xi.
i
i =1
1
Media geométrica
x=n
n
∏x
i
i =1
Medidas de dispersión
Varianza poblacional
n
σˆ 2 = s 2 =
∑( x − x )
2
i
i =1
donde s2 es el estimador de la varianza poblacional (σ2) obtenido
n −1
a partir de una muestra.
Desviación estándar poblacional
n
∑(x − x )
σˆ = s =
i =1
2
i
donde s es el estimador de la desviación estándar poblacional (σ)
n −1
obtenido a partir de una muestra.
Ecuación comúnmente usada para el cálculo de la desviación estándar poblacional:
⎛ n ⎞
n∑ x − ⎜ ∑ x i ⎟
⎝ i=1 ⎠
i =1
n( n − 1)
n
2
2
i
s=
Coeficiente de variación porcentual (medida relativa)
V = 100∗
s
x
Distribuciones muestrales
Distribución muestral de la media
µ = x ± tα ∗ s
2
n
Donde n es el número de datos experimentales, x y s son la media y desviación
estándar estimadas y tα es la variable de la distribución t de student con un riesgo α y
2
n-1 grados de libertad. Una consecuencia de esta distribución es el efecto del número de
réplicas (mediciones de una sola muestra) sobre la incertidumbre experimental, el cual
se ilustra en la siguiente figura para diferentes niveles de riesgo (1%, 5% y 10%).
2
Incertidumbre en la determinación de una media
4
3
alfa=0.01
alfa=0.05
2
alfa=0.10
1
0
0
5
10
15
20
núm ero de réplicas
Conclusiones importantes de la gráfica son que para tener un buen estimador de una
medición experimental se necesitarían por lo menos siete réplicas con un riesgo
promedio del 5% o diez réplicas en el caso de que no se puedan correr grandes riesgos
(1%). En cualquier caso, más de veinte réplicas ya no representan incrementos notables
de calidad y si mayor trabajo. En la práctica es común el uso de triplicados e incluso
solamente duplicados, por lo que nuestras incertidumbres son generalmente altas.
Distribución muestral de la variancia
La variancia se encuentra comprendida en el intervalo:
( n −1)s 2
χα2
2
< σ2<
( n − 1)s 2
χ 21−α
(
2
)
donde χ 2 son los valores de la distribución ji-cuadrada con n-1 grados de libertad y
probabilidades α 2 y 1 − α . α es el riesgo.
2
(
)
Inferencia estadística (pruebas de hipótesis)
Estas pruebas siempre se realizan usando dos hipótesis alternas. La hipótesis nula es la
igualdad entre las variables comparadas y la alterna puede ser que son diferentes o que
una es mayor que la otra. Estas últimas dos posibilidades hacen que las pruebas de
hipótesis puedan realizarse a dos colas (variables diferentes) o a una cola de las
distribuciones (una variable mayor que la otra).
Hipótesis relativas a una media
Utilizamos esta prueba cuando queremos demostrar que un resultado experimental es
igual a un valor de referencia, o bien cuando queremos demostrar que es: diferente,
mayor que o menor que el valor de referencia (p. ej. verificar la calibración del método
contra un estándar). Para ello calculamos el valor experimental de la variable t de
student
x − µo
texp =
s
n
3
Donde µ o es el valor de la variable de referencia contra la que deseamos comparar
nuestra media experimental x y s es el estimador experimental de la desviación
estándar.
La hipótesis nula es que nuestra media experimental es igual al valor contra el que
estamos comparando. La decisión de aceptarla o rechazarla depende de cual sea la
hipótesis alterna y para ello se utiliza la siguiente tabla:
Hipótesis alterna
x < µo
Rechazamos la hipótesis nula
si:
texp < −tα
x > µo
texp > tα
x ≠ µo
texp < −tα ó texp > tα
2
2
Donde α es el riesgo máximo que estamos dispuestos a correr (generalmente del 5%,
cuando no podemos correr riesgos este se baja al 2 o 1%, y en estimadores muy burdos,
se puede subir al 10%). tα es el valor de tablas de la t de student con n-1 grados de
libertad, también lo podemos calcular en excel con la ecuación: tα = DISTR.T.INV (
2*α, n-1) para las dos primeras hipótesis alternas y tα = DISTR.T.INV ( α, n-1) para la
hipótesis alterna de desigualdad.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp.
Este riesgo αexp lo podemos aproximar interpolando en la tabla t student para n-1 grados
de libertad y un valor texp de la t de student, o bien lo podemos calcular en Excel con la
ecuación: riesgo experimental = DISTR.T ( texp, n-1, 1 ) para las dos primeras hipótesis
alternas y riesgo experimental = DISTR.T ( texp, n-1, 2 ) para la hipótesis alterna de
desigualdad.
Hipótesis relativas a dos medias
Utilizamos esta prueba cuando queremos comparar dos resultados experimentales, ya
sea que deseemos saber si dos muestras son iguales o si dos métodos de análisis arrojan
resultados comparables. En mediciones químicas nos enfrentamos al problema de tener
estimadores de la media y la variancia obtenidos de muestras pequeñas, por lo que antes
de hacer esta prueba debemos comparar las variancias de las dos muestras (léase mas
adelante en hipótesis relativas a dos variancias). Dependiendo de si las variancias son
comparables o no, usaremos dos pruebas ligeramente diferentes:
Comparación entre dos medias de muestras con variancias comparables.
Calculamos el valor experimental de la variable t de student:
texp =
( x1 − x2 )
( n1 − 1) s12 + ( n2 − 1) s22
n1n2 ( n1 + n2 − 2 )
n1 + n2
φ = n1 + n2 − 2
4
la hipótesis nula es que las dos medias son comparables, la decisión de aceptación o
rechazo se toma según la siguiente tabla:
Hipótesis alterna Rechazamos la hipótesis nula
si:
x1 < x2
texp < −tα
x1 > x2
texp > tα
x1 ≠ x2
texp < −tα ó texp > tα
2
2
Donde α es nuevamente el riesgo máximo que estamos dispuestos a correr, tα es el valor
de tablas de la t de student con n1 + n2 - 2 grados de libertad. , también lo podemos
calcular en excel con la ecuación: tα = DISTR.T.INV ( 2*α, n1 + n2 - 2) para las dos
primeras hipótesis alternas y tα/2 = DISTR.T.INV ( α, n1 + n2 - 2) para la hipótesis
alterna de desigualdad.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp.
Este riesgo αexp lo podemos aproximar interpolando en la tabla t student para n1 +n2 – 2
grados de libertad y un valor texp de la t de student, o bien lo podemos calcular en Excel
con la ecuación: riesgo experimental = DISTR.T ( texp, n1 + n2 - 2, 1 ) para las dos
primeras hipótesis alternas y riesgo experimental = DISTR.T ( texp, n1 + n2 - 2, 2 ) para la
hipótesis alterna de desigualdad .
Comparación entre dos medias de muestras con variancias diferentes.
Calculamos el valor experimental de la variable t de student según:
(x − x )
texp = 1 2
s12 s22
+
n1 n2
la hipótesis nula es que las dos medias son comparables, la decisión de aceptación o
rechazo se toma según la siguiente tabla:
Hipótesis alterna Rechazamos la hipótesis nula
si:
x1 < x2
texp < −tα
x1 > x2
texp > tα
x1 ≠ x2
texp < −tα ó texp > tα
2
2
Los grados de libertad (φ) se calculan ahora con la ecuación:
5
φ=
⎛ s12 s22 ⎞
⎜ + ⎟
⎝ n1 n2 ⎠
2
.
2
2
⎛ s12 ⎞
⎛ s22 ⎞
⎜ n⎟
⎜ n ⎟
⎝
⎝
2⎠
1⎠
+
n1 − 1
n2 − 1
Nuevamente α es el riesgo máximo que estamos dispuestos a correr, tα es el valor de
tablas de la t de student con φ grados de libertad. , también lo podemos calcular en excel
con la ecuación: tα = DISTR.T.INV ( 2*α, φ ) para las dos primeras hipótesis alternas y
tα = DISTR.T.INV ( α, φ ) para la hipótesis alterna de desigualdad.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp.
Este riesgo αexp lo podemos aproximar interpolando en la tabla t student para φ grados
de libertad y un valor texp de la t de student, o bien lo podemos calcular en Excel con la
ecuación: riesgo experimental = DISTR.T ( texp, φ, 1 ) para las dos primeras hipótesis
alternas y riesgo experimental = DISTR.T ( texp, φ, 2 ) para la hipótesis alterna de
desigualdad .
Hipótesis relativas a una variancia
Utilizamos esta prueba cuando queremos saber si la dispersión de nuestros resultados
experimentales cumple determinada condición. Un ejemplo típico es cuando queremos
saber si la incertidumbre de nuestros resultados experimentales es inferior a
determinado valor (comúnmente 0.2% en química). Para desarrollarla calculamos la jicuadrada experimental y la comparamos contra valores de tablas. El valor experimental
( n − 1) s 2
2
se obtiene con: χ exp
=
σ o2
donde s2 es la variancia experimental y σ o2 es la variancia contra la que estamos
comparando nuestros valores, por ejemplo, si queremos saber si la dispersión de
2
nuestros valores es menor al 0.2%, usaríamos σ o2 = ( 0.002∗ x ) .
La hipótesis nula es que nuestra variancia experimental es igual al valor contra el que
estamos comparando. La decisión de aceptarla o rechazarla depende de cual sea la
hipótesis alterna y para ello se utiliza la siguiente tabla:
Hipótesis alterna Rechazamos la hipótesis nula
si:
2
2
2
χ exp
< χ12−α
s < σo
s 2 > σ o2
2
χ exp
> χα2
s 2 ≠ σ o2
2
2
χ exp
< χ12−α 2 ó χ exp
> χα2 2
Donde ahora χ12−α , χα2 , χ12−α / 2 , χα2 / 2 son los valores de tablas de la ji-cuadrada con n-1
grados de libertad.
Nuevamente α es el riesgo máximo que estamos dispuestos a correr.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp .
6
Este riesgo αexp lo podemos aproximar interpolando en la tabla de ji cuadrada con n-1
2
de la ji cuadrada, o bien lo podemos calcular en
grados de libertad y un valor χ exp
2
Excel con la ecuación: riesgo experimental = DISTR.CHI ( χ exp
, n-1 ).
Hipótesis relativas a dos variancias
Cuando comparamos dos métodos de medición o técnicas, no solo debemos saber si dan
resultados comparables. También debemos conocer si las incertidumbres son
comparables. Por eso es que comparamos las variancias con una prueba F de Snedecor.
Para ello calculamos la F experimental con:
sa2
Fexp = 2 con na-1 grados de libertad para el numerador y nb-1 grados de libertad para
sb
el denominador.
La hipótesis nula es que nuestras variancias experimentales son iguales. La decisión de
aceptarla o rechazarla depende de cual sea la hipótesis alterna y para ello se utiliza la
siguiente tabla:
Hipótesis alterna Estadístico de prueba Rechazar la hipótesis nula si:
Fexp > Fα ( con n2 − 1, n1 − 1 grados de lib.)
s12 < s22
s2
Fexp = 22
s1
s12 > s22
s12 ≠ s22
Fexp
s12
= 2
s2
Fexp
sM2
= 2
sm
Fexp > Fα ( con n1 − 1, n2 − 1 grados de lib.)
Fexp > Fα / 2 ( con nM − 1, nm − 1 grados de lib.)
Nuevamente α es el riesgo máximo que estamos dispuestos a correr, Fα es el valor de
tablas de la F de Snedecor con n1-1 grados de libertad para el numerador y n2-1 grados
de libertad para el denominador, también lo podemos calcular en excel con la ecuación:
Fα = DISTR.F.INV ( α, n2-1, n1-1 ) para la primer hipótesis alterna, Fα = DISTR.F.INV
( α, n1-1, n2-1 ) para la segunda y Fα/2 = DISTR.F.INV ( α/2, nM -1, nm -1) para la
hipótesis alterna de desigualdad.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp.
Este riesgo αexp lo podemos aproximar interpolando en la tabla F de Snedecor con n1-1
grados de libertad para el numerador y n2-1 grados de libertad para el denominador y un
valor Fexp de la F de Snedecor, o bien lo podemos calcular en Excel con la ecuación:
riesgo experimental = DISTR.F ( Fexp, na-1, nb-1 ) donde los subíndices a y b son los ya
indicados arriba. Si la prueba es de diferencia el riesgo experimental es del doble del
calculado con esta ecuación.
7
Análisis de regresión lineal
Al efectuar mediciones químicas es común el caso de una respuesta lineal entre
la variable de medición (absorbancia, fluorescencia, área, etc.) y la concentración del
analito. Dicha respuesta se expresa comúnmente por la ecuación de una recta:
y = m*x + b
Donde llamamos pendiente a la constante m y ordenada al origen a b. El problema al
hacer mediciones químicas es que tenemos incertidumbre tanto en la variable medida,
como en la concentración, para resolverlo normalmente se considera que el error en la
concentración es mucho menor que el error en la señal medida, algo que no siempre es
válido, pero que resulta difícil negar a priori. La afirmación anterior tiene como
consecuencia que las curvas de calibración de las técnicas de medición las expresemos
comúnmente por la recta:
Señal = Fr*C + b
Donde a la pendiente le llamamos de muchas maneras: factor de respuesta, coeficiente
de extinción, etc. Estadísticamente la consecuencia es que usaremos la regresión lineal
clásica, que consiste en encontrar la mejor recta posible que pase por los puntos
experimentales, pero minimizando los errores de la variable dependiente:
Fig. 2 Método de mínimos cuadrados
12
10
e = error {
y
8
6
4
2
0
0
2
4
6
8
10
x
Calculamos el error de cada medida como la distancia sobre las y entre el valor
observado y el valor de la recta: e = (yi - (m*xi + b)). Del mismo modo que con la
varianza, calculamos el error cuadrático total como la suma de los cuadrados de las
n
[
]
diferencias: et2 = ∑ yi − ( m ⋅ x i + b) . Finalmente, para encontrar la mejor recta,
i =1
2
calculamos que valores de m y b nos dan un mínimo en el error cuadrático. Esto se hace
derivando la ecuación anterior e igualando a cero esta derivada. El resultado es un
sistema de dos ecuaciones muy conocido:
∑y
= m ⋅ ∑ xi + n ⋅ b
∑ xi yi = m ⋅ ∑ xi2 + b ⋅ ∑ xi
i
8
Por lo tanto, los estimadores de la ordenada y pendiente se obtienen calculando las
sumas solicitadas y resolviendo el sistema de ecuaciones.
Como consecuencia de la incertidumbre en nuestras mediciones de las variables, los
estimadores de m y b, así como el uso de la recta para predicciones futuras (medición de
muestras problema), tendrán todo necesariamente cierta incertidumbre, que es necesario
evaluar.
Intervalo de confianza sobre las estimaciones de una recta
Intervalo de confianza sobre la ordenada al origen y pendiente.
Se puede demostrar estadísticamente que estas variables siguen una distribución t, por
lo que los intervalos de confianza estarán dados por:
intervalo de confianza sobre la ordenada β = b ± tα 2 ⋅ se
1 x2
+
n S xx
intervalo de confianza sobre la pendiente µ = m ± tα 2 ⋅ se
1
S xx
donde tα 2 es el valor de la función t de Student, con un riesgo α y n-2 grados de
libertad. n es el número de parejas experimentales y S e , x 2 y S xx se calculan según:
S xx = ∑ x
s =
2
e
S yy −
2
(∑ x )
−
(S )
n
2
S yy = ∑ y
(∑ y )
−
n
2
S xy = ∑ xy −
(∑ x )(∑ y )
n
2
xy
S xx
n−2
2
x=
∑x
n
Intervalo de confianza sobre los valores de calibración
Se conoce comúnmente como cinturón de confianza (fig. 3) y lo usaremos
cuando deseemos saber si un punto de calibración (xstdr, ystdr) está fuera de la recta y lo
podemos rechazar como valor aberrante. Se calcula con la ecuación:
y stdr = ( m ⋅ x stdr + b) ± tα 2 ⋅ se
1 ( x stdr − x )
+
n
S xx
2
Si un punto de la curva de calibración queda fuera del cinturón de confianza, lo
podremos rechazar con un riesgo α.
9
y
Fig. 3 Cinturón de confianza de los puntos de calibración
para una regresión lineal
14
12
10
8
6
4
2
0
0
2
4
6
8
10
12
x
Límites de predicción de una regresión lineal
Cuando usamos posteriormente la curva de calibración para medir muestras
problema (sólo conocemos xmtra y estimaremos ymtra con la recta), el intervalo de
predicción es mayor al cinturón de confianza de los valores de calibración, se le llama
cinturón de predicción (cinturón más alejado de la recta en la Fig.4) y está dado por la
ecuación:
ymtra
1 (x − x)
= ( m ⋅ xmtra + b ) ± tα 2 ⋅ se 1 + + mtra
n
S xx
2
y
Fig. 4. Cinturones de confianza y predicción
para la regresión lineal
14
12
10
8
6
4
2
0
0
2
4
6
8
10
12
x
Este intervalo de predicción lo utilizamos mucho, ya que es el que nos PERMITE
ESTIMAR LA INCERTIDUMBRE de las mediciones de problemas que realicemos.
Esta incertidumbre depende no del número de réplicas que realicemos sobre una
medición, sino del número de estándares que utilicemos para obtener la recta de
calibración. El efecto del número de parejas (x,y) sobre el intervalo de predicción se
muestra en la figura 5:
10
Variación de la incertidumbre como % de la menor incertidumbre posible
3.00E+02
2.80E+02
2.60E+02
incertidumbre %
2.40E+02
2.20E+02
2.00E+02
1.80E+02
1.60E+02
1.40E+02
1.20E+02
1.00E+02
0
5
10
15
20
25
número de réplicas
alfa=0.01
alfa=0.05
alfa=0.10
Esta figura muestra que para riesgos típicos, el número de puntos de calibración que
debemos utilizar para obtener una recta aceptable es siete, pero que resulta preferible
utilizar de diez a quince. Nuevamente, el uso de demasiados puntos (mas de veinte) solo
mejora marginalmente la calidad de nuestros resultados.
Otra consecuencia importante de esta ecuación, es que al tener un estimador de la
incertidumbre de nuestras mediciones, ya no necesitamos muchas réplicas de cada
muestra problema. Si se tienen buenas rectas de calibración (cinturones de predicción
estrechos), basta con usar duplicados, pero solo para comprobar que no existe diferencia
significativa entre ellos. Si las muestras no son suficientemente homogéneas, los
duplicados saldrían significativamente diferentes y entonces de nuevo se necesitaría un
buen número de réplicas de cada muestra para tener buenos estimadores, algo que no
nos conviene y debemos evitar teniendo métodos de alta precisión y muestras
homogéneas y representativas.
Finalmente, la forma del cinturón, que proporciona menos error en la zona central,
indica que debemos ser muy cuidadosos al escoger el intervalo de las soluciones de
calibración. Estas deben ser tales que tengamos estándares con concentraciones
inferiores a las de las muestras problema y otros con concentraciones superiores.
Además es preferible, para asegurarnos del comportamiento lineal de nuestra técnica,
que los estándares estén igualmente espaciados en todo el intervalo de calibración.
Pruebas de hipótesis sobre las estimaciones de una recta
Nuevamente podemos hacer pruebas de hipótesis, ahora sobre la ordenada, la pendiente,
un valor de calibración o una muestra problema. Un ejemplo típico es la prueba de
exactitud de un método cuando estamos validándolo. En este caso, lo que se hace es
aplicar el método sobre muestras reales de concentración conocida, o sobre muestras
sintéticas que simulan las reales. La curva de calibración que se analiza es una de
concentración real contra concentración medida; en teoría, si el método es exacto, la
ecuación debería ser: Conc. Medida = Conc. Real. Es decir, una recta de pendiente uno
y ordenada cero. Si estadísticamente no son iguales a estos valores, indicaría errores
sistemáticos de nuestro método analítico, que se clasifican según la tabla:
Resultados de las pruebas de hipótesis
Tipo de error que presenta el método
11
sobre la recta:
(Conc. Medida) = m*(Conc. Real) + b
m>1
m<1
b>0
b<0
Error sistemático proporcional por exceso
Error sistemático proporcional por defecto
Error sistemático constante por exceso
Error sistemático constante por defecto
Como quiera que sea, si bien este tipo de errores no son deseables, e indican problemas
del método que debemos corregir, La ecuación obtenida para esta recta puede emplearse
como un factor de corrección para estimar las concentraciones reales usando las
concentraciones medidas por nuestro método, siempre que el error sistemático siga
siendo el mismo para otras muestras, algo muy cuestionable.
Estadísticos de prueba para regresión lineal
Se utiliza la t de Student, comparando la texp calculada contra la t de tablas. La t de
student calculada depende de cual sea la variable sobre la que estemos planteando una
hipótesis:
Hipótesis sobre:
ordenada
Estadístico de prueba t:
(b − β )
texp =
1 x2
se
+
n S xx
pendiente
texp =
(m − µ )
S xx
se
ystdr − ( m ⋅ xstdr + b )
punto de calibración xstdr, ystdr (valor
aberrante, estándar fuera del intervalo texp =
2
1 ( xstdr − x )
lineal, etc.)
+
se
n
S xx
y − ( m ⋅ xmtra + b )
muestra problema (uso de la curva de
texp = mtra
2
calibración para medir muestras reales)
x −x
se 1 +
1 (
+
n
mtra
)
S xx
La hipótesis nula Ho es, como siempre, de igualdad (b = 0, m = 1, Cmedida = Creal, etc.)
El criterio de decisión depende de la hipótesis alterna, pero la tabla es la misma que
para las pruebas sobre una media:
Hipótesis alterna
Rechazamos la hipótesis nula
si:
12
variable menor a la referencia
texp < −tα
variable mayor a la referencia
texp > tα
variable diferente a la referencia
texp < −tα ó texp > tα
2
2
Donde α es el riesgo máximo que estamos dispuestos a correr (generalmente del 5%,
cuando no podemos correr riesgos este se baja al 2 o 1%, y en estimadores muy burdos,
se puede subir al 10%). tα es el valor de tablas de la t de student con n-2 grados de
libertad, también lo podemos calcular en excel con la ecuación: tα = DISTR.T.INV (
2*α, n-2) para las dos primeras hipótesis alternas y tα = DISTR.T.INV ( α, n-2) para la
hipótesis alterna de desigualdad.
Si rechazamos la hipótesis nula, al hacerlo lo haremos con un riesgo αexp.
Este riesgo αexp lo podemos aproximar interpolando en la tabla t student para n-2 grados
de libertad y un valor texp de la t de student, o bien lo podemos calcular en Excel con la
ecuación: riesgo experimental = DISTR.T ( texp, n-2, 1 ) para las dos primeras hipótesis
alternas y riesgo experimental = DISTR.T ( texp, n-2, 2 ) para la hipótesis alterna de
desigualdad.
Bibliografía
• Miller, I., Freund, J.E. y Johnson, R.. “Probabilidad y Estadística para Ingenieros”. 4ª
Ed. Prentice-Hall Hispanoamericana, México, 1992.
• Kateman, G. And Buydens, L. “Quality Control in Analytical Chemistry” vol. 60 in.
Elving, P.J. and Winefordner, J. D. (Eds.) “Chemical Analysis”. John Wiley & Sons,
N.Y., 1995.
• Sharaf, M.A.; Illman, D.L.; Kowalski, B.R. “Chemometrics”. Ibid, vol. 82, N.Y.,
1986.
• Wernimont, G.T. “Use of Statistics to Develope and Evaluate Analytical Methods”.
AOAC, Arlington, Virginia, USA, 1985.
• Miller, J. C. And Miller, J. N.. “Estadística y Quimiometría para Química Analítica”
(4a Ed.). Prentice Hall, Madrid, 2002.
• Massart, D.L.; Dijkstra, A. And Kaufman, L.. “Evaluation and Optimization of
Laboratory Methods and Analytical Procedures”. Vol. I in : “Techniques and
Instrumentation in Analytical Chemistry”. Elsevier Scientific Pub. Co., Amsterdan,
1978.
• Taylor, John K.. “Quality Assurance of Chemical Measurements”. Lewis Publishers.
USA, 1989.
• Siegel, Sydney y Castellan, N. John. “Estadística no Paramétrica: Aplicada a las
Ciencias de la Conducta”. 4° Ed. México, 1998.
13
Descargar