Diseño de Experimentos 17-1

Anuncio
UNIVERSIDAD NACIONAL
ABIERTA Y A DISTANCIA UNAD
ESCUELA DE CIENCIAS BÁSICAS TECNOLOGÍA E
INGENIERÍA
DISEÑO DE EXPERIMENTOS
Capítulos 1 2 y 3
RAÚL GABRIEL RAMOS
BUCARAMANGA, 2008
INTRODUCCIÓN
La estadística es de vital importancia en todas las etapas de la investigación científica,
desde la planeación del experimento hasta el análisis de los datos obtenidos. Además,
constituye una herramienta fundamental para obtener conclusiones objetivas y
descubrir relaciones de causalidad. Es importante destacar que los métodos
estadísticos no pueden demostrar que un factor (o factores) poseen un efecto
particular sobre una variable, solo proporcionan pautas generales en cuanto a la
confiabilidad y validez de los resultados. Aplicados en forma correcta, no permiten la
demostración experimental de nada, pero si sirven para medir el error posible en una
conclusión o asignar un nivel de confianza a un enunciado. La ventaja principal de los
métodos estadísticos es que agrega objetividad al proceso de toma de decisiones y
combinados con un conocimiento del proceso y el sentido común, llevaran por lo
general, a conclusiones sólidas.
Con las técnicas estadísticas es posible descubrir cuales son los factores que
realmente influyen sobre una variable respuesta (Análisis de Varianza); encontrar un
modelo de matemático que prediga el comportamiento de la variable de interés en una
región específica (Regresión Lineal Múltiple); hacer un cribado de los factores
relevantes o importantes en un proceso (Diseños Factoriales 2K) e incluso optimizar
(Análisis de superficie de Respuesta). Esta última técnica combina los diseños
Factoriales con las técnicas de regresión para dirigir el proceso a las condiciones
óptimas de operación.
TABLA DE CONTENIDO
INTRODUCCIÓN.......................................................................................................... 2
TABLA DE CONTENIDO .............................................................................................. 3
CAPITULO 1
ESTADÍSTICA BASICA........................................................................ 5
1.1
1.1 Introducción ................................................................................................... 5
1.2
1.2 Definiciones claves en DDE ........................................................................... 7
1.2.1
Experimento...................................................................................................... 7
1.2.2
Diseño de Experimentos ................................................................................... 7
1.2.3
Tratamiento....................................................................................................... 7
1.2.4
Unidad experimental ......................................................................................... 7
1.2.5
Variables, factores y niveles.............................................................................. 7
1.3
Etapas en el diseño de experimentos ................................................................ 10
1.3.1
Identificación y enunciación del problema ....................................................... 11
1.3.2
Elección de los factores, niveles y rangos. ...................................................... 11
1.3.3
Elección de la variable respuesta.................................................................... 12
1.3.4
Elección del diseño experimental .................................................................... 12
1.3.5
Realización del experimento ........................................................................... 13
1.3.6
Análisis de datos. ............................................................................................ 13
1.3.7
Conclusiones y recomendaciones................................................................... 13
1.4
Estadística básica .............................................................................................. 13
1.4.1
Ramas de la estadística .................................................................................. 14
1.4.2
Población y muestra........................................................................................ 14
1.4.3
Medidas de tendencia central y variabilidad .................................................... 16
1.4.4
Variables aleatorias: Discreta y Continúa........................................................ 22
1.4.5
Distribución de muestreo................................................................................. 24
1.4.6
Teorema del límite central............................................................................... 26
1.5
Inferencia estadística ......................................................................................... 31
1.5.1
Prueba de hipótesis ........................................................................................ 31
1.5.2
Intervalos de confianza ................................................................................... 32
1.5.3
Errores de tipo I y II......................................................................................... 32
1.6
Uso del valor P en un contraste de Hipótesis..................................................... 33
1.7
1.7 El uso de los computadores y Software especializado ................................. 34
1.8
Ejercicios propuestos ......................................................................................... 35
CAPITULO 2
2.1
COMPARACIONES SIMPLES. .......................................................... 35
Contraste de hipótesis ....................................................................................... 35
2.1.1
2.2
Ejemplos del uso de la Tabla 2.1 .................................................................... 38
Intervalos de confianza ...................................................................................... 39
2.2.1
2.3
Ejemplo del uso de la Tabla 2.2 ...................................................................... 41
Ejercicios propuestos ......................................................................................... 41
CAPITULO 3
3.1
COMPARACIONES CON UN FACTOR. ANALISIS DE VARIANZA... 44
Modelo general de Análisis de Varianza, ANOVA, para un modelo de efectos fijos
45
3.2
Modelo de efectos fijos y aleatorios ................................................................... 49
3.3
Supuestos en ANOVA y medidas de adecuación del modelo ............................ 49
3.3.1
Supuesto de normalidad ................................................................................. 50
3.3.2
Supuesto independencia e igualdad de varianzas........................................... 51
3.4
Comparaciones múltiples. .................................................................................. 52
3.4.1
Comparación gráfica de medias...................................................................... 53
3.4.2
Comparación de pares de medias................................................................... 54
BIBLIOGRAFÍA........................................................................................................... 56
Tablas......................................................................................................................... 57
Tabla I
Distribución normal ...................................................................................... 57
Tabla II
Distribución t ............................................................................................... 58
Tabla III
Distribución Ji Cuadrado ............................................................................ 59
Tabla IV
Distribución F con α = 0.25 ........................................................................ 60
Tabla V
Distribución F con α = 0.05 ......................................................................... 61
Tabla VI
Distribución F con α = 0.10 ........................................................................ 62
Tabla VII
Distribución F con α= 0.025 ...................................................................... 63
Tabla VIII
Distribución F con α=0.01 ........................................................................ 64
CAPITULO 1 ESTADÍSTICA BASICA
1.1 1.1
Introducción
En el campo de la industria es una práctica común hacer experimentos o pruebas para
descubrir algo acerca de un sistema o proceso en particular. Un experimento puede
definirse como una prueba o serie de pruebas en las que se hacen cambios
deliberados en las variables de entrada de un proceso o sistema para observar e
identificar la forma como éstas influyen en las variables de salida. Comúnmente, estas
pruebas o experimentos se hacen sobre la marcha, a prueba y error, apelando a la
experiencia y a la intuición; en lugar de seguir un plan experimental adecuado que
garantice una respuesta adecuada y objetiva a los interrogantes planteados. El Diseño
de Experimentos tiene que ver con la planeación y realización de experimentos y el
análisis de datos resultantes a fin de obtener conclusiones validas y objetivas. El
objetivo es desarrollar un proceso robusto, es decir, un proceso que sea afectado de
forma mínima por las fuentes de variabilidad externas.
El diseño de experimentos (DDE) es un conjunto de técnicas activas que manipulan el
proceso para inducirlo a proporcionar la información que se requiere para mejorarlo.
También incluye técnicas estadísticas para llevar los procesos y sistemas a las
condiciones óptimas de operación. Las técnicas de diseño (DD) también juegan un
papel importante en la investigación científica haciendo que este proceso sea lo más
eficiente posible.
El objetivo de los métodos estadísticos es lograr que el proceso de generar
conocimiento y aprendizaje sea tan eficiente como sea posible. Este proceso ha
demostrado, a lo largo de la historia de la humanidad, ser un proceso secuencial en el
cual interactúan dos polos (véase Figura 1.1), por un lado la teoría, modelos, hipótesis,
conjeturas, supuestos y por el otro la realidad, hechos, fenómenos, evidencia, datos.
Así, como se comenta en Box y otros [3], una hipótesis inicial lleva a un proceso de
deducción en el que las consecuencias derivadas de la hipótesis pueden ser
comparadas con los datos. Cuando las consecuencias y los datos no corresponden,
entonces la discrepancia puede llevar a un proceso de inducción,
en el cual se
modifica la hipótesis original. De esta manera se inicia un segundo ciclo de la
interacción de teoría y datos; en el cual las consecuencias de las hipótesis modificada
son comparadas con los datos (los que ya teníamos o nuevos) que nos pueden llevar
a nuevas modificaciones y ganancia de conocimiento.
Realidad, hechos, fenómenos, datos
deducción inducción
deducción inducción
Teoría, modelos, hipótesis, supuestos
Figura 1.1 Proceso iterativo de la experimentación
Este proceso de aprendizaje también puede visualizarse como un ciclo de
retroalimentación (Figura 1.2), en la cual las discrepancias entre los datos y las
consecuencias de las hipótesis iniciales (H1), lleva a una hipótesis modificada (H2), y
de la verificación de esta, además de conocimiento, se llega a una nueva modificación
que conduce a una nueva hipótesis (H3), y así sucesivamente.
Datos
Inducción
Hipótesis
H1
Deducción
Hipótesis
Modificada H2
Consecuencias
de H1
La hipótesis H2 reemplaza a H1
Figura 1.2 Proceso iterativo de la experimentación
El diseño estadístico de experimentos permite optimizar la información generada
acerca del proceso, en relación a los objetivos planteados. En otras palabras, el diseño
de experimentos es la aplicación del método científico para generar conocimiento
acerca de un sistema o proceso. Esta herramienta se ha ido consolidando en la
industria actual como un conjunto de técnicas estadísticas y de ingeniería, que permite
lograr la máxima eficacia de los procesos con el mínimo costo. El diseño de
experimentos es especialmente útil para crear calidad desde la fase del diseño del
producto y del proceso; pero también permite lograr mejoras sustanciales en procesos
ya establecidos.
Normalmente es más eficiente estimar el efecto de varias variables simultáneamente.
Cada diseño experimental contiene entonces un grupo de experimentos. Algunas
veces se utilizan los mismos datos para confrontarlos con sucesivas hipótesis. Sin
embargo, cuando no se ve claramente qué modificación ha de realizarse a una
hipótesis aparentemente satisfactoria, se precisarán datos adicionales. Estos se
generan con más experimentos dispuestos en un nuevo diseño experimental.
1.2 1.2
Definiciones claves en DDE
1.2.1 Experimento
Un experimento es un cambio en las condiciones de operación de un sistema o
proceso, que se hace con el objetivo de medir el efecto del cambio sobre una o varias
propiedades del producto. Dicho experimento permite aumentar el conocimiento
acerca del sistema. Por ejemplo, en un proceso químico se pueden probar diferentes
temperaturas y presiones, y se mide el cambio observado en el rendimiento (yield,
ppm, defectivo) del proceso. Esta experimentación genera conocimiento acerca del
proceso químico, lo que le permite mejorar su desempeño.
1.2.2 Diseño de Experimentos
El diseño de experimentos consiste en planear un conjunto de pruebas experimentales
de tal manera que los datos generados puedan analizarse estadísticamente para
obtener conclusiones validas y objetivas acerca del sistema o proceso.
1.2.3 Tratamiento
Son el conjunto de circunstancias creadas para el experimento, en respuesta a la
hipótesis de investigación y son el centro de la misma. Entre los ejemplos de
tratamiento se encuentran dietas de animales, producción de variedades de cultivo,
temperaturas, etc. En el estudio comparativo se usan dos o más tratamientos y se
comparan sus efectos en el sujeto de estudio
1.2.4 Unidad experimental
La unidad experimental es la entidad física o el sujeto expuesto al tratamiento
independientemente de otras unidades. La unidad experimental, una vez expuesta al
tratamiento, constituye una sola replica del tratamiento
1.2.5 Variables, factores y niveles
En todo proceso intervienen muchas variables como se muestra en la siguiente figura:
Factores
controlables
x1 x2 x3
Variables de
Entradas
…x
p
PROCESO
Variables
de Salidas
…
z1 z2 z3
zq
Factores no
controlables
Figura 1.3 Modelo general de un proceso o sistema
A continuación se hace una breve descripción de los factores y variables que se
encuentran en DDE
1.2.5.1 Variable de respuesta o variable de salida.
Es la característica o variable de interés. Por lo general determina algún aspecto de
calidad del producto. La conjetura típica es que existe una manera de operar el
proceso en la cual la variable respuesta seria mejor que la actual. En las técnicas de
diseño de experimentos van dirigidas a una sola variable respuesta.
1.2.5.2 Factores controlables.
Son variables de proceso o variables de entrada que se pueden fijar en un punto o en
un nivel de operación específico durante el experimento. Algunos factores que
generalmente se controlan son: temperatura, presión, tiempo de residencia, cantidad
de cierto reactivo, velocidad, etc. A los factores controlables también se les llama
variables de entrada, condiciones de proceso, variables de diseño, parámetros del
proceso, o simplemente factores.
1.2.5.3 Factores no controlables o de ruido.
Son variables que no se pueden controlar durante la operación normal del proceso
como por ejemplo: humedad, temperatura ambiente, ánimo del operador, calidad del
material que se recibe del proveedor, etc. Un factor no controlable puede convertirse
en controlable cuando se tenga el mecanismo o tecnología para ello.
1.2.5.4 Niveles y tratamientos.
Los diferentes valores que se asignan a cada factor estudiado en un diseño
experimental se llaman niveles. Una combinación de niveles de todos los factores de
interés se le llama tratamiento. Por ejemplo, si en un experimento se controla la
velocidad y la temperatura, cada uno en dos niveles, entonces cada combinación de
niveles (velocidad, temperatura) es un tratamiento. En este caso habría cuatro
tratamientos en total.
1.2.5.5 Error aleatorio y error experimental.
Siempre que se realice un estudio, parte de la variabilidad observada en la variable
respuesta no se podrá explicar en términos de los factores estudiados. Es decir,
siempre habrá un remanente de variabilidad que se debe a factores aleatorios propios
del proceso. Esta variabilidad constituye el error experimental, el cual se debe en otras
palabras a variabilidad no explicada.
Cuando se realiza un experimento es importante que la variabilidad obtenida en la
respuesta se deba principalmente a los factores de interés y en menor medida al error
aleatorio, y además se debe garantizar que este error sea efectivamente aleatorio.
1.2.5.6 Grados de libertad
El termino grados de libertad de una cantidad se refiere al número de datos en los que
se basa dicha cantidad menos el número de restricciones involucradas en el cálculo de
ella.
∑ (y − y )
n
Así, por ejemplo, la expresión
i =1
2
i
tiene n-1 grados de libertad pues se puede
∑ (y − y ) = 0 . Es decir, la expresión ∑ (y − y ) se obtiene a partir de
n
demostrar que
i =1
n
i
2
i
i =1
∑ (y − y ) = 0 . Por lo tanto
n
n datos pero con esos mismos n datos existe la restricción
i =1
i
solo se pueden definir de manera arbitraria n-1 de los n residuos y − y i ya que el
∑ (y − y ) = 0
n
último residuo debe cumplir la restricción
i =1
i
El concepto de grados de libertad se utiliza muchísimo en estadística ya que permite
obtener estimados de los parámetros de una población. Por ejemplo, un estimador de
∑ (y − y )
n
la varianza poblacional σ2 es la varianza muestral s 2 =
i =1
2
i
n −1
. Observe que es la
suma de los cuadrados de las desviaciones de cada observación con respecto a la
media, dividido entre el número de grados de libertad y no del número de datos.
1.3 Etapas en el diseño de experimentos
El objetivo de un diseño de experimentos es decidir como se van a obtener los datos
en una investigación, para obtener la máxima información y entendimiento al mínimo
costo posible. Toda investigación o estudio siempre se propone un objetivo específico
en mente y con el diseño experimental lo que se busca es responder de manera
adecuada todas las inquietudes planteadas inicialmente en la realidad que se estudia.
El diseño de experimento no solo tiene que ver con la toma adecuada de datos si no
que envuelve toda una serie de etapas que si se realizan de manera adecuada y a
conciencia permiten responder las inquietudes planteadas en los objetivos de la
investigación en curso.
Estas etapas se deben tener en cuanta siempre que se realice un nuevo estudio o
investigación. Además, esta secuencia de etapas le brinda al lector un excelente
panorama general de todo el curso al que se recomienda regresar al finalizar el
mismo.
Las principales etapas en la diseño experimental son:
•
Identificación y enunciación del problema
•
Elección de los factores, niveles y rangos.
•
Elección de la variable respuesta.
•
Elección del diseño experimental
•
Realización del experimento
•
Análisis de datos.
•
Conclusiones y recomendaciones
Las cuatro primeras etapas tienen que ver con la planeación del experimento y si se
realizan de manera adecuada y a conciencia las etapas finales resultan muy sencillas.
1.3.1 Identificación y enunciación del problema
Este punto podría parecer muy obvio, pero es común que en la práctica no sea sencillo
darse cuenta de que existe un problema que requiere experimentación, y tampoco es
fácil desarrollar una enunciación clara, con la que todos estén de acuerdo, de este
problema. Es necesario desarrollar todas las ideas acerca de los objetivos del
experimento. Generalmente, es importante solicitar aportaciones de todas las áreas
involucradas: ingeniería, aseguramiento de calidad, manufactura, mercadotecnia,
administración, el cliente y el personal de operación.
1.3.2 Elección de los factores, niveles y rangos.
En esta etapa se determina los factores que influyen sobre la variable respuesta y se
desean considerar en la investigación. Estos factores se suelen clasificar de la
siguiente manera:
•
Factores potenciales de diseño. Son aquellos que el experimenta posiblemente
quiera hacer variar en el experimento. Estos se clasifican así:
o
Los factores de diseño son los que se seleccionan realmente para
estudiarlos en el experimento.
o
Los factores que se mantienen constantes son factores que pueden
tener cierto efecto sobre la respuesta pero que para fines del experimento
no son de interés, por lo que se mantienen fijos en un valor específico.
Ejemplo: cuando existen varias formas de medir la misma variable
respuesta.
o
Los factores que pueden variar se espera que su efecto sea despreciable
y se confía que la aleatorización compense su efecto. Ejemplo: Variabilidad
en las unidades experimentales o falta de homogeneidad en las mismas.
•
Factores perturbadores. Estos pueden tener efecto considerable sobre la
variable respuesta y deben tomarse en consideración durante el experimento, a
pesar de que no halla interés en ellos en el contexto del experimento en curso. Se
clasifican en:
o
Factores controlables es aquellos cuyos niveles pueden ser ajustados por
el experimentador. Se pueden formar bloques para trabajar con ellos.
Ejemplo: diferentes lotes de materia prima o diferentes días de la semana.
o
Factores no controlables o de ruido si se pueden medir se puede
compensar su efecto con Análisis de Covarianza. Ejemplo: Condiciones
ambientales.
Una vez que el experimentador ha seleccionado los factores debe especificar los
rangos de estos factores así como los niveles específicos con los que se realizaran las
corridas. Para esto se requiere un conocimiento del proceso el cual suele ser una
combinación de experiencia práctica y conocimiento teórico.
En las etapas iniciales de la investigación cuando se tiene muchos factores y se desea
realizar un cribado de estos, se debe reducir el número de niveles. Dos niveles
funciona bastante bien en estos casos. En estos estudios de tamizado de factores, la
región de interés deberá ser relativamente grande. Conforme se conozca más acerca
de la forma como influyen los factores de importancia en el proceso, la región de
interés se hará más estrecha.
1.3.3 Elección de la variable respuesta.
Para seleccionar la variable respuesta el experimentador debe tener certeza de que
esta variable proporciona en realidad información útil acerca del proceso bajo estudio.
Usualmente la variable de interés es el promedio aunque algunas veces se utiliza la
desviación estándar u otra medida de variabilidad. Sí la eficiencia de los instrumentos
de medición (o error de medición) es deficiente, el experimentador solo detectara los
efectos relativamente grandes de los factores o quizás sean necesarias replicas
adicionales. En algunos casos, cuando la eficiencia de la medición es pobre, el
experimentador puede tomar como variable respuesta el promedio de varias
mediciones como variable respuesta.
1.3.4 Elección del diseño experimental
Las etapas descritas anteriormente hacen referencia a la planeación previa del
experimento, si estas etapas se realizan conscientemente y como es debido, este
paso es relativamente sencillo. La elección del diseño experimental involucra:
•
El numero de factores,
•
Número de niveles de cada factor
•
El número de réplicas
•
El orden en el que se van a realizar las corridas
•
Uso de bloques o no en la aleatorización
En esta etapa existe muchos software estadísticos que puede ser de gran ayuda. El
experimentador ingresa al programa la información del número de factores, los niveles
y los rangos, y estos programas presentan a consideración del experimentador una
serie de diseños experimentales o recomendara uno en particular. Algunos programas
suministran también una hoja de trabajo con el orden en el que se deben realizar los
experimentos.
1.3.5 Realización del experimento
Durante esta etapa es importante monitorear el proceso y la toma de datos para
garantizar que todo se realiza de acuerdo a lo planeado. En algunos casos se
recomienda realizar algunas corridas de prueba que suministran información acerca de
la consistencia del material experimental, el sistema de medición y da una idea
aproximada del error experimental. Estas corridas además nos permiten revisar las
decisiones tomadas en los pasos anteriores.
1.3.6 Análisis de datos.
En esta etapa es de vital importancia la estadística ya que nos permite llegar a
conclusiones objetivas y no de carácter apreciativo. Si el experimento se ha diseñado
correctamente y se ha llevado a cabo de acuerdo a lo planeado, los métodos
estadísticos a utilizar no deben ser complicados. En esta etapa los paquetes de
software especializados en estadística también suelen ser de gran ayuda. Estos
programas incluyen métodos gráficos y numéricos que ayudan en el análisis y la
interpretación de los resultados. En algunos casos es importante presentar los
resultados de varios experimentos en términos de un modelo empírico para lo cual
también resulta importante el uso de software especializado.
1.3.7 Conclusiones y recomendaciones.
Después de analizados los resultados el experimentador debe sacar sus conclusiones
y determinar la ruta a seguir en la investigación. Los métodos gráficos suelen ser útiles
en esta etapa para presentar los resultados.
A lo largo de todo el proceso se debe tener en cuenta que la experimentación es una
parte esencial del proceso de aprendizaje en la que se realiza hipótesis acerca de un
sistema, se realizan experimentos para estudiar estas hipótesis, y se realizan nuevas
hipótesis con base en los resultados obtenidos. Esto nos indica que la investigación es
un proceso iterativo y es un error pensar que se puede diseñar un único experimento
que permita entender completamente un sistema o proceso.
1.4 Estadística básica
La estadística es una ciencia encargada de la recopilación, presentación y análisis de
datos para la toma de decisiones y resolver problemas.
1.4.1 Ramas de la estadística
La estadística se divide en dos grandes ramas: la estadística descriptiva y la
estadística inferencial o inferencia estadística. La primera incluye técnicas gráficas y
numéricas que permiten visualizar cosas (tendencia central y variabilidad) que no se
pueden apreciar en los datos originales. La inferencia estadística tiene que ver con el
hecho de tomar una pequeña muestra de una gran población y a partir de los
resultados de la muestra obtener algunas conclusiones acerca de la población de la
cual proviene. Es decir, inferir los resultados de la muestra hacia la población de la
cual proviene. En el siguiente cuadro se resumen las ramas de la estadística.
Ramas de la
Estadística
Estadística
Descriptiva
Técnicas
Gráficas
Diagramas de
puntos, de cajas,
histogramas, etc
Inferencia
estadística
Técnicas
Numéricas
Medidas de tendencia
central como la media o
la mediana
Estimación de
parámetros
Medidas de variabilidad
como la varianza o la
desviación típica
Estimación puntual
Test de Hipótesis
Estimación por
intervalos de
confianza
Diagram a de Fre cue ncias
35
Fre
c
u
e
n
c
ia
30
Datos Originales
25
20
2
81.7
87.2
82.4
84.8
86.1
81.6
86.7
80.1
86.6
84.4
85.6
3
80.6
83.5
86.7
83.6
82.6
86.2
80.5
82.2
83.5
82.2
86.6
4
84.7
84.3
83.0
81.8
85.4
85.4
91.7
88.6
78.1
88.9
80.0
10
5
88.2
82.9
81.8
85.9
84.7
82.1
81.6
82.0
88.8
80.9
86.6
5
6
84.9
84.7
89.3
88.2
82.8
81.4
83.9
85.0
81.9
85.1
83.3
0
7
81.8
82.9
79.3
83.5
81.9
85.0
85.6
85.2
83.3
87.1
83.1
8
84.9
81.5
82.7
87.2
83.6
85.8
84.8
85.3
80.0
84.0
82.3
83.4
88.0
83.7
86.8
84.2
78.4
84.3
87.2
76.5
86.7
81.9
87.7
79.6
87.3
84.0
83.5
86.9
82.3
83.3
82.7
80.2
11
89.4
81.8
87.8
83.0
84.2
86.5
85.0
89.7
86.6
85.1
85.6
12
79.0
79.6
83.6
90.5
82.8
85.0
86.2
84.8
79.5
83.3
86.6
13
81.4
85.8
79.5
80.7
83.0
80.4
83.0
83.1
84.1
90.4
80.0
14
84.8
77.9
83.3
83.1
82.0
85.7
85.4
80.6
82.2
81.0
86.6
15
85.9
89.7
88.4
86.5
84.7
86.7
84.4
87.4
90.8
80.3
83.3
16
88.0
85.4
86.6
90.0
84.4
86.7
84.5
86.8
86.5
79.8
83.1
17
80.3
86.3
84.6
77.5
88.9
82.3
86.2
83.5
79.7
89.0
82.3
18
82.6
80.7
79.7
84.7
82.4
86.4
85.6
86.2
81.0
83.7
86.7
19
83.5
83.8
86.0
84.6
83.0
82.5
83.2
84.1
87.2
80.9
80.2
20
80.2
90.5
84.2
87.2
85.0
82.0
85.7
82.3
81.6
87.3
80.2
56.0
62.0
68.0
74.0
Producción
80.0
86.0
Población Conceptual
con todos los posibles
resultados del experimento
Muestra de
tamaño n
de la población
Calculo de
estadísticos
85.2
Inferencia
9
10
15
Estadísticos de la muestra
Parámetros de la población
como la media, µ
y la varianza, σ2
Estimación de Parámetros y
test de hipótesis sobre los
parámetros de la población
como la media,
y la varianza,
y=
s2 =
∑y
i
n
∑ (y
i
−y
n −1
Figura 1.4 Ramas de la estadística
1.4.2 Población y muestra
La población es se puede entender como el conjunto de todos los posibles resultados
de un experimento mientras que la muestra es un subconjunto de estos resultados. La
población muchas veces puede ser teórica ya que no es posible y en otros puede ser
real. Sin embargo, usualmente el tamaño es muy grande y resulta impractico e inviable
estudiarla completamente. Por esta razón se acude a la inferencia estadística para
poder sacar conclusiones de la población a partir de los resultados de una pequeña
muestra de dicha población.
)
2
En la figura siguiente se ilustra el concepto de población y muestra dentro de la
estadística.
Población Conceptual
con todos los posibles
resultados del experimento
Muestra de
tamaño n
de la población
Calculo de
estadísticos
Inferencia
Estadísticos de la muestra
Parámetros de la población
como la media, µ
y la varianza, σ2
Estimación de Parámetros y
test de hipótesis sobre los
parámetros de la población
como la media,
y la varianza,
y=
s2 =
∑y
i
n
∑ yi − y
(
n −1
Figura 1.5 oblación y muestra dentro de la estadística inferencial
En el contexto general de la estadística se utilizan los calificativos de “parámetro” y
“estadístico” para hacer referencia a cualquier número asociado a la población y a la
muestra respectivamente. También es usual referirse a los parámetros con letras
griegas y a los estadísticos con letras latinas minúsculas. En la Tabla 1.1se resumen
estos conceptos y se muestran las principales medidas de tendencia central y
variabilidad para poblaciones y muestras.
)
2
Definición
Población
Muestra
Conjunto de todas las observaciones
Conjunto de n observaciones
que conceptualmente podrían ocurrir
obtenidas realmente y que
como consecuencia de realizar una
constituyen un subconjunto de
operación bajo ciertas condiciones.
observaciones de la población.
Tendencia central
Media poblacional
Variabilidad
Varianza
poblacional
σ
Desviación
Típica
poblacional
σ=
2
µ=∑
yi
N
∑ (y
=
− µ)
2
i
N
∑ (y
− µ)
2
i
y=
Media muestral:
N
Varianza
muestral
Desviación
Típica
muestral
s
2
∑y
∑ (y
=
i
n
i
−y
)
2
n −1
(
∑ yi − y
s=
n −1
)
2
Tabla 1.1 Medidas Descriptivas de la población y de la muestra
Como se aprecia en la Figura 1.5, el objetivo fundamental de la estadística inferencial
es estimar los parámetros de la población o probar hipótesis a partir de los estadísticos
de una muestra.
1.4.3 Medidas de tendencia central y variabilidad
La medidas de tendencia central más importantes y de mayor uso en Diseño de
Experimentos son la media (o promedio aritmético) y al mediana. Estas medidas
indican el valor central en torna al cual se agrupan los demás datos de la muestra.
De estas, la de mayor importancia es la media, la cual se calcula matemáticamente a
partir de la formula:
y=
∑y
i
(1-1)
n
Donde la sumatoria se hace recorriendo todos los datos de la muestra.
La mediana es el dato central. El dato que divide los demás datos de la muestra en
dos partes iguales: la mitad e ellos están por debajo de la mediana y la otra mitad por
encima. Cuando este dato no existe entonces se toma el promedio de los dos datos
que más se acercan a la definición.
Casi todas las técnicas estadísticas utilizadas en Diseño de Experimentos (DDE) van
dirigidas hacia la media y muy pocas hacia la mediana.
Al igual que la mediana, también existen los cuarteles (tres en total). El primer cuartil
divide los datos en dos partes dejando la cuarta parte de ellos por debajo del primer
cuartil y el resto de los datos por encima. El segundo cuartil es numéricamente igual a
la mediada y el tercer curtil deja la cuata parte de los datos por encima y el resto por
debajo.
Gráficamente se pueda apreciar en la siguiente figura:
Dato menor
Dato mayor
Datos ordenados de menor a mayor
¼ datos
¼ datos
¼ datos
Segundo
Cuartil Q2
Mediana
Primer
Cuartil Q1
¼ datos
Tercer
Cuartil Q3
Rango intercurtilico
Figura 1.6 Cuartiles
Las medidas de variabilidad dan una idea de la dispersión de los datos en torno a un
valor central como la media. La medidas de variabilidad más utilizadas en DDE son la
varianza y la desviación estándar.
La varianza muestral se calcula como s 2
∑ (y
=
raíz cuadrada de la varianza. Es decir, s =
i
−y
)
2
y la desviación típica como la
n −1
∑ (y
i
−y
)
2
n −1
Otra medida de variabilidad que se utiliza para construir el diagrama de cajas que se
verá más adelante es el Rango Intercuartilico (RIC) que se define como la diferencia
entre el tercero y cuarto cuartil (ver Figura 1.6).
1.4.4 Diagrama de puntos, de cajas, distribución de frecuencia e histograma
Existen algunas técnicas graficas dentro de la estadística descriptiva de uso común en
Diseño de Experimentos que vale la pena describir con cierto detalle. Estas incluyen:
el diagrama de puntos, el diagrama de cajas, la distribución de frecuencias y el
histograma.
Diagrama de puntos. Es una representación que se utiliza con muestras pequeñas de
datos (menor que 20) en la cual se pueden apreciar de una manera rápida, medidas
de localización o de tendencia central y medidas de variabilidad. En la siguiente figura
se muestra un ejemplo de este tipo de gráficas.
0 1.
0
64
65
66
67
68
69
70
Figura 1.7 Ejemplo de un diagrama de puntos para una muestra de 10 datos
Diagrama de Cajas. Es un diagrama que describe simultáneamente varias
características importantes de la muestra tales como el centro, dispersión, la
desviación, la simetría y la identificación de observaciones que se alejan de manera
poco usual del resto de los datos(valores atípicos)
El diagrama de caja presenta los tres cuartiles, y los valores máximo y mínimo de los
datos sobre el rectángulo, alineado horizontal o verticalmente. El rectángulo delimita el
rango intercuartílico con la arista izquierda (o inferior) ubicada en el primer cuartel, Q1,
y la arista derecha (o superior) en el cuartel Q3. Se dibuja una línea a través del
rectángulo en la posición que corresponde al segundo cuartil (que es igual a la
mediana) Q2= mediana. De cualquiera de la aristas del rectángulo se extiende una
línea, o bogote, que va hacia los valores extremos. Éstas son observaciones que se
encuentra entre cero y 1.5 veces el rango intercurtílico a partir de las aristas del
rectángulo. Las observaciones que están entre 1.5 y 3 veces el rango intercuartílico a
partir de las aristas del rectángulo reciben el nombre de valores atípicos. Las
observaciones que están más allá de tres veces el rango intercuartílico a partir de las
aristas del rectángulo se conocen como valore atípicos extremos. En ocasiones se
emplean diferentes símbolos (como círculos vacíos o llenos), para identificar los dos
tipos de valores atípicos. A veces, los diagramas de caja reciben el nombre de
diagramas de caja y bigotes.
Figura 1.8 Ejemplo de un diagrama de cajas
Distribución de Frecuencia e Histograma.
La distribución de frecuencias permite resumir los datos en una tabla como la que se
muestra a continuación:
Distribución de Frecuencias
Marca
Intervalo
Clase
Frecuencia
Frecuencia
relativa
xmin = x0
x1
(x0+x1)/2
f0
F0 = f0/∑fi
x1
x2
(x1+x2)/2
f1
F1 = f1/∑fi
x2
x3
(x2+x3)/2
f2
F2 = f2/∑fi
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
xn-2
xn-1
(xn-2+xn-1)/2
fn-2
Fn-2 = fn-2/∑fi
xn-1
xmax = xn
(xn-1+xn)/2
fn-1
Fn-1 = fn-1/∑fi
∑fi
∑Fi = 1
Tabla 1.2 Distribución de frecuencias de un conjunto de datos
En esta tabla se muestra la forma como se distribuyen los datos en una serie de
intervalos (llamados intervalos de clase) en los que se ha dividido el rango de datos.
La columna etiquetada “marca de clase” es el dato por el que se reemplazan todos los
datos que caen en este intervalo y se obtiene como el promedio entre los límites
superior e inferior del intervalo de clase correspondiente. La columna etiquetada como
“frecuencia” indica el número de datos y la frecuencia relativa es el porcentaje de
datos que se encuentran en el intervalo de clases correspondiente.
Se debe tener presente que al pasar de los datos originales a la tabla de distribución
de frecuencias se pierde calidad en la información ya que todos los datos en cada
intervalo de clase se reemplazan por su respectiva marca de clase.
El número de clases que se deben tomar en una tabla de distribución de frecuencia es
decisión del lector. Sin embargo, se recomienda utilizar un número de clases igual a la
raíz del número de datos, haciendo notar, que esto no es camisa de fuerza en las
tablas de distribución de frecuencia.
Un histograma no es más que una representación gráfica de una tabla de distribución
de frecuencia, en la que se coloca en el eje horizontal una barra vertical para cada
marca de clase, la cual se extiende de verticalmente una distancia igual a la frecuencia
relativa correspondiente.
Usualmente, este diagrama se construye, de tal suerte, que cada barra tiene una base
unitaria para garantizar que el área total de todas las barra sea igual a uno.
En la figura siguiente se muestra un histograma típico:
Histograma
1.5
2.5
3.5
4.5
5.5
6.5
7.5
8.5
9.5
10.5
11.5
Figura 1.9 Histograma como una representación gráfica de una distribución de frecuencias
En la Figura 1.10 se muestra el procedimiento para crear un histograma a partir de los
datos originales (de la población o de la muestra). También se aprecia el hecho que no
es posible reconstruir la población original a partir de la distribución de frecuencias o
de su histograma.
Distribución de Frecuencias
Marca
Clase
Frecuencia
Frecuencia
relativa
xmin = x0
x1
(x0+x1)/2
f0
F0 = f0/∑fi
x1
x2
(x1+x2)/2
f1
F1 = f1/∑fi
x2
x3
(x2+x3)/2
f2
F2 = f2/∑fi
x3
x4
(x3+x4)/2
f3
F3 = f3/∑fi
x4
x5
(x4+x5)/2
f4
F4 = f4/∑fi
.
.
.
.
.
.
.
.
.
.
Intervalo
Población Conceptual
con todos los posibles
resultados del experimento
Distribución
de
Frecuencias
.
.
.
.
.
xn-3
xn-2
(xn-3+xn-2)/2
fn-3
Fn-3 = fn-3/∑fi
xn-2
xn-1
(xn-2+xn-1)/2
fn-2
Fn-2 = fn-2/∑fi
xn-1
xmax = xn
(xn-1+x n)/2
fn-1
Fn-1 = fn-1/∑fi
∑fi
∑Fi = 1
≠
Histograma
Histograma
Población reconstruida
a partir del histograma o
de la distribución de
frecuencia
Reconstrucción
de
la población
1.5
2.5
3.5
4.5
5.5
6.5
7.5
8.5
9.5
10.5
11.5
Figura 1.10 Procedimiento para construir un histograma
El histograma representa de manera aproximada la población de datos a partir de la
cual se obtuvo y esta aproximación será mejor en la medida que se reduzca la
amplitud del intervalo de clase. Si la población es muy grande entonces, en teoría, se
puede hacer tender el intervalo de clases a cero y el histograma tiende a ser una
función continua que representa completamente y fielmente la población original (ver
Figura 1.11). Esta función recibe el nombre de función de densidad de probabilidad de
la población.
En la Figura 1.11 también se ilustra la equivalencia existente entre el histograma y la
población de la cual se obtiene, en dos situaciones: cuando se toman intervalos de
clase de longitud finita (figura superior) y cuando se hace tender a cero la longitud de
dichos intervalos (figura inferior).
3. 23
5 .
25 23 5
.9 . 5
Población real
o
teórica
p(y)--->
2
2
23 2
.5 3.
5
2
23 5.9
2 .5 2
3
3
.5
.5
23
.2
23
.
.9
22
.9
22
a
Histo grama d e lo s d ato s d e u n a po b lació n re al o
te o rica
2 .8 .223
.1 23.5.1
303
.5
.53
20 .8 30
2
25.1 25 3.225.7
.6
24.8
23.9
26.0
28.0
24.0
25.0
25.2
22.1
2
.9
.4 2 9
.219.0 23
23.5
5
.5
2
2
278.223.5
2213.
0.81.8 229.6 222.9
2
32
28 2 .2 9.58
3.5
2.82.4.48.4 23.
.4
7
8
3 2
2
4 .4.5
3.5
27.2
21.8
1 2 .7
23 23
23
.30
28 2 27
8.23
.2
23
.5 23.5
128.425 .5.1
.5 5.2
2
0
y--->
3. 23
5 .
2 5 23 5
.9 .5
Población real
o
teórica
p(y)--->
2
23 2
.5 3.
5
2
23 5.9
2 .5 2
3
3
.5
.5
23
.2
23
.
Te n d e ncia d e l Histo g rama de los d ato s d e u n a
po b lació n re al o te o rica cuand o e l nú me ro d e
in te rv alos d e clase tie n d e a infin ito
.9
22
b
.9
22
2
2 .8 .223
.1 23.5.1
303
.
.
20 .8 30
25.1 25 3.2 253 29.65
4
2 25.7
3.5
.9
.219.0 23
24.8
23.9
26.0
28.0
24.0
25.0
25.2
22.1
5.28
8. 232
.5 .6
2
1
2
2213.58
.9
.2
.5
.8
0
22 27
22 9
32
3.5
2.82.4.48.4 23.2 28.4 28 273.229.
.5
.2
.
.
4
3
27 21 8.23
4.5
1.52.17
23 23
.30
28 2 22
.2
8 22
53
.5 23.7
1.28
.4
53.5 5.2
2
0
y--->
Figura 1.11 Histograma de una población real o teórica. a) Tomando un número de intervalos de clase finito y b)
Haciendo tender a infinito el número de intervalos de clase.
De esta manera se aprecia como obtener, al menos conceptualmente, la función de
densidad de probabilidad de una población (real o hipotética) haciendo tender a infinito
el número de intervalos de clase o, lo que es lo mismo, haciendo tender a cero la
longitud de cada uno de los intervalos de clase (el procedimiento es equivalente).
En síntesis podemos decir que: cualquier población se puede representar
unívocamente por su función de densidad de probabilidad.
1.4.4 Variables aleatorias: Discreta y Continúa
Un experimento aleatorio es aquel que siempre nos lleva a resultados diferentes
aunque se realice, aproximadamente, bajo las mismas condiciones. Entre tanto, una
variable aleatoria es una función que asocia un número a cada uno de los resultados
de un experimento aleatorio. Por lo tanto, una variable aleatoria también toma
resultados diferentes cada vez que se realiza el experimento. Si estos resultados son
finitos o infinitos pero numerables, entonces la variable aleatoria se conoce como
discreta. Si los resultados de la variable aleatoria son infinitos pero no numerables,
como por ejemplo los números reales que caen en un intervalo, entonces la variable
aleatoria se conoce como continua.
En la Tabla 1.3 se aprecian las diferencias conceptuales entre una variable aleatoria
discreta y otra continua; la forma como se obtienen dos de las características más
importantes de una variables aleatoria: el valor esperado, E(y) y la varianza, V(y).
Continua
Discreta
F(y)
p(y)
P( y = y j ) = P( y j )
b
P( a ≤ y ≤ b) = ∫ f ( y ) dy
Probabilidad
directa
a
Probabilidad como el
área bajo la curva
y1 y2 y3 y4 y5 y6 y7 y8 y9
y10 y11 y12 y13 y14
0 ≤ P( y j ) ≤ 1
Función de
de Probabilidad
a
f ( y) ≥ 0
Función de densidad
de Probabilidad
∞
∑ P( y ) = 1
∫ f ( y) = 1
j
todos y j
−∞
µ = E ( y) =
b
∑ y. p( y j )
µ = E ( y) =
todos y j
σ 2 = V ( y ) = E [( y − µ ) 2 ]
= ∑ ( y − µ ) 2 . p( y j )
∞
∫ yf ( y)dy
−∞
σ 2 = V ( y ) = E [( y − µ ) 2 ]
todos y j
=
∞
∫ ( y − µ)
2
f ( y ) dy
−∞
Tabla 1.3 Diferencias entre las variables aleatorias discretas y continúas
A continuación se enumeran algunas propiedades matemáticas del operador
esperanza matemática, E(y) y la varianza V(y) de una variable aleatoria (discreta o
continúa):
1.
E(c) = c
2.
E(y) = µ
3.
E(cy) = cE(Y) = cµ
4.
V(c) = 0
5.
V(y) = σ2
6.
V(cy) = c2 V(y) = c2 σ2
7.
E(y1±y2) = E(y1)±E(y1)
8.
V(y1±y2) = V(y1)+V(y1)±2cov(y1,y2)
Si y1 y y2 son independientes:
9.
E(y1.y2) = E(y1).E(y1)
10.
V(y1±y2) = V(y1)+V(y2) = σ12+ σ22
Se destaca que mientras una variable aleatoria esta caracterizada por completo por su
función de probabilidad P(yi), la cual da directamente la probabilidad del evento
específico y=yi, la variable continua esta caracterizada es por su función de densidad
de probabilidad, f(y), con la que se obtiene la probabilidad de que la variable aleatoria
caiga en un intervalo dado integrando la función en dicho intervalo. También se ilustra
la forma de obtener el valor esperado y la varianza de una variable aleatoria.
En DDE son de mayor utilidad las variables aleatorias continuas. Dentro de éstas, se
destacan: la normal, la t, la Ji-Cuadrado y la F. El uso y propiedades de estas variables
aleatorias se describen más adelante en este capítulo. Sin embargo se adelanta que,
de todas ellas, la de mayor utilidad en DDE es la F.
1.4.5 Distribución de muestreo.
Este término hace referencia a la función de probabilidad que tiene un estadístico. Por
ejemplo, la media o promedio de una muestra es un estadístico y su distribución de
muestreo se llama distribución de muestreo de media.
La distribución de muestreo de un estadístico depende de la distribución de la
población de la que se obtuvo la muestra, del tamaño de la muestra y de la forma
como se toma la muestra.
A continuación se brinda una descripción detallada de las distribuciones de muestreo
más importante en DDE
1.4.5.1 Distribución Normal y normal estándar
Es sin duda la distribución de muestreo más importante. La variable aleatoria, x es
normal o tiene una distribución normal si su función de densidad de probabilidad es:
f ( x) =
1
e
2πσ
−( x−µ )2
2σ 2
(1-2)
Recuerde que la integral bajo la curva en un intervalo dato de esta función, da la
probabilidad de que la variable aleatoria tome un valor en este intervalo.
Con frecuencia se usa la notación x ~ N ( µ , σ 2 )
para denotar que la variable
aleatoria, x sigue una distribución normal con media µ y varianza σ2.
En la Figura 1.12 se muestra lo que ocurre al aumentar la media, µ y la varianza sobre
la distribución normal estándar. Se observa que al aumentar el parámetro µ se traslada
la función hacia la derecha mientras que un aumento de σ2 ocasiona un aplanamiento
de la curva.
A. Efecto de la media
µ1
<
µ2
<
µ3
<
µ4
σ1
B. Efecto de la varianza
σ2
1
f ( x) →
2πσ
−( x−µ )2
e
2σ 2
σ1
σ4
Figura 1.12 Efecto de la media y la varianza sobre la distribución normal.
La importancia de la distribución normal se debe fundamentalmente a tres aspectos:
•
Permite modelar de manera directa muchos experimentos aleatorios
•
Aproxima otras funciones de densidad probabilidad
•
El teorema del limite central que se verá en la siguiente sesión
Un caso de particular interés es el de la distribución normal estándar que se obtiene
cuando µ = 0 y σ2 = 1. Esta distribución es la que se encuentra tabulada en todos los
textos de estadística y de la cual se suministra una copia al final del presente
documento (Tabla I)
En la Figura 1.13 se muestra la relación entre la distribución normal general y la
normal estándar. En esta figura también se muestran algunas probabilidades claves
asociadas a la distribución normal.
z=
x−µ
σ
x ~ N (µ ,σ 2 )
f ( x) →
1
2πσ
z ~ N (0,1)
−( x−µ )
e
2
2σ 2
1
f ( z) →
2π
e
−z2
2
Figura 1.13 Relación entre la distribución normal estándar y la normal
1.4.6 Teorema del límite central
Formalmente este teorema establece lo siguiente:
Si y1, y2, …, yn es una sucesión de n variables aleatorias independientes que tienen
una distribución idéntica con E (yi) =µ y V(yi) = σ2 y x = y1 + y2+ …+ yn, entonces
zn =
x − nµ
σ n
(1-3)
Tiende a poseer una distribución normal estándar cuando n tiende a infinito.
En esencia, este teorema establece que la suma de n variables aleatorias
independientes con la misma distribución sigue una distribución aproximadamente
normal.
En la Figura 1.14 se ilustra la utilidad conceptual y práctica del teorema del límite
central. En esta figura se aprecia que, independientemente de la forma como se
distribuyan los datos de una población, su respectiva población de medias tiende a ser
normal.
Te nd e ncia de l Histo grama de lo s datos de un a
pob lación re al o te orica cuan do e l nú me ro de
inte rv alo s de clase tie nde a infinito
23 2
.5 3 .
25 23 5
.9 .5
Población real
o
teórica
p(y)--->
23 2
.5 3 .
5
25
2
.
23 3.5 239
.5
.5
23
.2
.9
22
.9
22
23
.2
2 . 8 .223
.1 23.5
.1
303
.
.53
24.8
23.9
26.0
28.0
24.0
25.0
25.2
22.1
20 .8 30
2
25
25 3.225.7
65
4 29. .5
19.0 2 .1
2
.9
.
2
5.281
8. 2323
3.5 .6
2
2
2213.58
.2
.9
.
.5
7
8
0
9
22
2
2
2
323.5 .4 8
2.82 .4 .4 23.2 28.4 28 273.229.
.5
.2
.
4
.
7
3
2
7
2
3
21.88.23
1
2 228 2 27
24.5
.30
3
.2
3.5 23 23
128.425 .5.1
.5 .5 5.2
2
0
y=
∑y
y--->
Función de densidad de probabilidad de la
población de Medias
i
n
23 2
.5 3.
25 23 5
. 9 .5
2
23
.
.9
22
.9
22
23 2
.5 3.
5
2
23 5.9
23 .5 23
.5
.5
23
.2
2
.8
12
03
.123.5
.3
. .2 3.5
20 .830
25.1 25.7
25 3.2 2534 29. 6.5
24.8
23.9
26.0
28.0
24.0
25.0
25.2
22.1
2
.9
.
.219.0 23
23
8
5
.5
2
2
8
2
. 1.8 2 29.6 222.9
2213.58
03
227.2 32.5
32
.5
9.
2.82.4.48.4.5 23. .2
8. 273. .2
.4
8
2
2
4
7
. 34.5
1.52.17
23 228 23 22
.30
.2 2 211.288 22
73
53
3.5 23.5
.
2
.4
.5 5 28
2
Población de
medias
n →∞
f ( x ) → f x ( x; µ , σ ) =
1
2πσ
e
−( x−µ )2
2σ 2
Figura 1.14 Teorema del límite central
Normalmente, el error experimental total o global (ver sesión 1.2.5.5 más atrás) de un
experimento, se obtiene como un conglomerado de muchos errores componentes
cuya contribución es pequeña e independiente. Es decir,
ε = a1ε1 + a2ε 2 + L + anε n
(1-4)
El Teorema del Límite Central establece que, bajo ciertas circunstancias, que
normalmente se dan en el mundo de la experimentación, esta suma tiende a la normal
si ningún error predomina sobre los demás.
1.4.6.1 Distribución χ2
Es decir, si z1, z2, …, zk son k variables aleatorias que tienen una distribución normal e
independiente con media cero y varianza 1, que se simboliza como NID(0,1), entonces
la variable aleatoria:
xk = z12 + z 22 + L + z k2
(1-5)
Sigue una distribución χ2 o Ji-cuadrado con k grados de libertad y función de densidad
de probabilidad dada por:
1
f ( x) =
x
k 
2 k / 2 Γ 
2
2
µ = k σ = 2k
k / 2 −1
−x / 2
e
(1-6)
En la siguiente figura se muestra varias distribuciones Ji cuadrado para distintos
valores de k. En esta figura se aprecia que la distribución es asimétrica o sesgada.
K=2
K=5
K=15
K=20
Figura 1.15 Distribuciones Ji cuadrado para diferentes grados de libertad
Una de los usos inmediatos de la distribución χ2 es el hecho que si las observaciones
de la muestra son NID(µ,σ2), entonces la distribución de la varianza muestral
s
2
∑ (y
=
i
−y
)
2
n −1
constante
sigue una distribución
σ2
n −1
χ 2 . Es decir una χ2 multiplicada por la
σ2
n −1
Los datos de probabilidad para esta distribución de muestreo se encuentran en el la
Tabla III
1.4.6.2 Distribución t
Si z es una variable aleatoria normal estándar y χ2k es una ji-cuadrado con k grados de
libertad, entonces la variable aleatoria:
tk =
z
(1-7)
χ k2 / k
sigue una distribución t (o t de Student) con k grados de libertad.
En la Figura 1.16 se muestra varias distribuciones t para diferentes grados de libertad.
En esta gráfica se aprecian las similitudes entre la normal estándar y la t de Student.
Además, se destaca el hecho que la t tiende a la normal cuando el número de grados
de liberta aumenta.
v=∞ -> N(0,1)
v=5
v=2
v=1
Figura 1.16 Varias distribuciones t
En la Figura 1.17 se muestra la forma como se obtiene, conceptualmente, una
distribución t a partir de una población madre normal. En síntesis, se toma una
muestra aleatoria de tamaño n de la población original a partir de la cual se genera la
población muestral de medias y de varianzas. Finalmente se obtiene el estadístico t a
partir de estas dos distribuciones de muestreo y se obtiene la distribución t.
n
y =
2 7.0
22.0
s2
∑
Distribución
Muestral de medias
n
∑ (y
=
.2
24
yi
i =1
i
−y
)
N(µ, σ2/√n)
2
n −1
t=
y−µ
s/ n
Distribución
Muestral es t
24
.2
25
.1
.7
27.7 27
25.1
24.0
24.2
Población Madre
Normal N(µ,σ2)
Distribución
Muestral de s2 α χ2k
Figura 1.17 Origen conceptual de la distribución t.
Los datos de probabilidad para esta distribución de muestreo se encuentran en el la
Tabla II
1.4.6.3 Distribución F
Esta distribución de muestreo es, quizás, la más utilizada en diseño de experimentos,
como se ira viendo el la medida que avance en el curso.
Si χ u2 y χ v2 son dos variables aleatorias Ji-cuadrado con grados de libertad u y v
respectivamente, entonces la variable aleatoria:
Fu ,v =
χ u2 / u
χ v2 / v
(1-8)
Tiene una distribución F con u grados de libertad en el numerador y v grados de
libertad en el denominador.
La figura siguiente muestra el comportamiento de la distribución F para distintos
valores de los parámetros u y v.
U=40, v=40
U=10, v=50
U=4, v=10
U=50, v=10
U=10, v=10
U=4, v=40
Figura 1.18 Varias distribuciones F
En la siguiente figura se ilustra la forma como se obtiene en la práctica (desde el punto
de vista conceptual) la distribución F.
∑( y − y )
=
2
2
s1
n1 −1
25.1
.2
.0
22.0 27
0
24.2 24.
25.1
24.2
1
24
27.7
2 7. 7
i
S 12=1.03
Población Madre 1
N(µ1,σ2)
Fn1 −1, n2 −1
s12
= 2
s2
F =0.92
∑( y − y )
=
2
2
2
s
2 7.7
2
n2 −1
Distribución
Muestral de F
.2
25.1
24
27.7
.0
22.0 27
0
24.2 24.
5.1
2
24.2
i
S 22=1.12
Población Madre 2
N(µ2,σ2)
Figura 1.19 Origen conceptual de la distribución F
Los datos específicos de la distribución F se encuentran desde la Tabla IV a Tabla VIIIl
al final del libro
1.5 Inferencia estadística
1.5.1 Prueba de hipótesis
En esencia, el contraste de hipótesis se puede resumir como sigue:
•
A partir de los datos de la muestra calculamos un estadístico para contrastar una
hipótesis particular con una hipótesis alterna. Por ejemplo:
•
Relacionamos el estadístico con la distribución de referencia apropiada, que nos
dice como se distribuye el estadístico si la hipótesis nula fuera cierta.
•
Se obtiene la probabilidad de que una discrepancia, como la observada, pueda
ocurrir al azar si la hipótesis nula fuera cierta.
•
Esta probabilidad se denomina nivel de significancia; si es suficientemente
pequeño, la hipótesis nula se rechaza y afirmamos que hemos obtenido una
diferencia estadísticamente significativa.
1.5.2 Intervalos de confianza
Un intervalo de confianza de por ciento para un parámetro θ, es un intervalo de la
forma
l <θ < u
(1-9)
En el que se espera que este incluido el parámetro con una probabilidad del por
ciento. Es decir:
P (l < θ < u ) = 1 − α
(1-10)
Sí se tomas muchas muestras aleatorias de la población de interés, y se construyen
los intervalos de confianza correspondiente, entonces
el
por ciento de estos
intervalos contendrá al verdadero valor del parámetro.
1.5.3 Errores de tipo I y II
Al utilizar la estadística se esta propenso al cometer dos tipos de errores en la toma de
decisiones. Estos errores se conocen como error de tipo I y II. El primero se define
como el rechazo de la hipótesis nula Ho cuando ésta es verdadera y generalmente se
denota con la letra griega a. El error de tipo II por otro lado, se define como la
aceptación de la hipótesis nula cuando ésta es falsa y generalmente se denota por b
En la siguiente tabla se resumen las decisiones que se pueden tomar en estadística y
los errores que se pueden cometer.
Decisión
Ho es verdadera
Ho es falsa
Aceptar Ho
No hay error
Error tipo II
Rechazar Ho
Error tipo I
No hay error
Tabla 1.4 Decisiones en contraste de hipótesis estadística
Es importante recalcar que rechazar la hipótesis nula se considera una conclusión
fuerte porque se especifica de antemano el error que se esta dispuesto a asumir
(llamado también nivel de significancia de la prueba). Entre tanto, aceptar Ho se
considera una conclusión débil ya que no se puede cuantificar, con precisión el error
cometido al tomar esta decisión.
1.6 Uso del valor P en un contraste de Hipótesis
Existen dos formas de proceder en un contraste hipótesis estadística: el enfoque
convencional de dividir la región donde varía el estadístico en una región de
aceptación y una de rechazo de Ho, si el estadístico obtenido con la muestra se
encuentra en la zona de aceptación entonces no se rechaza la hipótesis nula, Ho. Si el
estadístico cae fuera de la zona de aceptación entonces se rechaza la hipótesis núla,
Ho a favor de la hipótesis alternativa, H1. Este enfoque se ilustra en la Figura 1.21
Valores críticos leídos
de tablas según tipo de
prueba. Dependen del
nivel de significancia
escogido, α
α /2
α /2
Se acepta H1 − t0
µ ≠ µo
zona de rechazo
P(| t |> t0 )
Se acepta H0
µ = µo
zona de
aceptación
t0
Se acepta H1
µ ≠ µo
zona de aceptación
Figura 1.20 Prueba de dos colas para comparar dos grupos (enfoque zona de aceptación y zona crítica)
El segundo enfoque, conocido como el enfoque del valor P, a tomado fuerza
recientemente con el desarrollo de los computadores y es el que se prefiere en la
actualidad. Este enfoque, calcula de manera exacta el error de tipo I (o nivel de
significancia) en la prueba estadística. Este último, depende del tipo de prueba en
curso y del valor numérico obtenido para el estadístico. En este enfoque, la hipótesis
nula se acepta o rechaza si el nivel de significancia obtenido exactamente a partir del
estadístico resulta menor o mayor del nivel de significancia fijado de antemano o que
se esta dispuesto a tolerar en la prueba (usualmente se toma del 1% o el 5%). La
Figura 1.21 ilustra este enfoque para una prueba de dos colas.
Valores críticos leídos
de tablas según tipo de
prueba. Dependen del
nivel de significancia
escogido, α
α /2
α /2
2 × P(| t |> t0 )
t0
Valore exacto del
estadístico muestral que
nos lleva al valor P =
2*P(|t|>to) para una
prueba de dos colas
Figura 1.21 Prueba de dos colas para comparar dos grupos (enfoque del valor P)
1.7 El uso de los computadores y Software especializado
Existen muchos paquetes de Software que facilitan los cálculos matemáticos y
estadísticos que se tienen que realizar en DDE. No es que los cálculos sean
complicados, lo que ocurre es que, en algunos casos, son sumas largas y tediosas,
que si se hacen a mano se pierde mucho tiempo el cual se puede aprovechar en el
análisis e interpretación de los resultados.
Algunos paquetes estadísticos son comerciales y de propósito general como SAS,
SPSS, Statgraphic y Minitab; otros especializados en DDE como Desing Expert y otros
de libre uso como lo es R. Incluso, herramientas como MS Excel (que no es un
paquete estadístico) cuenta con un plug-in para análisis de datos que incluye algunos
diseños experimentales ya programados que puede ser de utilidad durante el curso.
Durante el curso se ilustra, paso a paso, cada una de las técnicas a través de la
realización de algunos ejemplos detalladamente y se muestra también la salida de
algunos programas como MS Excel, Desing Expert y Statgraphics para familiarizar al
lector con la salida de estos programas.
1.8 Ejercicios propuestos
CAPITULO 2 COMPARACIONES SIMPLES.
Cuando hablamos de comparaciones simples nos referimos a comparaciones en las
que tomamos una o dos muestras, de la misma población o de poblaciones diferentes
(aunque eso precisamente es lo que se prueba en muchos casos) para realizar
contraste de hipótesis estadística. Así, este tipo de comparaciones caen en dos
categorías: en primer lugar se encuentran las pruebas que se realizan para determinar
si una muestra proviene o no a una población hipotética (en este caso solo se requiere
una muestra de la supuesta población). En segundo lugar, se encuentran las pruebas
que buscan comparar dos muestras y determinar si provienen o no de poblaciones
diferentes (en este caso se requieren dos muestras de las poblaciones supuestamente
involucradas).
2.1 Contraste de hipótesis
Como a partir de una muestra se puede obtener diferentes estadísticos (como la
media o la varianza) entonces surgen diferentes pruebas dependiendo del estadístico
involucrado en la prueba que se desee realizar y de la información que se tenga de la
población de interés.
A continuación se presenta el listado de las diferentes pruebas existentes y en la Tabla
2.1 se muestra el estadístico correspondiente de cada una.
1.
Prueba de Hipótesis sobre la media, varianza conocida
2.
Prueba de Hipótesis sobre la media de una distribución normal, varianza
desconocida
3.
Prueba de Hipótesis sobre la diferencia de dos medias, varianzas conocidas y
diferentes.
4.
Prueba de Hipótesis sobre para la diferencia de dos medias, varianza
desconocida pero iguales
5.
Prueba de Hipótesis sobre la diferencia de dos medias, varianzas
desconocidas y distintas
6.
Prueba de Hipótesis sobre m1 - m2 para observaciones pareadas
7.
Prueba de Hipótesis sobre la varianza de una distribución normal
8.
Prueba de Hipótesis sobre el cociente de las varianzas de dos distribuciones
normales
9.
Prueba de Hipótesis sobre una proporción
10.
Prueba de hipótesis sobre la diferencia de dos proporciones
Caso
Hipótesis Nula
1
H0: µ = µ0
σ2 conocida
2
H0: µ = µ0
σ2 desconocida
3
H0: µ1 = µ2
σ12
=
σ12
desconocidas
5
H1: µ ≠ µ0
|z0|>zα/2
z0>zα
H1: µ < µ0
z0<-zα
x − µ0
t0 =
s/ n
H1: µ ≠ µ0
|t0|>tα/2,n-1
H1: µ > µ0
t0>tα,n-1
H1: µ < µ0
t0<-tα,n-1
x1 − x 2
z0 =
σ 12
+
≠
σ12
σ 22
s1 − s 2
z0 =
σ 12
desconocidas
+
n1
(s
v=
H1: µ1 ≠ µ2
|z0|>zα/2
H1: µ1 > µ2
z0>zα
H1: µ1 < µ2
z0<-zα
H1: µ1 ≠ µ2
|t0|>tα/2,n1+n2-2
n2
x1 − x 2
z0 =
1 1
+
sP
n1 n2
H0: µ1 = µ2
σ12
Criterio de Rechazo
H1: µ > µ0
n1
4
alterna
x − µ0
z0 =
σ/ n
H0: µ1 = µ2
σ12 y σ12 conocidas
Hipótesis
Estadístico de Prueba
σ 22
n2
H1: µ1 > µ2
t0>tα,n1+n2-2
H1: µ1 < µ2
t0<-tα,n1+n2-2
H1: µ1 ≠ µ2
|t0|>tα/2,v
H1: µ1 > µ2
t0>tα,v
H1: µ1 < µ2
t0<-tα,v
H1: µd ≠ 0
|t0|>tα/2,n-1
)
2
/ n1 + s22 / n2
−2
s / n1 s22 / n2
+
n1 + 1 n2 + 1
2
1
2
1
6
Datos pareados
H0: µD = 0
7
d
t0 =
s/ n
H0: σ2 = σ02
χ 02 =
8
H0: σ12 = σ22
(n − 1) s 2
σ
2
D
10
H0: p = p0
H0: p1 = p2
H1: σ2 ≠ σ02
χ02 > χ2α/2,n-1 ó χ02 < χ21-α/2,n-1
H1: σ2 > σ02
χ02 > χ2α,n-1
H1: σ <
σ02
H1: σ12 ≠ σ22
2
1
2
2
H1:
x − np
z0 =
np0 (1 − p0 )
z0 =
t0>tα,n-1
t0<-tα,n-1
2
s
f0 =
s
9
H1: µd > 0
H1: µd < 0
pˆ1 − pˆ 2
1 1
pˆ (1 − pˆ ) + 
 n1 n2 
σ12 >
σ22
χ02 < χ21-α,n-1
f0 > fα/2,n1-1,n2-1 ó f0 < f1-α/2,n1-1,n2-1
f0 > fα,n1-1,n2-1
H1: p ≠ p0
|z0|>zα/2
H1 :p > p0
z0>zα
H1: p < p0
z0<-zα
H1: p1 ≠ p2
|z0|>zα/2
H1: p1 > p2
z0>zα
H1: p1 < p2
z0<-zα
Tabla 2.1 Resumen de pruebas de contraste de hipótesis para comparaciones simples.
En esta tabla también se indica, de manera indirecta, la distribución de probabilidad
que se debe utilizar en cada prueba. Si aparece la letra “z” se debe utilizar la normal
(casos 1, 3, 4, 5, 9 y 10), la “t” para la t de Student ( casos 2 y 6); la χ 0 para la Ji2
cuadrado (caso 7) y la f 0 para la distribución F (caso 8).
En la columna “Hipótesis alterna” se muestran los casos para una prueba de una cola
o de dos colas (también conocidas como unilaterales y bilaterales respectivamente).
Una prueba de una cola permite detectar diferencias en una sola dirección y siempre
son del tipo mayor o menor que, entre tanto, la hipótesis de dos colas permite detectar
diferencias en ambas direcciones y son del tipo diferente.
2.1.1 Ejemplos del uso de la Tabla 2.1
2.1.1.1 Ejemplo de la normal
Se estudia el rendimiento de un proceso químico. De la experiencia previa con este
proceso, se sabe que la desviación estándar del rendimiento es 3. En los cinco días
anteriores de operación en la planta, se han observado los siguiente rendimientos:
91.6%, 88.75%, 90.8%, 89.95% y 91.3%. Utilizando un nivel de significancia del 5%
¿Existe evidencia de que el rendimiento no es del 90%?. ¿Cuál es el valor P de esta
prueba?
2.1.1.2 Ejemplo de la t para datos no pareados
Se analiza una marca particular de margarina dietética para determinar el nivel de
ácido graso poliinsaturado (en porcentaje). Se toma una muestra de seis paquetes y
se obtienen los siguientes datos: 16.8, 17.2, 17.4, 16.9, 17.1.
•
Pruebe la hipótesis H0 = µ = 170 contra H1: µ ≠ 17.0. Utilice α = 0.01. ¿Cuáles son
sus conclusiones?
•
Encuentre el valor P de la prueba del inciso anterior.
2.1.1.3 Ejemplo de la t para datos pareados
Diez individuos participan en un programa de modificación de dieta para estimular la
pérdida de peso. En la siguiente tabla se indica el peso de cada participante antes y
después de haber participado en el programa. ¿Existe evidencia que apoye la
afirmación que este programa de modificación de dieta es eficaz para reducir el peso?
Utilice un nivel de significancia del 5%.
2.1.1.4 Ejemplo de la distribución χ2-cuadrado: igualdad de varianzas
El contenido de azúcar del almíbar de los duraznos enlatados tiene una distribución
normal, donde se cree que la varianza σ2 = 18 mg2. Pruebe la hipótesis H0: σ2 = 18
contra H1: σ2 ≠ 18 si al tomar una muestra de 10 latas la desviación estándar
muestral es de 4.8 mg. Utilice α = 5%. ¿Cuál es el valor P de esta prueba?
2.1.1.5 Ejemplo de la distribución F: igualdad de varianzas
Se instala un nuevo dispositivo de filtrado en una unidad química. Antes de instalarlo,
de una muestra aleatoria se obtuvo la siguiente información sobre el porcentaje de
impurezas: y1 = 12.5, s12 = 101.17 y n1 = 8. Después de instalarlo, de una muestra
aleatoria se obtuvo: y 2 = 10.2 s22 = 94.73 y n2 = 9.
¿Puede concluirse que las dos varianzas son iguales? Utilice α = 5%.
2.2 Intervalos de confianza
Como ya se explicó en la sesión 1.5.2, los intervalos de confianza se utilizan para
estimar los parámetros de una población con una probabilidad asociada. Existen dos
formas de estimar los parámetros de una población: dando un valor puntual
(estimación puntual) o a con un intervalo de confianza del 100(1 – α)% centrado en
torno a la estimación puntual.
Estrictamente hablando, a partir de los intervalos de confianza también se puede
realizar un contraste de hipótesis observando si el intervalo de confianza contiene o no
contiene en su interior el valor supuesto en la hipótesis nula. Este aspecto se muestra
en los ejemplos propuestos. Sin embargo, el intervalo de confianza se prefiere, en
muchos casos, ya que da el conjunto de valores del estadístico de prueba para el cual
se acepta o rechaza la hipótesis nula en un test de hipótesis.
En esta sección se presenta la tabla resumen para la construcción de intervalos de
confianza y se da un ejemplo de cada uno de ellos para clarificar el uso de esta tabla.
Tipo de problema
Media µ, varianza σ2 conocida
Estimación
puntual
x
Intervalo de confianza bilateral del 100(1-α)% por ciento
x − zα / 2σ / n ≤ µ ≤ x + zα / 2σ / n
σ 12
x1 − x 2 − zα / 2
Diferencia entre dos medias
µ1 y µ2, varianzas σ21 y σ22 conocidas
n1
x1 − x 2
+
σ 22
≤ µ1 − µ 2
n2
≤ x1 − x 2 + zα / 2
Media, µ de una distribución normal
con varianza σ2 desconocida
x
Diferencia entre medias de dos
µ1 y µ2, varianzas σ21 = σ22
x1 − x 2
x1 − x 2 − tα / 2 , v
1 1
+
≤ µ1 − µ2
n1 n2
s12 s22
+
≤ µ1 − µ 2
n1 n2
Diferencia entre medias de dos
desconocidas
x1 − x 2
n2
(n1 − 1) s12 + (n2 − 1) s22
n1 + n2 − 2
Donde, S P =
µ1 y µ2, varianzas σ21 ≠ σ22
σ 22
≤ x1 − x 2 + tα / 2 , n1 + n 2 − 2 S P
desconocidas
distribuciones normales,
n1
+
x − tα / 2,n −1s / n ≤ µ ≤ x + tα / 2,n −1s / n
x1 − x 2 − tα / 2 , n1 + n 2 − 2 S P
distribuciones normales,
σ 12
≤ x1 − x 2 + tα / 2 , v
(s
Donde, v =
s12 s22
+
n1 n2
)
2
/ n1 + s22 / n2
−2
s / n1 s22 / n2
+
n1 + 1 n2 + 1
2
1
2
1
1 1
+
n1 n2
Diferencia entre medias de dos
distribuciones normales para
muestras pareadas,
d
d − tα / 2,n −1sd / n ≤ µ D ≤ d + tα / 2,n −1sd / n
µD = µ1 - µ2
Varianza σ2 de una distribución
normal
Cociente de varianzas σ21/σ22 de dos
distribuciones normales
Proporción o parámetro de una
distribución binomial, p
s2
(n − 1) s 2
χα2 / 2, n−1
≤σ 2 ≤
parámetros binomiales, p1 - p2
χ12−α / 2,n −1
s12
s22
σ 12 s12
s12
f
≤
≤
fα / 2,n2 −1,n1 −1
1−α / 2 , n2 −1, n1 −1
σ 22 s22
s22
p̂
pˆ − zα / 2
pˆ (1 − pˆ )
≤ p ≤ pˆ + zα / 2
n
pˆ1 − pˆ 2 − zα / 2
Diferencia entre dos proporciones o
(n − 1) s 2
pˆ 1 − pˆ 2
pˆ (1 − pˆ )
n
pˆ 1 (1 − pˆ 1 ) pˆ 2 (1 − pˆ 2 )
+
≤
n1
n2
p1 − p2 ≤ pˆ 1 − pˆ 2 + zα / 2
pˆ 1 (1 − pˆ 1 ) pˆ 2 (1 − pˆ 2 )
+
n1
n2
Tabla 2.2 Resumen de intervalos de confianza para comparaciones simples.
2.2.1 Ejemplo del uso de la Tabla 2.2
Una máquina de bebidas con mezclado posterior se ajusta de modo que libere cierta
cantidad de jarabe en una cámara donde será mezclado con agua carbonatada. De
una muestra aleatoria de 25 bebidas se tiene que el contenido medio de jarabe es de
x = 1.10 onzas de líquido, con una desviación estándar s = 0.015 onzas de líquido.
Encuentre el intervalo de confianza bilateral del 90% para la cantidad promedio de
jarabe mezclado en cada bebida.
2.3 Ejercicios propuestos
1.
En un proceso químico pueden emplearse dos catalizadores. Doce lotes se
prepararon con el catalizador l, lo que dio como resultado un rendimiento promedio
de 86 y una desviación estándar muestral de 3. Quince lotes se prepararon con el
catalizador 2, con el que se obtuvo un rendimiento promedio de 89 con una
desviación estándar de 2. Suponga que las mediciones de rendimiento están
aproximadamente distribuidas de manera normal. Encuentre un intervalo de
confianza bilateral del 99% para la diferencia en el rendimiento promedio de los
dos catalizadores.
2.
Se somete a prueba una muestra de 30 dispositivos para la medición de flujo
utilizados para la administración intravenosa de medicamentos. La rapidez de flujo
de prueba es 200 ml/h. La media muestral observada es de 194 ml/h, mientas que
la desviación estándar muestral es de 12 ml/h. ¿Sugieren estos datos que la
rapidez de flujo real es diferente de la utilizada para la prueba? Pruebe esta
hipótesis con α = 0.05.
3.
Suponga que en el ejercicio anterior el experimentador consideró que σ = 10
antes de recolectar los datos. Si él desea que la probabilidad β del error tipo II 0.05
y si la rapidez de flujo promedio real es 195 ml/h, ¿cuál debe ser el tamaño de la
muestra que tiene que utilizar? Utilice α = 0.05.
4.
Se realiza un experimento para comparar las características de llenado del
equipo de embotellado de dos fábricas vinícolas diferentes. Para ello se escogen al
azar 20 botellas de Pinot Noir de los viñedos de Ridgecrest y otras 20 de Pinot Noir
de viñedos de Valley View. Con esto se obtienen los datos siguientes (el volumen
está dado en ml):
Ridgecrest
Valley View
755
751
752
753
756
754
757
756
753
753
753
754
755
756
756
753
754
752
751
753
754
755
755
754
752
753
753
752
754
756
755
756
755
753
750
753
756
756
756
756
a. ¿Los datos apoyan la afirmación de que ambas vinaterías llenan las botellas
con el mismo volumen promedio? Utilice α = 0.05 y suponga que, al obtener
conclusiones, las dos poblaciones tienen la misma desviación estándar.
b. Calcule un valor P para la prueba estadística del inciso a).
c. Construya un diagrama de caja para las dos muestras. ¿Parece razonable la
hipótesis de varianzas iguales hecha en el inciso a)? Proporcione una
interpretación gráfica de estas gráficas.
d. Construya gráficas de probabilidad normal para ambas muestras. ¿Le parece
que se satisface la hipótesis de normalidad?
5.
Una compañía de biotecnología produce un medicamento cuya concentración
tiene una desviación estándar de 4 g/l. Se propone un método nuevo para producir
este medicamento, lo que implica ciertos gastos adicionales. La gerencia
autorizará el cambio en la técnica de producción sólo si la desviación estándar de
la concentración en el nuevo proceso es menor que 4 g/l. Si la desviación estándar
de la concentración en el nuevo proceso es tan pequeña como 3 g/l, entonces a la
compañía le gustaría cambiar los métodos de producción con una probabilidad de
al menos 0.90. Suponga que la concentración está distribuida de manera normal y
que α = 0.05. ¿Cuántas observaciones deben tomarse? Suponga que los
investigadores eligen n = 10 y obtienen los datos siguientes. ¿Es ésta una buena
elección para n? ¿Qué conclusiones pueden obtenerse?
g/l
1.
16.628
16.63
16.622
16.631
16.627
16.624
16.623
16.622
16.618
16.626
Un producto dietético líquido afirma en su publicidad que el empleo del mismo
durante un mes produce una pérdida promedio de 3 libras de peso. Ocho sujetos
utilizan el producto por un mes, y los datos sobre pérdida de peso son los
siguientes:
Sujeto
1
2
3
4
5
6
7
8
Peso inicial (lb)
163
201
195
198
155
143
150
187
Peso final (lb)
161
195
192
197
150
141
146
183
Encuentre un intervalo de confianza del 95% para la pérdida de peso promedio.
¿Los datos apoyan la afirmación hecha en la publicidad?
CAPITULO 3 COMPARACIONES CON UN FACTOR.
ANALISIS DE VARIANZA.
Se recomienda al lector revisar cuidadosamente los diseños experimentales
explicados en este capítulo ya que constituyen la base de los demás diseños que se
verán en el resto del libro. Si comprende los conceptos expuesto aquí, no tendrá
dificultades en lo que sigue.
En primer lugar, es importante comentar que estos diseños experimentales se utilizan
cuando se desea comparar más de dos tratamientos. Puede ser de interés comparar
tres o más máquinas, varios proveedores, cuatro procesos, tres materiales, etc.
En el contexto de un problema de investigación surge la necesidad de realizar alguna
comparación de tratamientos con el fin de elegir la mejor alternativa de las varias que
existen, o por lo menos para tener una mejor comprensión del comportamiento de la
variable de interés en cada uno de los distintos tratamientos.
Por ejemplo, la comparación de cuatro dietas de alimentación con ratas de laboratorio,
se hace con el fin de estudiar si alguna nueva dieta que se propone es mejor o igual
que las dietas ya existentes; la variable de interés en este caso es el peso promedio
alcanzado por cada grupo de animales después de alimentar a cada grupo con la dieta
que le tocó.
Por lo general el interés del experimentador se centra en comparar los tratamientos en
cuanto a sus medidas poblacionales. Así, desde el punto de vista estadístico, la
hipótesis fundamental a probar cuando se comparan varios tratamientos es
H0: µ1 = µ2 =… = µk = µ
H1: µi ≠ µj para algún i ≠ j,
con la cual se quiere decidir si los tratamientos son iguales estadísticamente en cuanto
a sus medidas, contra la alternativa de que al menos dos de ellos son diferentes. La
estrategia natural para resolver este problema es obtener una muestra representativa
de mediciones en cada uno de los tratamientos, y con base en las medias y varianzas
muestrales, construir un estadístico de prueba para decidir el resultado de dicha
comparación.
3.1 Modelo general de Análisis de Varianza, ANOVA
El término “ANOVA” hace referencia a las iniciales de Análisis de Varianza en inglés.
El diseño que vamos a estudiar en el presente capítulo se conoce como un diseño
completamente aleatorizado debido a que el orden en el que se realizan las corridas
debe ser completamente aleatorio o al azar. La razón de esta aleatorización es reducir
el efecto de aquellos factores (algunas veces desconocidos) en los resultados del
experimento o de la variable respuesta. Por ejemplo, si la variable respuesta se mide
con un dispositivo que presenta cansancio con el tiempo de uso, es importante correr
de manera aleatoria las corridas para garantizar que las diferencias observadas se
deban al tratamiento que se estudia y no al cansancio del aparato que se utiliza para
medir la respuesta.
Suponga que se tiene a tratamientos o niveles de un factor que quieren compararen:
Tratamient o
nivel
1
Observacio nes Totales Promedios
y 12
L y 1n
2
y 11
y 21
y 22 K y 2n
M
a
M
y a1
M K M
y a2 K y an
y 1•
y 2•
M
y a•
y ••
y 1•
y 2•
M
y a•
y ••
Tabla 3.1 Organización de los datos en un diseño completamente aleatorizado
El objetivo con estos datos es determinar si un factor (o variable), en su distintos
niveles, influye o no sobre la variable respuesta de manera significativa. La forma
como se expresa este objetivo es simplemente cuestión de sintaxis. Así, tres formas
equivalentes de referirnos al mismo objetivo son las siguientes:
•
Determinar si las a muestras provienen de la misma población o no.
•
Determinar si las a tratamientos conducen a resultados estadísticamente
diferentes.
•
Determinar si existen diferencias significativas entre los a tratamientos
Sin embargo, independientemente de la forma como se exprese se debe tener en
cuanta que con este diseño se esta evaluando el efecto de una sola variable, a más de
dos niveles, sobre la variable respuesta. Recuerde que para comparar exactamente
dos tratamientos se utilizan la prueba t. No es que la técnica de ANOVA no se pueda
utilizar para comparar dos tratamientos, lo que sucede es que no se justifica. Además
se puede demostrar que dan resultados equivalentes. Es decir, se obtienen los
mismos resultados al comparar dos tratamientos con una prueba t que con un diseño
unifactorial completamente aleatorizado usando ANOVA.
Con base en lo expuesta anteriormente, se puede considera que los diseños
expuestos aquí son una generalización de la prueba t para comparar más de dos
tratamientos
El modelo matemático del ANOVA para un diseño unifactorial es el siguiente:
Yij = µ + τ i + ε ij
(3-1)
Donde:
Yij es el valor de la j-esima observación del tratamiento i-ésimo
µ la gran media o el promedio de todas las observaciones
τ i el efecto del tratamiento i-ésimo
ε ij el error aleatorio que se asume NID(0,σ2)
En el modelo se observa que el objetivo es explicar cada observación en términos de
la gran media, el efecto del respectivo tratamiento y el error aleatorio.
Las hipótesis estadísticas que se quieren probar son las siguientes
H 0 : µ1 = µ 2 = L = µ k = µ
(3-2)
H 1 : µ i ≠ µ j para algún i ≠ j
Es decir sin no existe efecto del tratamiento (H0) o si existe (H1).
La identidad básica para probar esta hipótesis es la siguiente:
a
a
n
∑∑ ( y
i =1 j =1
ij
− y •• )
a
2
=
n ∑ ( y i • − y •• )
i =1
2
+
n
∑∑ ( y
i =1 j =1
ij
− y i• ) 2
Suma de los cuadrados
=
totales
Variabilidad total
=
Suma de los cuadrados
de los tratamientos
Variabilidad debida a los
tratamientos
Suma de los cuadrados
+
del error aleatorio
Variabilidad debida al
+
error aleatorio
Variabilidad dentro de
Variabilidad total
=
Variabilidad entre grupos
+
SCT
=
SCTrat
+
an-1
=
a-1
+
grupos
SCE
a(n-1)
Tabla 3.2 Descomposición de la Suma de Cuadrados en el ANOVA unifactorial
En esta tabla se aprecia no solamente una descomposición en la suma de los
cuadrados totales si no también en los respectivos grados de libertad.
Informalmente hablando, si la variabilidad entre grupos (o debida a los tratamientos) es
mayor que la variabilidad dentro de grupos (o debida al error aleatorio) entonces se
concluye que existe una diferencia significativa entre los tratamientos.
Desde el punto de vista formal, si la hipótesis nula es cierta ( no existe efecto de
tratamiento) entonces
a
MCT =
SCTrat
=
a −1
n ∑ ( y i • − y •• ) 2
i =1
(3-3)
a −1
Y
a
MCE =
SCE
=
N −a
n
∑∑ ( y
i =1 j =1
ij
− y i• ) 2
(3-4)
N −a
Son dos estimadores independientes de la varianza común σ2. Y, por lo tanto, el
estadístico
F0 =
SCTrat /(a − 1) MCTrat
=
SCE /( N − a)
MCE
(3-5)
Sigue una distribución F con a-1 grados de libertad en el numerador y N-a grados de
libertad en el denominador.
Por lo tanto, la hipótesis nula debe descartarse si el estadístico calculado con la
ecuación (3-5) es mayor que Fα ,a −1, N −a para un nivel de significancia dada, α.
Usualmente, los resultados del análisis de varianza, se organizan en una tabla ANOVA
como la siguiente:
Fuente de
Variación
Grados
Suma de Cuadrados
tratamientos
Error ( dentro
de los
Media de cuadrados
F0
Valor P
libertad
a
Entre
SCTratamientos = n∑ ( y i• − y •• ) 2
a-1
MCTratamientos =
a(n-1)
MCErrores =
i =1
a
n
SC Errores = ∑∑ ( yij − y i • ) 2
i =1 j =1
tratamientos)
a
Total
de
SCTratamientos
a −1
F0 =
MCTratamientos
MCErrores
SCErrores
a(n − 1)
n
SCTotales = ∑∑ ( yij − y •• ) 2
an-1
i =1 j =1
Tabla 3.3 Tabla ANOVA para un diseñocompletamente aleatorizado unifactorial
El valor P o probabilidad se obtiene como el nivel de significancia real de la prueba
(ver Figura 3.1)
Distribución F
Nivel de
significancia, α
Figura 3.1 Enfoque del valor P en ANOVA unifactorial
Si este valor P es infereior al nivel de significancia escogido (usualmente del 5%)
entonces se descarta la hipótesis nula.
Probabilidad
3.2 Modelo de efectos fijos y aleatorios
Dependiendo de la forma como se escojan los niveles del factor el diseño puede ser
de efectos fijos o aleatorios. Si los niveles del factor fueron elegidos expresamente por
el experimentador entonces las conclusiones solo se pueden extender a los factores
considerados en el experimento. Las conclusiones no pueden extenderse a
tratamientos similares que no fueron considerados explícitamente. Por otro lado, si los
niveles del factor son una muestra aleatoria de todos los posibles niveles del
tratamiento entonces, las conclusiones se pueden extender a la totalidad de los
tratamientos.
El modelo de efectos aleatorios es análogo al modelo de efectos fijos, inclusive las
formulas son la mismas. La diferencia radica en las hipótesis estadísticas que se
prueban. En este libro no se explican con detalle el modelo de efectos aleatorios. Para
su estudio profundo se remite al lector a las referencias bibliográficas al final del libro.
3.3 Supuestos en ANOVA y medidas de adecuación del
modelo
En el modelo matemático de ANOVA existen varios supuestos implícitos que se deben
verificar antes de validar los resultados obtenidos. Estos supuestos se pueden resumir
en:
•
Hipótesis de normalidad
•
Hipótesis de igualdad de varianzas
•
Hipótesis de independencia
Estos supuestos se ilustran en la siguiente figura con la excepción del supuesto de
independencia que tiene que ver con el hecho de que cada observación no depende
de ninguna otra observación. Normalmente el cumplimiento del supuesto de
independencia se garantiza con la aleatorización de las corridas.
Variable
Respuesta
εij son N(0,σ2)
Yij son N(µ+τi,σ2)
σ2
µ4
σ2
µ3
σ2
µ2
σ2
µ1
Nivel 1
Nivel 2
Nivel 3
Nivel 4
Factor
de Interés
Figura 3.2 Supuestos en el ANOVA unifactorial
En la figura se aprecia que el único efecto del tratamiento sobre la variable respuesta
es modificar el valor medio del tratamiento más no se modifica la varianza.
En general, además de la aleatorización, existen otras dos formas de aislar el efecto
de un factor extraño para que no interfiera en los resultados del experimento: la fijación
y el bloqueo. La fijación consiste en mantener constante el factor, que no se desee
estudiar, durante el experimento. El bloqueo es una técnica que se verá con detalle en
el próximo capítulo
3.3.1 Supuesto de normalidad
En el modelo matemático del ANOVA se asume que los errores se distribuyen normal
e independientemente con media cero y varianza constante, esto se resume como
NID(0,σ2). Este supuesto se justifica, en la práctica real, gracias al teorema del límite
central explicado anteriormente. Sin embargo, se debe verificar que no se viola
considerablemente.
Para verificar este supuesto se puede realizar un histograma de los residuos (o
errores) y mirar si dicho histograma no se desvía considerablemente del
comportamiento Gaussiano. Otra alternativa (que se prefiere en la práctica) consiste
en dibujar los errores en una gráfica de probabilidad normal. Este tipo de grafica
linealiza datos que se distribuyen normalmente. Es decir, si los datos realmente se
distribuyen normalmente, entonces en este tipo de gráficas se verán sobre una línea
recta.
Aunque una gráfica de probabilidad normal no es difícil de realizar a mano, es un poco
engorrosa de realizar y se prefiere el uso de un paquete especializado como Excel,
Matlab, Statgraphic, SAS, SPPS, etc.
El procedimiento utilizado para validar la hipótesis de normalidad se ilustra en la figura
siguiente:
Histograma residuos
Gráfica de probabilidad normal
100
100(j-0.5)/n
Muestra
Aleatoria de
errores
80
60
40
20
Población de errores
NID(0,σ2)
0
55
60
65
70
75
X(j)
Grafica Probabilidad
Normal de residuos
Figura 3.3 Verificación de la hipótesis de normalidad en ANOVA
Ahora bien, la muestra de errores o residuos en el modelo unifactorial se pueden
obtener como:
ε ij = y ij − y i
(3-6)
Cuando la hipótesis nula es falsa y existe efecto del tratamiento.
3.3.2 Supuesto independencia e igualdad de varianzas
La violación de estos supuestos en el ANOVA se verifica realizando gráficas de los
errores versus la variable respuesta, los factores de interés u otras variables
candidatas. Estas gráficas no deben presentar ningún tipo de patrón y deben tener un
comportamiento análogo al de la figura siguiente:
2
0
0
5
10
15
20
25
30
35
-2
Figura 3.4 Patrón adecuado en los residuos del modelo ANOVA
Patrones como los mostrados en la Figura 3.5 indican una violación considerable de
los supuestos de independencia e igualdad de varianzas.
4
2
3
1.5
2
1
1
0.5
0
0
-1
0
1
2
3
4
5
6
7
-0.5
-2
-1
-3
-1.5
-4
-2
a) Patrón de embudo simple
0
1
2
3
4
5
6
7
b) Patrón de doble embudo
Figura 3.5 Patrón inadecuado de los residuos en el ANOVA que amerita una transformación de los datos
La forma como se corrigen la violación de estos supuestos es transformando los datos
de entrada. Es decir en lugar de realizar el ANOVA sobre los datos originales, usar los
datos transformados.
También se recomienda graficar los residuos contra alguna variable o factor candidata
que no se halla tenido en cuenta en el diseño experimental. Si se detecta algún patrón
en esta gráfica se debe agregar este factor no incluido en un diseño factorial más
completo.
3.4 Comparaciones múltiples.
Si después de realizar el Análisis de Varianza para comparar los a tratamientos se
descarta la hipótesis nula, H0 a favor de la hipótesis alterna, H1 entonces se necesita
determinar, específicamente, en que tratamientos se encuentran dichas diferencias. El
ANOVA en la hipótesis alterna, H1 (Ecuación ¡Error! No se encuentra el origen de la
referencia.), indica que existen diferencias por lo menos en un par de tratamientos, sin
embargo, no dice, específicamente, en que par o pares están estas diferencias. En
esta sesión se estudian las técnicas más utilizadas para realizar este tipo de
comparaciones que algunas veces se conocen como comparaciones múltiples en
DDE.
Podría pensarse, que este tipo de comparaciones se realiza, simplemente a partir de
múltiples pruebas t para comparar todos los posibles pares de tratamientos. Sin
embargo, el uso de la t para comparaciones múltiples es impractico ya que incrementa
el error de Tipo I global en la prueba estadística. Por esta razón se deben realizar las
pruebas que se suministran en la esta sesión.
3.4.1 Comparación gráfica de medias
Es uno de los métodos más sencillos para realizar comparaciones múltiples después
del ANOVA.
El procedimiento consiste en dibujar la t escalada por √MCE/n y se mueve
imaginariamente en el diagrama de puntos de las medias de los tratamientos.
Para escalar la distribución t simplemente se multiplica el valor de la abscisa t por el
factor de escala:
MCE
n
(3-7)
Observe el procedimiento gráficamente en la Figura 3.6
15 35
20
25
30
Figura 3.6 Comparación gráfica de medias
Si existe un punto al cual se pueda trasladar la distribución t, en el que se incluyan
todos los promedios (los puntos en un diagrama de puntos), entonces no existe
diferencia significativa entre los tratamientos y la hipótesis nula es cierta. Por el
contrario, si la curva t no puede albergar todos los puntos promedio de los tratamientos
entonces se concluye que si existen diferencias entre los tratamientos y que la
hipótesis nula es falsa.
3.4.2 Comparación de pares de medias.
Existen muchos métodos para realizar este tipo de comparaciones (de a dos). Dentro
de las más populares se encuentran
•
Prueba de Tukey
•
Prueba LSD de Fisher
•
Prueba de rangos múltiples de Duncan
•
Prueba de Newman-Keuls.
•
Prueba de Dunenett. Para comparar todas las medias con un control
En esencia, estas pruebas comparan todas las diferencias posibles de medias con un
estadístico común que difiere en cada método. Hasta el momento no hay un consenso
común con respecto a cual es la mejor de ellas, sin embargo, varios autores [6]
coinciden que la prueba LSD de Fisher y la de rangos múltiples de Duncan son la
mejores. De estas dos se explica a continuación la prueba LSD de Fisher ya que no
requiere el uso de tablas especiales (la de Duncan requiere una tabla especial1)
Normalmente los resultados de las comparaciones múltiples se dan en un diagrama de
puntos como el siguiente
y1
y5
y2
y3
y4
9.8
10.8
15.4
17.6
21.6
Figura 3.7 Comparación gráfica de medias
En esta figura se aprecia una línea inferior entre los pares de tratamientos que NO se
consideran diferentes desde el punto de vista estadístico, de acuerdo al criterio
escogido (Duncan, Fisher, etc ).
3.4.2.1 Prueba de la diferencia Significancia Mínima de Fisher o LSD
de Fisher
En este procedimiento se utiliza el estadístico
1
Se puede consultar esta prueba en detalle en la bibliografía recomendada al final del libro. En particular,
en la referencias [1] y [6]
t0 =
yi − y j
1
1 
MCE  + 
n

 i nj 
(3-8)
Para probar la Hipótesis:
H 0 : µ i = µ j para todo i ≠ j
(3-9)
Suponiendo una hipótesis alternativa de dos colas, los pares de medias µi, y µj se
consideran estadísticamente diferentes sí:
1
1 
| y i − y j |> t α / 2, N − a MCE  + 
n

 i nj 
(3-10)
A la cantidad
1
1 
t α / 2, N − a MCE  + 
n

 i nj 
(3-11)
Se le llama diferencia significativa mínima de Fisher
Si el diseño es balanceado n1=n1=…na=n y
t α / 2, N − a
2 × MCE
n
(3-12)
Para usar el procedimiento LSD de Fisher simplemente se compara la diferencia
observada entre cada par de promedios con el LSD correspondiente. Si
y i − y j > LSD se concluye que las medias poblacionales µ i y µ j difieren.
BIBLIOGRAFÍA
[1] Mongomery C. Douglas , Runger C. George. Probabilidad y Estadística aplicados a
la Ingeniería, McGraw-Hill Interamericana Editores S.A, México, 1996
[2] DeVore L. Jay, Probabilidad y Estadística para ingeniería y ciencias, Internacional
Thomson Editores, México, 2005
[3] Box P. E.
George, Hunter G. William, Hunter Stuart J., Estadístca para
Investigadores. Introducción al diseño de experimentos, Análisis de Datos y
construcción de modelos, Editorial Reverté S. A. España, 1989
[4] Kenett S Ron, Zacks Shelemyahu, Estadística Industrial moderna. Diseño y control
de la calidad y la confiabilidad, Internacional Thomson editores S. A. México, 2000
[5] López Pérez Cesar, Técnicas estadísticas con SPSS, Pearson Educación S. A,
España, 2001
[6] Montgomery C. Douglas, Diseño y Análisis de Experimentos, Limusa Willey,
México, 2003
[7] Pulido Gutiérrez Humberto, Salazar de la Vara Román, Análisis y Diseño de
Experimentos, MacGraw-Hill, México 2004
[8] Kuehl O. Robert, Diseño de Experimentos. Principios estadísticos para el diseño y
análisis de investigaciones, 2ª Edición,
Internacional Thomson Editores S. A.,
México, 2001
[9] Montgomery, Peck, Vining, Introducción al Análisis de Regresión Lineal, 3ª Edición,
CECSA, México, 2002
[10]
Rodríguez Nacarid, Introducción al
diseño de Experimentos. Guia para su
aplicación en el Campo Educacional, Editado por Universidad Central de
Venezuela, 1978
[11]
SERRANO, Javier; Análisis de regresión; Universidad de los Andes,
Departamento. de Ingeniería Industrial, Bogotá, 1975.
[12]
Tablas
z
Φ( z ) =
Tabla I
z
0.00
−∞
Distribución normal
0.01
0.02
0.03
0.04
∫
1
2π
e
−u 2 / 2
du
z
0.05
0.06
0.07
0.08
0.09
0.0 0.500000 0.503989 0.507978 0.511966 0.515953 0.519939 0.523922 0.527903 0.531881 0.535856
0.1 0.539828 0.543795 0.547758 0.551717 0.555670 0.559618 0.563559 0.567495 0.571424 0.575345
0.2 0.579260 0.583166 0.587064 0.590954 0.594835 0.598706 0.602568 0.606420 0.610261 0.614092
0.3 0.617911 0.621720 0.625516 0.629300 0.633072 0.636831 0.640576 0.644309 0.648027 0.651732
0.4 0.655422 0.659097 0.662757 0.666402 0.670031 0.673645 0.677242 0.680822 0.684386 0.687933
0.5 0.691462 0.694974 0.698468 0.701944 0.705401 0.708840 0.712260 0.715661 0.719043 0.722405
0.6 0.725747 0.729069 0.732371 0.735653 0.738914 0.742154 0.745373 0.748571 0.751748 0.754903
0.7 0.758036 0.761148 0.764238 0.767305 0.770350 0.773373 0.776373 0.779350 0.782305 0.785236
0.8 0.788145 0.791030 0.793892 0.796731 0.799546 0.802337 0.805105 0.807850 0.810570 0.813267
0.9 0.815940 0.818589 0.821214 0.823814 0.826391 0.828944 0.831472 0.833977 0.836457 0.838913
1.0 0.841345 0.843752 0.846136 0.848495 0.850830 0.853141 0.855428 0.857690 0.859929 0.862143
1.1 0.864334 0.866500 0.868643 0.870762 0.872857 0.874928 0.876976 0.879000 0.881000 0.882977
1.2 0.884930 0.886861 0.888768 0.890651 0.892512 0.894350 0.896165 0.897958 0.899727 0.901475
1.3 0.903200 0.904902 0.906582 0.908241 0.909877 0.911492 0.913085 0.914657 0.916207 0.917736
1.4 0.919243 0.920730 0.922196 0.923641 0.925066 0.926471 0.927855 0.929219 0.930563 0.931888
1.5 0.933193 0.934478 0.935745 0.936992 0.938220 0.939429 0.940620 0.941792 0.942947 0.944083
1.6 0.945201 0.946301 0.947384 0.948449 0.949497 0.950529 0.951543 0.952540 0.953521 0.954486
1.7 0.955435 0.956367 0.957284 0.958185 0.959070 0.959941 0.960796 0.961636 0.962462 0.963273
1.8 0.964070 0.964852 0.965620 0.966375 0.967116 0.967843 0.968557 0.969258 0.969946 0.970621
1.9 0.971283 0.971933 0.972571 0.973197 0.973810 0.974412 0.975002 0.975581 0.976148 0.976705
2.0 0.977250 0.977784 0.978308 0.978822 0.979325 0.979818 0.980301 0.980774 0.981237 0.981691
2.1 0.982136 0.982571 0.982997 0.983414 0.983823 0.984222 0.984614 0.984997 0.985371 0.985738
2.2 0.986097 0.986447 0.986791 0.987126 0.987455 0.987776 0.988089 0.988396 0.988696 0.988989
2.3 0.989276 0.989556 0.989830 0.990097 0.990358 0.990613 0.990863 0.991106 0.991344 0.991576
2.4 0.991802 0.992024 0.992240 0.992451 0.992656 0.992857 0.993053 0.993244 0.993431 0.993613
2.5 0.993790 0.993963 0.994132 0.994297 0.994457 0.994614 0.994766 0.994915 0.995060 0.995201
2.6 0.995339 0.995473 0.995604 0.995731 0.995855 0.995975 0.996093 0.996207 0.996319 0.996427
2.7 0.996533 0.996636 0.996736 0.996833 0.996928 0.997020 0.997110 0.997197 0.997282 0.997365
2.8 0.997445 0.997523 0.997599 0.997673 0.997744 0.997814 0.997882 0.997948 0.998012 0.998074
2.9 0.998134 0.998193 0.998250 0.998305 0.998359 0.998411 0.998462 0.998511 0.998559 0.998605
3.0 0.998650 0.998694 0.998736 0.998777 0.998817 0.998856 0.998893 0.998930 0.998965 0.998999
3.1 0.999032 0.999065 0.999096 0.999126 0.999155 0.999184 0.999211 0.999238 0.999264 0.999289
3.2 0.999313 0.999336 0.999359 0.999381 0.999402 0.999423 0.999443 0.999462 0.999481 0.999499
3.3 0.999517 0.999534 0.999550 0.999566 0.999581 0.999596 0.999610 0.999624 0.999638 0.999651
3.4 0.999663 0.999675 0.999687 0.999698 0.999709 0.999720 0.999730 0.999740 0.999749 0.999758
3.5 0.999767 0.999776 0.999784 0.999792 0.999800 0.999807 0.999815 0.999822 0.999828 0.999835
3.6 0.999841 0.999847 0.999853 0.999858 0.999864 0.999869 0.999874 0.999879 0.999883 0.999888
3.7 0.999892 0.999896 0.999900 0.999904 0.999908 0.999912 0.999915 0.999918 0.999922 0.999925
3.8 0.999928 0.999931 0.999933 0.999936 0.999938 0.999941 0.999943 0.999946 0.999948 0.999950
3.9 0.999952 0.999954 0.999956 0.999958 0.999959 0.999961 0.999963 0.999964 0.999966 0.999967
4.0 0.999968 0.999970 0.999971 0.999972 0.999973 0.999974 0.999975 0.999976 0.999977 0.999978
Tabla II
Distribución t
t
α
v
0.4000
0.2500
0.1000
0.0500
0.0250
0.0100
0.0050
0.0025
0.0010
0.0005
1
0.32492
1.00000
3.07768
6.31375
12.7062
31.8205
63.6567
127.3213
318.3088
636.6192
2
0.28868
0.81650
1.88562
2.91999
4.30265
6.96456
9.92484
14.08905
22.32712
31.59905
3
0.27667
0.76489
1.63774
2.35336
3.18245
4.54070
5.84091
7.45332
10.21453
12.92398
4
0.27072
0.74070
1.53321
2.13185
2.77645
3.74695
4.60409
5.59757
7.17318
8.61030
5
0.26718
0.72669
1.47588
2.01505
2.57058
3.36493
4.03214
4.77334
5.89343
6.86883
6
0.26483
0.71756
1.43976
1.94318
2.44691
3.14267
3.70743
4.31683
5.20763
5.95882
7
0.26317
0.71114
1.41492
1.89458
2.36462
2.99795
3.49948
4.02934
4.78529
5.40788
8
0.26192
0.70639
1.39682
1.85955
2.30600
2.89646
3.35539
3.83252
4.50079
5.04131
9
0.26096
0.70272
1.38303
1.83311
2.26216
2.82144
3.24984
3.68966
4.29681
4.78091
10
0.26018
0.69981
1.37218
1.81246
2.22814
2.76377
3.16927
3.58141
4.14370
4.58689
11
0.25956
0.69745
1.36343
1.79588
2.20099
2.71808
3.10581
3.49661
4.02470
4.43698
12
0.25903
0.69548
1.35622
1.78229
2.17881
2.68100
3.05454
3.42844
3.92963
4.31779
13
0.25859
0.69383
1.35017
1.77093
2.16037
2.65031
3.01228
3.37247
3.85198
4.22083
14
0.25821
0.69242
1.34503
1.76131
2.14479
2.62449
2.97684
3.32570
3.78739
4.14045
15
0.25789
0.69120
1.34061
1.75305
2.13145
2.60248
2.94671
3.28604
3.73283
4.07277
16
0.25760
0.69013
1.33676
1.74588
2.11991
2.58349
2.92078
3.25199
3.68615
4.01500
17
0.25735
0.68920
1.33338
1.73961
2.10982
2.56693
2.89823
3.22245
3.64577
3.96513
18
0.25712
0.68836
1.33039
1.73406
2.10092
2.55238
2.87844
3.19657
3.61048
3.92165
19
0.25692
0.68762
1.32773
1.72913
2.09302
2.53948
2.86093
3.17372
3.57940
3.88341
20
0.25674
0.68695
1.32534
1.72472
2.08596
2.52798
2.84534
3.15340
3.55181
3.84952
21
0.25658
0.68635
1.32319
1.72074
2.07961
2.51765
2.83136
3.13521
3.52715
3.81928
22
0.25643
0.68581
1.32124
1.71714
2.07387
2.50832
2.81876
3.11882
3.50499
3.79213
23
0.25630
0.68531
1.31946
1.71387
2.06866
2.49987
2.80734
3.10400
3.48496
3.76763
24
0.25617
0.68485
1.31784
1.71088
2.06390
2.49216
2.79694
3.09051
3.46678
3.74540
25
0.25606
0.68443
1.31635
1.70814
2.05954
2.48511
2.78744
3.07820
3.45019
3.72514
26
0.25595
0.68404
1.31497
1.70562
2.05553
2.47863
2.77871
3.06691
3.43500
3.70661
27
0.25586
0.68368
1.31370
1.70329
2.05183
2.47266
2.77068
3.05652
3.42103
3.68959
28
0.25577
0.68335
1.31253
1.70113
2.04841
2.46714
2.76326
3.04693
3.40816
3.67391
29
0.25568
0.68304
1.31143
1.69913
2.04523
2.46202
2.75639
3.03805
3.39624
3.65941
30
0.25561
0.68276
1.31042
1.69726
2.04227
2.45726
2.75000
3.02980
3.38518
3.64596
40
0.25504
0.68067
1.30308
1.68385
2.02108
2.42326
2.70446
2.97117
3.30688
3.55097
50
0.25470
0.67943
1.29871
1.67591
2.00856
2.40327
2.67779
2.93696
3.26141
3.49601
60
0.25447
0.67860
1.29582
1.67065
2.00030
2.39012
2.66028
2.91455
3.23171
3.46020
70
0.25431
0.67801
1.29376
1.66691
1.99444
2.38081
2.64790
2.89873
3.21079
3.43501
80
0.25419
0.67757
1.29222
1.66412
1.99006
2.37387
2.63869
2.88697
3.19526
3.41634
90
0.25410
0.67723
1.29103
1.66196
1.98667
2.36850
2.63157
2.87788
3.18327
3.40194
95
0.25406
0.67708
1.29053
1.66105
1.98525
2.36624
2.62858
2.87407
3.17825
3.39590
100
0.25402
0.67695
1.29007
1.66023
1.98397
2.36422
2.62589
2.87065
3.17374
3.39049
120
0.25391
0.67654
1.28865
1.65765
1.97993
2.35782
2.61742
2.85986
3.15954
3.37345
150
0.25380
0.67613
1.28722
1.65508
1.97591
2.35146
2.60900
2.84915
3.14545
3.35657
Tabla III
Distribución Ji Cuadrado
α
v
0.99500
0.99000
0.97500
0.95000
0.50000
0.05000
0.01000
0.00500
1
0.00004
0.00016
0.00098
0.00393
0.45494
3.84146
6.63490
7.87944
2
0.01003
0.02010
0.05064
0.10259
1.38629
5.99146
9.21034
10.59663
3
0.07172
0.11483
0.21580
0.35185
2.36597
7.81473
11.34487
12.83816
4
0.20699
0.29711
0.48442
0.71072
3.35669
9.48773
13.27670
14.86026
5
0.41174
0.55430
0.83121
1.14548
4.35146
11.07050
15.08627
16.74960
6
0.67573
0.87209
1.23734
1.63538
5.34812
12.59159
16.81189
18.54758
7
0.98926
1.23904
1.68987
2.16735
6.34581
14.06714
18.47531
20.27774
8
1.34441
1.64650
2.17973
2.73264
7.34412
15.50731
20.09024
21.95495
9
1.73493
2.08790
2.70039
3.32511
8.34283
16.91898
21.66599
23.58935
10
2.15586
2.55821
3.24697
3.94030
9.34182
18.30704
23.20925
25.18818
11
2.60322
3.05348
3.81575
4.57481
10.34100
19.67514
24.72497
26.75685
12
3.07382
3.57057
4.40379
5.22603
11.34032
21.02607
26.21697
28.29952
13
3.56503
4.10692
5.00875
5.89186
12.33976
22.36203
27.68825
29.81947
14
4.07467
4.66043
5.62873
6.57063
13.33927
23.68479
29.14124
31.31935
15
4.60092
5.22935
6.26214
7.26094
14.33886
24.99579
30.57791
32.80132
16
5.14221
5.81221
6.90766
7.96165
15.33850
26.29623
31.99993
34.26719
17
5.69722
6.40776
7.56419
8.67176
16.33818
27.58711
33.40866
35.71847
18
6.26480
7.01491
8.23075
9.39046
17.33790
28.86930
34.80531
37.15645
19
6.84397
7.63273
8.90652
10.11701
18.33765
30.14353
36.19087
38.58226
20
7.43384
8.26040
9.59078
10.85081
19.33743
31.41043
37.56623
39.99685
21
8.03365
8.89720
10.28290
11.59131
20.33723
32.67057
38.93217
41.40106
22
8.64272
9.54249
10.98232
12.33801
21.33705
33.92444
40.28936
42.79565
23
9.26042
10.19572
11.68855
13.09051
22.33688
35.17246
41.63840
44.18128
24
9.88623
10.85636
12.40115
13.84843
23.33673
36.41503
42.97982
45.55851
25
10.51965
11.52398
13.11972
14.61141
24.33659
37.65248
44.31410
46.92789
26
11.16024
12.19815
13.84391
15.37916
25.33646
38.88514
45.64168
48.28988
27
11.80759
12.87850
14.57338
16.15140
26.33634
40.11327
46.96294
49.64492
28
12.46134
13.56471
15.30786
16.92788
27.33623
41.33714
48.27824
50.99338
29
13.12115
14.25645
16.04707
17.70837
28.33613
42.55697
49.58788
52.33562
30
13.78672
14.95346
16.79077
18.49266
29.33603
43.77297
50.89218
53.67196
35
17.19182
18.50893
20.56938
22.46502
34.33564
49.80185
57.34207
60.27477
40
20.70654
22.16426
24.43304
26.50930
39.33535
55.75848
63.69074
66.76596
45
24.31101
25.90127
28.36615
30.61226
44.33512
61.65623
69.95683
73.16606
50
27.99075
29.70668
32.35736
34.76425
49.33494
67.50481
76.15389
79.48998
60
35.53449
37.48485
40.48175
43.18796
59.33467
79.08194
88.37942
91.95170
65
39.38314
41.44361
44.60299
47.44958
64.33456
84.82065
94.42208
98.10514
70
43.27518
45.44172
48.75757
51.73928
69.33448
90.53123
100.42518
104.21490
75
47.20605
49.47503
52.94194
56.05407
74.33440
96.21667
106.39292
110.28558
80
51.17193
53.54008
57.15317
60.39148
79.33433
101.87947
112.32879
116.32106
85
55.16960
57.63393
61.38878
64.74940
84.33427
107.52174
118.23575
122.32458
90
59.19630
61.75408
65.64662
69.12603
89.33422
113.14527
124.11632
128.29894
100
67.32756
70.06490
74.22193
77.92947
99.33414
124.34211
135.80672
140.16949
110
75.55005
78.45831
82.86705
86.79163
109.33406
135.48018
147.41431
151.94848
Tabla IV
v1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
120
140
150
1
5.83
2.57
2.02
1.81
1.69
1.62
1.57
1.54
1.51
1.49
1.47
1.46
1.45
1.44
1.43
1.42
1.42
1.41
1.41
1.40
1.40
1.40
1.39
1.39
1.39
1.38
1.38
1.38
1.38
1.38
1.36
1.35
1.35
1.35
1.34
1.34
1.34
1.34
1.33
1.33
2
7.50
3.00
2.28
2.00
1.85
1.76
1.70
1.66
1.62
1.60
1.58
1.56
1.55
1.53
1.52
1.51
1.51
1.50
1.49
1.49
1.48
1.48
1.47
1.47
1.47
1.46
1.46
1.46
1.45
1.45
1.44
1.43
1.42
1.41
1.41
1.41
1.41
1.40
1.40
1.40
Distribución F con α = 0.25
3
8.20
3.15
2.36
2.05
1.88
1.78
1.72
1.67
1.63
1.60
1.58
1.56
1.55
1.53
1.52
1.51
1.50
1.49
1.49
1.48
1.48
1.47
1.47
1.46
1.46
1.45
1.45
1.45
1.45
1.44
1.42
1.41
1.41
1.40
1.40
1.39
1.39
1.39
1.38
1.38
4
8.58
3.23
2.39
2.06
1.89
1.79
1.72
1.66
1.63
1.59
1.57
1.55
1.53
1.52
1.51
1.50
1.49
1.48
1.47
1.47
1.46
1.45
1.45
1.44
1.44
1.44
1.43
1.43
1.43
1.42
1.40
1.39
1.38
1.38
1.38
1.37
1.37
1.37
1.36
1.36
5
8.82
3.28
2.41
2.07
1.89
1.79
1.71
1.66
1.62
1.59
1.56
1.54
1.52
1.51
1.49
1.48
1.47
1.46
1.46
1.45
1.44
1.44
1.43
1.43
1.42
1.42
1.42
1.41
1.41
1.41
1.39
1.37
1.37
1.36
1.36
1.35
1.35
1.35
1.34
1.34
6
8.98
3.31
2.42
2.08
1.89
1.78
1.71
1.65
1.61
1.58
1.55
1.53
1.51
1.50
1.48
1.47
1.46
1.45
1.44
1.44
1.43
1.42
1.42
1.41
1.41
1.41
1.40
1.40
1.40
1.39
1.37
1.36
1.35
1.34
1.34
1.33
1.33
1.33
1.32
1.32
7
9.10
3.34
2.43
2.08
1.89
1.78
1.70
1.64
1.60
1.57
1.54
1.52
1.50
1.49
1.47
1.46
1.45
1.44
1.43
1.43
1.42
1.41
1.41
1.40
1.40
1.39
1.39
1.39
1.38
1.38
1.36
1.34
1.33
1.33
1.32
1.32
1.32
1.31
1.31
1.31
8
9.19
3.35
2.44
2.08
1.89
1.78
1.70
1.64
1.60
1.56
1.53
1.51
1.49
1.48
1.46
1.45
1.44
1.43
1.42
1.42
1.41
1.40
1.40
1.39
1.39
1.38
1.38
1.38
1.37
1.37
1.35
1.33
1.32
1.32
1.31
1.31
1.30
1.30
1.30
1.30
9
9.26
3.37
2.44
2.08
1.89
1.77
1.69
1.63
1.59
1.56
1.53
1.51
1.49
1.47
1.46
1.44
1.43
1.42
1.41
1.41
1.40
1.39
1.39
1.38
1.38
1.37
1.37
1.37
1.36
1.36
1.34
1.32
1.31
1.31
1.30
1.30
1.29
1.29
1.29
1.28
10
9.32
3.38
2.44
2.08
1.89
1.77
1.69
1.63
1.59
1.55
1.52
1.50
1.48
1.46
1.45
1.44
1.43
1.42
1.41
1.40
1.39
1.39
1.38
1.38
1.37
1.37
1.36
1.36
1.35
1.35
1.33
1.31
1.30
1.30
1.29
1.29
1.28
1.28
1.28
1.27
12
9.41
3.39
2.45
2.08
1.89
1.77
1.68
1.62
1.58
1.54
1.51
1.49
1.47
1.45
1.44
1.43
1.41
1.40
1.40
1.39
1.38
1.37
1.37
1.36
1.36
1.35
1.35
1.34
1.34
1.34
1.31
1.30
1.29
1.28
1.27
1.27
1.27
1.26
1.26
1.26
14
9.47
3.41
2.45
2.08
1.89
1.76
1.68
1.62
1.57
1.54
1.51
1.48
1.46
1.44
1.43
1.42
1.41
1.40
1.39
1.38
1.37
1.36
1.36
1.35
1.35
1.34
1.34
1.33
1.33
1.33
1.30
1.28
1.27
1.27
1.26
1.26
1.25
1.25
1.24
1.24
16
9.52
3.41
2.46
2.08
1.88
1.76
1.68
1.62
1.57
1.53
1.50
1.48
1.46
1.44
1.42
1.41
1.40
1.39
1.38
1.37
1.36
1.36
1.35
1.34
1.34
1.33
1.33
1.32
1.32
1.32
1.29
1.27
1.26
1.26
1.25
1.25
1.24
1.24
1.23
1.23
18
9.55
3.42
2.46
2.08
1.88
1.76
1.67
1.61
1.56
1.53
1.50
1.47
1.45
1.43
1.42
1.40
1.39
1.38
1.37
1.36
1.36
1.35
1.34
1.34
1.33
1.33
1.32
1.32
1.31
1.31
1.28
1.27
1.26
1.25
1.24
1.24
1.23
1.23
1.22
1.22
20
9.58
3.43
2.46
2.08
1.88
1.76
1.67
1.61
1.56
1.52
1.49
1.47
1.45
1.43
1.41
1.40
1.39
1.38
1.37
1.36
1.35
1.34
1.34
1.33
1.33
1.32
1.32
1.31
1.31
1.30
1.28
1.26
1.25
1.24
1.23
1.23
1.23
1.22
1.22
1.21
25
9.63
3.44
2.46
2.08
1.88
1.75
1.67
1.60
1.55
1.52
1.49
1.46
1.44
1.42
1.40
1.39
1.38
1.37
1.36
1.35
1.34
1.33
1.33
1.32
1.31
1.31
1.30
1.30
1.30
1.29
1.26
1.25
1.23
1.23
1.22
1.21
1.21
1.20
1.20
1.20
30
9.67
3.44
2.47
2.08
1.88
1.75
1.66
1.60
1.55
1.51
1.48
1.45
1.43
1.41
1.40
1.38
1.37
1.36
1.35
1.34
1.33
1.32
1.32
1.31
1.31
1.30
1.30
1.29
1.29
1.28
1.25
1.23
1.22
1.21
1.21
1.20
1.20
1.19
1.19
1.19
35
9.70
3.45
2.47
2.08
1.88
1.75
1.66
1.60
1.55
1.51
1.48
1.45
1.43
1.41
1.39
1.38
1.37
1.35
1.34
1.33
1.33
1.32
1.31
1.31
1.30
1.29
1.29
1.28
1.28
1.28
1.25
1.23
1.21
1.21
1.20
1.19
1.19
1.18
1.18
1.18
40
9.71
3.45
2.47
2.08
1.88
1.75
1.66
1.59
1.54
1.51
1.47
1.45
1.42
1.41
1.39
1.37
1.36
1.35
1.34
1.33
1.32
1.31
1.31
1.30
1.29
1.29
1.28
1.28
1.27
1.27
1.24
1.22
1.21
1.20
1.19
1.19
1.18
1.18
1.17
1.17
50
9.74
3.46
2.47
2.08
1.88
1.75
1.66
1.59
1.54
1.50
1.47
1.44
1.42
1.40
1.38
1.37
1.36
1.34
1.33
1.32
1.32
1.31
1.30
1.29
1.29
1.28
1.28
1.27
1.27
1.26
1.23
1.21
1.20
1.19
1.18
1.18
1.17
1.16
1.16
1.16
60
9.76
3.46
2.47
2.08
1.87
1.74
1.65
1.59
1.54
1.50
1.47
1.44
1.42
1.40
1.38
1.36
1.35
1.34
1.33
1.32
1.31
1.30
1.30
1.29
1.28
1.28
1.27
1.27
1.26
1.26
1.22
1.20
1.19
1.18
1.17
1.17
1.16
1.16
1.15
1.15
70
9.77
3.46
2.47
2.08
1.87
1.74
1.65
1.59
1.54
1.50
1.46
1.44
1.41
1.39
1.38
1.36
1.35
1.34
1.33
1.32
1.31
1.30
1.29
1.28
1.28
1.27
1.27
1.26
1.26
1.25
1.22
1.20
1.19
1.18
1.17
1.16
1.16
1.15
1.14
1.14
80
9.78
3.46
2.47
2.08
1.87
1.74
1.65
1.59
1.54
1.50
1.46
1.44
1.41
1.39
1.37
1.36
1.35
1.33
1.32
1.31
1.30
1.30
1.29
1.28
1.28
1.27
1.26
1.26
1.25
1.25
1.22
1.20
1.18
1.17
1.16
1.16
1.15
1.14
1.14
1.14
90
9.79
3.46
2.47
2.08
1.87
1.74
1.65
1.59
1.53
1.49
1.46
1.43
1.41
1.39
1.37
1.36
1.34
1.33
1.32
1.31
1.30
1.29
1.29
1.28
1.27
1.27
1.26
1.26
1.25
1.25
1.21
1.19
1.18
1.17
1.16
1.15
1.15
1.14
1.13
1.13
100
9.80
3.47
2.47
2.08
1.87
1.74
1.65
1.58
1.53
1.49
1.46
1.43
1.41
1.39
1.37
1.36
1.34
1.33
1.32
1.31
1.30
1.29
1.29
1.28
1.27
1.27
1.26
1.25
1.25
1.25
1.21
1.19
1.18
1.16
1.16
1.15
1.14
1.14
1.13
1.13
120
9.80
3.47
2.47
2.08
1.87
1.74
1.65
1.58
1.53
1.49
1.46
1.43
1.41
1.39
1.37
1.35
1.34
1.33
1.32
1.31
1.30
1.29
1.28
1.28
1.27
1.26
1.26
1.25
1.25
1.24
1.21
1.19
1.17
1.16
1.15
1.15
1.14
1.13
1.13
1.12
140
9.81
3.47
2.47
2.08
1.87
1.74
1.65
1.58
1.53
1.49
1.46
1.43
1.41
1.39
1.37
1.35
1.34
1.33
1.32
1.31
1.30
1.29
1.28
1.27
1.27
1.26
1.26
1.25
1.24
1.24
1.21
1.18
1.17
1.16
1.15
1.14
1.14
1.13
1.12
1.12
Tabla V
v1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
120
140
150
1
161.4
18.5
10.1
7.71
6.61
5.99
5.59
5.32
5.12
4.96
4.84
4.75
4.67
4.60
4.54
4.49
4.45
4.41
4.38
4.35
4.32
4.30
4.28
4.26
4.24
4.23
4.21
4.20
4.18
4.17
4.08
4.03
4.00
3.98
3.96
3.95
3.94
3.92
3.91
3.90
Distribución F con α = 0.05
2
199.5
19.0
9.6
6.94
5.79
5.14
4.74
4.46
4.26
4.10
3.98
3.89
3.81
3.74
3.68
3.63
3.59
3.55
3.52
3.49
3.47
3.44
3.42
3.40
3.39
3.37
3.35
3.34
3.33
3.32
3.23
3.18
3.15
3.13
3.11
3.10
3.09
3.07
3.06
3.06
3
215.7
19.2
9.3
6.59
5.41
4.76
4.35
4.07
3.86
3.71
3.59
3.49
3.41
3.34
3.29
3.24
3.20
3.16
3.13
3.10
3.07
3.05
3.03
3.01
2.99
2.98
2.96
2.95
2.93
2.92
2.84
2.79
2.76
2.74
2.72
2.71
2.70
2.68
2.67
2.66
4
224.6
19.2
9.1
6.39
5.19
4.53
4.12
3.84
3.63
3.48
3.36
3.26
3.18
3.11
3.06
3.01
2.96
2.93
2.90
2.87
2.84
2.82
2.80
2.78
2.76
2.74
2.73
2.71
2.70
2.69
2.61
2.56
2.53
2.50
2.49
2.47
2.46
2.45
2.44
2.43
5
230.2
19.3
9.0
6.26
5.05
4.39
3.97
3.69
3.48
3.33
3.20
3.11
3.03
2.96
2.90
2.85
2.81
2.77
2.74
2.71
2.68
2.66
2.64
2.62
2.60
2.59
2.57
2.56
2.55
2.53
2.45
2.40
2.37
2.35
2.33
2.32
2.31
2.29
2.28
2.27
6
234.0
19.3
8.9
6.16
4.95
4.28
3.87
3.58
3.37
3.22
3.09
3.00
2.92
2.85
2.79
2.74
2.70
2.66
2.63
2.60
2.57
2.55
2.53
2.51
2.49
2.47
2.46
2.45
2.43
2.42
2.34
2.29
2.25
2.23
2.21
2.20
2.19
2.18
2.16
2.16
7
236.8
19.4
8.9
6.09
4.88
4.21
3.79
3.50
3.29
3.14
3.01
2.91
2.83
2.76
2.71
2.66
2.61
2.58
2.54
2.51
2.49
2.46
2.44
2.42
2.40
2.39
2.37
2.36
2.35
2.33
2.25
2.20
2.17
2.14
2.13
2.11
2.10
2.09
2.08
2.07
8
238.9
19.4
8.8
6.04
4.82
4.15
3.73
3.44
3.23
3.07
2.95
2.85
2.77
2.70
2.64
2.59
2.55
2.51
2.48
2.45
2.42
2.40
2.37
2.36
2.34
2.32
2.31
2.29
2.28
2.27
2.18
2.13
2.10
2.07
2.06
2.04
2.03
2.02
2.01
2.00
9
240.5
19.4
8.8
6.00
4.77
4.10
3.68
3.39
3.18
3.02
2.90
2.80
2.71
2.65
2.59
2.54
2.49
2.46
2.42
2.39
2.37
2.34
2.32
2.30
2.28
2.27
2.25
2.24
2.22
2.21
2.12
2.07
2.04
2.02
2.00
1.99
1.97
1.96
1.95
1.94
10
241.9
19.4
8.8
5.96
4.74
4.06
3.64
3.35
3.14
2.98
2.85
2.75
2.67
2.60
2.54
2.49
2.45
2.41
2.38
2.35
2.32
2.30
2.27
2.25
2.24
2.22
2.20
2.19
2.18
2.16
2.08
2.03
1.99
1.97
1.95
1.94
1.93
1.91
1.90
1.89
12
243.9
19.4
8.7
5.91
4.68
4.00
3.57
3.28
3.07
2.91
2.79
2.69
2.60
2.53
2.48
2.42
2.38
2.34
2.31
2.28
2.25
2.23
2.20
2.18
2.16
2.15
2.13
2.12
2.10
2.09
2.00
1.95
1.92
1.89
1.88
1.86
1.85
1.83
1.82
1.82
14
245.4
19.4
8.7
5.87
4.64
3.96
3.53
3.24
3.03
2.86
2.74
2.64
2.55
2.48
2.42
2.37
2.33
2.29
2.26
2.22
2.20
2.17
2.15
2.13
2.11
2.09
2.08
2.06
2.05
2.04
1.95
1.89
1.86
1.84
1.82
1.80
1.79
1.78
1.76
1.76
16
246.5
19.4
8.7
5.84
4.60
3.92
3.49
3.20
2.99
2.83
2.70
2.60
2.51
2.44
2.38
2.33
2.29
2.25
2.21
2.18
2.16
2.13
2.11
2.09
2.07
2.05
2.04
2.02
2.01
1.99
1.90
1.85
1.82
1.79
1.77
1.76
1.75
1.73
1.72
1.71
18
247.3
19.4
8.7
5.82
4.58
3.90
3.47
3.17
2.96
2.80
2.67
2.57
2.48
2.41
2.35
2.30
2.26
2.22
2.18
2.15
2.12
2.10
2.08
2.05
2.04
2.02
2.00
1.99
1.97
1.96
1.87
1.81
1.78
1.75
1.73
1.72
1.71
1.69
1.68
1.67
20
248.0
19.4
8.7
5.80
4.56
3.87
3.44
3.15
2.94
2.77
2.65
2.54
2.46
2.39
2.33
2.28
2.23
2.19
2.16
2.12
2.10
2.07
2.05
2.03
2.01
1.99
1.97
1.96
1.94
1.93
1.84
1.78
1.75
1.72
1.70
1.69
1.68
1.66
1.65
1.64
25
249.3
19.5
8.6
5.77
4.52
3.83
3.40
3.11
2.89
2.73
2.60
2.50
2.41
2.34
2.28
2.23
2.18
2.14
2.11
2.07
2.05
2.02
2.00
1.97
1.96
1.94
1.92
1.91
1.89
1.88
1.78
1.73
1.69
1.66
1.64
1.63
1.62
1.60
1.58
1.58
30
250.1
19.5
8.6
5.75
4.50
3.81
3.38
3.08
2.86
2.70
2.57
2.47
2.38
2.31
2.25
2.19
2.15
2.11
2.07
2.04
2.01
1.98
1.96
1.94
1.92
1.90
1.88
1.87
1.85
1.84
1.74
1.69
1.65
1.62
1.60
1.59
1.57
1.55
1.54
1.54
35
250.7
19.5
8.6
5.73
4.48
3.79
3.36
3.06
2.84
2.68
2.55
2.44
2.36
2.28
2.22
2.17
2.12
2.08
2.05
2.01
1.98
1.96
1.93
1.91
1.89
1.87
1.86
1.84
1.83
1.81
1.72
1.66
1.62
1.59
1.57
1.55
1.54
1.52
1.51
1.50
40
251.1
19.5
8.6
5.72
4.46
3.77
3.34
3.04
2.83
2.66
2.53
2.43
2.34
2.27
2.20
2.15
2.10
2.06
2.03
1.99
1.96
1.94
1.91
1.89
1.87
1.85
1.84
1.82
1.81
1.79
1.69
1.63
1.59
1.57
1.54
1.53
1.52
1.50
1.48
1.48
50
251.8
19.5
8.6
5.70
4.44
3.75
3.32
3.02
2.80
2.64
2.51
2.40
2.31
2.24
2.18
2.12
2.08
2.04
2.00
1.97
1.94
1.91
1.88
1.86
1.84
1.82
1.81
1.79
1.77
1.76
1.66
1.60
1.56
1.53
1.51
1.49
1.48
1.46
1.44
1.44
60
252.2
19.5
8.6
5.69
4.43
3.74
3.30
3.01
2.79
2.62
2.49
2.38
2.30
2.22
2.16
2.11
2.06
2.02
1.98
1.95
1.92
1.89
1.86
1.84
1.82
1.80
1.79
1.77
1.75
1.74
1.64
1.58
1.53
1.50
1.48
1.46
1.45
1.43
1.41
1.41
70
252.5
19.5
8.6
5.68
4.42
3.73
3.29
2.99
2.78
2.61
2.48
2.37
2.28
2.21
2.15
2.09
2.05
2.00
1.97
1.93
1.90
1.88
1.85
1.83
1.81
1.79
1.77
1.75
1.74
1.72
1.62
1.56
1.52
1.49
1.46
1.44
1.43
1.41
1.39
1.39
80
252.7
19.5
8.6
5.67
4.41
3.72
3.29
2.99
2.77
2.60
2.47
2.36
2.27
2.20
2.14
2.08
2.03
1.99
1.96
1.92
1.89
1.86
1.84
1.82
1.80
1.78
1.76
1.74
1.73
1.71
1.61
1.54
1.50
1.47
1.45
1.43
1.41
1.39
1.38
1.37
90
252.9
19.5
8.6
5.67
4.41
3.72
3.28
2.98
2.76
2.59
2.46
2.36
2.27
2.19
2.13
2.07
2.03
1.98
1.95
1.91
1.88
1.86
1.83
1.81
1.79
1.77
1.75
1.73
1.72
1.70
1.60
1.53
1.49
1.46
1.44
1.42
1.40
1.38
1.36
1.36
100
253.0
19.5
8.6
5.66
4.41
3.71
3.27
2.97
2.76
2.59
2.46
2.35
2.26
2.19
2.12
2.07
2.02
1.98
1.94
1.91
1.88
1.85
1.82
1.80
1.78
1.76
1.74
1.73
1.71
1.70
1.59
1.52
1.48
1.45
1.43
1.41
1.39
1.37
1.35
1.34
120
253.3
19.5
8.5
5.66
4.40
3.70
3.27
2.97
2.75
2.58
2.45
2.34
2.25
2.18
2.11
2.06
2.01
1.97
1.93
1.90
1.87
1.84
1.81
1.79
1.77
1.75
1.73
1.71
1.70
1.68
1.58
1.51
1.47
1.44
1.41
1.39
1.38
1.35
1.33
1.33
140
253.4
19.5
8.5
5.65
4.39
3.70
3.26
2.96
2.74
2.57
2.44
2.33
2.25
2.17
2.11
2.05
2.00
1.96
1.92
1.89
1.86
1.83
1.81
1.78
1.76
1.74
1.72
1.71
1.69
1.68
1.57
1.50
1.46
1.42
1.40
1.38
1.36
1.34
1.32
1.31
Tabla VI
v1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
120
140
150
1
39.86
8.53
5.54
4.54
4.06
3.78
3.59
3.46
3.36
3.29
3.23
3.18
3.14
3.10
3.07
3.05
3.03
3.01
2.99
2.97
2.96
2.95
2.94
2.93
2.92
2.91
2.90
2.89
2.89
2.88
2.84
2.81
2.79
2.78
2.77
2.76
2.76
2.75
2.74
2.74
2
49.50
9.00
5.46
4.32
3.78
3.46
3.26
3.11
3.01
2.92
2.86
2.81
2.76
2.73
2.70
2.67
2.64
2.62
2.61
2.59
2.57
2.56
2.55
2.54
2.53
2.52
2.51
2.50
2.50
2.49
2.44
2.41
2.39
2.38
2.37
2.36
2.36
2.35
2.34
2.34
Distribución F con α = 0.10
3
53.59
9.16
5.39
4.19
3.62
3.29
3.07
2.92
2.81
2.73
2.66
2.61
2.56
2.52
2.49
2.46
2.44
2.42
2.40
2.38
2.36
2.35
2.34
2.33
2.32
2.31
2.30
2.29
2.28
2.28
2.23
2.20
2.18
2.16
2.15
2.15
2.14
2.13
2.12
2.12
4
55.83
9.24
5.34
4.11
3.52
3.18
2.96
2.81
2.69
2.61
2.54
2.48
2.43
2.39
2.36
2.33
2.31
2.29
2.27
2.25
2.23
2.22
2.21
2.19
2.18
2.17
2.17
2.16
2.15
2.14
2.09
2.06
2.04
2.03
2.02
2.01
2.00
1.99
1.99
1.98
5
57.24
9.29
5.31
4.05
3.45
3.11
2.88
2.73
2.61
2.52
2.45
2.39
2.35
2.31
2.27
2.24
2.22
2.20
2.18
2.16
2.14
2.13
2.11
2.10
2.09
2.08
2.07
2.06
2.06
2.05
2.00
1.97
1.95
1.93
1.92
1.91
1.91
1.90
1.89
1.89
6
58.20
9.33
5.28
4.01
3.40
3.05
2.83
2.67
2.55
2.46
2.39
2.33
2.28
2.24
2.21
2.18
2.15
2.13
2.11
2.09
2.08
2.06
2.05
2.04
2.02
2.01
2.00
2.00
1.99
1.98
1.93
1.90
1.87
1.86
1.85
1.84
1.83
1.82
1.82
1.81
7
58.91
9.35
5.27
3.98
3.37
3.01
2.78
2.62
2.51
2.41
2.34
2.28
2.23
2.19
2.16
2.13
2.10
2.08
2.06
2.04
2.02
2.01
1.99
1.98
1.97
1.96
1.95
1.94
1.93
1.93
1.87
1.84
1.82
1.80
1.79
1.78
1.78
1.77
1.76
1.76
8
59.44
9.37
5.25
3.95
3.34
2.98
2.75
2.59
2.47
2.38
2.30
2.24
2.20
2.15
2.12
2.09
2.06
2.04
2.02
2.00
1.98
1.97
1.95
1.94
1.93
1.92
1.91
1.90
1.89
1.88
1.83
1.80
1.77
1.76
1.75
1.74
1.73
1.72
1.71
1.71
9
59.86
9.38
5.24
3.94
3.32
2.96
2.72
2.56
2.44
2.35
2.27
2.21
2.16
2.12
2.09
2.06
2.03
2.00
1.98
1.96
1.95
1.93
1.92
1.91
1.89
1.88
1.87
1.87
1.86
1.85
1.79
1.76
1.74
1.72
1.71
1.70
1.69
1.68
1.68
1.67
10
60.19
9.39
5.23
3.92
3.30
2.94
2.70
2.54
2.42
2.32
2.25
2.19
2.14
2.10
2.06
2.03
2.00
1.98
1.96
1.94
1.92
1.90
1.89
1.88
1.87
1.86
1.85
1.84
1.83
1.82
1.76
1.73
1.71
1.69
1.68
1.67
1.66
1.65
1.64
1.64
12
60.71
9.41
5.22
3.90
3.27
2.90
2.67
2.50
2.38
2.28
2.21
2.15
2.10
2.05
2.02
1.99
1.96
1.93
1.91
1.89
1.87
1.86
1.84
1.83
1.82
1.81
1.80
1.79
1.78
1.77
1.71
1.68
1.66
1.64
1.63
1.62
1.61
1.60
1.59
1.59
14
61.07
9.42
5.20
3.88
3.25
2.88
2.64
2.48
2.35
2.26
2.18
2.12
2.07
2.02
1.99
1.95
1.93
1.90
1.88
1.86
1.84
1.83
1.81
1.80
1.79
1.77
1.76
1.75
1.75
1.74
1.68
1.64
1.62
1.60
1.59
1.58
1.57
1.56
1.55
1.55
16
61.35
9.43
5.20
3.86
3.23
2.86
2.62
2.45
2.33
2.23
2.16
2.09
2.04
2.00
1.96
1.93
1.90
1.87
1.85
1.83
1.81
1.80
1.78
1.77
1.76
1.75
1.74
1.73
1.72
1.71
1.65
1.61
1.59
1.57
1.56
1.55
1.54
1.53
1.52
1.52
18
61.57
9.44
5.19
3.85
3.22
2.85
2.61
2.44
2.31
2.22
2.14
2.08
2.02
1.98
1.94
1.91
1.88
1.85
1.83
1.81
1.79
1.78
1.76
1.75
1.74
1.72
1.71
1.70
1.69
1.69
1.62
1.59
1.56
1.55
1.53
1.52
1.52
1.50
1.50
1.49
20
61.74
9.44
5.18
3.84
3.21
2.84
2.59
2.42
2.30
2.20
2.12
2.06
2.01
1.96
1.92
1.89
1.86
1.84
1.81
1.79
1.78
1.76
1.74
1.73
1.72
1.71
1.70
1.69
1.68
1.67
1.61
1.57
1.54
1.53
1.51
1.50
1.49
1.48
1.47
1.47
25
62.05
9.45
5.17
3.83
3.19
2.81
2.57
2.40
2.27
2.17
2.10
2.03
1.98
1.93
1.89
1.86
1.83
1.80
1.78
1.76
1.74
1.73
1.71
1.70
1.68
1.67
1.66
1.65
1.64
1.63
1.57
1.53
1.50
1.49
1.47
1.46
1.45
1.44
1.43
1.43
30
62.26
9.46
5.17
3.82
3.17
2.80
2.56
2.38
2.25
2.16
2.08
2.01
1.96
1.91
1.87
1.84
1.81
1.78
1.76
1.74
1.72
1.70
1.69
1.67
1.66
1.65
1.64
1.63
1.62
1.61
1.54
1.50
1.48
1.46
1.44
1.43
1.42
1.41
1.40
1.40
35
62.42
9.46
5.16
3.81
3.16
2.79
2.54
2.37
2.24
2.14
2.06
2.00
1.94
1.90
1.86
1.82
1.79
1.77
1.74
1.72
1.70
1.68
1.67
1.65
1.64
1.63
1.62
1.61
1.60
1.59
1.52
1.48
1.45
1.43
1.42
1.41
1.40
1.39
1.38
1.37
40
62.53
9.47
5.16
3.80
3.16
2.78
2.54
2.36
2.23
2.13
2.05
1.99
1.93
1.89
1.85
1.81
1.78
1.75
1.73
1.71
1.69
1.67
1.66
1.64
1.63
1.61
1.60
1.59
1.58
1.57
1.51
1.46
1.44
1.42
1.40
1.39
1.38
1.37
1.36
1.35
50
62.69
9.47
5.15
3.80
3.15
2.77
2.52
2.35
2.22
2.12
2.04
1.97
1.92
1.87
1.83
1.79
1.76
1.74
1.71
1.69
1.67
1.65
1.64
1.62
1.61
1.59
1.58
1.57
1.56
1.55
1.48
1.44
1.41
1.39
1.38
1.36
1.35
1.34
1.33
1.33
60
62.79
9.47
5.15
3.79
3.14
2.76
2.51
2.34
2.21
2.11
2.03
1.96
1.90
1.86
1.82
1.78
1.75
1.72
1.70
1.68
1.66
1.64
1.62
1.61
1.59
1.58
1.57
1.56
1.55
1.54
1.47
1.42
1.40
1.37
1.36
1.35
1.34
1.32
1.31
1.30
70
62.87
9.48
5.15
3.79
3.14
2.76
2.51
2.33
2.20
2.10
2.02
1.95
1.90
1.85
1.81
1.77
1.74
1.71
1.69
1.67
1.65
1.63
1.61
1.60
1.58
1.57
1.56
1.55
1.54
1.53
1.46
1.41
1.38
1.36
1.34
1.33
1.32
1.31
1.29
1.29
80
62.93
9.48
5.15
3.78
3.13
2.75
2.50
2.33
2.20
2.09
2.01
1.95
1.89
1.84
1.80
1.77
1.74
1.71
1.68
1.66
1.64
1.62
1.61
1.59
1.58
1.56
1.55
1.54
1.53
1.52
1.45
1.40
1.37
1.35
1.33
1.32
1.31
1.29
1.28
1.28
90
62.97
9.48
5.15
3.78
3.13
2.75
2.50
2.32
2.19
2.09
2.01
1.94
1.89
1.84
1.80
1.76
1.73
1.70
1.68
1.65
1.63
1.62
1.60
1.58
1.57
1.56
1.54
1.53
1.52
1.51
1.44
1.39
1.36
1.34
1.33
1.31
1.30
1.28
1.27
1.27
100
63.01
9.48
5.14
3.78
3.13
2.75
2.50
2.32
2.19
2.09
2.01
1.94
1.88
1.83
1.79
1.76
1.73
1.70
1.67
1.65
1.63
1.61
1.59
1.58
1.56
1.55
1.54
1.53
1.52
1.51
1.43
1.39
1.36
1.34
1.32
1.30
1.29
1.28
1.26
1.26
120
63.06
9.48
5.14
3.78
3.12
2.74
2.49
2.32
2.18
2.08
2.00
1.93
1.88
1.83
1.79
1.75
1.72
1.69
1.67
1.64
1.62
1.60
1.59
1.57
1.56
1.54
1.53
1.52
1.51
1.50
1.42
1.38
1.35
1.32
1.31
1.29
1.28
1.26
1.25
1.25
140
63.10
9.48
5.14
3.77
3.12
2.74
2.49
2.31
2.18
2.08
2.00
1.93
1.87
1.82
1.78
1.75
1.71
1.69
1.66
1.64
1.62
1.60
1.58
1.57
1.55
1.54
1.53
1.51
1.50
1.49
1.42
1.37
1.34
1.32
1.30
1.28
1.27
1.26
1.24
1.24
Tabla VII Distribución F con α= 0.025
v1
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
120
140
150
1
648
38.5
17.4
12.2
10.0
8.81
8.07
7.57
7.21
6.94
6.72
6.55
6.41
6.30
6.20
6.12
6.04
5.98
5.92
5.87
5.83
5.79
5.75
5.72
5.69
5.66
5.63
5.61
5.59
5.57
5.42
5.34
5.29
5.25
5.22
5.20
5.18
5.15
5.13
5.13
2
799
39.0
16.0
10.6
8.4
7.26
6.54
6.06
5.71
5.46
5.26
5.10
4.97
4.86
4.77
4.69
4.62
4.56
4.51
4.46
4.42
4.38
4.35
4.32
4.29
4.27
4.24
4.22
4.20
4.18
4.05
3.97
3.93
3.89
3.86
3.84
3.83
3.80
3.79
3.78
3
864
39.2
15.4
10.0
7.8
6.60
5.89
5.42
5.08
4.83
4.63
4.47
4.35
4.24
4.15
4.08
4.01
3.95
3.90
3.86
3.82
3.78
3.75
3.72
3.69
3.67
3.65
3.63
3.61
3.59
3.46
3.39
3.34
3.31
3.28
3.26
3.25
3.23
3.21
3.20
4
900
39.2
15.1
9.6
7.4
6.23
5.52
5.05
4.72
4.47
4.28
4.12
4.00
3.89
3.80
3.73
3.66
3.61
3.56
3.51
3.48
3.44
3.41
3.38
3.35
3.33
3.31
3.29
3.27
3.25
3.13
3.05
3.01
2.97
2.95
2.93
2.92
2.89
2.88
2.87
5
922
39.3
14.9
9.4
7.1
5.99
5.29
4.82
4.48
4.24
4.04
3.89
3.77
3.66
3.58
3.50
3.44
3.38
3.33
3.29
3.25
3.22
3.18
3.15
3.13
3.10
3.08
3.06
3.04
3.03
2.90
2.83
2.79
2.75
2.73
2.71
2.70
2.67
2.66
2.65
6
937
39.3
14.7
9.2
7.0
5.82
5.12
4.65
4.32
4.07
3.88
3.73
3.60
3.50
3.41
3.34
3.28
3.22
3.17
3.13
3.09
3.05
3.02
2.99
2.97
2.94
2.92
2.90
2.88
2.87
2.74
2.67
2.63
2.59
2.57
2.55
2.54
2.52
2.50
2.49
7
948
39.4
14.6
9.1
6.9
5.70
4.99
4.53
4.20
3.95
3.76
3.61
3.48
3.38
3.29
3.22
3.16
3.10
3.05
3.01
2.97
2.93
2.90
2.87
2.85
2.82
2.80
2.78
2.76
2.75
2.62
2.55
2.51
2.47
2.45
2.43
2.42
2.39
2.38
2.37
8
957
39.4
14.5
9.0
6.8
5.60
4.90
4.43
4.10
3.85
3.66
3.51
3.39
3.29
3.20
3.12
3.06
3.01
2.96
2.91
2.87
2.84
2.81
2.78
2.75
2.73
2.71
2.69
2.67
2.65
2.53
2.46
2.41
2.38
2.35
2.34
2.32
2.30
2.28
2.28
9
963
39.4
14.5
8.9
6.7
5.52
4.82
4.36
4.03
3.78
3.59
3.44
3.31
3.21
3.12
3.05
2.98
2.93
2.88
2.84
2.80
2.76
2.73
2.70
2.68
2.65
2.63
2.61
2.59
2.57
2.45
2.38
2.33
2.30
2.28
2.26
2.24
2.22
2.21
2.20
10
969
39.4
14.4
8.8
6.6
5.46
4.76
4.30
3.96
3.72
3.53
3.37
3.25
3.15
3.06
2.99
2.92
2.87
2.82
2.77
2.73
2.70
2.67
2.64
2.61
2.59
2.57
2.55
2.53
2.51
2.39
2.32
2.27
2.24
2.21
2.19
2.18
2.16
2.14
2.13
12
977
39.4
14.3
8.8
6.5
5.37
4.67
4.20
3.87
3.62
3.43
3.28
3.15
3.05
2.96
2.89
2.82
2.77
2.72
2.68
2.64
2.60
2.57
2.54
2.51
2.49
2.47
2.45
2.43
2.41
2.29
2.22
2.17
2.14
2.11
2.09
2.08
2.05
2.04
2.03
14
983
39.4
14.3
8.7
6.5
5.30
4.60
4.13
3.80
3.55
3.36
3.21
3.08
2.98
2.89
2.82
2.75
2.70
2.65
2.60
2.56
2.53
2.50
2.47
2.44
2.42
2.39
2.37
2.36
2.34
2.21
2.14
2.09
2.06
2.03
2.02
2.00
1.98
1.96
1.95
16
987
39.4
14.2
8.6
6.4
5.24
4.54
4.08
3.74
3.50
3.30
3.15
3.03
2.92
2.84
2.76
2.70
2.64
2.59
2.55
2.51
2.47
2.44
2.41
2.38
2.36
2.34
2.32
2.30
2.28
2.15
2.08
2.03
2.00
1.97
1.95
1.94
1.92
1.90
1.89
18
990
39.4
14.2
8.6
6.4
5.20
4.50
4.03
3.70
3.45
3.26
3.11
2.98
2.88
2.79
2.72
2.65
2.60
2.55
2.50
2.46
2.43
2.39
2.36
2.34
2.31
2.29
2.27
2.25
2.23
2.11
2.03
1.98
1.95
1.92
1.91
1.89
1.87
1.85
1.84
20
993
39.4
14.2
8.6
6.3
5.17
4.47
4.00
3.67
3.42
3.23
3.07
2.95
2.84
2.76
2.68
2.62
2.56
2.51
2.46
2.42
2.39
2.36
2.33
2.30
2.28
2.25
2.23
2.21
2.20
2.07
1.99
1.94
1.91
1.88
1.86
1.85
1.82
1.81
1.80
25
998
39.5
14.1
8.5
6.3
5.11
4.40
3.94
3.60
3.35
3.16
3.01
2.88
2.78
2.69
2.61
2.55
2.49
2.44
2.40
2.36
2.32
2.29
2.26
2.23
2.21
2.18
2.16
2.14
2.12
1.99
1.92
1.87
1.83
1.81
1.79
1.77
1.75
1.73
1.72
30
1001
39.5
14.1
8.5
6.2
5.07
4.36
3.89
3.56
3.31
3.12
2.96
2.84
2.73
2.64
2.57
2.50
2.44
2.39
2.35
2.31
2.27
2.24
2.21
2.18
2.16
2.13
2.11
2.09
2.07
1.94
1.87
1.82
1.78
1.75
1.73
1.71
1.69
1.67
1.67
35
1004
39.5
14.1
8.4
6.2
5.04
4.33
3.86
3.53
3.28
3.09
2.93
2.80
2.70
2.61
2.53
2.47
2.41
2.36
2.31
2.27
2.24
2.20
2.17
2.15
2.12
2.10
2.08
2.06
2.04
1.90
1.83
1.78
1.74
1.71
1.69
1.67
1.65
1.63
1.62
40
1006
39.5
14.0
8.4
6.2
5.01
4.31
3.84
3.51
3.26
3.06
2.91
2.78
2.67
2.59
2.51
2.44
2.38
2.33
2.29
2.25
2.21
2.18
2.15
2.12
2.09
2.07
2.05
2.03
2.01
1.88
1.80
1.74
1.71
1.68
1.66
1.64
1.61
1.60
1.59
50
1008
39.5
14.0
8.4
6.1
4.98
4.28
3.81
3.47
3.22
3.03
2.87
2.74
2.64
2.55
2.47
2.41
2.35
2.30
2.25
2.21
2.17
2.14
2.11
2.08
2.05
2.03
2.01
1.99
1.97
1.83
1.75
1.70
1.66
1.63
1.61
1.59
1.56
1.55
1.54
60
1010
39.5
14.0
8.4
6.1
4.96
4.25
3.78
3.45
3.20
3.00
2.85
2.72
2.61
2.52
2.45
2.38
2.32
2.27
2.22
2.18
2.14
2.11
2.08
2.05
2.03
2.00
1.98
1.96
1.94
1.80
1.72
1.67
1.63
1.60
1.58
1.56
1.53
1.51
1.50
70
1011
39.5
14.0
8.3
6.1
4.94
4.24
3.77
3.43
3.18
2.99
2.83
2.70
2.60
2.51
2.43
2.36
2.30
2.25
2.20
2.16
2.13
2.09
2.06
2.03
2.01
1.98
1.96
1.94
1.92
1.78
1.70
1.64
1.60
1.57
1.55
1.53
1.50
1.48
1.48
80
1012
39.5
14.0
8.3
6.1
4.93
4.23
3.76
3.42
3.17
2.97
2.82
2.69
2.58
2.49
2.42
2.35
2.29
2.24
2.19
2.15
2.11
2.08
2.05
2.02
1.99
1.97
1.94
1.92
1.90
1.76
1.68
1.63
1.59
1.55
1.53
1.51
1.48
1.46
1.45
90
1013
39.5
14.0
8.3
6.1
4.92
4.22
3.75
3.41
3.16
2.96
2.81
2.68
2.57
2.48
2.40
2.34
2.28
2.23
2.18
2.14
2.10
2.07
2.03
2.01
1.98
1.95
1.93
1.91
1.89
1.75
1.67
1.61
1.57
1.54
1.52
1.50
1.47
1.45
1.44
100
1013
39.5
14.0
8.3
6.1
4.92
4.21
3.74
3.40
3.15
2.96
2.80
2.67
2.56
2.47
2.40
2.33
2.27
2.22
2.17
2.13
2.09
2.06
2.02
2.00
1.97
1.94
1.92
1.90
1.88
1.74
1.66
1.60
1.56
1.53
1.50
1.48
1.45
1.43
1.42
120
1014
39.5
13.9
8.3
6.1
4.90
4.20
3.73
3.39
3.14
2.94
2.79
2.66
2.55
2.46
2.38
2.32
2.26
2.20
2.16
2.11
2.08
2.04
2.01
1.98
1.95
1.93
1.91
1.89
1.87
1.72
1.64
1.58
1.54
1.51
1.48
1.46
1.43
1.41
1.40
140
1015
39.49
13.94
8.30
6.06
4.90
4.19
3.72
3.38
3.13
2.94
2.78
2.65
2.54
2.45
2.37
2.31
2.25
2.19
2.15
2.10
2.07
2.03
2.00
1.97
1.94
1.92
1.90
1.88
1.86
1.71
1.63
1.57
1.53
1.49
1.47
1.45
1.42
1.39
1.39
Tabla VIII Distribución F con α=0.01
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
40
50
60
70
80
90
100
120
140
150
1
4052
98.5
34.1
21.2
16.3
13.75
12.25
11.26
10.56
10.04
9.65
9.33
9.07
8.86
8.68
8.53
8.40
8.29
8.18
8.10
8.02
7.95
7.88
7.82
7.77
7.72
7.68
7.64
7.60
7.56
7.31
7.17
7.08
7.01
6.96
6.93
6.90
6.85
6.82
6.81
2
4999
99.0
30.8
18.0
13.3
10.92
9.55
8.65
8.02
7.56
7.21
6.93
6.70
6.51
6.36
6.23
6.11
6.01
5.93
5.85
5.78
5.72
5.66
5.61
5.57
5.53
5.49
5.45
5.42
5.39
5.18
5.06
4.98
4.92
4.88
4.85
4.82
4.79
4.76
4.75
3
5403
99.2
29.5
16.7
12.1
9.78
8.45
7.59
6.99
6.55
6.22
5.95
5.74
5.56
5.42
5.29
5.18
5.09
5.01
4.94
4.87
4.82
4.76
4.72
4.68
4.64
4.60
4.57
4.54
4.51
4.31
4.20
4.13
4.07
4.04
4.01
3.98
3.95
3.92
3.91
4
5625
99.2
28.7
16.0
11.4
9.15
7.85
7.01
6.42
5.99
5.67
5.41
5.21
5.04
4.89
4.77
4.67
4.58
4.50
4.43
4.37
4.31
4.26
4.22
4.18
4.14
4.11
4.07
4.04
4.02
3.83
3.72
3.65
3.60
3.56
3.53
3.51
3.48
3.46
3.45
5
5764
99.3
28.2
15.5
11.0
8.75
7.46
6.63
6.06
5.64
5.32
5.06
4.86
4.69
4.56
4.44
4.34
4.25
4.17
4.10
4.04
3.99
3.94
3.90
3.85
3.82
3.78
3.75
3.73
3.70
3.51
3.41
3.34
3.29
3.26
3.23
3.21
3.17
3.15
3.14
6
5859
99.3
27.9
15.2
10.7
8.47
7.19
6.37
5.80
5.39
5.07
4.82
4.62
4.46
4.32
4.20
4.10
4.01
3.94
3.87
3.81
3.76
3.71
3.67
3.63
3.59
3.56
3.53
3.50
3.47
3.29
3.19
3.12
3.07
3.04
3.01
2.99
2.96
2.93
2.92
7
5928
99.4
27.7
15.0
10.5
8.26
6.99
6.18
5.61
5.20
4.89
4.64
4.44
4.28
4.14
4.03
3.93
3.84
3.77
3.70
3.64
3.59
3.54
3.50
3.46
3.42
3.39
3.36
3.33
3.30
3.12
3.02
2.95
2.91
2.87
2.84
2.82
2.79
2.77
2.76
8
5981
99.4
27.5
14.8
10.3
8.10
6.84
6.03
5.47
5.06
4.74
4.50
4.30
4.14
4.00
3.89
3.79
3.71
3.63
3.56
3.51
3.45
3.41
3.36
3.32
3.29
3.26
3.23
3.20
3.17
2.99
2.89
2.82
2.78
2.74
2.72
2.69
2.66
2.64
2.63
9
6022
99.4
27.3
14.7
10.2
7.98
6.72
5.91
5.35
4.94
4.63
4.39
4.19
4.03
3.89
3.78
3.68
3.60
3.52
3.46
3.40
3.35
3.30
3.26
3.22
3.18
3.15
3.12
3.09
3.07
2.89
2.78
2.72
2.67
2.64
2.61
2.59
2.56
2.54
2.53
10
6056
99.4
27.2
14.5
10.1
7.87
6.62
5.81
5.26
4.85
4.54
4.30
4.10
3.94
3.80
3.69
3.59
3.51
3.43
3.37
3.31
3.26
3.21
3.17
3.13
3.09
3.06
3.03
3.00
2.98
2.80
2.70
2.63
2.59
2.55
2.52
2.50
2.47
2.45
2.44
12
6106
99.4
27.1
14.4
9.9
7.72
6.47
5.67
5.11
4.71
4.40
4.16
3.96
3.80
3.67
3.55
3.46
3.37
3.30
3.23
3.17
3.12
3.07
3.03
2.99
2.96
2.93
2.90
2.87
2.84
2.66
2.56
2.50
2.45
2.42
2.39
2.37
2.34
2.31
2.31
14
6143
99.4
26.9
14.2
9.8
7.60
6.36
5.56
5.01
4.60
4.29
4.05
3.86
3.70
3.56
3.45
3.35
3.27
3.19
3.13
3.07
3.02
2.97
2.93
2.89
2.86
2.82
2.79
2.77
2.74
2.56
2.46
2.39
2.35
2.31
2.29
2.27
2.23
2.21
2.20
16
6170
99.4
26.8
14.2
9.7
7.52
6.28
5.48
4.92
4.52
4.21
3.97
3.78
3.62
3.49
3.37
3.27
3.19
3.12
3.05
2.99
2.94
2.89
2.85
2.81
2.78
2.75
2.72
2.69
2.66
2.48
2.38
2.31
2.27
2.23
2.21
2.19
2.15
2.13
2.12
18
6192
99.4
26.8
14.1
9.6
7.45
6.21
5.41
4.86
4.46
4.15
3.91
3.72
3.56
3.42
3.31
3.21
3.13
3.05
2.99
2.93
2.88
2.83
2.79
2.75
2.72
2.68
2.65
2.63
2.60
2.42
2.32
2.25
2.20
2.17
2.14
2.12
2.09
2.07
2.06
20
6209
99.4
26.7
14.0
9.6
7.40
6.16
5.36
4.81
4.41
4.10
3.86
3.66
3.51
3.37
3.26
3.16
3.08
3.00
2.94
2.88
2.83
2.78
2.74
2.70
2.66
2.63
2.60
2.57
2.55
2.37
2.27
2.20
2.15
2.12
2.09
2.07
2.03
2.01
2.00
25
6240
99.5
26.6
13.9
9.4
7.30
6.06
5.26
4.71
4.31
4.01
3.76
3.57
3.41
3.28
3.16
3.07
2.98
2.91
2.84
2.79
2.73
2.69
2.64
2.60
2.57
2.54
2.51
2.48
2.45
2.27
2.17
2.10
2.05
2.01
1.99
1.97
1.93
1.91
1.90
30
6261
99.5
26.5
13.8
9.4
7.23
5.99
5.20
4.65
4.25
3.94
3.70
3.51
3.35
3.21
3.10
3.00
2.92
2.84
2.78
2.72
2.67
2.62
2.58
2.54
2.50
2.47
2.44
2.41
2.39
2.20
2.10
2.03
1.98
1.94
1.92
1.89
1.86
1.84
1.83
35
6276
99.5
26.5
13.8
9.3
7.18
5.94
5.15
4.60
4.20
3.89
3.65
3.46
3.30
3.17
3.05
2.96
2.87
2.80
2.73
2.67
2.62
2.57
2.53
2.49
2.45
2.42
2.39
2.36
2.34
2.15
2.05
1.98
1.93
1.89
1.86
1.84
1.81
1.78
1.77
40
6287
99.5
26.4
13.7
9.3
7.14
5.91
5.12
4.57
4.17
3.86
3.62
3.43
3.27
3.13
3.02
2.92
2.84
2.76
2.69
2.64
2.58
2.54
2.49
2.45
2.42
2.38
2.35
2.33
2.30
2.11
2.01
1.94
1.89
1.85
1.82
1.80
1.76
1.74
1.73
50
6303
99.5
26.4
13.7
9.2
7.09
5.86
5.07
4.52
4.12
3.81
3.57
3.38
3.22
3.08
2.97
2.87
2.78
2.71
2.64
2.58
2.53
2.48
2.44
2.40
2.36
2.33
2.30
2.27
2.25
2.06
1.95
1.88
1.83
1.79
1.76
1.74
1.70
1.67
1.66
60
6313
99.5
26.3
13.7
9.2
7.06
5.82
5.03
4.48
4.08
3.78
3.54
3.34
3.18
3.05
2.93
2.83
2.75
2.67
2.61
2.55
2.50
2.45
2.40
2.36
2.33
2.29
2.26
2.23
2.21
2.02
1.91
1.84
1.78
1.75
1.72
1.69
1.66
1.63
1.62
70
6321
99.5
26.3
13.6
9.2
7.03
5.80
5.01
4.46
4.06
3.75
3.51
3.32
3.16
3.02
2.91
2.81
2.72
2.65
2.58
2.52
2.47
2.42
2.38
2.34
2.30
2.27
2.24
2.21
2.18
1.99
1.88
1.81
1.75
1.71
1.68
1.66
1.62
1.60
1.59
80
6326
99.5
26.3
13.6
9.2
7.01
5.78
4.99
4.44
4.04
3.73
3.49
3.30
3.14
3.00
2.89
2.79
2.70
2.63
2.56
2.50
2.45
2.40
2.36
2.32
2.28
2.25
2.22
2.19
2.16
1.97
1.86
1.78
1.73
1.69
1.66
1.63
1.60
1.57
1.56
90
6331
99.5
26.3
13.6
9.1
7.00
5.77
4.97
4.43
4.03
3.72
3.48
3.28
3.12
2.99
2.87
2.78
2.69
2.61
2.55
2.49
2.43
2.39
2.34
2.30
2.26
2.23
2.20
2.17
2.14
1.95
1.84
1.76
1.71
1.67
1.64
1.61
1.58
1.55
1.54
100
6334
99.5
26.2
13.6
9.1
6.99
5.75
4.96
4.41
4.01
3.71
3.47
3.27
3.11
2.98
2.86
2.76
2.68
2.60
2.54
2.48
2.42
2.37
2.33
2.29
2.25
2.22
2.19
2.16
2.13
1.94
1.82
1.75
1.70
1.65
1.62
1.60
1.56
1.53
1.52
120
6339
99.5
26.2
13.6
9.1
6.97
5.74
4.95
4.40
4.00
3.69
3.45
3.25
3.09
2.96
2.84
2.75
2.66
2.58
2.52
2.46
2.40
2.35
2.31
2.27
2.23
2.20
2.17
2.14
2.11
1.92
1.80
1.73
1.67
1.63
1.60
1.57
1.53
1.50
1.49
140
6343
99.5
26.2
13.5
9.10
6.96
5.72
4.93
4.39
3.98
3.68
3.44
3.24
3.08
2.95
2.83
2.73
2.65
2.57
2.50
2.44
2.39
2.34
2.30
2.26
2.22
2.18
2.15
2.12
2.10
1.90
1.79
1.71
1.65
1.61
1.58
1.55
1.51
1.48
1.47
Descargar