UNIVERSIDAD NACIONAL ABIERTA Y A DISTANCIA UNAD ESCUELA DE CIENCIAS BÁSICAS TECNOLOGÍA E INGENIERÍA DISEÑO DE EXPERIMENTOS Capítulos 1 2 y 3 RAÚL GABRIEL RAMOS BUCARAMANGA, 2008 INTRODUCCIÓN La estadística es de vital importancia en todas las etapas de la investigación científica, desde la planeación del experimento hasta el análisis de los datos obtenidos. Además, constituye una herramienta fundamental para obtener conclusiones objetivas y descubrir relaciones de causalidad. Es importante destacar que los métodos estadísticos no pueden demostrar que un factor (o factores) poseen un efecto particular sobre una variable, solo proporcionan pautas generales en cuanto a la confiabilidad y validez de los resultados. Aplicados en forma correcta, no permiten la demostración experimental de nada, pero si sirven para medir el error posible en una conclusión o asignar un nivel de confianza a un enunciado. La ventaja principal de los métodos estadísticos es que agrega objetividad al proceso de toma de decisiones y combinados con un conocimiento del proceso y el sentido común, llevaran por lo general, a conclusiones sólidas. Con las técnicas estadísticas es posible descubrir cuales son los factores que realmente influyen sobre una variable respuesta (Análisis de Varianza); encontrar un modelo de matemático que prediga el comportamiento de la variable de interés en una región específica (Regresión Lineal Múltiple); hacer un cribado de los factores relevantes o importantes en un proceso (Diseños Factoriales 2K) e incluso optimizar (Análisis de superficie de Respuesta). Esta última técnica combina los diseños Factoriales con las técnicas de regresión para dirigir el proceso a las condiciones óptimas de operación. TABLA DE CONTENIDO INTRODUCCIÓN.......................................................................................................... 2 TABLA DE CONTENIDO .............................................................................................. 3 CAPITULO 1 ESTADÍSTICA BASICA........................................................................ 5 1.1 1.1 Introducción ................................................................................................... 5 1.2 1.2 Definiciones claves en DDE ........................................................................... 7 1.2.1 Experimento...................................................................................................... 7 1.2.2 Diseño de Experimentos ................................................................................... 7 1.2.3 Tratamiento....................................................................................................... 7 1.2.4 Unidad experimental ......................................................................................... 7 1.2.5 Variables, factores y niveles.............................................................................. 7 1.3 Etapas en el diseño de experimentos ................................................................ 10 1.3.1 Identificación y enunciación del problema ....................................................... 11 1.3.2 Elección de los factores, niveles y rangos. ...................................................... 11 1.3.3 Elección de la variable respuesta.................................................................... 12 1.3.4 Elección del diseño experimental .................................................................... 12 1.3.5 Realización del experimento ........................................................................... 13 1.3.6 Análisis de datos. ............................................................................................ 13 1.3.7 Conclusiones y recomendaciones................................................................... 13 1.4 Estadística básica .............................................................................................. 13 1.4.1 Ramas de la estadística .................................................................................. 14 1.4.2 Población y muestra........................................................................................ 14 1.4.3 Medidas de tendencia central y variabilidad .................................................... 16 1.4.4 Variables aleatorias: Discreta y Continúa........................................................ 22 1.4.5 Distribución de muestreo................................................................................. 24 1.4.6 Teorema del límite central............................................................................... 26 1.5 Inferencia estadística ......................................................................................... 31 1.5.1 Prueba de hipótesis ........................................................................................ 31 1.5.2 Intervalos de confianza ................................................................................... 32 1.5.3 Errores de tipo I y II......................................................................................... 32 1.6 Uso del valor P en un contraste de Hipótesis..................................................... 33 1.7 1.7 El uso de los computadores y Software especializado ................................. 34 1.8 Ejercicios propuestos ......................................................................................... 35 CAPITULO 2 2.1 COMPARACIONES SIMPLES. .......................................................... 35 Contraste de hipótesis ....................................................................................... 35 2.1.1 2.2 Ejemplos del uso de la Tabla 2.1 .................................................................... 38 Intervalos de confianza ...................................................................................... 39 2.2.1 2.3 Ejemplo del uso de la Tabla 2.2 ...................................................................... 41 Ejercicios propuestos ......................................................................................... 41 CAPITULO 3 3.1 COMPARACIONES CON UN FACTOR. ANALISIS DE VARIANZA... 44 Modelo general de Análisis de Varianza, ANOVA, para un modelo de efectos fijos 45 3.2 Modelo de efectos fijos y aleatorios ................................................................... 49 3.3 Supuestos en ANOVA y medidas de adecuación del modelo ............................ 49 3.3.1 Supuesto de normalidad ................................................................................. 50 3.3.2 Supuesto independencia e igualdad de varianzas........................................... 51 3.4 Comparaciones múltiples. .................................................................................. 52 3.4.1 Comparación gráfica de medias...................................................................... 53 3.4.2 Comparación de pares de medias................................................................... 54 BIBLIOGRAFÍA........................................................................................................... 56 Tablas......................................................................................................................... 57 Tabla I Distribución normal ...................................................................................... 57 Tabla II Distribución t ............................................................................................... 58 Tabla III Distribución Ji Cuadrado ............................................................................ 59 Tabla IV Distribución F con α = 0.25 ........................................................................ 60 Tabla V Distribución F con α = 0.05 ......................................................................... 61 Tabla VI Distribución F con α = 0.10 ........................................................................ 62 Tabla VII Distribución F con α= 0.025 ...................................................................... 63 Tabla VIII Distribución F con α=0.01 ........................................................................ 64 CAPITULO 1 ESTADÍSTICA BASICA 1.1 1.1 Introducción En el campo de la industria es una práctica común hacer experimentos o pruebas para descubrir algo acerca de un sistema o proceso en particular. Un experimento puede definirse como una prueba o serie de pruebas en las que se hacen cambios deliberados en las variables de entrada de un proceso o sistema para observar e identificar la forma como éstas influyen en las variables de salida. Comúnmente, estas pruebas o experimentos se hacen sobre la marcha, a prueba y error, apelando a la experiencia y a la intuición; en lugar de seguir un plan experimental adecuado que garantice una respuesta adecuada y objetiva a los interrogantes planteados. El Diseño de Experimentos tiene que ver con la planeación y realización de experimentos y el análisis de datos resultantes a fin de obtener conclusiones validas y objetivas. El objetivo es desarrollar un proceso robusto, es decir, un proceso que sea afectado de forma mínima por las fuentes de variabilidad externas. El diseño de experimentos (DDE) es un conjunto de técnicas activas que manipulan el proceso para inducirlo a proporcionar la información que se requiere para mejorarlo. También incluye técnicas estadísticas para llevar los procesos y sistemas a las condiciones óptimas de operación. Las técnicas de diseño (DD) también juegan un papel importante en la investigación científica haciendo que este proceso sea lo más eficiente posible. El objetivo de los métodos estadísticos es lograr que el proceso de generar conocimiento y aprendizaje sea tan eficiente como sea posible. Este proceso ha demostrado, a lo largo de la historia de la humanidad, ser un proceso secuencial en el cual interactúan dos polos (véase Figura 1.1), por un lado la teoría, modelos, hipótesis, conjeturas, supuestos y por el otro la realidad, hechos, fenómenos, evidencia, datos. Así, como se comenta en Box y otros [3], una hipótesis inicial lleva a un proceso de deducción en el que las consecuencias derivadas de la hipótesis pueden ser comparadas con los datos. Cuando las consecuencias y los datos no corresponden, entonces la discrepancia puede llevar a un proceso de inducción, en el cual se modifica la hipótesis original. De esta manera se inicia un segundo ciclo de la interacción de teoría y datos; en el cual las consecuencias de las hipótesis modificada son comparadas con los datos (los que ya teníamos o nuevos) que nos pueden llevar a nuevas modificaciones y ganancia de conocimiento. Realidad, hechos, fenómenos, datos deducción inducción deducción inducción Teoría, modelos, hipótesis, supuestos Figura 1.1 Proceso iterativo de la experimentación Este proceso de aprendizaje también puede visualizarse como un ciclo de retroalimentación (Figura 1.2), en la cual las discrepancias entre los datos y las consecuencias de las hipótesis iniciales (H1), lleva a una hipótesis modificada (H2), y de la verificación de esta, además de conocimiento, se llega a una nueva modificación que conduce a una nueva hipótesis (H3), y así sucesivamente. Datos Inducción Hipótesis H1 Deducción Hipótesis Modificada H2 Consecuencias de H1 La hipótesis H2 reemplaza a H1 Figura 1.2 Proceso iterativo de la experimentación El diseño estadístico de experimentos permite optimizar la información generada acerca del proceso, en relación a los objetivos planteados. En otras palabras, el diseño de experimentos es la aplicación del método científico para generar conocimiento acerca de un sistema o proceso. Esta herramienta se ha ido consolidando en la industria actual como un conjunto de técnicas estadísticas y de ingeniería, que permite lograr la máxima eficacia de los procesos con el mínimo costo. El diseño de experimentos es especialmente útil para crear calidad desde la fase del diseño del producto y del proceso; pero también permite lograr mejoras sustanciales en procesos ya establecidos. Normalmente es más eficiente estimar el efecto de varias variables simultáneamente. Cada diseño experimental contiene entonces un grupo de experimentos. Algunas veces se utilizan los mismos datos para confrontarlos con sucesivas hipótesis. Sin embargo, cuando no se ve claramente qué modificación ha de realizarse a una hipótesis aparentemente satisfactoria, se precisarán datos adicionales. Estos se generan con más experimentos dispuestos en un nuevo diseño experimental. 1.2 1.2 Definiciones claves en DDE 1.2.1 Experimento Un experimento es un cambio en las condiciones de operación de un sistema o proceso, que se hace con el objetivo de medir el efecto del cambio sobre una o varias propiedades del producto. Dicho experimento permite aumentar el conocimiento acerca del sistema. Por ejemplo, en un proceso químico se pueden probar diferentes temperaturas y presiones, y se mide el cambio observado en el rendimiento (yield, ppm, defectivo) del proceso. Esta experimentación genera conocimiento acerca del proceso químico, lo que le permite mejorar su desempeño. 1.2.2 Diseño de Experimentos El diseño de experimentos consiste en planear un conjunto de pruebas experimentales de tal manera que los datos generados puedan analizarse estadísticamente para obtener conclusiones validas y objetivas acerca del sistema o proceso. 1.2.3 Tratamiento Son el conjunto de circunstancias creadas para el experimento, en respuesta a la hipótesis de investigación y son el centro de la misma. Entre los ejemplos de tratamiento se encuentran dietas de animales, producción de variedades de cultivo, temperaturas, etc. En el estudio comparativo se usan dos o más tratamientos y se comparan sus efectos en el sujeto de estudio 1.2.4 Unidad experimental La unidad experimental es la entidad física o el sujeto expuesto al tratamiento independientemente de otras unidades. La unidad experimental, una vez expuesta al tratamiento, constituye una sola replica del tratamiento 1.2.5 Variables, factores y niveles En todo proceso intervienen muchas variables como se muestra en la siguiente figura: Factores controlables x1 x2 x3 Variables de Entradas …x p PROCESO Variables de Salidas … z1 z2 z3 zq Factores no controlables Figura 1.3 Modelo general de un proceso o sistema A continuación se hace una breve descripción de los factores y variables que se encuentran en DDE 1.2.5.1 Variable de respuesta o variable de salida. Es la característica o variable de interés. Por lo general determina algún aspecto de calidad del producto. La conjetura típica es que existe una manera de operar el proceso en la cual la variable respuesta seria mejor que la actual. En las técnicas de diseño de experimentos van dirigidas a una sola variable respuesta. 1.2.5.2 Factores controlables. Son variables de proceso o variables de entrada que se pueden fijar en un punto o en un nivel de operación específico durante el experimento. Algunos factores que generalmente se controlan son: temperatura, presión, tiempo de residencia, cantidad de cierto reactivo, velocidad, etc. A los factores controlables también se les llama variables de entrada, condiciones de proceso, variables de diseño, parámetros del proceso, o simplemente factores. 1.2.5.3 Factores no controlables o de ruido. Son variables que no se pueden controlar durante la operación normal del proceso como por ejemplo: humedad, temperatura ambiente, ánimo del operador, calidad del material que se recibe del proveedor, etc. Un factor no controlable puede convertirse en controlable cuando se tenga el mecanismo o tecnología para ello. 1.2.5.4 Niveles y tratamientos. Los diferentes valores que se asignan a cada factor estudiado en un diseño experimental se llaman niveles. Una combinación de niveles de todos los factores de interés se le llama tratamiento. Por ejemplo, si en un experimento se controla la velocidad y la temperatura, cada uno en dos niveles, entonces cada combinación de niveles (velocidad, temperatura) es un tratamiento. En este caso habría cuatro tratamientos en total. 1.2.5.5 Error aleatorio y error experimental. Siempre que se realice un estudio, parte de la variabilidad observada en la variable respuesta no se podrá explicar en términos de los factores estudiados. Es decir, siempre habrá un remanente de variabilidad que se debe a factores aleatorios propios del proceso. Esta variabilidad constituye el error experimental, el cual se debe en otras palabras a variabilidad no explicada. Cuando se realiza un experimento es importante que la variabilidad obtenida en la respuesta se deba principalmente a los factores de interés y en menor medida al error aleatorio, y además se debe garantizar que este error sea efectivamente aleatorio. 1.2.5.6 Grados de libertad El termino grados de libertad de una cantidad se refiere al número de datos en los que se basa dicha cantidad menos el número de restricciones involucradas en el cálculo de ella. ∑ (y − y ) n Así, por ejemplo, la expresión i =1 2 i tiene n-1 grados de libertad pues se puede ∑ (y − y ) = 0 . Es decir, la expresión ∑ (y − y ) se obtiene a partir de n demostrar que i =1 n i 2 i i =1 ∑ (y − y ) = 0 . Por lo tanto n n datos pero con esos mismos n datos existe la restricción i =1 i solo se pueden definir de manera arbitraria n-1 de los n residuos y − y i ya que el ∑ (y − y ) = 0 n último residuo debe cumplir la restricción i =1 i El concepto de grados de libertad se utiliza muchísimo en estadística ya que permite obtener estimados de los parámetros de una población. Por ejemplo, un estimador de ∑ (y − y ) n la varianza poblacional σ2 es la varianza muestral s 2 = i =1 2 i n −1 . Observe que es la suma de los cuadrados de las desviaciones de cada observación con respecto a la media, dividido entre el número de grados de libertad y no del número de datos. 1.3 Etapas en el diseño de experimentos El objetivo de un diseño de experimentos es decidir como se van a obtener los datos en una investigación, para obtener la máxima información y entendimiento al mínimo costo posible. Toda investigación o estudio siempre se propone un objetivo específico en mente y con el diseño experimental lo que se busca es responder de manera adecuada todas las inquietudes planteadas inicialmente en la realidad que se estudia. El diseño de experimento no solo tiene que ver con la toma adecuada de datos si no que envuelve toda una serie de etapas que si se realizan de manera adecuada y a conciencia permiten responder las inquietudes planteadas en los objetivos de la investigación en curso. Estas etapas se deben tener en cuanta siempre que se realice un nuevo estudio o investigación. Además, esta secuencia de etapas le brinda al lector un excelente panorama general de todo el curso al que se recomienda regresar al finalizar el mismo. Las principales etapas en la diseño experimental son: • Identificación y enunciación del problema • Elección de los factores, niveles y rangos. • Elección de la variable respuesta. • Elección del diseño experimental • Realización del experimento • Análisis de datos. • Conclusiones y recomendaciones Las cuatro primeras etapas tienen que ver con la planeación del experimento y si se realizan de manera adecuada y a conciencia las etapas finales resultan muy sencillas. 1.3.1 Identificación y enunciación del problema Este punto podría parecer muy obvio, pero es común que en la práctica no sea sencillo darse cuenta de que existe un problema que requiere experimentación, y tampoco es fácil desarrollar una enunciación clara, con la que todos estén de acuerdo, de este problema. Es necesario desarrollar todas las ideas acerca de los objetivos del experimento. Generalmente, es importante solicitar aportaciones de todas las áreas involucradas: ingeniería, aseguramiento de calidad, manufactura, mercadotecnia, administración, el cliente y el personal de operación. 1.3.2 Elección de los factores, niveles y rangos. En esta etapa se determina los factores que influyen sobre la variable respuesta y se desean considerar en la investigación. Estos factores se suelen clasificar de la siguiente manera: • Factores potenciales de diseño. Son aquellos que el experimenta posiblemente quiera hacer variar en el experimento. Estos se clasifican así: o Los factores de diseño son los que se seleccionan realmente para estudiarlos en el experimento. o Los factores que se mantienen constantes son factores que pueden tener cierto efecto sobre la respuesta pero que para fines del experimento no son de interés, por lo que se mantienen fijos en un valor específico. Ejemplo: cuando existen varias formas de medir la misma variable respuesta. o Los factores que pueden variar se espera que su efecto sea despreciable y se confía que la aleatorización compense su efecto. Ejemplo: Variabilidad en las unidades experimentales o falta de homogeneidad en las mismas. • Factores perturbadores. Estos pueden tener efecto considerable sobre la variable respuesta y deben tomarse en consideración durante el experimento, a pesar de que no halla interés en ellos en el contexto del experimento en curso. Se clasifican en: o Factores controlables es aquellos cuyos niveles pueden ser ajustados por el experimentador. Se pueden formar bloques para trabajar con ellos. Ejemplo: diferentes lotes de materia prima o diferentes días de la semana. o Factores no controlables o de ruido si se pueden medir se puede compensar su efecto con Análisis de Covarianza. Ejemplo: Condiciones ambientales. Una vez que el experimentador ha seleccionado los factores debe especificar los rangos de estos factores así como los niveles específicos con los que se realizaran las corridas. Para esto se requiere un conocimiento del proceso el cual suele ser una combinación de experiencia práctica y conocimiento teórico. En las etapas iniciales de la investigación cuando se tiene muchos factores y se desea realizar un cribado de estos, se debe reducir el número de niveles. Dos niveles funciona bastante bien en estos casos. En estos estudios de tamizado de factores, la región de interés deberá ser relativamente grande. Conforme se conozca más acerca de la forma como influyen los factores de importancia en el proceso, la región de interés se hará más estrecha. 1.3.3 Elección de la variable respuesta. Para seleccionar la variable respuesta el experimentador debe tener certeza de que esta variable proporciona en realidad información útil acerca del proceso bajo estudio. Usualmente la variable de interés es el promedio aunque algunas veces se utiliza la desviación estándar u otra medida de variabilidad. Sí la eficiencia de los instrumentos de medición (o error de medición) es deficiente, el experimentador solo detectara los efectos relativamente grandes de los factores o quizás sean necesarias replicas adicionales. En algunos casos, cuando la eficiencia de la medición es pobre, el experimentador puede tomar como variable respuesta el promedio de varias mediciones como variable respuesta. 1.3.4 Elección del diseño experimental Las etapas descritas anteriormente hacen referencia a la planeación previa del experimento, si estas etapas se realizan conscientemente y como es debido, este paso es relativamente sencillo. La elección del diseño experimental involucra: • El numero de factores, • Número de niveles de cada factor • El número de réplicas • El orden en el que se van a realizar las corridas • Uso de bloques o no en la aleatorización En esta etapa existe muchos software estadísticos que puede ser de gran ayuda. El experimentador ingresa al programa la información del número de factores, los niveles y los rangos, y estos programas presentan a consideración del experimentador una serie de diseños experimentales o recomendara uno en particular. Algunos programas suministran también una hoja de trabajo con el orden en el que se deben realizar los experimentos. 1.3.5 Realización del experimento Durante esta etapa es importante monitorear el proceso y la toma de datos para garantizar que todo se realiza de acuerdo a lo planeado. En algunos casos se recomienda realizar algunas corridas de prueba que suministran información acerca de la consistencia del material experimental, el sistema de medición y da una idea aproximada del error experimental. Estas corridas además nos permiten revisar las decisiones tomadas en los pasos anteriores. 1.3.6 Análisis de datos. En esta etapa es de vital importancia la estadística ya que nos permite llegar a conclusiones objetivas y no de carácter apreciativo. Si el experimento se ha diseñado correctamente y se ha llevado a cabo de acuerdo a lo planeado, los métodos estadísticos a utilizar no deben ser complicados. En esta etapa los paquetes de software especializados en estadística también suelen ser de gran ayuda. Estos programas incluyen métodos gráficos y numéricos que ayudan en el análisis y la interpretación de los resultados. En algunos casos es importante presentar los resultados de varios experimentos en términos de un modelo empírico para lo cual también resulta importante el uso de software especializado. 1.3.7 Conclusiones y recomendaciones. Después de analizados los resultados el experimentador debe sacar sus conclusiones y determinar la ruta a seguir en la investigación. Los métodos gráficos suelen ser útiles en esta etapa para presentar los resultados. A lo largo de todo el proceso se debe tener en cuenta que la experimentación es una parte esencial del proceso de aprendizaje en la que se realiza hipótesis acerca de un sistema, se realizan experimentos para estudiar estas hipótesis, y se realizan nuevas hipótesis con base en los resultados obtenidos. Esto nos indica que la investigación es un proceso iterativo y es un error pensar que se puede diseñar un único experimento que permita entender completamente un sistema o proceso. 1.4 Estadística básica La estadística es una ciencia encargada de la recopilación, presentación y análisis de datos para la toma de decisiones y resolver problemas. 1.4.1 Ramas de la estadística La estadística se divide en dos grandes ramas: la estadística descriptiva y la estadística inferencial o inferencia estadística. La primera incluye técnicas gráficas y numéricas que permiten visualizar cosas (tendencia central y variabilidad) que no se pueden apreciar en los datos originales. La inferencia estadística tiene que ver con el hecho de tomar una pequeña muestra de una gran población y a partir de los resultados de la muestra obtener algunas conclusiones acerca de la población de la cual proviene. Es decir, inferir los resultados de la muestra hacia la población de la cual proviene. En el siguiente cuadro se resumen las ramas de la estadística. Ramas de la Estadística Estadística Descriptiva Técnicas Gráficas Diagramas de puntos, de cajas, histogramas, etc Inferencia estadística Técnicas Numéricas Medidas de tendencia central como la media o la mediana Estimación de parámetros Medidas de variabilidad como la varianza o la desviación típica Estimación puntual Test de Hipótesis Estimación por intervalos de confianza Diagram a de Fre cue ncias 35 Fre c u e n c ia 30 Datos Originales 25 20 2 81.7 87.2 82.4 84.8 86.1 81.6 86.7 80.1 86.6 84.4 85.6 3 80.6 83.5 86.7 83.6 82.6 86.2 80.5 82.2 83.5 82.2 86.6 4 84.7 84.3 83.0 81.8 85.4 85.4 91.7 88.6 78.1 88.9 80.0 10 5 88.2 82.9 81.8 85.9 84.7 82.1 81.6 82.0 88.8 80.9 86.6 5 6 84.9 84.7 89.3 88.2 82.8 81.4 83.9 85.0 81.9 85.1 83.3 0 7 81.8 82.9 79.3 83.5 81.9 85.0 85.6 85.2 83.3 87.1 83.1 8 84.9 81.5 82.7 87.2 83.6 85.8 84.8 85.3 80.0 84.0 82.3 83.4 88.0 83.7 86.8 84.2 78.4 84.3 87.2 76.5 86.7 81.9 87.7 79.6 87.3 84.0 83.5 86.9 82.3 83.3 82.7 80.2 11 89.4 81.8 87.8 83.0 84.2 86.5 85.0 89.7 86.6 85.1 85.6 12 79.0 79.6 83.6 90.5 82.8 85.0 86.2 84.8 79.5 83.3 86.6 13 81.4 85.8 79.5 80.7 83.0 80.4 83.0 83.1 84.1 90.4 80.0 14 84.8 77.9 83.3 83.1 82.0 85.7 85.4 80.6 82.2 81.0 86.6 15 85.9 89.7 88.4 86.5 84.7 86.7 84.4 87.4 90.8 80.3 83.3 16 88.0 85.4 86.6 90.0 84.4 86.7 84.5 86.8 86.5 79.8 83.1 17 80.3 86.3 84.6 77.5 88.9 82.3 86.2 83.5 79.7 89.0 82.3 18 82.6 80.7 79.7 84.7 82.4 86.4 85.6 86.2 81.0 83.7 86.7 19 83.5 83.8 86.0 84.6 83.0 82.5 83.2 84.1 87.2 80.9 80.2 20 80.2 90.5 84.2 87.2 85.0 82.0 85.7 82.3 81.6 87.3 80.2 56.0 62.0 68.0 74.0 Producción 80.0 86.0 Población Conceptual con todos los posibles resultados del experimento Muestra de tamaño n de la población Calculo de estadísticos 85.2 Inferencia 9 10 15 Estadísticos de la muestra Parámetros de la población como la media, µ y la varianza, σ2 Estimación de Parámetros y test de hipótesis sobre los parámetros de la población como la media, y la varianza, y= s2 = ∑y i n ∑ (y i −y n −1 Figura 1.4 Ramas de la estadística 1.4.2 Población y muestra La población es se puede entender como el conjunto de todos los posibles resultados de un experimento mientras que la muestra es un subconjunto de estos resultados. La población muchas veces puede ser teórica ya que no es posible y en otros puede ser real. Sin embargo, usualmente el tamaño es muy grande y resulta impractico e inviable estudiarla completamente. Por esta razón se acude a la inferencia estadística para poder sacar conclusiones de la población a partir de los resultados de una pequeña muestra de dicha población. ) 2 En la figura siguiente se ilustra el concepto de población y muestra dentro de la estadística. Población Conceptual con todos los posibles resultados del experimento Muestra de tamaño n de la población Calculo de estadísticos Inferencia Estadísticos de la muestra Parámetros de la población como la media, µ y la varianza, σ2 Estimación de Parámetros y test de hipótesis sobre los parámetros de la población como la media, y la varianza, y= s2 = ∑y i n ∑ yi − y ( n −1 Figura 1.5 oblación y muestra dentro de la estadística inferencial En el contexto general de la estadística se utilizan los calificativos de “parámetro” y “estadístico” para hacer referencia a cualquier número asociado a la población y a la muestra respectivamente. También es usual referirse a los parámetros con letras griegas y a los estadísticos con letras latinas minúsculas. En la Tabla 1.1se resumen estos conceptos y se muestran las principales medidas de tendencia central y variabilidad para poblaciones y muestras. ) 2 Definición Población Muestra Conjunto de todas las observaciones Conjunto de n observaciones que conceptualmente podrían ocurrir obtenidas realmente y que como consecuencia de realizar una constituyen un subconjunto de operación bajo ciertas condiciones. observaciones de la población. Tendencia central Media poblacional Variabilidad Varianza poblacional σ Desviación Típica poblacional σ= 2 µ=∑ yi N ∑ (y = − µ) 2 i N ∑ (y − µ) 2 i y= Media muestral: N Varianza muestral Desviación Típica muestral s 2 ∑y ∑ (y = i n i −y ) 2 n −1 ( ∑ yi − y s= n −1 ) 2 Tabla 1.1 Medidas Descriptivas de la población y de la muestra Como se aprecia en la Figura 1.5, el objetivo fundamental de la estadística inferencial es estimar los parámetros de la población o probar hipótesis a partir de los estadísticos de una muestra. 1.4.3 Medidas de tendencia central y variabilidad La medidas de tendencia central más importantes y de mayor uso en Diseño de Experimentos son la media (o promedio aritmético) y al mediana. Estas medidas indican el valor central en torna al cual se agrupan los demás datos de la muestra. De estas, la de mayor importancia es la media, la cual se calcula matemáticamente a partir de la formula: y= ∑y i (1-1) n Donde la sumatoria se hace recorriendo todos los datos de la muestra. La mediana es el dato central. El dato que divide los demás datos de la muestra en dos partes iguales: la mitad e ellos están por debajo de la mediana y la otra mitad por encima. Cuando este dato no existe entonces se toma el promedio de los dos datos que más se acercan a la definición. Casi todas las técnicas estadísticas utilizadas en Diseño de Experimentos (DDE) van dirigidas hacia la media y muy pocas hacia la mediana. Al igual que la mediana, también existen los cuarteles (tres en total). El primer cuartil divide los datos en dos partes dejando la cuarta parte de ellos por debajo del primer cuartil y el resto de los datos por encima. El segundo cuartil es numéricamente igual a la mediada y el tercer curtil deja la cuata parte de los datos por encima y el resto por debajo. Gráficamente se pueda apreciar en la siguiente figura: Dato menor Dato mayor Datos ordenados de menor a mayor ¼ datos ¼ datos ¼ datos Segundo Cuartil Q2 Mediana Primer Cuartil Q1 ¼ datos Tercer Cuartil Q3 Rango intercurtilico Figura 1.6 Cuartiles Las medidas de variabilidad dan una idea de la dispersión de los datos en torno a un valor central como la media. La medidas de variabilidad más utilizadas en DDE son la varianza y la desviación estándar. La varianza muestral se calcula como s 2 ∑ (y = raíz cuadrada de la varianza. Es decir, s = i −y ) 2 y la desviación típica como la n −1 ∑ (y i −y ) 2 n −1 Otra medida de variabilidad que se utiliza para construir el diagrama de cajas que se verá más adelante es el Rango Intercuartilico (RIC) que se define como la diferencia entre el tercero y cuarto cuartil (ver Figura 1.6). 1.4.4 Diagrama de puntos, de cajas, distribución de frecuencia e histograma Existen algunas técnicas graficas dentro de la estadística descriptiva de uso común en Diseño de Experimentos que vale la pena describir con cierto detalle. Estas incluyen: el diagrama de puntos, el diagrama de cajas, la distribución de frecuencias y el histograma. Diagrama de puntos. Es una representación que se utiliza con muestras pequeñas de datos (menor que 20) en la cual se pueden apreciar de una manera rápida, medidas de localización o de tendencia central y medidas de variabilidad. En la siguiente figura se muestra un ejemplo de este tipo de gráficas. 0 1. 0 64 65 66 67 68 69 70 Figura 1.7 Ejemplo de un diagrama de puntos para una muestra de 10 datos Diagrama de Cajas. Es un diagrama que describe simultáneamente varias características importantes de la muestra tales como el centro, dispersión, la desviación, la simetría y la identificación de observaciones que se alejan de manera poco usual del resto de los datos(valores atípicos) El diagrama de caja presenta los tres cuartiles, y los valores máximo y mínimo de los datos sobre el rectángulo, alineado horizontal o verticalmente. El rectángulo delimita el rango intercuartílico con la arista izquierda (o inferior) ubicada en el primer cuartel, Q1, y la arista derecha (o superior) en el cuartel Q3. Se dibuja una línea a través del rectángulo en la posición que corresponde al segundo cuartil (que es igual a la mediana) Q2= mediana. De cualquiera de la aristas del rectángulo se extiende una línea, o bogote, que va hacia los valores extremos. Éstas son observaciones que se encuentra entre cero y 1.5 veces el rango intercurtílico a partir de las aristas del rectángulo. Las observaciones que están entre 1.5 y 3 veces el rango intercuartílico a partir de las aristas del rectángulo reciben el nombre de valores atípicos. Las observaciones que están más allá de tres veces el rango intercuartílico a partir de las aristas del rectángulo se conocen como valore atípicos extremos. En ocasiones se emplean diferentes símbolos (como círculos vacíos o llenos), para identificar los dos tipos de valores atípicos. A veces, los diagramas de caja reciben el nombre de diagramas de caja y bigotes. Figura 1.8 Ejemplo de un diagrama de cajas Distribución de Frecuencia e Histograma. La distribución de frecuencias permite resumir los datos en una tabla como la que se muestra a continuación: Distribución de Frecuencias Marca Intervalo Clase Frecuencia Frecuencia relativa xmin = x0 x1 (x0+x1)/2 f0 F0 = f0/∑fi x1 x2 (x1+x2)/2 f1 F1 = f1/∑fi x2 x3 (x2+x3)/2 f2 F2 = f2/∑fi . . . . . . . . . . . . . . . xn-2 xn-1 (xn-2+xn-1)/2 fn-2 Fn-2 = fn-2/∑fi xn-1 xmax = xn (xn-1+xn)/2 fn-1 Fn-1 = fn-1/∑fi ∑fi ∑Fi = 1 Tabla 1.2 Distribución de frecuencias de un conjunto de datos En esta tabla se muestra la forma como se distribuyen los datos en una serie de intervalos (llamados intervalos de clase) en los que se ha dividido el rango de datos. La columna etiquetada “marca de clase” es el dato por el que se reemplazan todos los datos que caen en este intervalo y se obtiene como el promedio entre los límites superior e inferior del intervalo de clase correspondiente. La columna etiquetada como “frecuencia” indica el número de datos y la frecuencia relativa es el porcentaje de datos que se encuentran en el intervalo de clases correspondiente. Se debe tener presente que al pasar de los datos originales a la tabla de distribución de frecuencias se pierde calidad en la información ya que todos los datos en cada intervalo de clase se reemplazan por su respectiva marca de clase. El número de clases que se deben tomar en una tabla de distribución de frecuencia es decisión del lector. Sin embargo, se recomienda utilizar un número de clases igual a la raíz del número de datos, haciendo notar, que esto no es camisa de fuerza en las tablas de distribución de frecuencia. Un histograma no es más que una representación gráfica de una tabla de distribución de frecuencia, en la que se coloca en el eje horizontal una barra vertical para cada marca de clase, la cual se extiende de verticalmente una distancia igual a la frecuencia relativa correspondiente. Usualmente, este diagrama se construye, de tal suerte, que cada barra tiene una base unitaria para garantizar que el área total de todas las barra sea igual a uno. En la figura siguiente se muestra un histograma típico: Histograma 1.5 2.5 3.5 4.5 5.5 6.5 7.5 8.5 9.5 10.5 11.5 Figura 1.9 Histograma como una representación gráfica de una distribución de frecuencias En la Figura 1.10 se muestra el procedimiento para crear un histograma a partir de los datos originales (de la población o de la muestra). También se aprecia el hecho que no es posible reconstruir la población original a partir de la distribución de frecuencias o de su histograma. Distribución de Frecuencias Marca Clase Frecuencia Frecuencia relativa xmin = x0 x1 (x0+x1)/2 f0 F0 = f0/∑fi x1 x2 (x1+x2)/2 f1 F1 = f1/∑fi x2 x3 (x2+x3)/2 f2 F2 = f2/∑fi x3 x4 (x3+x4)/2 f3 F3 = f3/∑fi x4 x5 (x4+x5)/2 f4 F4 = f4/∑fi . . . . . . . . . . Intervalo Población Conceptual con todos los posibles resultados del experimento Distribución de Frecuencias . . . . . xn-3 xn-2 (xn-3+xn-2)/2 fn-3 Fn-3 = fn-3/∑fi xn-2 xn-1 (xn-2+xn-1)/2 fn-2 Fn-2 = fn-2/∑fi xn-1 xmax = xn (xn-1+x n)/2 fn-1 Fn-1 = fn-1/∑fi ∑fi ∑Fi = 1 ≠ Histograma Histograma Población reconstruida a partir del histograma o de la distribución de frecuencia Reconstrucción de la población 1.5 2.5 3.5 4.5 5.5 6.5 7.5 8.5 9.5 10.5 11.5 Figura 1.10 Procedimiento para construir un histograma El histograma representa de manera aproximada la población de datos a partir de la cual se obtuvo y esta aproximación será mejor en la medida que se reduzca la amplitud del intervalo de clase. Si la población es muy grande entonces, en teoría, se puede hacer tender el intervalo de clases a cero y el histograma tiende a ser una función continua que representa completamente y fielmente la población original (ver Figura 1.11). Esta función recibe el nombre de función de densidad de probabilidad de la población. En la Figura 1.11 también se ilustra la equivalencia existente entre el histograma y la población de la cual se obtiene, en dos situaciones: cuando se toman intervalos de clase de longitud finita (figura superior) y cuando se hace tender a cero la longitud de dichos intervalos (figura inferior). 3. 23 5 . 25 23 5 .9 . 5 Población real o teórica p(y)---> 2 2 23 2 .5 3. 5 2 23 5.9 2 .5 2 3 3 .5 .5 23 .2 23 . .9 22 .9 22 a Histo grama d e lo s d ato s d e u n a po b lació n re al o te o rica 2 .8 .223 .1 23.5.1 303 .5 .53 20 .8 30 2 25.1 25 3.225.7 .6 24.8 23.9 26.0 28.0 24.0 25.0 25.2 22.1 2 .9 .4 2 9 .219.0 23 23.5 5 .5 2 2 278.223.5 2213. 0.81.8 229.6 222.9 2 32 28 2 .2 9.58 3.5 2.82.4.48.4 23. .4 7 8 3 2 2 4 .4.5 3.5 27.2 21.8 1 2 .7 23 23 23 .30 28 2 27 8.23 .2 23 .5 23.5 128.425 .5.1 .5 5.2 2 0 y---> 3. 23 5 . 2 5 23 5 .9 .5 Población real o teórica p(y)---> 2 23 2 .5 3. 5 2 23 5.9 2 .5 2 3 3 .5 .5 23 .2 23 . Te n d e ncia d e l Histo g rama de los d ato s d e u n a po b lació n re al o te o rica cuand o e l nú me ro d e in te rv alos d e clase tie n d e a infin ito .9 22 b .9 22 2 2 .8 .223 .1 23.5.1 303 . . 20 .8 30 25.1 25 3.2 253 29.65 4 2 25.7 3.5 .9 .219.0 23 24.8 23.9 26.0 28.0 24.0 25.0 25.2 22.1 5.28 8. 232 .5 .6 2 1 2 2213.58 .9 .2 .5 .8 0 22 27 22 9 32 3.5 2.82.4.48.4 23.2 28.4 28 273.229. .5 .2 . . 4 3 27 21 8.23 4.5 1.52.17 23 23 .30 28 2 22 .2 8 22 53 .5 23.7 1.28 .4 53.5 5.2 2 0 y---> Figura 1.11 Histograma de una población real o teórica. a) Tomando un número de intervalos de clase finito y b) Haciendo tender a infinito el número de intervalos de clase. De esta manera se aprecia como obtener, al menos conceptualmente, la función de densidad de probabilidad de una población (real o hipotética) haciendo tender a infinito el número de intervalos de clase o, lo que es lo mismo, haciendo tender a cero la longitud de cada uno de los intervalos de clase (el procedimiento es equivalente). En síntesis podemos decir que: cualquier población se puede representar unívocamente por su función de densidad de probabilidad. 1.4.4 Variables aleatorias: Discreta y Continúa Un experimento aleatorio es aquel que siempre nos lleva a resultados diferentes aunque se realice, aproximadamente, bajo las mismas condiciones. Entre tanto, una variable aleatoria es una función que asocia un número a cada uno de los resultados de un experimento aleatorio. Por lo tanto, una variable aleatoria también toma resultados diferentes cada vez que se realiza el experimento. Si estos resultados son finitos o infinitos pero numerables, entonces la variable aleatoria se conoce como discreta. Si los resultados de la variable aleatoria son infinitos pero no numerables, como por ejemplo los números reales que caen en un intervalo, entonces la variable aleatoria se conoce como continua. En la Tabla 1.3 se aprecian las diferencias conceptuales entre una variable aleatoria discreta y otra continua; la forma como se obtienen dos de las características más importantes de una variables aleatoria: el valor esperado, E(y) y la varianza, V(y). Continua Discreta F(y) p(y) P( y = y j ) = P( y j ) b P( a ≤ y ≤ b) = ∫ f ( y ) dy Probabilidad directa a Probabilidad como el área bajo la curva y1 y2 y3 y4 y5 y6 y7 y8 y9 y10 y11 y12 y13 y14 0 ≤ P( y j ) ≤ 1 Función de de Probabilidad a f ( y) ≥ 0 Función de densidad de Probabilidad ∞ ∑ P( y ) = 1 ∫ f ( y) = 1 j todos y j −∞ µ = E ( y) = b ∑ y. p( y j ) µ = E ( y) = todos y j σ 2 = V ( y ) = E [( y − µ ) 2 ] = ∑ ( y − µ ) 2 . p( y j ) ∞ ∫ yf ( y)dy −∞ σ 2 = V ( y ) = E [( y − µ ) 2 ] todos y j = ∞ ∫ ( y − µ) 2 f ( y ) dy −∞ Tabla 1.3 Diferencias entre las variables aleatorias discretas y continúas A continuación se enumeran algunas propiedades matemáticas del operador esperanza matemática, E(y) y la varianza V(y) de una variable aleatoria (discreta o continúa): 1. E(c) = c 2. E(y) = µ 3. E(cy) = cE(Y) = cµ 4. V(c) = 0 5. V(y) = σ2 6. V(cy) = c2 V(y) = c2 σ2 7. E(y1±y2) = E(y1)±E(y1) 8. V(y1±y2) = V(y1)+V(y1)±2cov(y1,y2) Si y1 y y2 son independientes: 9. E(y1.y2) = E(y1).E(y1) 10. V(y1±y2) = V(y1)+V(y2) = σ12+ σ22 Se destaca que mientras una variable aleatoria esta caracterizada por completo por su función de probabilidad P(yi), la cual da directamente la probabilidad del evento específico y=yi, la variable continua esta caracterizada es por su función de densidad de probabilidad, f(y), con la que se obtiene la probabilidad de que la variable aleatoria caiga en un intervalo dado integrando la función en dicho intervalo. También se ilustra la forma de obtener el valor esperado y la varianza de una variable aleatoria. En DDE son de mayor utilidad las variables aleatorias continuas. Dentro de éstas, se destacan: la normal, la t, la Ji-Cuadrado y la F. El uso y propiedades de estas variables aleatorias se describen más adelante en este capítulo. Sin embargo se adelanta que, de todas ellas, la de mayor utilidad en DDE es la F. 1.4.5 Distribución de muestreo. Este término hace referencia a la función de probabilidad que tiene un estadístico. Por ejemplo, la media o promedio de una muestra es un estadístico y su distribución de muestreo se llama distribución de muestreo de media. La distribución de muestreo de un estadístico depende de la distribución de la población de la que se obtuvo la muestra, del tamaño de la muestra y de la forma como se toma la muestra. A continuación se brinda una descripción detallada de las distribuciones de muestreo más importante en DDE 1.4.5.1 Distribución Normal y normal estándar Es sin duda la distribución de muestreo más importante. La variable aleatoria, x es normal o tiene una distribución normal si su función de densidad de probabilidad es: f ( x) = 1 e 2πσ −( x−µ )2 2σ 2 (1-2) Recuerde que la integral bajo la curva en un intervalo dato de esta función, da la probabilidad de que la variable aleatoria tome un valor en este intervalo. Con frecuencia se usa la notación x ~ N ( µ , σ 2 ) para denotar que la variable aleatoria, x sigue una distribución normal con media µ y varianza σ2. En la Figura 1.12 se muestra lo que ocurre al aumentar la media, µ y la varianza sobre la distribución normal estándar. Se observa que al aumentar el parámetro µ se traslada la función hacia la derecha mientras que un aumento de σ2 ocasiona un aplanamiento de la curva. A. Efecto de la media µ1 < µ2 < µ3 < µ4 σ1 B. Efecto de la varianza σ2 1 f ( x) → 2πσ −( x−µ )2 e 2σ 2 σ1 σ4 Figura 1.12 Efecto de la media y la varianza sobre la distribución normal. La importancia de la distribución normal se debe fundamentalmente a tres aspectos: • Permite modelar de manera directa muchos experimentos aleatorios • Aproxima otras funciones de densidad probabilidad • El teorema del limite central que se verá en la siguiente sesión Un caso de particular interés es el de la distribución normal estándar que se obtiene cuando µ = 0 y σ2 = 1. Esta distribución es la que se encuentra tabulada en todos los textos de estadística y de la cual se suministra una copia al final del presente documento (Tabla I) En la Figura 1.13 se muestra la relación entre la distribución normal general y la normal estándar. En esta figura también se muestran algunas probabilidades claves asociadas a la distribución normal. z= x−µ σ x ~ N (µ ,σ 2 ) f ( x) → 1 2πσ z ~ N (0,1) −( x−µ ) e 2 2σ 2 1 f ( z) → 2π e −z2 2 Figura 1.13 Relación entre la distribución normal estándar y la normal 1.4.6 Teorema del límite central Formalmente este teorema establece lo siguiente: Si y1, y2, …, yn es una sucesión de n variables aleatorias independientes que tienen una distribución idéntica con E (yi) =µ y V(yi) = σ2 y x = y1 + y2+ …+ yn, entonces zn = x − nµ σ n (1-3) Tiende a poseer una distribución normal estándar cuando n tiende a infinito. En esencia, este teorema establece que la suma de n variables aleatorias independientes con la misma distribución sigue una distribución aproximadamente normal. En la Figura 1.14 se ilustra la utilidad conceptual y práctica del teorema del límite central. En esta figura se aprecia que, independientemente de la forma como se distribuyan los datos de una población, su respectiva población de medias tiende a ser normal. Te nd e ncia de l Histo grama de lo s datos de un a pob lación re al o te orica cuan do e l nú me ro de inte rv alo s de clase tie nde a infinito 23 2 .5 3 . 25 23 5 .9 .5 Población real o teórica p(y)---> 23 2 .5 3 . 5 25 2 . 23 3.5 239 .5 .5 23 .2 .9 22 .9 22 23 .2 2 . 8 .223 .1 23.5 .1 303 . .53 24.8 23.9 26.0 28.0 24.0 25.0 25.2 22.1 20 .8 30 2 25 25 3.225.7 65 4 29. .5 19.0 2 .1 2 .9 . 2 5.281 8. 2323 3.5 .6 2 2 2213.58 .2 .9 . .5 7 8 0 9 22 2 2 2 323.5 .4 8 2.82 .4 .4 23.2 28.4 28 273.229. .5 .2 . 4 . 7 3 2 7 2 3 21.88.23 1 2 228 2 27 24.5 .30 3 .2 3.5 23 23 128.425 .5.1 .5 .5 5.2 2 0 y= ∑y y---> Función de densidad de probabilidad de la población de Medias i n 23 2 .5 3. 25 23 5 . 9 .5 2 23 . .9 22 .9 22 23 2 .5 3. 5 2 23 5.9 23 .5 23 .5 .5 23 .2 2 .8 12 03 .123.5 .3 . .2 3.5 20 .830 25.1 25.7 25 3.2 2534 29. 6.5 24.8 23.9 26.0 28.0 24.0 25.0 25.2 22.1 2 .9 . .219.0 23 23 8 5 .5 2 2 8 2 . 1.8 2 29.6 222.9 2213.58 03 227.2 32.5 32 .5 9. 2.82.4.48.4.5 23. .2 8. 273. .2 .4 8 2 2 4 7 . 34.5 1.52.17 23 228 23 22 .30 .2 2 211.288 22 73 53 3.5 23.5 . 2 .4 .5 5 28 2 Población de medias n →∞ f ( x ) → f x ( x; µ , σ ) = 1 2πσ e −( x−µ )2 2σ 2 Figura 1.14 Teorema del límite central Normalmente, el error experimental total o global (ver sesión 1.2.5.5 más atrás) de un experimento, se obtiene como un conglomerado de muchos errores componentes cuya contribución es pequeña e independiente. Es decir, ε = a1ε1 + a2ε 2 + L + anε n (1-4) El Teorema del Límite Central establece que, bajo ciertas circunstancias, que normalmente se dan en el mundo de la experimentación, esta suma tiende a la normal si ningún error predomina sobre los demás. 1.4.6.1 Distribución χ2 Es decir, si z1, z2, …, zk son k variables aleatorias que tienen una distribución normal e independiente con media cero y varianza 1, que se simboliza como NID(0,1), entonces la variable aleatoria: xk = z12 + z 22 + L + z k2 (1-5) Sigue una distribución χ2 o Ji-cuadrado con k grados de libertad y función de densidad de probabilidad dada por: 1 f ( x) = x k 2 k / 2 Γ 2 2 µ = k σ = 2k k / 2 −1 −x / 2 e (1-6) En la siguiente figura se muestra varias distribuciones Ji cuadrado para distintos valores de k. En esta figura se aprecia que la distribución es asimétrica o sesgada. K=2 K=5 K=15 K=20 Figura 1.15 Distribuciones Ji cuadrado para diferentes grados de libertad Una de los usos inmediatos de la distribución χ2 es el hecho que si las observaciones de la muestra son NID(µ,σ2), entonces la distribución de la varianza muestral s 2 ∑ (y = i −y ) 2 n −1 constante sigue una distribución σ2 n −1 χ 2 . Es decir una χ2 multiplicada por la σ2 n −1 Los datos de probabilidad para esta distribución de muestreo se encuentran en el la Tabla III 1.4.6.2 Distribución t Si z es una variable aleatoria normal estándar y χ2k es una ji-cuadrado con k grados de libertad, entonces la variable aleatoria: tk = z (1-7) χ k2 / k sigue una distribución t (o t de Student) con k grados de libertad. En la Figura 1.16 se muestra varias distribuciones t para diferentes grados de libertad. En esta gráfica se aprecian las similitudes entre la normal estándar y la t de Student. Además, se destaca el hecho que la t tiende a la normal cuando el número de grados de liberta aumenta. v=∞ -> N(0,1) v=5 v=2 v=1 Figura 1.16 Varias distribuciones t En la Figura 1.17 se muestra la forma como se obtiene, conceptualmente, una distribución t a partir de una población madre normal. En síntesis, se toma una muestra aleatoria de tamaño n de la población original a partir de la cual se genera la población muestral de medias y de varianzas. Finalmente se obtiene el estadístico t a partir de estas dos distribuciones de muestreo y se obtiene la distribución t. n y = 2 7.0 22.0 s2 ∑ Distribución Muestral de medias n ∑ (y = .2 24 yi i =1 i −y ) N(µ, σ2/√n) 2 n −1 t= y−µ s/ n Distribución Muestral es t 24 .2 25 .1 .7 27.7 27 25.1 24.0 24.2 Población Madre Normal N(µ,σ2) Distribución Muestral de s2 α χ2k Figura 1.17 Origen conceptual de la distribución t. Los datos de probabilidad para esta distribución de muestreo se encuentran en el la Tabla II 1.4.6.3 Distribución F Esta distribución de muestreo es, quizás, la más utilizada en diseño de experimentos, como se ira viendo el la medida que avance en el curso. Si χ u2 y χ v2 son dos variables aleatorias Ji-cuadrado con grados de libertad u y v respectivamente, entonces la variable aleatoria: Fu ,v = χ u2 / u χ v2 / v (1-8) Tiene una distribución F con u grados de libertad en el numerador y v grados de libertad en el denominador. La figura siguiente muestra el comportamiento de la distribución F para distintos valores de los parámetros u y v. U=40, v=40 U=10, v=50 U=4, v=10 U=50, v=10 U=10, v=10 U=4, v=40 Figura 1.18 Varias distribuciones F En la siguiente figura se ilustra la forma como se obtiene en la práctica (desde el punto de vista conceptual) la distribución F. ∑( y − y ) = 2 2 s1 n1 −1 25.1 .2 .0 22.0 27 0 24.2 24. 25.1 24.2 1 24 27.7 2 7. 7 i S 12=1.03 Población Madre 1 N(µ1,σ2) Fn1 −1, n2 −1 s12 = 2 s2 F =0.92 ∑( y − y ) = 2 2 2 s 2 7.7 2 n2 −1 Distribución Muestral de F .2 25.1 24 27.7 .0 22.0 27 0 24.2 24. 5.1 2 24.2 i S 22=1.12 Población Madre 2 N(µ2,σ2) Figura 1.19 Origen conceptual de la distribución F Los datos específicos de la distribución F se encuentran desde la Tabla IV a Tabla VIIIl al final del libro 1.5 Inferencia estadística 1.5.1 Prueba de hipótesis En esencia, el contraste de hipótesis se puede resumir como sigue: • A partir de los datos de la muestra calculamos un estadístico para contrastar una hipótesis particular con una hipótesis alterna. Por ejemplo: • Relacionamos el estadístico con la distribución de referencia apropiada, que nos dice como se distribuye el estadístico si la hipótesis nula fuera cierta. • Se obtiene la probabilidad de que una discrepancia, como la observada, pueda ocurrir al azar si la hipótesis nula fuera cierta. • Esta probabilidad se denomina nivel de significancia; si es suficientemente pequeño, la hipótesis nula se rechaza y afirmamos que hemos obtenido una diferencia estadísticamente significativa. 1.5.2 Intervalos de confianza Un intervalo de confianza de por ciento para un parámetro θ, es un intervalo de la forma l <θ < u (1-9) En el que se espera que este incluido el parámetro con una probabilidad del por ciento. Es decir: P (l < θ < u ) = 1 − α (1-10) Sí se tomas muchas muestras aleatorias de la población de interés, y se construyen los intervalos de confianza correspondiente, entonces el por ciento de estos intervalos contendrá al verdadero valor del parámetro. 1.5.3 Errores de tipo I y II Al utilizar la estadística se esta propenso al cometer dos tipos de errores en la toma de decisiones. Estos errores se conocen como error de tipo I y II. El primero se define como el rechazo de la hipótesis nula Ho cuando ésta es verdadera y generalmente se denota con la letra griega a. El error de tipo II por otro lado, se define como la aceptación de la hipótesis nula cuando ésta es falsa y generalmente se denota por b En la siguiente tabla se resumen las decisiones que se pueden tomar en estadística y los errores que se pueden cometer. Decisión Ho es verdadera Ho es falsa Aceptar Ho No hay error Error tipo II Rechazar Ho Error tipo I No hay error Tabla 1.4 Decisiones en contraste de hipótesis estadística Es importante recalcar que rechazar la hipótesis nula se considera una conclusión fuerte porque se especifica de antemano el error que se esta dispuesto a asumir (llamado también nivel de significancia de la prueba). Entre tanto, aceptar Ho se considera una conclusión débil ya que no se puede cuantificar, con precisión el error cometido al tomar esta decisión. 1.6 Uso del valor P en un contraste de Hipótesis Existen dos formas de proceder en un contraste hipótesis estadística: el enfoque convencional de dividir la región donde varía el estadístico en una región de aceptación y una de rechazo de Ho, si el estadístico obtenido con la muestra se encuentra en la zona de aceptación entonces no se rechaza la hipótesis nula, Ho. Si el estadístico cae fuera de la zona de aceptación entonces se rechaza la hipótesis núla, Ho a favor de la hipótesis alternativa, H1. Este enfoque se ilustra en la Figura 1.21 Valores críticos leídos de tablas según tipo de prueba. Dependen del nivel de significancia escogido, α α /2 α /2 Se acepta H1 − t0 µ ≠ µo zona de rechazo P(| t |> t0 ) Se acepta H0 µ = µo zona de aceptación t0 Se acepta H1 µ ≠ µo zona de aceptación Figura 1.20 Prueba de dos colas para comparar dos grupos (enfoque zona de aceptación y zona crítica) El segundo enfoque, conocido como el enfoque del valor P, a tomado fuerza recientemente con el desarrollo de los computadores y es el que se prefiere en la actualidad. Este enfoque, calcula de manera exacta el error de tipo I (o nivel de significancia) en la prueba estadística. Este último, depende del tipo de prueba en curso y del valor numérico obtenido para el estadístico. En este enfoque, la hipótesis nula se acepta o rechaza si el nivel de significancia obtenido exactamente a partir del estadístico resulta menor o mayor del nivel de significancia fijado de antemano o que se esta dispuesto a tolerar en la prueba (usualmente se toma del 1% o el 5%). La Figura 1.21 ilustra este enfoque para una prueba de dos colas. Valores críticos leídos de tablas según tipo de prueba. Dependen del nivel de significancia escogido, α α /2 α /2 2 × P(| t |> t0 ) t0 Valore exacto del estadístico muestral que nos lleva al valor P = 2*P(|t|>to) para una prueba de dos colas Figura 1.21 Prueba de dos colas para comparar dos grupos (enfoque del valor P) 1.7 El uso de los computadores y Software especializado Existen muchos paquetes de Software que facilitan los cálculos matemáticos y estadísticos que se tienen que realizar en DDE. No es que los cálculos sean complicados, lo que ocurre es que, en algunos casos, son sumas largas y tediosas, que si se hacen a mano se pierde mucho tiempo el cual se puede aprovechar en el análisis e interpretación de los resultados. Algunos paquetes estadísticos son comerciales y de propósito general como SAS, SPSS, Statgraphic y Minitab; otros especializados en DDE como Desing Expert y otros de libre uso como lo es R. Incluso, herramientas como MS Excel (que no es un paquete estadístico) cuenta con un plug-in para análisis de datos que incluye algunos diseños experimentales ya programados que puede ser de utilidad durante el curso. Durante el curso se ilustra, paso a paso, cada una de las técnicas a través de la realización de algunos ejemplos detalladamente y se muestra también la salida de algunos programas como MS Excel, Desing Expert y Statgraphics para familiarizar al lector con la salida de estos programas. 1.8 Ejercicios propuestos CAPITULO 2 COMPARACIONES SIMPLES. Cuando hablamos de comparaciones simples nos referimos a comparaciones en las que tomamos una o dos muestras, de la misma población o de poblaciones diferentes (aunque eso precisamente es lo que se prueba en muchos casos) para realizar contraste de hipótesis estadística. Así, este tipo de comparaciones caen en dos categorías: en primer lugar se encuentran las pruebas que se realizan para determinar si una muestra proviene o no a una población hipotética (en este caso solo se requiere una muestra de la supuesta población). En segundo lugar, se encuentran las pruebas que buscan comparar dos muestras y determinar si provienen o no de poblaciones diferentes (en este caso se requieren dos muestras de las poblaciones supuestamente involucradas). 2.1 Contraste de hipótesis Como a partir de una muestra se puede obtener diferentes estadísticos (como la media o la varianza) entonces surgen diferentes pruebas dependiendo del estadístico involucrado en la prueba que se desee realizar y de la información que se tenga de la población de interés. A continuación se presenta el listado de las diferentes pruebas existentes y en la Tabla 2.1 se muestra el estadístico correspondiente de cada una. 1. Prueba de Hipótesis sobre la media, varianza conocida 2. Prueba de Hipótesis sobre la media de una distribución normal, varianza desconocida 3. Prueba de Hipótesis sobre la diferencia de dos medias, varianzas conocidas y diferentes. 4. Prueba de Hipótesis sobre para la diferencia de dos medias, varianza desconocida pero iguales 5. Prueba de Hipótesis sobre la diferencia de dos medias, varianzas desconocidas y distintas 6. Prueba de Hipótesis sobre m1 - m2 para observaciones pareadas 7. Prueba de Hipótesis sobre la varianza de una distribución normal 8. Prueba de Hipótesis sobre el cociente de las varianzas de dos distribuciones normales 9. Prueba de Hipótesis sobre una proporción 10. Prueba de hipótesis sobre la diferencia de dos proporciones Caso Hipótesis Nula 1 H0: µ = µ0 σ2 conocida 2 H0: µ = µ0 σ2 desconocida 3 H0: µ1 = µ2 σ12 = σ12 desconocidas 5 H1: µ ≠ µ0 |z0|>zα/2 z0>zα H1: µ < µ0 z0<-zα x − µ0 t0 = s/ n H1: µ ≠ µ0 |t0|>tα/2,n-1 H1: µ > µ0 t0>tα,n-1 H1: µ < µ0 t0<-tα,n-1 x1 − x 2 z0 = σ 12 + ≠ σ12 σ 22 s1 − s 2 z0 = σ 12 desconocidas + n1 (s v= H1: µ1 ≠ µ2 |z0|>zα/2 H1: µ1 > µ2 z0>zα H1: µ1 < µ2 z0<-zα H1: µ1 ≠ µ2 |t0|>tα/2,n1+n2-2 n2 x1 − x 2 z0 = 1 1 + sP n1 n2 H0: µ1 = µ2 σ12 Criterio de Rechazo H1: µ > µ0 n1 4 alterna x − µ0 z0 = σ/ n H0: µ1 = µ2 σ12 y σ12 conocidas Hipótesis Estadístico de Prueba σ 22 n2 H1: µ1 > µ2 t0>tα,n1+n2-2 H1: µ1 < µ2 t0<-tα,n1+n2-2 H1: µ1 ≠ µ2 |t0|>tα/2,v H1: µ1 > µ2 t0>tα,v H1: µ1 < µ2 t0<-tα,v H1: µd ≠ 0 |t0|>tα/2,n-1 ) 2 / n1 + s22 / n2 −2 s / n1 s22 / n2 + n1 + 1 n2 + 1 2 1 2 1 6 Datos pareados H0: µD = 0 7 d t0 = s/ n H0: σ2 = σ02 χ 02 = 8 H0: σ12 = σ22 (n − 1) s 2 σ 2 D 10 H0: p = p0 H0: p1 = p2 H1: σ2 ≠ σ02 χ02 > χ2α/2,n-1 ó χ02 < χ21-α/2,n-1 H1: σ2 > σ02 χ02 > χ2α,n-1 H1: σ < σ02 H1: σ12 ≠ σ22 2 1 2 2 H1: x − np z0 = np0 (1 − p0 ) z0 = t0>tα,n-1 t0<-tα,n-1 2 s f0 = s 9 H1: µd > 0 H1: µd < 0 pˆ1 − pˆ 2 1 1 pˆ (1 − pˆ ) + n1 n2 σ12 > σ22 χ02 < χ21-α,n-1 f0 > fα/2,n1-1,n2-1 ó f0 < f1-α/2,n1-1,n2-1 f0 > fα,n1-1,n2-1 H1: p ≠ p0 |z0|>zα/2 H1 :p > p0 z0>zα H1: p < p0 z0<-zα H1: p1 ≠ p2 |z0|>zα/2 H1: p1 > p2 z0>zα H1: p1 < p2 z0<-zα Tabla 2.1 Resumen de pruebas de contraste de hipótesis para comparaciones simples. En esta tabla también se indica, de manera indirecta, la distribución de probabilidad que se debe utilizar en cada prueba. Si aparece la letra “z” se debe utilizar la normal (casos 1, 3, 4, 5, 9 y 10), la “t” para la t de Student ( casos 2 y 6); la χ 0 para la Ji2 cuadrado (caso 7) y la f 0 para la distribución F (caso 8). En la columna “Hipótesis alterna” se muestran los casos para una prueba de una cola o de dos colas (también conocidas como unilaterales y bilaterales respectivamente). Una prueba de una cola permite detectar diferencias en una sola dirección y siempre son del tipo mayor o menor que, entre tanto, la hipótesis de dos colas permite detectar diferencias en ambas direcciones y son del tipo diferente. 2.1.1 Ejemplos del uso de la Tabla 2.1 2.1.1.1 Ejemplo de la normal Se estudia el rendimiento de un proceso químico. De la experiencia previa con este proceso, se sabe que la desviación estándar del rendimiento es 3. En los cinco días anteriores de operación en la planta, se han observado los siguiente rendimientos: 91.6%, 88.75%, 90.8%, 89.95% y 91.3%. Utilizando un nivel de significancia del 5% ¿Existe evidencia de que el rendimiento no es del 90%?. ¿Cuál es el valor P de esta prueba? 2.1.1.2 Ejemplo de la t para datos no pareados Se analiza una marca particular de margarina dietética para determinar el nivel de ácido graso poliinsaturado (en porcentaje). Se toma una muestra de seis paquetes y se obtienen los siguientes datos: 16.8, 17.2, 17.4, 16.9, 17.1. • Pruebe la hipótesis H0 = µ = 170 contra H1: µ ≠ 17.0. Utilice α = 0.01. ¿Cuáles son sus conclusiones? • Encuentre el valor P de la prueba del inciso anterior. 2.1.1.3 Ejemplo de la t para datos pareados Diez individuos participan en un programa de modificación de dieta para estimular la pérdida de peso. En la siguiente tabla se indica el peso de cada participante antes y después de haber participado en el programa. ¿Existe evidencia que apoye la afirmación que este programa de modificación de dieta es eficaz para reducir el peso? Utilice un nivel de significancia del 5%. 2.1.1.4 Ejemplo de la distribución χ2-cuadrado: igualdad de varianzas El contenido de azúcar del almíbar de los duraznos enlatados tiene una distribución normal, donde se cree que la varianza σ2 = 18 mg2. Pruebe la hipótesis H0: σ2 = 18 contra H1: σ2 ≠ 18 si al tomar una muestra de 10 latas la desviación estándar muestral es de 4.8 mg. Utilice α = 5%. ¿Cuál es el valor P de esta prueba? 2.1.1.5 Ejemplo de la distribución F: igualdad de varianzas Se instala un nuevo dispositivo de filtrado en una unidad química. Antes de instalarlo, de una muestra aleatoria se obtuvo la siguiente información sobre el porcentaje de impurezas: y1 = 12.5, s12 = 101.17 y n1 = 8. Después de instalarlo, de una muestra aleatoria se obtuvo: y 2 = 10.2 s22 = 94.73 y n2 = 9. ¿Puede concluirse que las dos varianzas son iguales? Utilice α = 5%. 2.2 Intervalos de confianza Como ya se explicó en la sesión 1.5.2, los intervalos de confianza se utilizan para estimar los parámetros de una población con una probabilidad asociada. Existen dos formas de estimar los parámetros de una población: dando un valor puntual (estimación puntual) o a con un intervalo de confianza del 100(1 – α)% centrado en torno a la estimación puntual. Estrictamente hablando, a partir de los intervalos de confianza también se puede realizar un contraste de hipótesis observando si el intervalo de confianza contiene o no contiene en su interior el valor supuesto en la hipótesis nula. Este aspecto se muestra en los ejemplos propuestos. Sin embargo, el intervalo de confianza se prefiere, en muchos casos, ya que da el conjunto de valores del estadístico de prueba para el cual se acepta o rechaza la hipótesis nula en un test de hipótesis. En esta sección se presenta la tabla resumen para la construcción de intervalos de confianza y se da un ejemplo de cada uno de ellos para clarificar el uso de esta tabla. Tipo de problema Media µ, varianza σ2 conocida Estimación puntual x Intervalo de confianza bilateral del 100(1-α)% por ciento x − zα / 2σ / n ≤ µ ≤ x + zα / 2σ / n σ 12 x1 − x 2 − zα / 2 Diferencia entre dos medias µ1 y µ2, varianzas σ21 y σ22 conocidas n1 x1 − x 2 + σ 22 ≤ µ1 − µ 2 n2 ≤ x1 − x 2 + zα / 2 Media, µ de una distribución normal con varianza σ2 desconocida x Diferencia entre medias de dos µ1 y µ2, varianzas σ21 = σ22 x1 − x 2 x1 − x 2 − tα / 2 , v 1 1 + ≤ µ1 − µ2 n1 n2 s12 s22 + ≤ µ1 − µ 2 n1 n2 Diferencia entre medias de dos desconocidas x1 − x 2 n2 (n1 − 1) s12 + (n2 − 1) s22 n1 + n2 − 2 Donde, S P = µ1 y µ2, varianzas σ21 ≠ σ22 σ 22 ≤ x1 − x 2 + tα / 2 , n1 + n 2 − 2 S P desconocidas distribuciones normales, n1 + x − tα / 2,n −1s / n ≤ µ ≤ x + tα / 2,n −1s / n x1 − x 2 − tα / 2 , n1 + n 2 − 2 S P distribuciones normales, σ 12 ≤ x1 − x 2 + tα / 2 , v (s Donde, v = s12 s22 + n1 n2 ) 2 / n1 + s22 / n2 −2 s / n1 s22 / n2 + n1 + 1 n2 + 1 2 1 2 1 1 1 + n1 n2 Diferencia entre medias de dos distribuciones normales para muestras pareadas, d d − tα / 2,n −1sd / n ≤ µ D ≤ d + tα / 2,n −1sd / n µD = µ1 - µ2 Varianza σ2 de una distribución normal Cociente de varianzas σ21/σ22 de dos distribuciones normales Proporción o parámetro de una distribución binomial, p s2 (n − 1) s 2 χα2 / 2, n−1 ≤σ 2 ≤ parámetros binomiales, p1 - p2 χ12−α / 2,n −1 s12 s22 σ 12 s12 s12 f ≤ ≤ fα / 2,n2 −1,n1 −1 1−α / 2 , n2 −1, n1 −1 σ 22 s22 s22 p̂ pˆ − zα / 2 pˆ (1 − pˆ ) ≤ p ≤ pˆ + zα / 2 n pˆ1 − pˆ 2 − zα / 2 Diferencia entre dos proporciones o (n − 1) s 2 pˆ 1 − pˆ 2 pˆ (1 − pˆ ) n pˆ 1 (1 − pˆ 1 ) pˆ 2 (1 − pˆ 2 ) + ≤ n1 n2 p1 − p2 ≤ pˆ 1 − pˆ 2 + zα / 2 pˆ 1 (1 − pˆ 1 ) pˆ 2 (1 − pˆ 2 ) + n1 n2 Tabla 2.2 Resumen de intervalos de confianza para comparaciones simples. 2.2.1 Ejemplo del uso de la Tabla 2.2 Una máquina de bebidas con mezclado posterior se ajusta de modo que libere cierta cantidad de jarabe en una cámara donde será mezclado con agua carbonatada. De una muestra aleatoria de 25 bebidas se tiene que el contenido medio de jarabe es de x = 1.10 onzas de líquido, con una desviación estándar s = 0.015 onzas de líquido. Encuentre el intervalo de confianza bilateral del 90% para la cantidad promedio de jarabe mezclado en cada bebida. 2.3 Ejercicios propuestos 1. En un proceso químico pueden emplearse dos catalizadores. Doce lotes se prepararon con el catalizador l, lo que dio como resultado un rendimiento promedio de 86 y una desviación estándar muestral de 3. Quince lotes se prepararon con el catalizador 2, con el que se obtuvo un rendimiento promedio de 89 con una desviación estándar de 2. Suponga que las mediciones de rendimiento están aproximadamente distribuidas de manera normal. Encuentre un intervalo de confianza bilateral del 99% para la diferencia en el rendimiento promedio de los dos catalizadores. 2. Se somete a prueba una muestra de 30 dispositivos para la medición de flujo utilizados para la administración intravenosa de medicamentos. La rapidez de flujo de prueba es 200 ml/h. La media muestral observada es de 194 ml/h, mientas que la desviación estándar muestral es de 12 ml/h. ¿Sugieren estos datos que la rapidez de flujo real es diferente de la utilizada para la prueba? Pruebe esta hipótesis con α = 0.05. 3. Suponga que en el ejercicio anterior el experimentador consideró que σ = 10 antes de recolectar los datos. Si él desea que la probabilidad β del error tipo II 0.05 y si la rapidez de flujo promedio real es 195 ml/h, ¿cuál debe ser el tamaño de la muestra que tiene que utilizar? Utilice α = 0.05. 4. Se realiza un experimento para comparar las características de llenado del equipo de embotellado de dos fábricas vinícolas diferentes. Para ello se escogen al azar 20 botellas de Pinot Noir de los viñedos de Ridgecrest y otras 20 de Pinot Noir de viñedos de Valley View. Con esto se obtienen los datos siguientes (el volumen está dado en ml): Ridgecrest Valley View 755 751 752 753 756 754 757 756 753 753 753 754 755 756 756 753 754 752 751 753 754 755 755 754 752 753 753 752 754 756 755 756 755 753 750 753 756 756 756 756 a. ¿Los datos apoyan la afirmación de que ambas vinaterías llenan las botellas con el mismo volumen promedio? Utilice α = 0.05 y suponga que, al obtener conclusiones, las dos poblaciones tienen la misma desviación estándar. b. Calcule un valor P para la prueba estadística del inciso a). c. Construya un diagrama de caja para las dos muestras. ¿Parece razonable la hipótesis de varianzas iguales hecha en el inciso a)? Proporcione una interpretación gráfica de estas gráficas. d. Construya gráficas de probabilidad normal para ambas muestras. ¿Le parece que se satisface la hipótesis de normalidad? 5. Una compañía de biotecnología produce un medicamento cuya concentración tiene una desviación estándar de 4 g/l. Se propone un método nuevo para producir este medicamento, lo que implica ciertos gastos adicionales. La gerencia autorizará el cambio en la técnica de producción sólo si la desviación estándar de la concentración en el nuevo proceso es menor que 4 g/l. Si la desviación estándar de la concentración en el nuevo proceso es tan pequeña como 3 g/l, entonces a la compañía le gustaría cambiar los métodos de producción con una probabilidad de al menos 0.90. Suponga que la concentración está distribuida de manera normal y que α = 0.05. ¿Cuántas observaciones deben tomarse? Suponga que los investigadores eligen n = 10 y obtienen los datos siguientes. ¿Es ésta una buena elección para n? ¿Qué conclusiones pueden obtenerse? g/l 1. 16.628 16.63 16.622 16.631 16.627 16.624 16.623 16.622 16.618 16.626 Un producto dietético líquido afirma en su publicidad que el empleo del mismo durante un mes produce una pérdida promedio de 3 libras de peso. Ocho sujetos utilizan el producto por un mes, y los datos sobre pérdida de peso son los siguientes: Sujeto 1 2 3 4 5 6 7 8 Peso inicial (lb) 163 201 195 198 155 143 150 187 Peso final (lb) 161 195 192 197 150 141 146 183 Encuentre un intervalo de confianza del 95% para la pérdida de peso promedio. ¿Los datos apoyan la afirmación hecha en la publicidad? CAPITULO 3 COMPARACIONES CON UN FACTOR. ANALISIS DE VARIANZA. Se recomienda al lector revisar cuidadosamente los diseños experimentales explicados en este capítulo ya que constituyen la base de los demás diseños que se verán en el resto del libro. Si comprende los conceptos expuesto aquí, no tendrá dificultades en lo que sigue. En primer lugar, es importante comentar que estos diseños experimentales se utilizan cuando se desea comparar más de dos tratamientos. Puede ser de interés comparar tres o más máquinas, varios proveedores, cuatro procesos, tres materiales, etc. En el contexto de un problema de investigación surge la necesidad de realizar alguna comparación de tratamientos con el fin de elegir la mejor alternativa de las varias que existen, o por lo menos para tener una mejor comprensión del comportamiento de la variable de interés en cada uno de los distintos tratamientos. Por ejemplo, la comparación de cuatro dietas de alimentación con ratas de laboratorio, se hace con el fin de estudiar si alguna nueva dieta que se propone es mejor o igual que las dietas ya existentes; la variable de interés en este caso es el peso promedio alcanzado por cada grupo de animales después de alimentar a cada grupo con la dieta que le tocó. Por lo general el interés del experimentador se centra en comparar los tratamientos en cuanto a sus medidas poblacionales. Así, desde el punto de vista estadístico, la hipótesis fundamental a probar cuando se comparan varios tratamientos es H0: µ1 = µ2 =… = µk = µ H1: µi ≠ µj para algún i ≠ j, con la cual se quiere decidir si los tratamientos son iguales estadísticamente en cuanto a sus medidas, contra la alternativa de que al menos dos de ellos son diferentes. La estrategia natural para resolver este problema es obtener una muestra representativa de mediciones en cada uno de los tratamientos, y con base en las medias y varianzas muestrales, construir un estadístico de prueba para decidir el resultado de dicha comparación. 3.1 Modelo general de Análisis de Varianza, ANOVA El término “ANOVA” hace referencia a las iniciales de Análisis de Varianza en inglés. El diseño que vamos a estudiar en el presente capítulo se conoce como un diseño completamente aleatorizado debido a que el orden en el que se realizan las corridas debe ser completamente aleatorio o al azar. La razón de esta aleatorización es reducir el efecto de aquellos factores (algunas veces desconocidos) en los resultados del experimento o de la variable respuesta. Por ejemplo, si la variable respuesta se mide con un dispositivo que presenta cansancio con el tiempo de uso, es importante correr de manera aleatoria las corridas para garantizar que las diferencias observadas se deban al tratamiento que se estudia y no al cansancio del aparato que se utiliza para medir la respuesta. Suponga que se tiene a tratamientos o niveles de un factor que quieren compararen: Tratamient o nivel 1 Observacio nes Totales Promedios y 12 L y 1n 2 y 11 y 21 y 22 K y 2n M a M y a1 M K M y a2 K y an y 1• y 2• M y a• y •• y 1• y 2• M y a• y •• Tabla 3.1 Organización de los datos en un diseño completamente aleatorizado El objetivo con estos datos es determinar si un factor (o variable), en su distintos niveles, influye o no sobre la variable respuesta de manera significativa. La forma como se expresa este objetivo es simplemente cuestión de sintaxis. Así, tres formas equivalentes de referirnos al mismo objetivo son las siguientes: • Determinar si las a muestras provienen de la misma población o no. • Determinar si las a tratamientos conducen a resultados estadísticamente diferentes. • Determinar si existen diferencias significativas entre los a tratamientos Sin embargo, independientemente de la forma como se exprese se debe tener en cuanta que con este diseño se esta evaluando el efecto de una sola variable, a más de dos niveles, sobre la variable respuesta. Recuerde que para comparar exactamente dos tratamientos se utilizan la prueba t. No es que la técnica de ANOVA no se pueda utilizar para comparar dos tratamientos, lo que sucede es que no se justifica. Además se puede demostrar que dan resultados equivalentes. Es decir, se obtienen los mismos resultados al comparar dos tratamientos con una prueba t que con un diseño unifactorial completamente aleatorizado usando ANOVA. Con base en lo expuesta anteriormente, se puede considera que los diseños expuestos aquí son una generalización de la prueba t para comparar más de dos tratamientos El modelo matemático del ANOVA para un diseño unifactorial es el siguiente: Yij = µ + τ i + ε ij (3-1) Donde: Yij es el valor de la j-esima observación del tratamiento i-ésimo µ la gran media o el promedio de todas las observaciones τ i el efecto del tratamiento i-ésimo ε ij el error aleatorio que se asume NID(0,σ2) En el modelo se observa que el objetivo es explicar cada observación en términos de la gran media, el efecto del respectivo tratamiento y el error aleatorio. Las hipótesis estadísticas que se quieren probar son las siguientes H 0 : µ1 = µ 2 = L = µ k = µ (3-2) H 1 : µ i ≠ µ j para algún i ≠ j Es decir sin no existe efecto del tratamiento (H0) o si existe (H1). La identidad básica para probar esta hipótesis es la siguiente: a a n ∑∑ ( y i =1 j =1 ij − y •• ) a 2 = n ∑ ( y i • − y •• ) i =1 2 + n ∑∑ ( y i =1 j =1 ij − y i• ) 2 Suma de los cuadrados = totales Variabilidad total = Suma de los cuadrados de los tratamientos Variabilidad debida a los tratamientos Suma de los cuadrados + del error aleatorio Variabilidad debida al + error aleatorio Variabilidad dentro de Variabilidad total = Variabilidad entre grupos + SCT = SCTrat + an-1 = a-1 + grupos SCE a(n-1) Tabla 3.2 Descomposición de la Suma de Cuadrados en el ANOVA unifactorial En esta tabla se aprecia no solamente una descomposición en la suma de los cuadrados totales si no también en los respectivos grados de libertad. Informalmente hablando, si la variabilidad entre grupos (o debida a los tratamientos) es mayor que la variabilidad dentro de grupos (o debida al error aleatorio) entonces se concluye que existe una diferencia significativa entre los tratamientos. Desde el punto de vista formal, si la hipótesis nula es cierta ( no existe efecto de tratamiento) entonces a MCT = SCTrat = a −1 n ∑ ( y i • − y •• ) 2 i =1 (3-3) a −1 Y a MCE = SCE = N −a n ∑∑ ( y i =1 j =1 ij − y i• ) 2 (3-4) N −a Son dos estimadores independientes de la varianza común σ2. Y, por lo tanto, el estadístico F0 = SCTrat /(a − 1) MCTrat = SCE /( N − a) MCE (3-5) Sigue una distribución F con a-1 grados de libertad en el numerador y N-a grados de libertad en el denominador. Por lo tanto, la hipótesis nula debe descartarse si el estadístico calculado con la ecuación (3-5) es mayor que Fα ,a −1, N −a para un nivel de significancia dada, α. Usualmente, los resultados del análisis de varianza, se organizan en una tabla ANOVA como la siguiente: Fuente de Variación Grados Suma de Cuadrados tratamientos Error ( dentro de los Media de cuadrados F0 Valor P libertad a Entre SCTratamientos = n∑ ( y i• − y •• ) 2 a-1 MCTratamientos = a(n-1) MCErrores = i =1 a n SC Errores = ∑∑ ( yij − y i • ) 2 i =1 j =1 tratamientos) a Total de SCTratamientos a −1 F0 = MCTratamientos MCErrores SCErrores a(n − 1) n SCTotales = ∑∑ ( yij − y •• ) 2 an-1 i =1 j =1 Tabla 3.3 Tabla ANOVA para un diseñocompletamente aleatorizado unifactorial El valor P o probabilidad se obtiene como el nivel de significancia real de la prueba (ver Figura 3.1) Distribución F Nivel de significancia, α Figura 3.1 Enfoque del valor P en ANOVA unifactorial Si este valor P es infereior al nivel de significancia escogido (usualmente del 5%) entonces se descarta la hipótesis nula. Probabilidad 3.2 Modelo de efectos fijos y aleatorios Dependiendo de la forma como se escojan los niveles del factor el diseño puede ser de efectos fijos o aleatorios. Si los niveles del factor fueron elegidos expresamente por el experimentador entonces las conclusiones solo se pueden extender a los factores considerados en el experimento. Las conclusiones no pueden extenderse a tratamientos similares que no fueron considerados explícitamente. Por otro lado, si los niveles del factor son una muestra aleatoria de todos los posibles niveles del tratamiento entonces, las conclusiones se pueden extender a la totalidad de los tratamientos. El modelo de efectos aleatorios es análogo al modelo de efectos fijos, inclusive las formulas son la mismas. La diferencia radica en las hipótesis estadísticas que se prueban. En este libro no se explican con detalle el modelo de efectos aleatorios. Para su estudio profundo se remite al lector a las referencias bibliográficas al final del libro. 3.3 Supuestos en ANOVA y medidas de adecuación del modelo En el modelo matemático de ANOVA existen varios supuestos implícitos que se deben verificar antes de validar los resultados obtenidos. Estos supuestos se pueden resumir en: • Hipótesis de normalidad • Hipótesis de igualdad de varianzas • Hipótesis de independencia Estos supuestos se ilustran en la siguiente figura con la excepción del supuesto de independencia que tiene que ver con el hecho de que cada observación no depende de ninguna otra observación. Normalmente el cumplimiento del supuesto de independencia se garantiza con la aleatorización de las corridas. Variable Respuesta εij son N(0,σ2) Yij son N(µ+τi,σ2) σ2 µ4 σ2 µ3 σ2 µ2 σ2 µ1 Nivel 1 Nivel 2 Nivel 3 Nivel 4 Factor de Interés Figura 3.2 Supuestos en el ANOVA unifactorial En la figura se aprecia que el único efecto del tratamiento sobre la variable respuesta es modificar el valor medio del tratamiento más no se modifica la varianza. En general, además de la aleatorización, existen otras dos formas de aislar el efecto de un factor extraño para que no interfiera en los resultados del experimento: la fijación y el bloqueo. La fijación consiste en mantener constante el factor, que no se desee estudiar, durante el experimento. El bloqueo es una técnica que se verá con detalle en el próximo capítulo 3.3.1 Supuesto de normalidad En el modelo matemático del ANOVA se asume que los errores se distribuyen normal e independientemente con media cero y varianza constante, esto se resume como NID(0,σ2). Este supuesto se justifica, en la práctica real, gracias al teorema del límite central explicado anteriormente. Sin embargo, se debe verificar que no se viola considerablemente. Para verificar este supuesto se puede realizar un histograma de los residuos (o errores) y mirar si dicho histograma no se desvía considerablemente del comportamiento Gaussiano. Otra alternativa (que se prefiere en la práctica) consiste en dibujar los errores en una gráfica de probabilidad normal. Este tipo de grafica linealiza datos que se distribuyen normalmente. Es decir, si los datos realmente se distribuyen normalmente, entonces en este tipo de gráficas se verán sobre una línea recta. Aunque una gráfica de probabilidad normal no es difícil de realizar a mano, es un poco engorrosa de realizar y se prefiere el uso de un paquete especializado como Excel, Matlab, Statgraphic, SAS, SPPS, etc. El procedimiento utilizado para validar la hipótesis de normalidad se ilustra en la figura siguiente: Histograma residuos Gráfica de probabilidad normal 100 100(j-0.5)/n Muestra Aleatoria de errores 80 60 40 20 Población de errores NID(0,σ2) 0 55 60 65 70 75 X(j) Grafica Probabilidad Normal de residuos Figura 3.3 Verificación de la hipótesis de normalidad en ANOVA Ahora bien, la muestra de errores o residuos en el modelo unifactorial se pueden obtener como: ε ij = y ij − y i (3-6) Cuando la hipótesis nula es falsa y existe efecto del tratamiento. 3.3.2 Supuesto independencia e igualdad de varianzas La violación de estos supuestos en el ANOVA se verifica realizando gráficas de los errores versus la variable respuesta, los factores de interés u otras variables candidatas. Estas gráficas no deben presentar ningún tipo de patrón y deben tener un comportamiento análogo al de la figura siguiente: 2 0 0 5 10 15 20 25 30 35 -2 Figura 3.4 Patrón adecuado en los residuos del modelo ANOVA Patrones como los mostrados en la Figura 3.5 indican una violación considerable de los supuestos de independencia e igualdad de varianzas. 4 2 3 1.5 2 1 1 0.5 0 0 -1 0 1 2 3 4 5 6 7 -0.5 -2 -1 -3 -1.5 -4 -2 a) Patrón de embudo simple 0 1 2 3 4 5 6 7 b) Patrón de doble embudo Figura 3.5 Patrón inadecuado de los residuos en el ANOVA que amerita una transformación de los datos La forma como se corrigen la violación de estos supuestos es transformando los datos de entrada. Es decir en lugar de realizar el ANOVA sobre los datos originales, usar los datos transformados. También se recomienda graficar los residuos contra alguna variable o factor candidata que no se halla tenido en cuenta en el diseño experimental. Si se detecta algún patrón en esta gráfica se debe agregar este factor no incluido en un diseño factorial más completo. 3.4 Comparaciones múltiples. Si después de realizar el Análisis de Varianza para comparar los a tratamientos se descarta la hipótesis nula, H0 a favor de la hipótesis alterna, H1 entonces se necesita determinar, específicamente, en que tratamientos se encuentran dichas diferencias. El ANOVA en la hipótesis alterna, H1 (Ecuación ¡Error! No se encuentra el origen de la referencia.), indica que existen diferencias por lo menos en un par de tratamientos, sin embargo, no dice, específicamente, en que par o pares están estas diferencias. En esta sesión se estudian las técnicas más utilizadas para realizar este tipo de comparaciones que algunas veces se conocen como comparaciones múltiples en DDE. Podría pensarse, que este tipo de comparaciones se realiza, simplemente a partir de múltiples pruebas t para comparar todos los posibles pares de tratamientos. Sin embargo, el uso de la t para comparaciones múltiples es impractico ya que incrementa el error de Tipo I global en la prueba estadística. Por esta razón se deben realizar las pruebas que se suministran en la esta sesión. 3.4.1 Comparación gráfica de medias Es uno de los métodos más sencillos para realizar comparaciones múltiples después del ANOVA. El procedimiento consiste en dibujar la t escalada por √MCE/n y se mueve imaginariamente en el diagrama de puntos de las medias de los tratamientos. Para escalar la distribución t simplemente se multiplica el valor de la abscisa t por el factor de escala: MCE n (3-7) Observe el procedimiento gráficamente en la Figura 3.6 15 35 20 25 30 Figura 3.6 Comparación gráfica de medias Si existe un punto al cual se pueda trasladar la distribución t, en el que se incluyan todos los promedios (los puntos en un diagrama de puntos), entonces no existe diferencia significativa entre los tratamientos y la hipótesis nula es cierta. Por el contrario, si la curva t no puede albergar todos los puntos promedio de los tratamientos entonces se concluye que si existen diferencias entre los tratamientos y que la hipótesis nula es falsa. 3.4.2 Comparación de pares de medias. Existen muchos métodos para realizar este tipo de comparaciones (de a dos). Dentro de las más populares se encuentran • Prueba de Tukey • Prueba LSD de Fisher • Prueba de rangos múltiples de Duncan • Prueba de Newman-Keuls. • Prueba de Dunenett. Para comparar todas las medias con un control En esencia, estas pruebas comparan todas las diferencias posibles de medias con un estadístico común que difiere en cada método. Hasta el momento no hay un consenso común con respecto a cual es la mejor de ellas, sin embargo, varios autores [6] coinciden que la prueba LSD de Fisher y la de rangos múltiples de Duncan son la mejores. De estas dos se explica a continuación la prueba LSD de Fisher ya que no requiere el uso de tablas especiales (la de Duncan requiere una tabla especial1) Normalmente los resultados de las comparaciones múltiples se dan en un diagrama de puntos como el siguiente y1 y5 y2 y3 y4 9.8 10.8 15.4 17.6 21.6 Figura 3.7 Comparación gráfica de medias En esta figura se aprecia una línea inferior entre los pares de tratamientos que NO se consideran diferentes desde el punto de vista estadístico, de acuerdo al criterio escogido (Duncan, Fisher, etc ). 3.4.2.1 Prueba de la diferencia Significancia Mínima de Fisher o LSD de Fisher En este procedimiento se utiliza el estadístico 1 Se puede consultar esta prueba en detalle en la bibliografía recomendada al final del libro. En particular, en la referencias [1] y [6] t0 = yi − y j 1 1 MCE + n i nj (3-8) Para probar la Hipótesis: H 0 : µ i = µ j para todo i ≠ j (3-9) Suponiendo una hipótesis alternativa de dos colas, los pares de medias µi, y µj se consideran estadísticamente diferentes sí: 1 1 | y i − y j |> t α / 2, N − a MCE + n i nj (3-10) A la cantidad 1 1 t α / 2, N − a MCE + n i nj (3-11) Se le llama diferencia significativa mínima de Fisher Si el diseño es balanceado n1=n1=…na=n y t α / 2, N − a 2 × MCE n (3-12) Para usar el procedimiento LSD de Fisher simplemente se compara la diferencia observada entre cada par de promedios con el LSD correspondiente. Si y i − y j > LSD se concluye que las medias poblacionales µ i y µ j difieren. BIBLIOGRAFÍA [1] Mongomery C. Douglas , Runger C. George. Probabilidad y Estadística aplicados a la Ingeniería, McGraw-Hill Interamericana Editores S.A, México, 1996 [2] DeVore L. Jay, Probabilidad y Estadística para ingeniería y ciencias, Internacional Thomson Editores, México, 2005 [3] Box P. E. George, Hunter G. William, Hunter Stuart J., Estadístca para Investigadores. Introducción al diseño de experimentos, Análisis de Datos y construcción de modelos, Editorial Reverté S. A. España, 1989 [4] Kenett S Ron, Zacks Shelemyahu, Estadística Industrial moderna. Diseño y control de la calidad y la confiabilidad, Internacional Thomson editores S. A. México, 2000 [5] López Pérez Cesar, Técnicas estadísticas con SPSS, Pearson Educación S. A, España, 2001 [6] Montgomery C. Douglas, Diseño y Análisis de Experimentos, Limusa Willey, México, 2003 [7] Pulido Gutiérrez Humberto, Salazar de la Vara Román, Análisis y Diseño de Experimentos, MacGraw-Hill, México 2004 [8] Kuehl O. Robert, Diseño de Experimentos. Principios estadísticos para el diseño y análisis de investigaciones, 2ª Edición, Internacional Thomson Editores S. A., México, 2001 [9] Montgomery, Peck, Vining, Introducción al Análisis de Regresión Lineal, 3ª Edición, CECSA, México, 2002 [10] Rodríguez Nacarid, Introducción al diseño de Experimentos. Guia para su aplicación en el Campo Educacional, Editado por Universidad Central de Venezuela, 1978 [11] SERRANO, Javier; Análisis de regresión; Universidad de los Andes, Departamento. de Ingeniería Industrial, Bogotá, 1975. [12] Tablas z Φ( z ) = Tabla I z 0.00 −∞ Distribución normal 0.01 0.02 0.03 0.04 ∫ 1 2π e −u 2 / 2 du z 0.05 0.06 0.07 0.08 0.09 0.0 0.500000 0.503989 0.507978 0.511966 0.515953 0.519939 0.523922 0.527903 0.531881 0.535856 0.1 0.539828 0.543795 0.547758 0.551717 0.555670 0.559618 0.563559 0.567495 0.571424 0.575345 0.2 0.579260 0.583166 0.587064 0.590954 0.594835 0.598706 0.602568 0.606420 0.610261 0.614092 0.3 0.617911 0.621720 0.625516 0.629300 0.633072 0.636831 0.640576 0.644309 0.648027 0.651732 0.4 0.655422 0.659097 0.662757 0.666402 0.670031 0.673645 0.677242 0.680822 0.684386 0.687933 0.5 0.691462 0.694974 0.698468 0.701944 0.705401 0.708840 0.712260 0.715661 0.719043 0.722405 0.6 0.725747 0.729069 0.732371 0.735653 0.738914 0.742154 0.745373 0.748571 0.751748 0.754903 0.7 0.758036 0.761148 0.764238 0.767305 0.770350 0.773373 0.776373 0.779350 0.782305 0.785236 0.8 0.788145 0.791030 0.793892 0.796731 0.799546 0.802337 0.805105 0.807850 0.810570 0.813267 0.9 0.815940 0.818589 0.821214 0.823814 0.826391 0.828944 0.831472 0.833977 0.836457 0.838913 1.0 0.841345 0.843752 0.846136 0.848495 0.850830 0.853141 0.855428 0.857690 0.859929 0.862143 1.1 0.864334 0.866500 0.868643 0.870762 0.872857 0.874928 0.876976 0.879000 0.881000 0.882977 1.2 0.884930 0.886861 0.888768 0.890651 0.892512 0.894350 0.896165 0.897958 0.899727 0.901475 1.3 0.903200 0.904902 0.906582 0.908241 0.909877 0.911492 0.913085 0.914657 0.916207 0.917736 1.4 0.919243 0.920730 0.922196 0.923641 0.925066 0.926471 0.927855 0.929219 0.930563 0.931888 1.5 0.933193 0.934478 0.935745 0.936992 0.938220 0.939429 0.940620 0.941792 0.942947 0.944083 1.6 0.945201 0.946301 0.947384 0.948449 0.949497 0.950529 0.951543 0.952540 0.953521 0.954486 1.7 0.955435 0.956367 0.957284 0.958185 0.959070 0.959941 0.960796 0.961636 0.962462 0.963273 1.8 0.964070 0.964852 0.965620 0.966375 0.967116 0.967843 0.968557 0.969258 0.969946 0.970621 1.9 0.971283 0.971933 0.972571 0.973197 0.973810 0.974412 0.975002 0.975581 0.976148 0.976705 2.0 0.977250 0.977784 0.978308 0.978822 0.979325 0.979818 0.980301 0.980774 0.981237 0.981691 2.1 0.982136 0.982571 0.982997 0.983414 0.983823 0.984222 0.984614 0.984997 0.985371 0.985738 2.2 0.986097 0.986447 0.986791 0.987126 0.987455 0.987776 0.988089 0.988396 0.988696 0.988989 2.3 0.989276 0.989556 0.989830 0.990097 0.990358 0.990613 0.990863 0.991106 0.991344 0.991576 2.4 0.991802 0.992024 0.992240 0.992451 0.992656 0.992857 0.993053 0.993244 0.993431 0.993613 2.5 0.993790 0.993963 0.994132 0.994297 0.994457 0.994614 0.994766 0.994915 0.995060 0.995201 2.6 0.995339 0.995473 0.995604 0.995731 0.995855 0.995975 0.996093 0.996207 0.996319 0.996427 2.7 0.996533 0.996636 0.996736 0.996833 0.996928 0.997020 0.997110 0.997197 0.997282 0.997365 2.8 0.997445 0.997523 0.997599 0.997673 0.997744 0.997814 0.997882 0.997948 0.998012 0.998074 2.9 0.998134 0.998193 0.998250 0.998305 0.998359 0.998411 0.998462 0.998511 0.998559 0.998605 3.0 0.998650 0.998694 0.998736 0.998777 0.998817 0.998856 0.998893 0.998930 0.998965 0.998999 3.1 0.999032 0.999065 0.999096 0.999126 0.999155 0.999184 0.999211 0.999238 0.999264 0.999289 3.2 0.999313 0.999336 0.999359 0.999381 0.999402 0.999423 0.999443 0.999462 0.999481 0.999499 3.3 0.999517 0.999534 0.999550 0.999566 0.999581 0.999596 0.999610 0.999624 0.999638 0.999651 3.4 0.999663 0.999675 0.999687 0.999698 0.999709 0.999720 0.999730 0.999740 0.999749 0.999758 3.5 0.999767 0.999776 0.999784 0.999792 0.999800 0.999807 0.999815 0.999822 0.999828 0.999835 3.6 0.999841 0.999847 0.999853 0.999858 0.999864 0.999869 0.999874 0.999879 0.999883 0.999888 3.7 0.999892 0.999896 0.999900 0.999904 0.999908 0.999912 0.999915 0.999918 0.999922 0.999925 3.8 0.999928 0.999931 0.999933 0.999936 0.999938 0.999941 0.999943 0.999946 0.999948 0.999950 3.9 0.999952 0.999954 0.999956 0.999958 0.999959 0.999961 0.999963 0.999964 0.999966 0.999967 4.0 0.999968 0.999970 0.999971 0.999972 0.999973 0.999974 0.999975 0.999976 0.999977 0.999978 Tabla II Distribución t t α v 0.4000 0.2500 0.1000 0.0500 0.0250 0.0100 0.0050 0.0025 0.0010 0.0005 1 0.32492 1.00000 3.07768 6.31375 12.7062 31.8205 63.6567 127.3213 318.3088 636.6192 2 0.28868 0.81650 1.88562 2.91999 4.30265 6.96456 9.92484 14.08905 22.32712 31.59905 3 0.27667 0.76489 1.63774 2.35336 3.18245 4.54070 5.84091 7.45332 10.21453 12.92398 4 0.27072 0.74070 1.53321 2.13185 2.77645 3.74695 4.60409 5.59757 7.17318 8.61030 5 0.26718 0.72669 1.47588 2.01505 2.57058 3.36493 4.03214 4.77334 5.89343 6.86883 6 0.26483 0.71756 1.43976 1.94318 2.44691 3.14267 3.70743 4.31683 5.20763 5.95882 7 0.26317 0.71114 1.41492 1.89458 2.36462 2.99795 3.49948 4.02934 4.78529 5.40788 8 0.26192 0.70639 1.39682 1.85955 2.30600 2.89646 3.35539 3.83252 4.50079 5.04131 9 0.26096 0.70272 1.38303 1.83311 2.26216 2.82144 3.24984 3.68966 4.29681 4.78091 10 0.26018 0.69981 1.37218 1.81246 2.22814 2.76377 3.16927 3.58141 4.14370 4.58689 11 0.25956 0.69745 1.36343 1.79588 2.20099 2.71808 3.10581 3.49661 4.02470 4.43698 12 0.25903 0.69548 1.35622 1.78229 2.17881 2.68100 3.05454 3.42844 3.92963 4.31779 13 0.25859 0.69383 1.35017 1.77093 2.16037 2.65031 3.01228 3.37247 3.85198 4.22083 14 0.25821 0.69242 1.34503 1.76131 2.14479 2.62449 2.97684 3.32570 3.78739 4.14045 15 0.25789 0.69120 1.34061 1.75305 2.13145 2.60248 2.94671 3.28604 3.73283 4.07277 16 0.25760 0.69013 1.33676 1.74588 2.11991 2.58349 2.92078 3.25199 3.68615 4.01500 17 0.25735 0.68920 1.33338 1.73961 2.10982 2.56693 2.89823 3.22245 3.64577 3.96513 18 0.25712 0.68836 1.33039 1.73406 2.10092 2.55238 2.87844 3.19657 3.61048 3.92165 19 0.25692 0.68762 1.32773 1.72913 2.09302 2.53948 2.86093 3.17372 3.57940 3.88341 20 0.25674 0.68695 1.32534 1.72472 2.08596 2.52798 2.84534 3.15340 3.55181 3.84952 21 0.25658 0.68635 1.32319 1.72074 2.07961 2.51765 2.83136 3.13521 3.52715 3.81928 22 0.25643 0.68581 1.32124 1.71714 2.07387 2.50832 2.81876 3.11882 3.50499 3.79213 23 0.25630 0.68531 1.31946 1.71387 2.06866 2.49987 2.80734 3.10400 3.48496 3.76763 24 0.25617 0.68485 1.31784 1.71088 2.06390 2.49216 2.79694 3.09051 3.46678 3.74540 25 0.25606 0.68443 1.31635 1.70814 2.05954 2.48511 2.78744 3.07820 3.45019 3.72514 26 0.25595 0.68404 1.31497 1.70562 2.05553 2.47863 2.77871 3.06691 3.43500 3.70661 27 0.25586 0.68368 1.31370 1.70329 2.05183 2.47266 2.77068 3.05652 3.42103 3.68959 28 0.25577 0.68335 1.31253 1.70113 2.04841 2.46714 2.76326 3.04693 3.40816 3.67391 29 0.25568 0.68304 1.31143 1.69913 2.04523 2.46202 2.75639 3.03805 3.39624 3.65941 30 0.25561 0.68276 1.31042 1.69726 2.04227 2.45726 2.75000 3.02980 3.38518 3.64596 40 0.25504 0.68067 1.30308 1.68385 2.02108 2.42326 2.70446 2.97117 3.30688 3.55097 50 0.25470 0.67943 1.29871 1.67591 2.00856 2.40327 2.67779 2.93696 3.26141 3.49601 60 0.25447 0.67860 1.29582 1.67065 2.00030 2.39012 2.66028 2.91455 3.23171 3.46020 70 0.25431 0.67801 1.29376 1.66691 1.99444 2.38081 2.64790 2.89873 3.21079 3.43501 80 0.25419 0.67757 1.29222 1.66412 1.99006 2.37387 2.63869 2.88697 3.19526 3.41634 90 0.25410 0.67723 1.29103 1.66196 1.98667 2.36850 2.63157 2.87788 3.18327 3.40194 95 0.25406 0.67708 1.29053 1.66105 1.98525 2.36624 2.62858 2.87407 3.17825 3.39590 100 0.25402 0.67695 1.29007 1.66023 1.98397 2.36422 2.62589 2.87065 3.17374 3.39049 120 0.25391 0.67654 1.28865 1.65765 1.97993 2.35782 2.61742 2.85986 3.15954 3.37345 150 0.25380 0.67613 1.28722 1.65508 1.97591 2.35146 2.60900 2.84915 3.14545 3.35657 Tabla III Distribución Ji Cuadrado α v 0.99500 0.99000 0.97500 0.95000 0.50000 0.05000 0.01000 0.00500 1 0.00004 0.00016 0.00098 0.00393 0.45494 3.84146 6.63490 7.87944 2 0.01003 0.02010 0.05064 0.10259 1.38629 5.99146 9.21034 10.59663 3 0.07172 0.11483 0.21580 0.35185 2.36597 7.81473 11.34487 12.83816 4 0.20699 0.29711 0.48442 0.71072 3.35669 9.48773 13.27670 14.86026 5 0.41174 0.55430 0.83121 1.14548 4.35146 11.07050 15.08627 16.74960 6 0.67573 0.87209 1.23734 1.63538 5.34812 12.59159 16.81189 18.54758 7 0.98926 1.23904 1.68987 2.16735 6.34581 14.06714 18.47531 20.27774 8 1.34441 1.64650 2.17973 2.73264 7.34412 15.50731 20.09024 21.95495 9 1.73493 2.08790 2.70039 3.32511 8.34283 16.91898 21.66599 23.58935 10 2.15586 2.55821 3.24697 3.94030 9.34182 18.30704 23.20925 25.18818 11 2.60322 3.05348 3.81575 4.57481 10.34100 19.67514 24.72497 26.75685 12 3.07382 3.57057 4.40379 5.22603 11.34032 21.02607 26.21697 28.29952 13 3.56503 4.10692 5.00875 5.89186 12.33976 22.36203 27.68825 29.81947 14 4.07467 4.66043 5.62873 6.57063 13.33927 23.68479 29.14124 31.31935 15 4.60092 5.22935 6.26214 7.26094 14.33886 24.99579 30.57791 32.80132 16 5.14221 5.81221 6.90766 7.96165 15.33850 26.29623 31.99993 34.26719 17 5.69722 6.40776 7.56419 8.67176 16.33818 27.58711 33.40866 35.71847 18 6.26480 7.01491 8.23075 9.39046 17.33790 28.86930 34.80531 37.15645 19 6.84397 7.63273 8.90652 10.11701 18.33765 30.14353 36.19087 38.58226 20 7.43384 8.26040 9.59078 10.85081 19.33743 31.41043 37.56623 39.99685 21 8.03365 8.89720 10.28290 11.59131 20.33723 32.67057 38.93217 41.40106 22 8.64272 9.54249 10.98232 12.33801 21.33705 33.92444 40.28936 42.79565 23 9.26042 10.19572 11.68855 13.09051 22.33688 35.17246 41.63840 44.18128 24 9.88623 10.85636 12.40115 13.84843 23.33673 36.41503 42.97982 45.55851 25 10.51965 11.52398 13.11972 14.61141 24.33659 37.65248 44.31410 46.92789 26 11.16024 12.19815 13.84391 15.37916 25.33646 38.88514 45.64168 48.28988 27 11.80759 12.87850 14.57338 16.15140 26.33634 40.11327 46.96294 49.64492 28 12.46134 13.56471 15.30786 16.92788 27.33623 41.33714 48.27824 50.99338 29 13.12115 14.25645 16.04707 17.70837 28.33613 42.55697 49.58788 52.33562 30 13.78672 14.95346 16.79077 18.49266 29.33603 43.77297 50.89218 53.67196 35 17.19182 18.50893 20.56938 22.46502 34.33564 49.80185 57.34207 60.27477 40 20.70654 22.16426 24.43304 26.50930 39.33535 55.75848 63.69074 66.76596 45 24.31101 25.90127 28.36615 30.61226 44.33512 61.65623 69.95683 73.16606 50 27.99075 29.70668 32.35736 34.76425 49.33494 67.50481 76.15389 79.48998 60 35.53449 37.48485 40.48175 43.18796 59.33467 79.08194 88.37942 91.95170 65 39.38314 41.44361 44.60299 47.44958 64.33456 84.82065 94.42208 98.10514 70 43.27518 45.44172 48.75757 51.73928 69.33448 90.53123 100.42518 104.21490 75 47.20605 49.47503 52.94194 56.05407 74.33440 96.21667 106.39292 110.28558 80 51.17193 53.54008 57.15317 60.39148 79.33433 101.87947 112.32879 116.32106 85 55.16960 57.63393 61.38878 64.74940 84.33427 107.52174 118.23575 122.32458 90 59.19630 61.75408 65.64662 69.12603 89.33422 113.14527 124.11632 128.29894 100 67.32756 70.06490 74.22193 77.92947 99.33414 124.34211 135.80672 140.16949 110 75.55005 78.45831 82.86705 86.79163 109.33406 135.48018 147.41431 151.94848 Tabla IV v1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 120 140 150 1 5.83 2.57 2.02 1.81 1.69 1.62 1.57 1.54 1.51 1.49 1.47 1.46 1.45 1.44 1.43 1.42 1.42 1.41 1.41 1.40 1.40 1.40 1.39 1.39 1.39 1.38 1.38 1.38 1.38 1.38 1.36 1.35 1.35 1.35 1.34 1.34 1.34 1.34 1.33 1.33 2 7.50 3.00 2.28 2.00 1.85 1.76 1.70 1.66 1.62 1.60 1.58 1.56 1.55 1.53 1.52 1.51 1.51 1.50 1.49 1.49 1.48 1.48 1.47 1.47 1.47 1.46 1.46 1.46 1.45 1.45 1.44 1.43 1.42 1.41 1.41 1.41 1.41 1.40 1.40 1.40 Distribución F con α = 0.25 3 8.20 3.15 2.36 2.05 1.88 1.78 1.72 1.67 1.63 1.60 1.58 1.56 1.55 1.53 1.52 1.51 1.50 1.49 1.49 1.48 1.48 1.47 1.47 1.46 1.46 1.45 1.45 1.45 1.45 1.44 1.42 1.41 1.41 1.40 1.40 1.39 1.39 1.39 1.38 1.38 4 8.58 3.23 2.39 2.06 1.89 1.79 1.72 1.66 1.63 1.59 1.57 1.55 1.53 1.52 1.51 1.50 1.49 1.48 1.47 1.47 1.46 1.45 1.45 1.44 1.44 1.44 1.43 1.43 1.43 1.42 1.40 1.39 1.38 1.38 1.38 1.37 1.37 1.37 1.36 1.36 5 8.82 3.28 2.41 2.07 1.89 1.79 1.71 1.66 1.62 1.59 1.56 1.54 1.52 1.51 1.49 1.48 1.47 1.46 1.46 1.45 1.44 1.44 1.43 1.43 1.42 1.42 1.42 1.41 1.41 1.41 1.39 1.37 1.37 1.36 1.36 1.35 1.35 1.35 1.34 1.34 6 8.98 3.31 2.42 2.08 1.89 1.78 1.71 1.65 1.61 1.58 1.55 1.53 1.51 1.50 1.48 1.47 1.46 1.45 1.44 1.44 1.43 1.42 1.42 1.41 1.41 1.41 1.40 1.40 1.40 1.39 1.37 1.36 1.35 1.34 1.34 1.33 1.33 1.33 1.32 1.32 7 9.10 3.34 2.43 2.08 1.89 1.78 1.70 1.64 1.60 1.57 1.54 1.52 1.50 1.49 1.47 1.46 1.45 1.44 1.43 1.43 1.42 1.41 1.41 1.40 1.40 1.39 1.39 1.39 1.38 1.38 1.36 1.34 1.33 1.33 1.32 1.32 1.32 1.31 1.31 1.31 8 9.19 3.35 2.44 2.08 1.89 1.78 1.70 1.64 1.60 1.56 1.53 1.51 1.49 1.48 1.46 1.45 1.44 1.43 1.42 1.42 1.41 1.40 1.40 1.39 1.39 1.38 1.38 1.38 1.37 1.37 1.35 1.33 1.32 1.32 1.31 1.31 1.30 1.30 1.30 1.30 9 9.26 3.37 2.44 2.08 1.89 1.77 1.69 1.63 1.59 1.56 1.53 1.51 1.49 1.47 1.46 1.44 1.43 1.42 1.41 1.41 1.40 1.39 1.39 1.38 1.38 1.37 1.37 1.37 1.36 1.36 1.34 1.32 1.31 1.31 1.30 1.30 1.29 1.29 1.29 1.28 10 9.32 3.38 2.44 2.08 1.89 1.77 1.69 1.63 1.59 1.55 1.52 1.50 1.48 1.46 1.45 1.44 1.43 1.42 1.41 1.40 1.39 1.39 1.38 1.38 1.37 1.37 1.36 1.36 1.35 1.35 1.33 1.31 1.30 1.30 1.29 1.29 1.28 1.28 1.28 1.27 12 9.41 3.39 2.45 2.08 1.89 1.77 1.68 1.62 1.58 1.54 1.51 1.49 1.47 1.45 1.44 1.43 1.41 1.40 1.40 1.39 1.38 1.37 1.37 1.36 1.36 1.35 1.35 1.34 1.34 1.34 1.31 1.30 1.29 1.28 1.27 1.27 1.27 1.26 1.26 1.26 14 9.47 3.41 2.45 2.08 1.89 1.76 1.68 1.62 1.57 1.54 1.51 1.48 1.46 1.44 1.43 1.42 1.41 1.40 1.39 1.38 1.37 1.36 1.36 1.35 1.35 1.34 1.34 1.33 1.33 1.33 1.30 1.28 1.27 1.27 1.26 1.26 1.25 1.25 1.24 1.24 16 9.52 3.41 2.46 2.08 1.88 1.76 1.68 1.62 1.57 1.53 1.50 1.48 1.46 1.44 1.42 1.41 1.40 1.39 1.38 1.37 1.36 1.36 1.35 1.34 1.34 1.33 1.33 1.32 1.32 1.32 1.29 1.27 1.26 1.26 1.25 1.25 1.24 1.24 1.23 1.23 18 9.55 3.42 2.46 2.08 1.88 1.76 1.67 1.61 1.56 1.53 1.50 1.47 1.45 1.43 1.42 1.40 1.39 1.38 1.37 1.36 1.36 1.35 1.34 1.34 1.33 1.33 1.32 1.32 1.31 1.31 1.28 1.27 1.26 1.25 1.24 1.24 1.23 1.23 1.22 1.22 20 9.58 3.43 2.46 2.08 1.88 1.76 1.67 1.61 1.56 1.52 1.49 1.47 1.45 1.43 1.41 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.34 1.33 1.33 1.32 1.32 1.31 1.31 1.30 1.28 1.26 1.25 1.24 1.23 1.23 1.23 1.22 1.22 1.21 25 9.63 3.44 2.46 2.08 1.88 1.75 1.67 1.60 1.55 1.52 1.49 1.46 1.44 1.42 1.40 1.39 1.38 1.37 1.36 1.35 1.34 1.33 1.33 1.32 1.31 1.31 1.30 1.30 1.30 1.29 1.26 1.25 1.23 1.23 1.22 1.21 1.21 1.20 1.20 1.20 30 9.67 3.44 2.47 2.08 1.88 1.75 1.66 1.60 1.55 1.51 1.48 1.45 1.43 1.41 1.40 1.38 1.37 1.36 1.35 1.34 1.33 1.32 1.32 1.31 1.31 1.30 1.30 1.29 1.29 1.28 1.25 1.23 1.22 1.21 1.21 1.20 1.20 1.19 1.19 1.19 35 9.70 3.45 2.47 2.08 1.88 1.75 1.66 1.60 1.55 1.51 1.48 1.45 1.43 1.41 1.39 1.38 1.37 1.35 1.34 1.33 1.33 1.32 1.31 1.31 1.30 1.29 1.29 1.28 1.28 1.28 1.25 1.23 1.21 1.21 1.20 1.19 1.19 1.18 1.18 1.18 40 9.71 3.45 2.47 2.08 1.88 1.75 1.66 1.59 1.54 1.51 1.47 1.45 1.42 1.41 1.39 1.37 1.36 1.35 1.34 1.33 1.32 1.31 1.31 1.30 1.29 1.29 1.28 1.28 1.27 1.27 1.24 1.22 1.21 1.20 1.19 1.19 1.18 1.18 1.17 1.17 50 9.74 3.46 2.47 2.08 1.88 1.75 1.66 1.59 1.54 1.50 1.47 1.44 1.42 1.40 1.38 1.37 1.36 1.34 1.33 1.32 1.32 1.31 1.30 1.29 1.29 1.28 1.28 1.27 1.27 1.26 1.23 1.21 1.20 1.19 1.18 1.18 1.17 1.16 1.16 1.16 60 9.76 3.46 2.47 2.08 1.87 1.74 1.65 1.59 1.54 1.50 1.47 1.44 1.42 1.40 1.38 1.36 1.35 1.34 1.33 1.32 1.31 1.30 1.30 1.29 1.28 1.28 1.27 1.27 1.26 1.26 1.22 1.20 1.19 1.18 1.17 1.17 1.16 1.16 1.15 1.15 70 9.77 3.46 2.47 2.08 1.87 1.74 1.65 1.59 1.54 1.50 1.46 1.44 1.41 1.39 1.38 1.36 1.35 1.34 1.33 1.32 1.31 1.30 1.29 1.28 1.28 1.27 1.27 1.26 1.26 1.25 1.22 1.20 1.19 1.18 1.17 1.16 1.16 1.15 1.14 1.14 80 9.78 3.46 2.47 2.08 1.87 1.74 1.65 1.59 1.54 1.50 1.46 1.44 1.41 1.39 1.37 1.36 1.35 1.33 1.32 1.31 1.30 1.30 1.29 1.28 1.28 1.27 1.26 1.26 1.25 1.25 1.22 1.20 1.18 1.17 1.16 1.16 1.15 1.14 1.14 1.14 90 9.79 3.46 2.47 2.08 1.87 1.74 1.65 1.59 1.53 1.49 1.46 1.43 1.41 1.39 1.37 1.36 1.34 1.33 1.32 1.31 1.30 1.29 1.29 1.28 1.27 1.27 1.26 1.26 1.25 1.25 1.21 1.19 1.18 1.17 1.16 1.15 1.15 1.14 1.13 1.13 100 9.80 3.47 2.47 2.08 1.87 1.74 1.65 1.58 1.53 1.49 1.46 1.43 1.41 1.39 1.37 1.36 1.34 1.33 1.32 1.31 1.30 1.29 1.29 1.28 1.27 1.27 1.26 1.25 1.25 1.25 1.21 1.19 1.18 1.16 1.16 1.15 1.14 1.14 1.13 1.13 120 9.80 3.47 2.47 2.08 1.87 1.74 1.65 1.58 1.53 1.49 1.46 1.43 1.41 1.39 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.29 1.28 1.28 1.27 1.26 1.26 1.25 1.25 1.24 1.21 1.19 1.17 1.16 1.15 1.15 1.14 1.13 1.13 1.12 140 9.81 3.47 2.47 2.08 1.87 1.74 1.65 1.58 1.53 1.49 1.46 1.43 1.41 1.39 1.37 1.35 1.34 1.33 1.32 1.31 1.30 1.29 1.28 1.27 1.27 1.26 1.26 1.25 1.24 1.24 1.21 1.18 1.17 1.16 1.15 1.14 1.14 1.13 1.12 1.12 Tabla V v1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 120 140 150 1 161.4 18.5 10.1 7.71 6.61 5.99 5.59 5.32 5.12 4.96 4.84 4.75 4.67 4.60 4.54 4.49 4.45 4.41 4.38 4.35 4.32 4.30 4.28 4.26 4.24 4.23 4.21 4.20 4.18 4.17 4.08 4.03 4.00 3.98 3.96 3.95 3.94 3.92 3.91 3.90 Distribución F con α = 0.05 2 199.5 19.0 9.6 6.94 5.79 5.14 4.74 4.46 4.26 4.10 3.98 3.89 3.81 3.74 3.68 3.63 3.59 3.55 3.52 3.49 3.47 3.44 3.42 3.40 3.39 3.37 3.35 3.34 3.33 3.32 3.23 3.18 3.15 3.13 3.11 3.10 3.09 3.07 3.06 3.06 3 215.7 19.2 9.3 6.59 5.41 4.76 4.35 4.07 3.86 3.71 3.59 3.49 3.41 3.34 3.29 3.24 3.20 3.16 3.13 3.10 3.07 3.05 3.03 3.01 2.99 2.98 2.96 2.95 2.93 2.92 2.84 2.79 2.76 2.74 2.72 2.71 2.70 2.68 2.67 2.66 4 224.6 19.2 9.1 6.39 5.19 4.53 4.12 3.84 3.63 3.48 3.36 3.26 3.18 3.11 3.06 3.01 2.96 2.93 2.90 2.87 2.84 2.82 2.80 2.78 2.76 2.74 2.73 2.71 2.70 2.69 2.61 2.56 2.53 2.50 2.49 2.47 2.46 2.45 2.44 2.43 5 230.2 19.3 9.0 6.26 5.05 4.39 3.97 3.69 3.48 3.33 3.20 3.11 3.03 2.96 2.90 2.85 2.81 2.77 2.74 2.71 2.68 2.66 2.64 2.62 2.60 2.59 2.57 2.56 2.55 2.53 2.45 2.40 2.37 2.35 2.33 2.32 2.31 2.29 2.28 2.27 6 234.0 19.3 8.9 6.16 4.95 4.28 3.87 3.58 3.37 3.22 3.09 3.00 2.92 2.85 2.79 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.53 2.51 2.49 2.47 2.46 2.45 2.43 2.42 2.34 2.29 2.25 2.23 2.21 2.20 2.19 2.18 2.16 2.16 7 236.8 19.4 8.9 6.09 4.88 4.21 3.79 3.50 3.29 3.14 3.01 2.91 2.83 2.76 2.71 2.66 2.61 2.58 2.54 2.51 2.49 2.46 2.44 2.42 2.40 2.39 2.37 2.36 2.35 2.33 2.25 2.20 2.17 2.14 2.13 2.11 2.10 2.09 2.08 2.07 8 238.9 19.4 8.8 6.04 4.82 4.15 3.73 3.44 3.23 3.07 2.95 2.85 2.77 2.70 2.64 2.59 2.55 2.51 2.48 2.45 2.42 2.40 2.37 2.36 2.34 2.32 2.31 2.29 2.28 2.27 2.18 2.13 2.10 2.07 2.06 2.04 2.03 2.02 2.01 2.00 9 240.5 19.4 8.8 6.00 4.77 4.10 3.68 3.39 3.18 3.02 2.90 2.80 2.71 2.65 2.59 2.54 2.49 2.46 2.42 2.39 2.37 2.34 2.32 2.30 2.28 2.27 2.25 2.24 2.22 2.21 2.12 2.07 2.04 2.02 2.00 1.99 1.97 1.96 1.95 1.94 10 241.9 19.4 8.8 5.96 4.74 4.06 3.64 3.35 3.14 2.98 2.85 2.75 2.67 2.60 2.54 2.49 2.45 2.41 2.38 2.35 2.32 2.30 2.27 2.25 2.24 2.22 2.20 2.19 2.18 2.16 2.08 2.03 1.99 1.97 1.95 1.94 1.93 1.91 1.90 1.89 12 243.9 19.4 8.7 5.91 4.68 4.00 3.57 3.28 3.07 2.91 2.79 2.69 2.60 2.53 2.48 2.42 2.38 2.34 2.31 2.28 2.25 2.23 2.20 2.18 2.16 2.15 2.13 2.12 2.10 2.09 2.00 1.95 1.92 1.89 1.88 1.86 1.85 1.83 1.82 1.82 14 245.4 19.4 8.7 5.87 4.64 3.96 3.53 3.24 3.03 2.86 2.74 2.64 2.55 2.48 2.42 2.37 2.33 2.29 2.26 2.22 2.20 2.17 2.15 2.13 2.11 2.09 2.08 2.06 2.05 2.04 1.95 1.89 1.86 1.84 1.82 1.80 1.79 1.78 1.76 1.76 16 246.5 19.4 8.7 5.84 4.60 3.92 3.49 3.20 2.99 2.83 2.70 2.60 2.51 2.44 2.38 2.33 2.29 2.25 2.21 2.18 2.16 2.13 2.11 2.09 2.07 2.05 2.04 2.02 2.01 1.99 1.90 1.85 1.82 1.79 1.77 1.76 1.75 1.73 1.72 1.71 18 247.3 19.4 8.7 5.82 4.58 3.90 3.47 3.17 2.96 2.80 2.67 2.57 2.48 2.41 2.35 2.30 2.26 2.22 2.18 2.15 2.12 2.10 2.08 2.05 2.04 2.02 2.00 1.99 1.97 1.96 1.87 1.81 1.78 1.75 1.73 1.72 1.71 1.69 1.68 1.67 20 248.0 19.4 8.7 5.80 4.56 3.87 3.44 3.15 2.94 2.77 2.65 2.54 2.46 2.39 2.33 2.28 2.23 2.19 2.16 2.12 2.10 2.07 2.05 2.03 2.01 1.99 1.97 1.96 1.94 1.93 1.84 1.78 1.75 1.72 1.70 1.69 1.68 1.66 1.65 1.64 25 249.3 19.5 8.6 5.77 4.52 3.83 3.40 3.11 2.89 2.73 2.60 2.50 2.41 2.34 2.28 2.23 2.18 2.14 2.11 2.07 2.05 2.02 2.00 1.97 1.96 1.94 1.92 1.91 1.89 1.88 1.78 1.73 1.69 1.66 1.64 1.63 1.62 1.60 1.58 1.58 30 250.1 19.5 8.6 5.75 4.50 3.81 3.38 3.08 2.86 2.70 2.57 2.47 2.38 2.31 2.25 2.19 2.15 2.11 2.07 2.04 2.01 1.98 1.96 1.94 1.92 1.90 1.88 1.87 1.85 1.84 1.74 1.69 1.65 1.62 1.60 1.59 1.57 1.55 1.54 1.54 35 250.7 19.5 8.6 5.73 4.48 3.79 3.36 3.06 2.84 2.68 2.55 2.44 2.36 2.28 2.22 2.17 2.12 2.08 2.05 2.01 1.98 1.96 1.93 1.91 1.89 1.87 1.86 1.84 1.83 1.81 1.72 1.66 1.62 1.59 1.57 1.55 1.54 1.52 1.51 1.50 40 251.1 19.5 8.6 5.72 4.46 3.77 3.34 3.04 2.83 2.66 2.53 2.43 2.34 2.27 2.20 2.15 2.10 2.06 2.03 1.99 1.96 1.94 1.91 1.89 1.87 1.85 1.84 1.82 1.81 1.79 1.69 1.63 1.59 1.57 1.54 1.53 1.52 1.50 1.48 1.48 50 251.8 19.5 8.6 5.70 4.44 3.75 3.32 3.02 2.80 2.64 2.51 2.40 2.31 2.24 2.18 2.12 2.08 2.04 2.00 1.97 1.94 1.91 1.88 1.86 1.84 1.82 1.81 1.79 1.77 1.76 1.66 1.60 1.56 1.53 1.51 1.49 1.48 1.46 1.44 1.44 60 252.2 19.5 8.6 5.69 4.43 3.74 3.30 3.01 2.79 2.62 2.49 2.38 2.30 2.22 2.16 2.11 2.06 2.02 1.98 1.95 1.92 1.89 1.86 1.84 1.82 1.80 1.79 1.77 1.75 1.74 1.64 1.58 1.53 1.50 1.48 1.46 1.45 1.43 1.41 1.41 70 252.5 19.5 8.6 5.68 4.42 3.73 3.29 2.99 2.78 2.61 2.48 2.37 2.28 2.21 2.15 2.09 2.05 2.00 1.97 1.93 1.90 1.88 1.85 1.83 1.81 1.79 1.77 1.75 1.74 1.72 1.62 1.56 1.52 1.49 1.46 1.44 1.43 1.41 1.39 1.39 80 252.7 19.5 8.6 5.67 4.41 3.72 3.29 2.99 2.77 2.60 2.47 2.36 2.27 2.20 2.14 2.08 2.03 1.99 1.96 1.92 1.89 1.86 1.84 1.82 1.80 1.78 1.76 1.74 1.73 1.71 1.61 1.54 1.50 1.47 1.45 1.43 1.41 1.39 1.38 1.37 90 252.9 19.5 8.6 5.67 4.41 3.72 3.28 2.98 2.76 2.59 2.46 2.36 2.27 2.19 2.13 2.07 2.03 1.98 1.95 1.91 1.88 1.86 1.83 1.81 1.79 1.77 1.75 1.73 1.72 1.70 1.60 1.53 1.49 1.46 1.44 1.42 1.40 1.38 1.36 1.36 100 253.0 19.5 8.6 5.66 4.41 3.71 3.27 2.97 2.76 2.59 2.46 2.35 2.26 2.19 2.12 2.07 2.02 1.98 1.94 1.91 1.88 1.85 1.82 1.80 1.78 1.76 1.74 1.73 1.71 1.70 1.59 1.52 1.48 1.45 1.43 1.41 1.39 1.37 1.35 1.34 120 253.3 19.5 8.5 5.66 4.40 3.70 3.27 2.97 2.75 2.58 2.45 2.34 2.25 2.18 2.11 2.06 2.01 1.97 1.93 1.90 1.87 1.84 1.81 1.79 1.77 1.75 1.73 1.71 1.70 1.68 1.58 1.51 1.47 1.44 1.41 1.39 1.38 1.35 1.33 1.33 140 253.4 19.5 8.5 5.65 4.39 3.70 3.26 2.96 2.74 2.57 2.44 2.33 2.25 2.17 2.11 2.05 2.00 1.96 1.92 1.89 1.86 1.83 1.81 1.78 1.76 1.74 1.72 1.71 1.69 1.68 1.57 1.50 1.46 1.42 1.40 1.38 1.36 1.34 1.32 1.31 Tabla VI v1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 120 140 150 1 39.86 8.53 5.54 4.54 4.06 3.78 3.59 3.46 3.36 3.29 3.23 3.18 3.14 3.10 3.07 3.05 3.03 3.01 2.99 2.97 2.96 2.95 2.94 2.93 2.92 2.91 2.90 2.89 2.89 2.88 2.84 2.81 2.79 2.78 2.77 2.76 2.76 2.75 2.74 2.74 2 49.50 9.00 5.46 4.32 3.78 3.46 3.26 3.11 3.01 2.92 2.86 2.81 2.76 2.73 2.70 2.67 2.64 2.62 2.61 2.59 2.57 2.56 2.55 2.54 2.53 2.52 2.51 2.50 2.50 2.49 2.44 2.41 2.39 2.38 2.37 2.36 2.36 2.35 2.34 2.34 Distribución F con α = 0.10 3 53.59 9.16 5.39 4.19 3.62 3.29 3.07 2.92 2.81 2.73 2.66 2.61 2.56 2.52 2.49 2.46 2.44 2.42 2.40 2.38 2.36 2.35 2.34 2.33 2.32 2.31 2.30 2.29 2.28 2.28 2.23 2.20 2.18 2.16 2.15 2.15 2.14 2.13 2.12 2.12 4 55.83 9.24 5.34 4.11 3.52 3.18 2.96 2.81 2.69 2.61 2.54 2.48 2.43 2.39 2.36 2.33 2.31 2.29 2.27 2.25 2.23 2.22 2.21 2.19 2.18 2.17 2.17 2.16 2.15 2.14 2.09 2.06 2.04 2.03 2.02 2.01 2.00 1.99 1.99 1.98 5 57.24 9.29 5.31 4.05 3.45 3.11 2.88 2.73 2.61 2.52 2.45 2.39 2.35 2.31 2.27 2.24 2.22 2.20 2.18 2.16 2.14 2.13 2.11 2.10 2.09 2.08 2.07 2.06 2.06 2.05 2.00 1.97 1.95 1.93 1.92 1.91 1.91 1.90 1.89 1.89 6 58.20 9.33 5.28 4.01 3.40 3.05 2.83 2.67 2.55 2.46 2.39 2.33 2.28 2.24 2.21 2.18 2.15 2.13 2.11 2.09 2.08 2.06 2.05 2.04 2.02 2.01 2.00 2.00 1.99 1.98 1.93 1.90 1.87 1.86 1.85 1.84 1.83 1.82 1.82 1.81 7 58.91 9.35 5.27 3.98 3.37 3.01 2.78 2.62 2.51 2.41 2.34 2.28 2.23 2.19 2.16 2.13 2.10 2.08 2.06 2.04 2.02 2.01 1.99 1.98 1.97 1.96 1.95 1.94 1.93 1.93 1.87 1.84 1.82 1.80 1.79 1.78 1.78 1.77 1.76 1.76 8 59.44 9.37 5.25 3.95 3.34 2.98 2.75 2.59 2.47 2.38 2.30 2.24 2.20 2.15 2.12 2.09 2.06 2.04 2.02 2.00 1.98 1.97 1.95 1.94 1.93 1.92 1.91 1.90 1.89 1.88 1.83 1.80 1.77 1.76 1.75 1.74 1.73 1.72 1.71 1.71 9 59.86 9.38 5.24 3.94 3.32 2.96 2.72 2.56 2.44 2.35 2.27 2.21 2.16 2.12 2.09 2.06 2.03 2.00 1.98 1.96 1.95 1.93 1.92 1.91 1.89 1.88 1.87 1.87 1.86 1.85 1.79 1.76 1.74 1.72 1.71 1.70 1.69 1.68 1.68 1.67 10 60.19 9.39 5.23 3.92 3.30 2.94 2.70 2.54 2.42 2.32 2.25 2.19 2.14 2.10 2.06 2.03 2.00 1.98 1.96 1.94 1.92 1.90 1.89 1.88 1.87 1.86 1.85 1.84 1.83 1.82 1.76 1.73 1.71 1.69 1.68 1.67 1.66 1.65 1.64 1.64 12 60.71 9.41 5.22 3.90 3.27 2.90 2.67 2.50 2.38 2.28 2.21 2.15 2.10 2.05 2.02 1.99 1.96 1.93 1.91 1.89 1.87 1.86 1.84 1.83 1.82 1.81 1.80 1.79 1.78 1.77 1.71 1.68 1.66 1.64 1.63 1.62 1.61 1.60 1.59 1.59 14 61.07 9.42 5.20 3.88 3.25 2.88 2.64 2.48 2.35 2.26 2.18 2.12 2.07 2.02 1.99 1.95 1.93 1.90 1.88 1.86 1.84 1.83 1.81 1.80 1.79 1.77 1.76 1.75 1.75 1.74 1.68 1.64 1.62 1.60 1.59 1.58 1.57 1.56 1.55 1.55 16 61.35 9.43 5.20 3.86 3.23 2.86 2.62 2.45 2.33 2.23 2.16 2.09 2.04 2.00 1.96 1.93 1.90 1.87 1.85 1.83 1.81 1.80 1.78 1.77 1.76 1.75 1.74 1.73 1.72 1.71 1.65 1.61 1.59 1.57 1.56 1.55 1.54 1.53 1.52 1.52 18 61.57 9.44 5.19 3.85 3.22 2.85 2.61 2.44 2.31 2.22 2.14 2.08 2.02 1.98 1.94 1.91 1.88 1.85 1.83 1.81 1.79 1.78 1.76 1.75 1.74 1.72 1.71 1.70 1.69 1.69 1.62 1.59 1.56 1.55 1.53 1.52 1.52 1.50 1.50 1.49 20 61.74 9.44 5.18 3.84 3.21 2.84 2.59 2.42 2.30 2.20 2.12 2.06 2.01 1.96 1.92 1.89 1.86 1.84 1.81 1.79 1.78 1.76 1.74 1.73 1.72 1.71 1.70 1.69 1.68 1.67 1.61 1.57 1.54 1.53 1.51 1.50 1.49 1.48 1.47 1.47 25 62.05 9.45 5.17 3.83 3.19 2.81 2.57 2.40 2.27 2.17 2.10 2.03 1.98 1.93 1.89 1.86 1.83 1.80 1.78 1.76 1.74 1.73 1.71 1.70 1.68 1.67 1.66 1.65 1.64 1.63 1.57 1.53 1.50 1.49 1.47 1.46 1.45 1.44 1.43 1.43 30 62.26 9.46 5.17 3.82 3.17 2.80 2.56 2.38 2.25 2.16 2.08 2.01 1.96 1.91 1.87 1.84 1.81 1.78 1.76 1.74 1.72 1.70 1.69 1.67 1.66 1.65 1.64 1.63 1.62 1.61 1.54 1.50 1.48 1.46 1.44 1.43 1.42 1.41 1.40 1.40 35 62.42 9.46 5.16 3.81 3.16 2.79 2.54 2.37 2.24 2.14 2.06 2.00 1.94 1.90 1.86 1.82 1.79 1.77 1.74 1.72 1.70 1.68 1.67 1.65 1.64 1.63 1.62 1.61 1.60 1.59 1.52 1.48 1.45 1.43 1.42 1.41 1.40 1.39 1.38 1.37 40 62.53 9.47 5.16 3.80 3.16 2.78 2.54 2.36 2.23 2.13 2.05 1.99 1.93 1.89 1.85 1.81 1.78 1.75 1.73 1.71 1.69 1.67 1.66 1.64 1.63 1.61 1.60 1.59 1.58 1.57 1.51 1.46 1.44 1.42 1.40 1.39 1.38 1.37 1.36 1.35 50 62.69 9.47 5.15 3.80 3.15 2.77 2.52 2.35 2.22 2.12 2.04 1.97 1.92 1.87 1.83 1.79 1.76 1.74 1.71 1.69 1.67 1.65 1.64 1.62 1.61 1.59 1.58 1.57 1.56 1.55 1.48 1.44 1.41 1.39 1.38 1.36 1.35 1.34 1.33 1.33 60 62.79 9.47 5.15 3.79 3.14 2.76 2.51 2.34 2.21 2.11 2.03 1.96 1.90 1.86 1.82 1.78 1.75 1.72 1.70 1.68 1.66 1.64 1.62 1.61 1.59 1.58 1.57 1.56 1.55 1.54 1.47 1.42 1.40 1.37 1.36 1.35 1.34 1.32 1.31 1.30 70 62.87 9.48 5.15 3.79 3.14 2.76 2.51 2.33 2.20 2.10 2.02 1.95 1.90 1.85 1.81 1.77 1.74 1.71 1.69 1.67 1.65 1.63 1.61 1.60 1.58 1.57 1.56 1.55 1.54 1.53 1.46 1.41 1.38 1.36 1.34 1.33 1.32 1.31 1.29 1.29 80 62.93 9.48 5.15 3.78 3.13 2.75 2.50 2.33 2.20 2.09 2.01 1.95 1.89 1.84 1.80 1.77 1.74 1.71 1.68 1.66 1.64 1.62 1.61 1.59 1.58 1.56 1.55 1.54 1.53 1.52 1.45 1.40 1.37 1.35 1.33 1.32 1.31 1.29 1.28 1.28 90 62.97 9.48 5.15 3.78 3.13 2.75 2.50 2.32 2.19 2.09 2.01 1.94 1.89 1.84 1.80 1.76 1.73 1.70 1.68 1.65 1.63 1.62 1.60 1.58 1.57 1.56 1.54 1.53 1.52 1.51 1.44 1.39 1.36 1.34 1.33 1.31 1.30 1.28 1.27 1.27 100 63.01 9.48 5.14 3.78 3.13 2.75 2.50 2.32 2.19 2.09 2.01 1.94 1.88 1.83 1.79 1.76 1.73 1.70 1.67 1.65 1.63 1.61 1.59 1.58 1.56 1.55 1.54 1.53 1.52 1.51 1.43 1.39 1.36 1.34 1.32 1.30 1.29 1.28 1.26 1.26 120 63.06 9.48 5.14 3.78 3.12 2.74 2.49 2.32 2.18 2.08 2.00 1.93 1.88 1.83 1.79 1.75 1.72 1.69 1.67 1.64 1.62 1.60 1.59 1.57 1.56 1.54 1.53 1.52 1.51 1.50 1.42 1.38 1.35 1.32 1.31 1.29 1.28 1.26 1.25 1.25 140 63.10 9.48 5.14 3.77 3.12 2.74 2.49 2.31 2.18 2.08 2.00 1.93 1.87 1.82 1.78 1.75 1.71 1.69 1.66 1.64 1.62 1.60 1.58 1.57 1.55 1.54 1.53 1.51 1.50 1.49 1.42 1.37 1.34 1.32 1.30 1.28 1.27 1.26 1.24 1.24 Tabla VII Distribución F con α= 0.025 v1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 120 140 150 1 648 38.5 17.4 12.2 10.0 8.81 8.07 7.57 7.21 6.94 6.72 6.55 6.41 6.30 6.20 6.12 6.04 5.98 5.92 5.87 5.83 5.79 5.75 5.72 5.69 5.66 5.63 5.61 5.59 5.57 5.42 5.34 5.29 5.25 5.22 5.20 5.18 5.15 5.13 5.13 2 799 39.0 16.0 10.6 8.4 7.26 6.54 6.06 5.71 5.46 5.26 5.10 4.97 4.86 4.77 4.69 4.62 4.56 4.51 4.46 4.42 4.38 4.35 4.32 4.29 4.27 4.24 4.22 4.20 4.18 4.05 3.97 3.93 3.89 3.86 3.84 3.83 3.80 3.79 3.78 3 864 39.2 15.4 10.0 7.8 6.60 5.89 5.42 5.08 4.83 4.63 4.47 4.35 4.24 4.15 4.08 4.01 3.95 3.90 3.86 3.82 3.78 3.75 3.72 3.69 3.67 3.65 3.63 3.61 3.59 3.46 3.39 3.34 3.31 3.28 3.26 3.25 3.23 3.21 3.20 4 900 39.2 15.1 9.6 7.4 6.23 5.52 5.05 4.72 4.47 4.28 4.12 4.00 3.89 3.80 3.73 3.66 3.61 3.56 3.51 3.48 3.44 3.41 3.38 3.35 3.33 3.31 3.29 3.27 3.25 3.13 3.05 3.01 2.97 2.95 2.93 2.92 2.89 2.88 2.87 5 922 39.3 14.9 9.4 7.1 5.99 5.29 4.82 4.48 4.24 4.04 3.89 3.77 3.66 3.58 3.50 3.44 3.38 3.33 3.29 3.25 3.22 3.18 3.15 3.13 3.10 3.08 3.06 3.04 3.03 2.90 2.83 2.79 2.75 2.73 2.71 2.70 2.67 2.66 2.65 6 937 39.3 14.7 9.2 7.0 5.82 5.12 4.65 4.32 4.07 3.88 3.73 3.60 3.50 3.41 3.34 3.28 3.22 3.17 3.13 3.09 3.05 3.02 2.99 2.97 2.94 2.92 2.90 2.88 2.87 2.74 2.67 2.63 2.59 2.57 2.55 2.54 2.52 2.50 2.49 7 948 39.4 14.6 9.1 6.9 5.70 4.99 4.53 4.20 3.95 3.76 3.61 3.48 3.38 3.29 3.22 3.16 3.10 3.05 3.01 2.97 2.93 2.90 2.87 2.85 2.82 2.80 2.78 2.76 2.75 2.62 2.55 2.51 2.47 2.45 2.43 2.42 2.39 2.38 2.37 8 957 39.4 14.5 9.0 6.8 5.60 4.90 4.43 4.10 3.85 3.66 3.51 3.39 3.29 3.20 3.12 3.06 3.01 2.96 2.91 2.87 2.84 2.81 2.78 2.75 2.73 2.71 2.69 2.67 2.65 2.53 2.46 2.41 2.38 2.35 2.34 2.32 2.30 2.28 2.28 9 963 39.4 14.5 8.9 6.7 5.52 4.82 4.36 4.03 3.78 3.59 3.44 3.31 3.21 3.12 3.05 2.98 2.93 2.88 2.84 2.80 2.76 2.73 2.70 2.68 2.65 2.63 2.61 2.59 2.57 2.45 2.38 2.33 2.30 2.28 2.26 2.24 2.22 2.21 2.20 10 969 39.4 14.4 8.8 6.6 5.46 4.76 4.30 3.96 3.72 3.53 3.37 3.25 3.15 3.06 2.99 2.92 2.87 2.82 2.77 2.73 2.70 2.67 2.64 2.61 2.59 2.57 2.55 2.53 2.51 2.39 2.32 2.27 2.24 2.21 2.19 2.18 2.16 2.14 2.13 12 977 39.4 14.3 8.8 6.5 5.37 4.67 4.20 3.87 3.62 3.43 3.28 3.15 3.05 2.96 2.89 2.82 2.77 2.72 2.68 2.64 2.60 2.57 2.54 2.51 2.49 2.47 2.45 2.43 2.41 2.29 2.22 2.17 2.14 2.11 2.09 2.08 2.05 2.04 2.03 14 983 39.4 14.3 8.7 6.5 5.30 4.60 4.13 3.80 3.55 3.36 3.21 3.08 2.98 2.89 2.82 2.75 2.70 2.65 2.60 2.56 2.53 2.50 2.47 2.44 2.42 2.39 2.37 2.36 2.34 2.21 2.14 2.09 2.06 2.03 2.02 2.00 1.98 1.96 1.95 16 987 39.4 14.2 8.6 6.4 5.24 4.54 4.08 3.74 3.50 3.30 3.15 3.03 2.92 2.84 2.76 2.70 2.64 2.59 2.55 2.51 2.47 2.44 2.41 2.38 2.36 2.34 2.32 2.30 2.28 2.15 2.08 2.03 2.00 1.97 1.95 1.94 1.92 1.90 1.89 18 990 39.4 14.2 8.6 6.4 5.20 4.50 4.03 3.70 3.45 3.26 3.11 2.98 2.88 2.79 2.72 2.65 2.60 2.55 2.50 2.46 2.43 2.39 2.36 2.34 2.31 2.29 2.27 2.25 2.23 2.11 2.03 1.98 1.95 1.92 1.91 1.89 1.87 1.85 1.84 20 993 39.4 14.2 8.6 6.3 5.17 4.47 4.00 3.67 3.42 3.23 3.07 2.95 2.84 2.76 2.68 2.62 2.56 2.51 2.46 2.42 2.39 2.36 2.33 2.30 2.28 2.25 2.23 2.21 2.20 2.07 1.99 1.94 1.91 1.88 1.86 1.85 1.82 1.81 1.80 25 998 39.5 14.1 8.5 6.3 5.11 4.40 3.94 3.60 3.35 3.16 3.01 2.88 2.78 2.69 2.61 2.55 2.49 2.44 2.40 2.36 2.32 2.29 2.26 2.23 2.21 2.18 2.16 2.14 2.12 1.99 1.92 1.87 1.83 1.81 1.79 1.77 1.75 1.73 1.72 30 1001 39.5 14.1 8.5 6.2 5.07 4.36 3.89 3.56 3.31 3.12 2.96 2.84 2.73 2.64 2.57 2.50 2.44 2.39 2.35 2.31 2.27 2.24 2.21 2.18 2.16 2.13 2.11 2.09 2.07 1.94 1.87 1.82 1.78 1.75 1.73 1.71 1.69 1.67 1.67 35 1004 39.5 14.1 8.4 6.2 5.04 4.33 3.86 3.53 3.28 3.09 2.93 2.80 2.70 2.61 2.53 2.47 2.41 2.36 2.31 2.27 2.24 2.20 2.17 2.15 2.12 2.10 2.08 2.06 2.04 1.90 1.83 1.78 1.74 1.71 1.69 1.67 1.65 1.63 1.62 40 1006 39.5 14.0 8.4 6.2 5.01 4.31 3.84 3.51 3.26 3.06 2.91 2.78 2.67 2.59 2.51 2.44 2.38 2.33 2.29 2.25 2.21 2.18 2.15 2.12 2.09 2.07 2.05 2.03 2.01 1.88 1.80 1.74 1.71 1.68 1.66 1.64 1.61 1.60 1.59 50 1008 39.5 14.0 8.4 6.1 4.98 4.28 3.81 3.47 3.22 3.03 2.87 2.74 2.64 2.55 2.47 2.41 2.35 2.30 2.25 2.21 2.17 2.14 2.11 2.08 2.05 2.03 2.01 1.99 1.97 1.83 1.75 1.70 1.66 1.63 1.61 1.59 1.56 1.55 1.54 60 1010 39.5 14.0 8.4 6.1 4.96 4.25 3.78 3.45 3.20 3.00 2.85 2.72 2.61 2.52 2.45 2.38 2.32 2.27 2.22 2.18 2.14 2.11 2.08 2.05 2.03 2.00 1.98 1.96 1.94 1.80 1.72 1.67 1.63 1.60 1.58 1.56 1.53 1.51 1.50 70 1011 39.5 14.0 8.3 6.1 4.94 4.24 3.77 3.43 3.18 2.99 2.83 2.70 2.60 2.51 2.43 2.36 2.30 2.25 2.20 2.16 2.13 2.09 2.06 2.03 2.01 1.98 1.96 1.94 1.92 1.78 1.70 1.64 1.60 1.57 1.55 1.53 1.50 1.48 1.48 80 1012 39.5 14.0 8.3 6.1 4.93 4.23 3.76 3.42 3.17 2.97 2.82 2.69 2.58 2.49 2.42 2.35 2.29 2.24 2.19 2.15 2.11 2.08 2.05 2.02 1.99 1.97 1.94 1.92 1.90 1.76 1.68 1.63 1.59 1.55 1.53 1.51 1.48 1.46 1.45 90 1013 39.5 14.0 8.3 6.1 4.92 4.22 3.75 3.41 3.16 2.96 2.81 2.68 2.57 2.48 2.40 2.34 2.28 2.23 2.18 2.14 2.10 2.07 2.03 2.01 1.98 1.95 1.93 1.91 1.89 1.75 1.67 1.61 1.57 1.54 1.52 1.50 1.47 1.45 1.44 100 1013 39.5 14.0 8.3 6.1 4.92 4.21 3.74 3.40 3.15 2.96 2.80 2.67 2.56 2.47 2.40 2.33 2.27 2.22 2.17 2.13 2.09 2.06 2.02 2.00 1.97 1.94 1.92 1.90 1.88 1.74 1.66 1.60 1.56 1.53 1.50 1.48 1.45 1.43 1.42 120 1014 39.5 13.9 8.3 6.1 4.90 4.20 3.73 3.39 3.14 2.94 2.79 2.66 2.55 2.46 2.38 2.32 2.26 2.20 2.16 2.11 2.08 2.04 2.01 1.98 1.95 1.93 1.91 1.89 1.87 1.72 1.64 1.58 1.54 1.51 1.48 1.46 1.43 1.41 1.40 140 1015 39.49 13.94 8.30 6.06 4.90 4.19 3.72 3.38 3.13 2.94 2.78 2.65 2.54 2.45 2.37 2.31 2.25 2.19 2.15 2.10 2.07 2.03 2.00 1.97 1.94 1.92 1.90 1.88 1.86 1.71 1.63 1.57 1.53 1.49 1.47 1.45 1.42 1.39 1.39 Tabla VIII Distribución F con α=0.01 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 50 60 70 80 90 100 120 140 150 1 4052 98.5 34.1 21.2 16.3 13.75 12.25 11.26 10.56 10.04 9.65 9.33 9.07 8.86 8.68 8.53 8.40 8.29 8.18 8.10 8.02 7.95 7.88 7.82 7.77 7.72 7.68 7.64 7.60 7.56 7.31 7.17 7.08 7.01 6.96 6.93 6.90 6.85 6.82 6.81 2 4999 99.0 30.8 18.0 13.3 10.92 9.55 8.65 8.02 7.56 7.21 6.93 6.70 6.51 6.36 6.23 6.11 6.01 5.93 5.85 5.78 5.72 5.66 5.61 5.57 5.53 5.49 5.45 5.42 5.39 5.18 5.06 4.98 4.92 4.88 4.85 4.82 4.79 4.76 4.75 3 5403 99.2 29.5 16.7 12.1 9.78 8.45 7.59 6.99 6.55 6.22 5.95 5.74 5.56 5.42 5.29 5.18 5.09 5.01 4.94 4.87 4.82 4.76 4.72 4.68 4.64 4.60 4.57 4.54 4.51 4.31 4.20 4.13 4.07 4.04 4.01 3.98 3.95 3.92 3.91 4 5625 99.2 28.7 16.0 11.4 9.15 7.85 7.01 6.42 5.99 5.67 5.41 5.21 5.04 4.89 4.77 4.67 4.58 4.50 4.43 4.37 4.31 4.26 4.22 4.18 4.14 4.11 4.07 4.04 4.02 3.83 3.72 3.65 3.60 3.56 3.53 3.51 3.48 3.46 3.45 5 5764 99.3 28.2 15.5 11.0 8.75 7.46 6.63 6.06 5.64 5.32 5.06 4.86 4.69 4.56 4.44 4.34 4.25 4.17 4.10 4.04 3.99 3.94 3.90 3.85 3.82 3.78 3.75 3.73 3.70 3.51 3.41 3.34 3.29 3.26 3.23 3.21 3.17 3.15 3.14 6 5859 99.3 27.9 15.2 10.7 8.47 7.19 6.37 5.80 5.39 5.07 4.82 4.62 4.46 4.32 4.20 4.10 4.01 3.94 3.87 3.81 3.76 3.71 3.67 3.63 3.59 3.56 3.53 3.50 3.47 3.29 3.19 3.12 3.07 3.04 3.01 2.99 2.96 2.93 2.92 7 5928 99.4 27.7 15.0 10.5 8.26 6.99 6.18 5.61 5.20 4.89 4.64 4.44 4.28 4.14 4.03 3.93 3.84 3.77 3.70 3.64 3.59 3.54 3.50 3.46 3.42 3.39 3.36 3.33 3.30 3.12 3.02 2.95 2.91 2.87 2.84 2.82 2.79 2.77 2.76 8 5981 99.4 27.5 14.8 10.3 8.10 6.84 6.03 5.47 5.06 4.74 4.50 4.30 4.14 4.00 3.89 3.79 3.71 3.63 3.56 3.51 3.45 3.41 3.36 3.32 3.29 3.26 3.23 3.20 3.17 2.99 2.89 2.82 2.78 2.74 2.72 2.69 2.66 2.64 2.63 9 6022 99.4 27.3 14.7 10.2 7.98 6.72 5.91 5.35 4.94 4.63 4.39 4.19 4.03 3.89 3.78 3.68 3.60 3.52 3.46 3.40 3.35 3.30 3.26 3.22 3.18 3.15 3.12 3.09 3.07 2.89 2.78 2.72 2.67 2.64 2.61 2.59 2.56 2.54 2.53 10 6056 99.4 27.2 14.5 10.1 7.87 6.62 5.81 5.26 4.85 4.54 4.30 4.10 3.94 3.80 3.69 3.59 3.51 3.43 3.37 3.31 3.26 3.21 3.17 3.13 3.09 3.06 3.03 3.00 2.98 2.80 2.70 2.63 2.59 2.55 2.52 2.50 2.47 2.45 2.44 12 6106 99.4 27.1 14.4 9.9 7.72 6.47 5.67 5.11 4.71 4.40 4.16 3.96 3.80 3.67 3.55 3.46 3.37 3.30 3.23 3.17 3.12 3.07 3.03 2.99 2.96 2.93 2.90 2.87 2.84 2.66 2.56 2.50 2.45 2.42 2.39 2.37 2.34 2.31 2.31 14 6143 99.4 26.9 14.2 9.8 7.60 6.36 5.56 5.01 4.60 4.29 4.05 3.86 3.70 3.56 3.45 3.35 3.27 3.19 3.13 3.07 3.02 2.97 2.93 2.89 2.86 2.82 2.79 2.77 2.74 2.56 2.46 2.39 2.35 2.31 2.29 2.27 2.23 2.21 2.20 16 6170 99.4 26.8 14.2 9.7 7.52 6.28 5.48 4.92 4.52 4.21 3.97 3.78 3.62 3.49 3.37 3.27 3.19 3.12 3.05 2.99 2.94 2.89 2.85 2.81 2.78 2.75 2.72 2.69 2.66 2.48 2.38 2.31 2.27 2.23 2.21 2.19 2.15 2.13 2.12 18 6192 99.4 26.8 14.1 9.6 7.45 6.21 5.41 4.86 4.46 4.15 3.91 3.72 3.56 3.42 3.31 3.21 3.13 3.05 2.99 2.93 2.88 2.83 2.79 2.75 2.72 2.68 2.65 2.63 2.60 2.42 2.32 2.25 2.20 2.17 2.14 2.12 2.09 2.07 2.06 20 6209 99.4 26.7 14.0 9.6 7.40 6.16 5.36 4.81 4.41 4.10 3.86 3.66 3.51 3.37 3.26 3.16 3.08 3.00 2.94 2.88 2.83 2.78 2.74 2.70 2.66 2.63 2.60 2.57 2.55 2.37 2.27 2.20 2.15 2.12 2.09 2.07 2.03 2.01 2.00 25 6240 99.5 26.6 13.9 9.4 7.30 6.06 5.26 4.71 4.31 4.01 3.76 3.57 3.41 3.28 3.16 3.07 2.98 2.91 2.84 2.79 2.73 2.69 2.64 2.60 2.57 2.54 2.51 2.48 2.45 2.27 2.17 2.10 2.05 2.01 1.99 1.97 1.93 1.91 1.90 30 6261 99.5 26.5 13.8 9.4 7.23 5.99 5.20 4.65 4.25 3.94 3.70 3.51 3.35 3.21 3.10 3.00 2.92 2.84 2.78 2.72 2.67 2.62 2.58 2.54 2.50 2.47 2.44 2.41 2.39 2.20 2.10 2.03 1.98 1.94 1.92 1.89 1.86 1.84 1.83 35 6276 99.5 26.5 13.8 9.3 7.18 5.94 5.15 4.60 4.20 3.89 3.65 3.46 3.30 3.17 3.05 2.96 2.87 2.80 2.73 2.67 2.62 2.57 2.53 2.49 2.45 2.42 2.39 2.36 2.34 2.15 2.05 1.98 1.93 1.89 1.86 1.84 1.81 1.78 1.77 40 6287 99.5 26.4 13.7 9.3 7.14 5.91 5.12 4.57 4.17 3.86 3.62 3.43 3.27 3.13 3.02 2.92 2.84 2.76 2.69 2.64 2.58 2.54 2.49 2.45 2.42 2.38 2.35 2.33 2.30 2.11 2.01 1.94 1.89 1.85 1.82 1.80 1.76 1.74 1.73 50 6303 99.5 26.4 13.7 9.2 7.09 5.86 5.07 4.52 4.12 3.81 3.57 3.38 3.22 3.08 2.97 2.87 2.78 2.71 2.64 2.58 2.53 2.48 2.44 2.40 2.36 2.33 2.30 2.27 2.25 2.06 1.95 1.88 1.83 1.79 1.76 1.74 1.70 1.67 1.66 60 6313 99.5 26.3 13.7 9.2 7.06 5.82 5.03 4.48 4.08 3.78 3.54 3.34 3.18 3.05 2.93 2.83 2.75 2.67 2.61 2.55 2.50 2.45 2.40 2.36 2.33 2.29 2.26 2.23 2.21 2.02 1.91 1.84 1.78 1.75 1.72 1.69 1.66 1.63 1.62 70 6321 99.5 26.3 13.6 9.2 7.03 5.80 5.01 4.46 4.06 3.75 3.51 3.32 3.16 3.02 2.91 2.81 2.72 2.65 2.58 2.52 2.47 2.42 2.38 2.34 2.30 2.27 2.24 2.21 2.18 1.99 1.88 1.81 1.75 1.71 1.68 1.66 1.62 1.60 1.59 80 6326 99.5 26.3 13.6 9.2 7.01 5.78 4.99 4.44 4.04 3.73 3.49 3.30 3.14 3.00 2.89 2.79 2.70 2.63 2.56 2.50 2.45 2.40 2.36 2.32 2.28 2.25 2.22 2.19 2.16 1.97 1.86 1.78 1.73 1.69 1.66 1.63 1.60 1.57 1.56 90 6331 99.5 26.3 13.6 9.1 7.00 5.77 4.97 4.43 4.03 3.72 3.48 3.28 3.12 2.99 2.87 2.78 2.69 2.61 2.55 2.49 2.43 2.39 2.34 2.30 2.26 2.23 2.20 2.17 2.14 1.95 1.84 1.76 1.71 1.67 1.64 1.61 1.58 1.55 1.54 100 6334 99.5 26.2 13.6 9.1 6.99 5.75 4.96 4.41 4.01 3.71 3.47 3.27 3.11 2.98 2.86 2.76 2.68 2.60 2.54 2.48 2.42 2.37 2.33 2.29 2.25 2.22 2.19 2.16 2.13 1.94 1.82 1.75 1.70 1.65 1.62 1.60 1.56 1.53 1.52 120 6339 99.5 26.2 13.6 9.1 6.97 5.74 4.95 4.40 4.00 3.69 3.45 3.25 3.09 2.96 2.84 2.75 2.66 2.58 2.52 2.46 2.40 2.35 2.31 2.27 2.23 2.20 2.17 2.14 2.11 1.92 1.80 1.73 1.67 1.63 1.60 1.57 1.53 1.50 1.49 140 6343 99.5 26.2 13.5 9.10 6.96 5.72 4.93 4.39 3.98 3.68 3.44 3.24 3.08 2.95 2.83 2.73 2.65 2.57 2.50 2.44 2.39 2.34 2.30 2.26 2.22 2.18 2.15 2.12 2.10 1.90 1.79 1.71 1.65 1.61 1.58 1.55 1.51 1.48 1.47