ANÁLISIS DE LA VARIANZA

Anuncio
UNIDAD III:INFERENCIA ESTADÍSTICA
ANÁLISIS DE LA VARIANZA
TEMA
14.1.INTRODUCCIÓN
14.2.NOTACIÓN EN EL ADEVA Y MATRIZ DE DATOS
14.3.SUPUESTOS DEL ADEVA
14.4.PARTICIÓN DE LA SUMA DE CUADRADOS
14.5.PRUEBAS DE F EN EL ADEVA
14.5.1. Estadígrafo de prueba.
14.5.2. Distribución muestral del estadígrafo de prueba.
14.5.3. Valor crítico del estadígrafo de prueba.
14.6.TABLA DE ADEVA Y FÓRMULAS DE CÁLCULO
14.7.MODELO ADEVA: CASO DE CLASIFICACIÓN ÚNICA
14.8.TRANSFORMACIONES
14.9.ANÁLISIS DE RESIDUOS
14.10.ANÁLISIS DESPUÉS DEL ADEVA
14.10.1. Comparaciones múltiples de medias
14.10.2. Prueba de tukey
14.10.3. Prueba de duncan
14.1. INTRODUCCIÓN
Las pruebas de hipótesis consideradas hasta ahora, primeramente se refirieron a problemas
donde los datos eran proporciones o frecuencias (análisis inferencial de datos categóricos) y, luego se
pasó a problemas relacionados con la media o la varianza de poblaciones donde se vieron diferentes
casos:
a) para una muestra, pruebas referidas a una media poblacional (H0: µ = µo) o bien a una
varianza poblacional (H0: σ2 = σ2o), que requirieron aplicar la distribución en el muestreo de
un estadígrafo Z o T, o bien (n-1)S2/σ 2 respectivamente y,
b) para dos muestras, referidas a dos medias poblacionales (H0: µ 1= µ2 ) o bien a dos varianza
poblacionales (H0: σ21 = σ22), que también requirieron aplicar la distribución en el muestreo
de un estadígrafo Z o T, o bien χ2, respectivamente.
A menudo interesa la comparación de más de dos poblaciones, por ejemplo esto ocurre cuando
se quiere comparar el rendimiento de tres líneas de producción industrial, los resultados de cinco
analistas o bien cinco métodos de determinación, el efecto de varios insecticidas en el control de
pulgones, el rendimiento de veinte híbridos de maíz, etc. Con las herramientas disponibles hasta ahora,
se debería proceder a efectuar todas las comparaciones posibles de las poblaciones tomadas de a
pares, pero este procedimiento implicaría comparaciones que no son independientes entre sí, lo cual
afectaría el nivel de significación de la prueba (en lugar del α fijado se estaría evaluando a otro nivel).
Así para el caso de comparar cinco medias poblacionales, si se tuvieran datos de cinco muestras
pequeñas, se recurriría a una serie de diez pruebas de t para probar lo siguiente:
Ho1 : µ1 = µ2
Ho 2 : µ1 = µ3
Ho 3 : µ1 = µ4
Ho4 : µ1 = µ5
Ho5 : µ2 = µ3
Ho6 : µ2 = µ4
Ho7 : µ2 = µ5
Ho8 : µ3 = µ4
Ho9 : µ3 = µ5 Ho10 : µ4 = µ5
Es claro que tales pruebas no son independientes entre sí, condición que impacta en la
probabilidad del error tipo I global de modo que en realidad, cada prueba queda asociada a un valor
αi que es mayor al α fijado, tanto más cuanto mayor sea el número de pruebas de la serie. Por ejemplo,
si se fija un α=0,05, los valores αi cuando se comparan 3, 4 ó 5 medias son igual, en correspondencia, a
0,14; 0,26 y 0,40
El análisis de la varianza, o resumidamente ADEVA o bien ANOVA (del inglés, analysis of
variance), es una técnica que permite investigar simultáneamente k ≥ 3 medias poblaciones, mediante
pruebas de hipótesis que toman la siguiente forma:
H0: µ1 = µ2 = … µ j=….=µ k ; j = 1, 2, …, k
H1: al menos una media es diferente
Es decir, se prueba la hipótesis nula de que “todas las medias son iguales”, contrastada con la
alternativa que postula “al menos una media es diferente”
Los datos a los que se aplica el análisis de la varianza, pueden provenir de estudios
observacionales o bien de estudios experimentales. En el primer caso, los datos son las mediciones
que corresponden a muestras aleatorias tomadas de las poblaciones de interés sin modificar el estado
de la naturaleza; en el segundo, los datos son las mediciones hechas en unidades experimentales que
233
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
manifiestan la respuesta a cierto estímulo o tratamiento. Este segundo enfoque, se profundizará al
desarrollar el tema diseño y análisis de experimentos.
El problema más sencillo de ADEVA es el que trataremos en esta oportunidad. Es el
ADEVA de clasificación única y modelo de efectos fijos.
14.2. NOTACIÓN EN EL ADEVA Y MATRIZ DE DATOS
En el análisis de la varianza se acostumbra a utilizar la letra Y para representar la variable
aleatoria, además se utilizan dos subíndices (i, j) de modo que el primero indica a cual unidad de la
muestra corresponde la posible medida y el segundo, a que población pertenece la muestra
considerada. De este modo se tiene
Yij : variable aleatoria que representa la i-ésima medición tomada en la j-ésima muestra
yij : el valor observado en la i-ésima unidad de la j-ésima muestra
La información completa para una problemática dada puede presentarse en una tabla rectangular como
la siguiente:
Tabla 14.1. Tabla matricial de datos para el ADEVA (n puede o no ser constante).
MUESTRAS (GRUPOS)
Unidades
k
1
2
...
j
...
1
...
...
2
...
...
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
I
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
n
...
...
Total •
•
•
…
•
…
•
•
Medias •
•
…
•
…
•
...
...
.
Total general
••
Media general
••
En las columnas aparece el único criterio para la clasificación de los datos, la muestra a que
pertenecen y, en las filas se indican las unidades de análisis medidas, siendo yij el término genérico que
representa el valor observado de la variable en la i-ésima unidad de análisis que pertenece a la j-esima
muestra. En la tabla, en relación a los totales aparece la notación punto
a) Total de columna, y.j : el punto reemplazando el primer subíndice, indica que se ha hecho una suma
a través de todos los posibles valores de i o sea, suma a través de todas las filas (desde i=1
hasta n).
b) Total general, y.. : el doble punto indica la suma a través de todas las filas (i=1,2,…,n) y de todas
las columnas (j=1,2,…,k) o sea, suma de los nk datos.
14.3. SUPUESTOS DEL ADEVA
En las pruebas de hipótesis para una media y dos medias, se presentaron supuestos que debían
ser cumplidos para que su aplicación fuera válida. Por ejemplo, en el caso de querer probar una
hipótesis del tipo Ho : µ = µo , a partir de la evidencia proporcionada por una muestra pequeña, se
supuso que X− N(x; µ,σ) y, también que la muestra era aleatoria. En el ADEVA los supuestos son:
1. Supuesto de la normalidad , Yij ∼ N: Debe suponerse que los efectos debidos al azar, así como los
factores no comparados, están distribuidos en forma normal. Afortunadamente, la prueba del análisis de
varianza es “robusta” en relación a las desviaciones de la distribución normal (así como lo es la prueba
t). Esto significa que, en tanto las distribuciones de Yij no sean extremadamente diferentes de la
distribución normal, el nivel de significación de la prueba de hipótesis no resulta afectado en gran
234
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
medida, lo que acontece sobre todo cuando se tienen muestras grandes. En la práctica suele utilizarse
una gráfica de probabilidad normal para comprobar el cumplimiento de este supuesto aplicada al
conjunto nk de datos (Gráfico 14.1).
∼ N(y; µj, σ): Esta suposición, afirma que la
2. Homogeneidad de la varianza (u homoscedasticidad), Y∼
varianza poblacional de las k poblaciones es igual ( = = = ⋯ = = )y además es igual a
la varianza debido al error aleatorio = = = ⋯ = = ). Se necesita esta suposición con el
fin de combinar o agrupar las varianzas dentro de los grupos en una sola fuente de variación “dentro del
grupo (SCE). Si hay tamaños de muestras iguales en cada grupo, las inferencias basadas en la
distribución F quizás no resulten seriamente afectadas por las varianzas desiguales, de otro modo, las
varianzas desiguales de un grupo a otro pueden tener efectos serios sobre la obtención de inferencias
hechas del análisis de varianza. Por lo tanto, desde el punto de vista de la sencillez de cálculo de la
robustez y potencia, siempre que sea posible deben existir tamaños de muestra iguales en todos los
grupos. En la práctica, se puede analizar el cumplimiento del supuesto a través de un análisis
exploratorio gráfico o analítico (la mayor desviación típica sj resulta más de dos veces mayor a la menor
desviación típica) o bien mediante algún procedimiento formal (Pruebas inferenciales de homogeneidad
de varianzas).
3. Independencia. Debe suponerse independencia entre todas las observaciones. (Recuérdese que la
independencia significa que el resultado de una observación experimental no afecta el resultado de
cualquier otra observación). Esta suposición, se refiere a la diferencia de cada valor yij con respecto a la
media de su propio grupo . Por lo general, la toma de muestras al azar (estudios observacionales) o la
asignación de los tratamientos (estudios experimentales) en forma aleatoria, asegura la independencia
entre los errores aleatorios de las observaciones. Con frecuencia no se cumple esta suposición, es decir,
los errores están correlacionados, cuando los datos se recopilan a lo largo de un periodo, porque las
observaciones hechas en puntos cercanos en el tiempo con frecuencia resultan más parecidas que las
obtenidas en tiempos muy diferentes. Considérese por ejemplo la temperatura registrada cada día
durante un mes. La temperatura de cualquier día determinado es probable que se parezca a la del día
anterior, pero menos probable que se aproxime a la temperatura registrada varias semanas después.
Las desviaciones de esta suposición pueden afectar, de modo serio, las inferencias del análisis de
varianza.
En general, cuando no se cumplen las suposiciones de normalidad ni la de homogeneidad, se puede
usar una “transformación de datos” o bien recurrir a la alternativa de un ADEVA no paramétrico.
Ejemplo ilustrativo: Sean los siguientes datos
MUESTRAS (GRUPOS)
Unidades
1
2
3
4
5
6
•
Medias 1
2
3
4
655
788
734
721
679
699
789
772
787
686
732
775
737
639
696
672
717
727
535
629
542
559
587
520
713
757
698
562
Media general
•• = 682
La prueba de la hipótesis nula H0 : µ1 = µ2 = µ3 = µ4, nos lleva a realizar, en primer lugar, un análisis
exploratorio de los datos muestrales, con el siguiente resultado:
1) El gráfico 14.2 muestra un diagrama de cajas comparativo para los datos de las cuatro muestras. Se
observa un traslapamiento bastante notable en el caso de las muestras 1, 2 y 3, en tanto que la cuarta
muestra se presenta en posición marcadamente diferente y en correspondencia a valores bajos de la
variable observada. Esto nos hace sospechar, que existe la posibilidad de que la hipótesis nula
propuesta resulte rechazada2) Cumplimiento de los supuestos del ADEVA:
a) Es razonable suponer que se cumple el supuesto de normalidad: en el gráfico 14.1, la
tendencia lineal del patrón de datos se ajusta bien a una recta trazada a 45º.
b) Es razonable suponer homogeneidad de las varianzas: en el gráfico 14.2 no se observan
diferencias importantes en relación a la variabilidad, lo que también es confirmado por el
cálculo de las desviaciones típicas muestrales (s1= 46,57; s2= 40,35; s3= 37,11; s4= 40,04;
siendo s mayor / s menor igual a 1,26).
235
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
Desviación
UNIDAD III:INFERENCIA ESTADÍSTICA
-2,10
-1,22
-0,33
0,55
1,44
Percentil z
Gráfico 14.1
1
2
3
4
Muestras
Gráfico 14.2
14.4. PARTICIÓN DE LA SUMA DE CUADRADOS
El procedimiento del análisis de varianza esencialmente consiste en discriminar o particionar la
variación general de los datos, suma de cuadrados de desvíos general (desvíos de los valores
observados respecto a la media general o gran media) indicada como SCG, en dos fuentes de variación:
la variación ENTRE grupos (SCT) y la variación DENTRO de grupos (SCE).
Variación total o general = variación ENTRE grupos + variación DENTRO de grupos
SCG = SCT + SCE
A los efectos de facilitar la interpretación, introduciremos un ejemplo.
Ejemplo 14.1: Consideremos una planta, donde se fabrica y envasa cereal en cajas de 368 gramos, y
que el gerente de producción piensa sustituir una máquina antigua por problemas de bajo rendimiento.
Supóngase que en el mercado encuentra tres máquinas que pueden mejorar su producción y que frente
a esto, el gerente piensa que no todas las máquinas llenarán las cajas con igual tiempo medio (o que al
menos alguna de las tres tendrá una media de llenado diferente). Para tomar la decisión de compra, el
gerente solicita a los tres proveedores datos de pruebas de llenado con sus respectivos modelos de
máquinas para las condiciones de su proceso. Se desprende, que la intención del gerente es someter a
prueba la siguiente hipótesis:
H0 : µ1 = µ2 = µ3
esperando que su rechazo, lo lleve a confirmar su hipótesis de investigación que se corresponde con la
hipótesis alternativa
H1 : al menos dos medias son diferentes
La interpretación gráfica de estas hipótesis es la siguiente:
Gráfico 14.3.a.Gráfico de poblaciones, cuando Ho
es verdadera y se satisfacen las suposiciones
Gráfico 14.3.b. Gráfico de las poblaciones, cuando se
cumplen las suposiciones de varianzas iguales y
poblaciones con distribución normal, pero Ho es falsa
debido a que ninguna de las medias de las
poblaciones es igual a otra (uno de los posibles casos
contemplados por la H1)
Sigamos suponiendo que el gerente, a partir de los informes recibidos, toma una muestra
aleatoria de cinco tiempos de llenado (en segundos) para cada caso, con el resultado de tabla 14.2.
Tabla 14.2: Tiempo (en segundos) para envasar una caja de cereal
Total
Medias
Máq. 1
25,40
26,31
24,10
23,74
25,10
y.1 = 124,65
. = 24,93
Máq. 2
23,40
21,80
23,50
22,75
21,60
y.2 =113,05
. = 22,61
Máq. 3
20,00
22,20
19,75
20,26
20,40
y.3 =102,95
. = 20,59
236
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Media general
y •• =
340,31
= 22,71 segundos
3 x5
Ahora, queda demostrar si los datos muestrales aportan evidencia suficiente para rechazar la
hipótesis nula, de igualdad entre las medias poblacionales µ1, µ2 y µ3. Un análisis gráfico exploratorio de
estos datos, a través de un puntigrama múltiple (gráfico 14.4), muestra aparentemente, que las tres
medias muestrales difieren entre si, lo cual llevaría a concluir que las poblaciones estudiadas tienen
distintos valores de medias. Pero, a esta conclusión, no se llegará en forma directa por comparación de
las medias, sino en forma indirecta analizando la variabilidad que presentan los datos muestrales. Para
esto, se deben reconocer tres tipos de desviaciones vinculadas a las tres sumas de cuadrados de
desvíos dadas (SCG, SCT y SCE)
Desvíos en el ADEVA de clasificación única
Definición
Desvío entre un valor observado y la
media general
Desvío entre un valor de media
grupal y la media general
Desvío entre un valor observado para
un grupo y la media del grupo
Nombre
Desvío general
Desvío entre grupos
Desvío dentro de grupos
Fórmula
y ij − y ••
y • j − y •• y ij − y • j Llevado a la práctica, se podrían obtener en correspondencia, los siguientes valores de desvíos
y11 − y •• = 25,40 − 22,71 = 2,69 segundos
y •1 − y •• = 24,93 − 22,71 = 2,22 segundos
y11 − y •1 = 25,40 − 24,93 = 0,47 segundos
Del análisis de los desvíos, resultaría que la variabilidad dentro de estas tres muestras es
relativamente pequeña, en relación a la variabilidad que existe entre los grupos.
yij
27
26
25
y • 1 =24,93
24
y• 1 - y• 2 =2,32
23
22
y • 1 - y• 3 =4,34
y• 2 =22,61
Y••
y• 2 - y• 3 =2,02
21
y•3 =20,59
20
19
18
0
1
2
3
máquina
s
4
Gráfico 14.4. Distribución de los datos (en segundos) de las tres máquinas
Para formalizar el concepto de partición de sumas de cuadrados, primeramente se trabaja con el
concepto de la varianza muestral, es decir,
s =
2
sc
ν
∑ ( y − y)
=
2
n −1
En el ADEVA, se tienen k grupos o muestras, y si se supone que las medias poblacionales de los
k grupos son iguales, se puede medir la variación total, o suma total de los cuadrados de desvíos
(SCG), sumando las diferencias elevadas al cuadrado entre cada observación (tiempo) y una media
global sobre la base de todas las observaciones. Esto es la variación total y se calcularía como:
237
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Variación total o suma total de los cuadrados (SCG)
nj
k
SCG =
∑∑ ( y
ij
− y•• ) 2
;
j =1 i =1
donde
k : número de grupos
nj : nº de observaciones en el grupo j
yij: i-ésima observación en el grupo j
k
n
∑∑
Donde
y •• =
j =1 i =1
n
y ij
k
siendo n el nº total de observaciones,
∑n
j
=n
j =1
La variación total mide el cuadrado de la suma de las diferencias, entre cada valor observado de
la variable, yij , y la media global (gran media o media general) y.. . Para el ejemplo considerado, la
variación total que presentan los datos es SCG= 58,2172, la cual puede ser explicada a través de los
componentes que se indicaron en la fórmula fundamental del ADEVA (partición de la SCG).
Variación ENTRE grupos (SCT): involucra las diferencias entre las medias de grupo. Parte de esta
variación se debe al efecto de encontrarse en grupos diferentes (es decir, la hipótesis Ho no es cierta),
ya que es probable que haya diferencias entre las medias del grupo. La variabilidad entre los
trabajadores de cada grupo, hará que sean diferentes las medias de la máquinas µ.j, precisamente
porque se tienen k poblaciones diferentes.
Una razón de la variación entre los resultados es que un trato diferente a las personas (en este
caso al proporcionarles máquinas diferentes) afecta su productividad. Esto explicaría por qué los grupos
tienen medias diferentes: cuanto mayor sea el efecto del tratamiento, mayor será la variación que se
encontrará en las medias de grupos.
La variación ENTRE los grupos, SCT, se mide a través de la suma de las diferencias entre la
media de la muestra de cada grupoy.j y la gran mediay.., al cuadrado, ponderada por el tamaño
de la muestra n, en cada grupo. Se puede calcular como:
k
SCT = ∑ n j ( y• j − y•• ) 2
;
j =1
donde
k: es el número de grupos
nj : es el número de observaciones en el grupo j
y • j : es la media muestral del grupo j
y •• : es la gran media
Variación DENTRO de grupos (SCE): Hay otra razón para la variabilidad de los resultados: las
personas son naturalmente variables, tanto si se les trata o no en igual forma. Por lo tanto, aún dentro de
un grupo en particular, donde todos reciban el mismo tratamiento (es decir usan la misma máquina)
existe variabilidad. Esta variabilidad se conoce como variación dentro del grupo.
Cuando la hipótesis nula es cierta, entonces la variación entre grupos estimará la variabilidad de
la población al igual que la variación dentro del grupo. Pero si la hipótesis nula es falsa, entonces la
variación entre los grupos será mayor. Este hecho forma la base para la prueba estadística de las
diferencias de grupos.
La variación DENTRO del grupo, llamada también suma de cuadrados internos (SCE), mide la
diferencia entre cada valor observado y la media de su propio grupo y acumula los cuadrados de
estas diferencias de todos los grupos. La variación dentro del grupo se puede calcular como
k
nj
SCE = ∑∑ ( yij − y• j ) 2
;
j =1 i =1
donde
k : es el número de grupos
nj : es el número de observaciones en el grupo j
yij : es la i-ésima observación en el grupo j
y. j : es la media del grupo j,
238
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Se supone que los errores son independientes y que se encuentran normalmente distribuidos
con medias cero y varianzas iguales. En otras palabras,εij∼ N(0,σ2) para toda i y j. La suposición sobre
los τ j depende de cómo considere el investigador los niveles del factor. Si el investigador está
interesado en lo que le pasa a la variable Y, sólo para ciertos grupos que son elegidos de antemano,
entonces el modelo ADEVA se conoce como modelo de efectos fijos y las inferencias estadísticas con
respecto a los efectos pertenecen, en forma exclusiva, a los niveles seleccionados. Por otro lado, si los
grupos empleados han sido seleccionados al azar, a partir de una población de todos los posibles
niveles, el modelo ADEVA se conoce como modelo de efectos aleatorios , y las inferencias
estadísticas con respecto a los niveles de un factor pertenecen a la población de niveles.
Los parámetros µ1 ; µ 2 ;...; µ k y la media general µ no son conocidos, pero pueden estimarse con
base en las observaciones de las k muestras aleatorias, como:
Media del j-ésimo grupo:
nj
Y . j = ∑ Yij
j = 1,2,..., k ,
i =1
Y.j = Y.j / nj
j = 1,2,..., k
Media general:
n
Y .. = ∑
k
k
∑ Yij ,
n = ∑nj
=
j =1
,
Y .. = Y .. / nk
De nuevo, se emplea la notación de punto para indicar que la suma se lleva a cabo sobre el
correspondiente subíndice. En particular, Y.j es la suma de las nj observaciones en el j-ésimo
tratamiento, Y..j es la media de la muestra del j-ésimo tratamiento, Y.. es la suma de todas las nk
observaciones y Y.. es la media de la muestra de todas las observaciones
Para determinar una estadística de prueba apropiada, supóngase que se toma el cuadrado de ambos
miembros de
Yij - Y.. = (Y..j - Y.. ) + (Yij - Y..j )
y se suman sobre todos los i y j, obteniéndose:
k
nj
∑∑ (Y
ij
k
nj
k
nj
k
nj
− Y ..) = ∑∑ (Y .i − Y ..) + 2∑∑ (Y . j − Y ..)(Yij − Y . j ) + ∑∑ (Y i j − Y . j ) 2
2
2
j =1 i =1
j =1 i =1
j =1 i =1
j =1 i =1
Pero
k
 nj

(
Y
.
−
Y
..)(
Y
−
Y
.
)
=
(
Y
.
−
Y
..)
∑∑
∑
i
ij
j
j
∑ (Yij − Y . j )
j =1 i =1
i =1
 i =1

k
nj
 nj

= ∑ (Y . j − Y ..) ∑ (Yij − n j Y . j )
i =1
 i =1

k
= 0,
dado que
∑
nj
Y = Y. j = n j Y. j
i =1 ij
Como resultado se tiene la
Ecuación fundamental del análisis de la varianza
k
nj
∑∑ (Y
ij
j =1 i =1
k
nj
k
nj
− Y•• ) = ∑∑ (Y • i − Y•• ) + ∑∑ (Yij − Y• j ) 2
2
2
j =1 i =1
j =1 i =1
239
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Para el ejemplo
3
5
SCG = ∑∑ ( yij − 22,71) 2
3
[
]
SCT = ∑ 5( y• j − y•• ) = 5 (24,93 − 22,71) 2 + (22,61 − 22,71) 2 + (20,59 − 22,71) 2 = 47,164
2
3
5
5
5
5
SCE = ∑∑ ( yij − y• j ) 2 = ∑ ( y ij − 24,93) 2 + ∑ ( yij − 22,61) 2 + ∑ yij − 20,59) 2 = 11,0532
Luego, se comprueba que:
SCG
= SCT + SCE
58.2172 = 47.164 + 11.0532
Dado que siempre habrá diferencias en las medias muestrales para las tres máquinas. La pregunta a
contestar es, si los resultados arrojados aportan la evidencia suficiente para que el gerente de
producción llegue a la conclusión de que los promedios poblacionales no son todos iguales.
14.5. PRUEBAS DE F EN EL ADEVA
14.5.1. Estadígrafo de prueba.
El procedimiento de prueba se basa en la comparación de una medida de la variabilidad entre las
muestras, el cuadrado medio entre o cuadrado medio de tratamientos (CMT), con una medida de la
variabilidad dentro de las muestras, el cuadrado medio dentro o cuadrado medio del error (CME).
Los cuadrados medios son estadígrafos que se calculan como un cociente entre una suma de
cuadrados de desvíos y los grados de libertad correspondientes.
Estadígrafo de prueba F
F=
CMT SCT / ν T
=
CME SCE / ν E
a) Si Ho es verdadera, todas las medias poblacionales son iguales, en las muestras las medias
resultarán aproximadas al promedio general, por tanto los desvíos y. j − y.. dan valores
(
)
parecidos y la SCT así como el CMT toman valores relativamente pequeños. Esto significa que
E(CMT) = E(CME) = σ2, es decir, que F=1.
b) Contrariamente si, Ho no es verdadera, algunas medias poblacionales (o por lo menos una)
resultarán alejadas del promedio general, hay mayor dispersión, por tanto el CMT toma un valor
relativamente grande. Esto significa que E(CME) = σ2, pero E(CMT) > E(CME), por tanto F>1.
14.5.2.
Distribución muestral del estadígrafo de prueba.
Bajo Ho
verdadera, el estadígrafo razón F sigue una distribución
Fα ;ν t ;ν e
, esto es el
estadígrafo es una variable aleatoria que se distribuye siguiendo a la distribución F para un nivel de
significancia α y los grados de libertad que corresponden al numerador y denominador del estadígrafo.
ν numerador = ν t = k − 1 ; ν deno min ador = ν e = n k − k
En el primer caso, νnumerador , se pierde un grado de libertad porque existen k desvíos para las
medias, y. j − y.. , y para calcularlos se necesita estimar el valor de la µ.. o media general. En el
(
)
(
)
segundo, νdenominador , se pierden k grados de libertad porque existen nk desvíos para el error, yij − y. j , y
para calcularlos se necesita estimar el valor de las k medias poblacionales µ.j.
14.5.3. Valor crítico del estadígrafo de prueba.
La distribución F, en realidad es una familia de distribuciones. En la tabla de la función de
distribución de F, se entra por columnas con los grados de libertad para el CM entre las medias grupales
o CM del numerador y, por filas con los grados de libertad para el CM dentro de los grupos. Por lo
general estos grados de libertad, se conocen, respectivamente, como ν1 o grados de libertad para el CM
mayor (ν1 = k - 1 ) y, como ν2 o grados de libertad para el CM menor (ν2 = nk – k), por una
interpretación lógica de su significado y por tanto de su valor esperado.
240
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
f(F)
Figura:
La regla de decisión es:
rechazar la hipótesis nula, de que no hay
diferencia entre las medias poblacionales
de los grupos, al nivel de significación α si
1-α
α
F(α ,ν1 ,ν2) <
F(α ,ν1 ,ν2), es el valor crítico de la
distribución F con k – 1 y nk - k grados
de libertad o percentil F.
F
0
Región de rechazo
Región de aceptación
CMT
CME
donde , 0 < F < +∞
Regiones de rechazo y de no rechazo,
para la prueba de F en el análisis de varianza
Si se decidió utilizar un nivel de significación de 0.01, el valor crítico de la distribución F resulta
F(0,01; 2, 12) = 6.93.
Este valor se encuentra tabularmente como se muestra a continuación.
Tabla de la función de distribución F. Obtención del valor crítico de F(0,01; 2, 12).
Denominador
df2
6
7
8
9
10
11
12
13
Numerador, df1
1
2
3
13,75 10,92 9,78
12,25 9,55 8,45
11,26 8,65 7,59
10,56 8,02 6,99
10,04 7,56 6,55
9,65 7,21 6,22
9,33 6,93 5,95
9,07 6,70 5,74
4
9,15
7,85
7,01
6,42
5,99
5,67
5,41
5,21
5
8,75
7,46
6,63
6,06
5,64
5,32
5,06
4,86
6
8,47
7,19
6,37
5,80
5,39
5,07
4,82
4,62
7
8,26
6,99
6,18
5,61
5,20
4,89
4,64
4,44
8
8,10
6,84
6,03
5,47
5,06
4,74
4,50
4,30
9
7,98
6,72
5,91
5,35
4,94
4,63
4,39
4,19
10
7,87
6,62
5,81
5,26
4,85
4,54
4,30
4,10
12
7,72
6,47
5,67
5,11
4,71
4,40
4,16
3,96
Por lo tanto, la regla de decisión sería rechazar la hipótesis nula (H0 : µ1 = µ2 = µ3 ) si la F
calculada es igual, o excede a 6.93.
f(F)
Regiones de rechazo y de no rechazo para
el análisis de varianza al nivel de
significancia 0,01 con 2 y 12 grados de
libertad.
0.01
α=
1-α
F
0
F(α; 2,12) = 6,93
Volviendo al estudio del proceso productivo de cereales en caja , puesto que SCT = 47,164, con
νt = 3 - 1, y SCE = 11,0532 con νe = (5x3)-3 , se tiene: CMT = 23,582 y CME = 0,9211. Luego, el
valor muestral del estadígrafo de prueba es
Fm =
CMT 23,582
=
= 25,60
CME 0,9211
Dado que Fm > F(0,01; 2, 12) , ya que 25.60 > 6.93, la decisión estadística es rechazar la hipótesis nula. Así
el gerente de producción puede concluir que al nivel de significancia considerado, hay una diferencia
importante en el tiempo promedio para terminar un trabajo (al menos una media es diferente de otra).
14.6. TABLA DE ADEVA Y FÓRMULAS DE CÁLCULO
Por conveniencia, se utilizará una tabla denominada tabla de análisis de la varianza para
mostrar las sumas de cuadrados y otros datos que requieren los cálculos restantes y además sirve para
presentar los resultados finales del análisis. La estructura de tal tabla se muestra a continuación
241
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Tabla 14.3 Tabla de análisis de varianza para un ADEVA con un criterio de clasificación.
Fuente de
variación
Total
SC
k
n
∑∑ y
2
j =1 i =1
Grupos
n
y2. j
i =1
nj
∑
Error
ij
Gl
CM
Estadígrafo F
y 2 ..
−
nk
F= CMT/CME
nk -1
y 2 ..
−
nk
y 2 ..
−
nk
k -1
n
y2. j
i =1
nj
∑
nk - k
Por diferencia
( k − 1)
SCE/(nk-k)
El término común que aparece como sustraendo en las sumas de cuadrados para el total y los
grupos, recibe el nombre de factor de corrección (C), entonces:
Factor de corrección
C=
y 2 ..
nk
El cálculo de las cantidades que aparecen en la ecuación fundamental del ADEVA puede
hacerse en forma fácil mediante el empleo de cualquier software estadístico. Para llevar a cabo el
cálculo a mano, las sumas de los cuadrados deben calcularse mediante la utilización del procedimiento
abreviado, que es el que se muestra en la tabla 14.3
La SCE mide la cantidad de variación en las observaciones debida a un error aleatorio. Si todas
las observaciones que se encuentran dentro de un mismo tratamiento son las mismas, y si este hecho
es cierto para todos los k tratamientos, entonces SCE = 0. De acuerdo con lo anterior, entre más grande
es SCE, mayor es la variación en las observaciones que puede atribuirse a un error aleatorio. SCT, mide
la extensión de la variación, en las observaciones, que se debe a las diferencias entre los tratamientos.
Si todas las medias de los tratamientos son iguales entre sí, entonces SCT = 0. De esta forma, entre
más grande es el valor de SCT, mayor es la diferencia que existe entre las medias de los tratamientos y
la media global.
Los grados de libertad se obtienen al separar la suma total de cuadros. SCG tiene nk- 1
grados de libertad debido a que se pierde un grado de libertad al ser necesario que la suma de las
desviaciones (Yij=Y..) Para toda k y j sea cero. La suma de los cuadrados de los tratamientos, SCT,
∑
tiene k - 1 grados de libertad debido a que se impone la restricción
desviaciones (Y.j -Y.. ). Esta restricción surge del hecho de que
∑
k
i =1
k
i =1
n j (Y. j − Y ..) = 0 para las k
n jτ j = 0 .Entonces, con base en
(11), el número de grados de libertad para SCE será igual a la diferencia entre el número de grados de
libertad para SCG y SCT,
gl(SCE) = gl(SCG) - gl(SCT)
= (nk – 1) - (k - 1)
= nk - k.
Una suma de cuadrados dividido entre sus grados de libertad da origen a lo que se conoce como
cuadrado medio. De acuerdo con lo anterior,
el cuadrado medio del tratamiento es
CMT = SCT/(k - 1),
y el cuadrado medio del error es
CME = SCE/(nk - k)
Ahora se puede argumentar que, dado que SCT/σ2 y SCE/σ2 son dos variables aleatorias
independientes Ji-cuadrada con k - 1 y nk - k grados de libertad, respectivamente, entonces el cociente
CMT/CME tiene una distribución F con k - 1 y nk - k grados de libertad. Este cociente es la estadística
apropiada para probar la hipótesis nula
H0 :
τj
=0
Dado que E(CMT) = σ2, bajo H0, tanto CME como CMT, son estimadores no sesgados de la
varianza del error. Pero si la hipótesis nula no es de cierta, CMT, tiende generalmente a ser mayor que
CME, dado que el término
∑ nτ
j
2
j
será positivo. En otras palabras, entre más grande sea la diferencia
entre las medias de los tratamientos y la media global, mayor será CMT. Pero una ocurrencia de este
242
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
tipo sugiere que las medias de los k tratamientos no son todas iguales entre sí y de esta forma debe
rechazarse la hipótesis nula. De acuerdo con lo anterior, la hipótesis nula será rechazada cuando el
valor del cociente 12, se encuentre dentro de una región crítica superior de tamaño α.
k
nj
∑∑ (Y .
j
− Y ..) 2 /( k − 1)
j =1 i =1
F=
k
nj
∑∑ (Y
ij
− Y . j ) 2 /( nk − k )
j =1 i =1
14.7. MODELO ADEVA: CASO DE CLASIFICACIÓN ÚNICA
Bajo hipótesis nula cierta, el modelo que explica el comportamiento de la variable a observar es :
Yij = µ + ε ij
; j = 1,2, ..., k
e
i = 1,2, ..., Nj
Según este modelo, el valor de yij está formado por la suma de dos componentes o efectos:
un efecto común (µ) y un efecto aleatorio (εij). Este modelo se conoce como modelo de media.
Esto es, en términos de este modelo, existen influencias sobre la variable a medir que son
inexplicables (o sea, “influencias aleatorias”). Una observación resulta igual al valor promedio general de
energía de los sistemas de calentamiento para todos los k niveles de aislamiento térmico y cualquier
desviación se debe a un error aleatorio. El error aleatorio, denotado por el símbolo εij (ε es la letra griega
épsilon) afecta a cada una de las posibles observaciones, y se define como
εij = Yij - µ ..
Si la hipótesis nula se rechaza, el modelo es otro. Existirá una diferencia entre la media de la jésima población o grupo (µj) y la media general (µ) que se puede atribuirse a lo que se llama un efecto
del grupo o muestra. A este efecto lo denotaremos por τj( τ es la letra griega tau), de modo que
τ j = µj − µ
o bien
µj =τ j + µ
para j = 1,2, ..., k.
Con base a esto, puede formularse el modelo ADEVA :
Modelo ANOVA de clasificación única:
Yij = µ + τ j + ε ij
; j = 1,2, ..., k
e
i = 1,2, ..., nj
en donde Yij es el i-ésimo valor que se espera observar en el j-ésimo grupo,
µ es la media sobre todas las k poblaciones,
τ j es el efecto sobre la respuesta debido al j-ésimo grupo y
εi es el error experimental para la i-ésima observación bajo el j-ésimo grupo
Según este modelo, el valor de yij está formado por la suma de tres componentes o efectos: un
efecto común (µ), un efecto del j-ésimo grupo ( τ j ) y un efecto aleatorio (εij).
14.8. TRANSFORMACIONES
En la vida real, no se conoce con certeza si se cumplen las suposiciones de normalidad y de una
varianza común. Por lo tanto, tenemos que saber cuándo las pruebas de ADEVA y los intervalos de
confianza tienen las propiedades teóricas que esperamos.
La falta de normalidad no afecta seriamente la metodología mientras las distribuciones
poblacionales no sean demasiado sesgadas. Si las varianzas poblacionales no difieren mucho y los
tamaños muestrales son iguales, las propiedades de las pruebas estadísticas y de los intervalos de
confianza serán aproximadamente las mismas que si las suposiciones fueran satisfechas. Si las
varianzas poblacionales difieren sustancialmente, podemos transformar los datos antes de realizar el
ADEVA.
Por ejemplo, una manera de transformar los datos es sacar la raíz cuadrada de cada valor de
y. O podríamos tomar el logaritmo de cada valor de y. La transformación que hay que utilizar depende
del tipo de datos involucrados en el experimento. Una vez transformados los datos se realiza el ADEVA.
243
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Observación: Los resultados de las pruebas para diferencias en medias de tratamientos transformados,
log (y), se basan en la comparación de medias geométricas.
Los tipos de datos más comunes que incumplen las suposiciones del análisis de varianza, son
los datos donde “y” representa el número de ocurrencias de algún evento o donde y es una proporción
muestral (o porcentaje).
Datos enumerativos se generan a menudo por una variable aleatoria y que posee una
distribución de Poisson. Como se explicó oportunamente, la varianza de una variable aleatoria de
Poisson es igual a su media (es decir σ2=µ). Por lo tanto, las varianzas de poblaciones de datos de
Poisson, variarán probablemente de un tratamiento a otro. Las varianzas de proporciones muestrales,
obtenidas de experimentos binomiales, también variarán con su media. Así, si y es una proporción
muestral, el valor medio de la proporción muestral es p, y su varianza
σ2 =
p (1 − p )
n
Una fórmula para transformar los datos tipo Poisson, para que las diferentes poblaciones de
tratamientos tengan aproximadamente la misma varianza, es
y* =
y
o bien, cuando se tienen valores cero
y* =
y + 1/ 2
donde y es la respuesta original, e y* es la respuesta transformada. El siguiente ejemplo ilustrará el
procedimiento.
En la discusión anterior explicamos cómo transformar conteos de Poisson y proporciones
binomiales para que satisfagan las suposiciones de un análisis de varianza. Se pueden desarrollar
transformaciones para otro tipo de datos donde la varianza σ 2 de una población es alguna función de la
media poblacional µ. El procedimiento para determinar transformaciones apropiadas para una relación
específica entre σ2 y µ se explica en numerosos textos (Ver Steel-Torrie).
Como conclusión, el uso de una transformación tiene sus desventajas. Muchas veces es difícil
hacer una interpretación práctica de la variable transformada y las medias de tratamientos. Por
consiguiente, muchos estadísticos no usan las transformaciones, a no ser que existan evidencias que
indiquen diferencias tangibles entre las varianzas de las poblaciones de los tratamientos.
El siguiente recuadro da transformaciones que son de utilidad.
Relación entre la varianza y
la media de una población
Aplicación
Transformación
σ2 = µ
Datos de una variable Poisson
y* =
y
y* =
y + 1/ 2
(cuando hay valores cero)
σ 2 = µ (1 − µ ), (0 < µ < 1)
σ 2 = µ2
Datos: Proporciones binomiales
con tamaños muestrales iguales
Datos: porcentajes
Varianzas muestrales
para datos cuantitativos:
Tamaños muestrales
iguales y falta de
homocedasticidad
y* = sen −1
y
(arcoseno)
y* = ln y
y* = log y
14.9. ANÁLISIS DE RESIDUOS
Una forma sencilla y útil para detectar la discrepancia con el modelo propuesto se basa en un
análisis de residuos. Un residuo es un estimador del error aleatorio εij. Dado que
εij = yij - µj,
El residuo correspondiente denotado por eij, se define como
eij = yij − y. j
donde j = 1, 2, ..., k,
i = 1, 2, ..., nj.
244
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
Los residuos no son estimados en el sentido de estimación de parámetros, sino como
estimadores de los valores de las variables aleatorias no observables εij con base en los estimadores y. j
para las k medias de población.
Si es válida la suposición de que los errores aleatorios tienen las mismas varianzas para todos
los niveles de k, entonces una gráfica de los residuos de cada tratamiento no revelará ninguna diferencia
apreciable en la dispersión de los residuos alrededor del cero. Si esta dispersión es notablemente
diferente para algunos tratamientos, entonces es posible que las varianzas no sean iguales para todos
los tratamientos. Para normalizar la escala de magnitudes de los residuos es preferible emplear los
residuos estandarizados e * ij = eij
CME . Entonces, dado que por hipótesis los errores aleatorios se
encuentran normalmente distribuidos, un residuo estandarizado rara vez se encontrará más allá de un
intervalo de +3.
Se ilustrará el análisis de residuos empleando los datos de tabla 14.4.
Tabla 14.4. Residuos estandarizados.
6
8
10
0.58
-0.15
-0.77
-0.96
1.00
0.77
0.96
-0.54
0
-0.58
-0.92
0.62
4
-1.00
0.54
2.08
-1.39
-0.23
12
0.39
-0.77
-0.39
0.77
1.16
-1.16
El gráfico 14.5 ilustra los residuos estandarizados para cada tratamiento. Se observa que no
existe ninguna diferencia notable en la dispersión para cada uno de los cinco tratamientos excepto para
uno de los residuos del primer tratamiento. De acuerdo con lo anterior, parece que la hipótesis de que
las varianzas de los cinco tratamientos son las mismas, es razonable en este caso. También se
encuentran disponibles en la literatura estadística procedimientos formales para verificar la hipótesis de
igualdad entre las k varianzas. Dos de los usados con más frecuencia son la prueba de Bartlett y la
prueba de Hartley.
Residuos estandarizados
3
2
1
0
-1
-2
0
2
4
6
8
10
12
14
Espesor del aislamiento del techo
Gráfico 14.5. Gráfica de los residuos estandarizados para los cinco tratamientos del ejemplo.
Si las varianzas de todos los tratamientos no son iguales entre sí, puede aumentarse el tamaño
de la región crítica de la estadística F para el caso de efectos fijos; pero, este efecto puede minimizarse
mediante el empleo de muestras de igual tamaño para cada tratamiento. En otras palabras, en el
análisis de varianza, la estadística F también es más robusta ante varianzas desiguales siempre y
cuando los tamaños de la muestra de los tratamientos sean iguales.
La suposición crucial en el desarrollo del análisis de varianza es que los errores aleatorios son
independientes. Si los errores son interdependientes, el tamaño real de la región crítica puede ser, en
forma substancial, más grande (cinco o más veces) que lo supuesto.
14.10. ANÁLISIS DESPUÉS DEL ADEVA
14.10.1. Comparaciones múltiples de medias
El análisis de varianza es un procedimiento poderoso para probar la homogeneidad de un
conjunto de medias. Sin embargo, si se rechaza la hipótesis nula y se acepta la alternativa planteada (lo
que significa que no todas son iguales) aún no se sabe cuáles de las medias poblacionales son iguales y
cuáles diferentes.
Se ha demostrado que un contraste simple (es decir, una comparación de dos medias) puede
llevarse a cabo a través de una prueba F, una prueba t o mediante el cálculo de un intervalo de
confianza para la diferencia entre dos medias. Sin embargo, se presentan serias dificultades cuando el
analista intenta realizar muchas o todas las comparaciones pareadas posibles. Para el caso de k
245
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
medias, habrá, por supuesto, r = k(k-1)/2 posibles comparaciones pareadas. Al suponer comparaciones
independientes, la tasa de error experimento-juicio (es decir, la probabilidad del rechazo equivocado
de al menos una de las hipótesis) está dada por 1 - (1 - α) r, donde α es la probabilidad seleccionada
del error tipo I para una comparación específica y r el número de comparaciones entre muestras. Es
evidente que esta medida del error tipo I del experimento-juicio puede ser bastante grande. Por ejemplo,
incluso si sólo existen seis comparaciones, póngase el caso de 4 medias, y α = 0.05, la tasa
experimento-juicio es:
1 - (0.95)6 ≅ 0.26
Con la tarea de probar muchas comparaciones pareadas por lo común se requiere hacer el
contraste efectivo en una sola comparación más conservadora. Esto es, mediante el enfoque del
intervalo de confianza, los intervalos de confianza serían mucho más amplios que el intervalo obtenido a
partir de + tα/2
2CME
utilizado en el caso de una sola comparación.
n
14.10.2. Prueba de Tukey
Existen varios métodos estándar para realizar comparaciones pareadas que permitan sustentar
la credibilidad de la tasa de error tipo I. Se presentarán y ejemplificarán dos de ellos en esta sección. El
primero, llamado procedimiento de Tukey, permite la formación de intervalos de confianza del 100(1-α)%
simultáneos para todas las comparaciones pareadas. El método se basa en la distribución del rango
estudentizado. El punto percentil apropiado es un valor que se encuentra en tabla de rangos
estudentizados q (α, k, νe).
El estadígrafo de prueba es
DHS= q(α, k, νe)
CME
, donde DHS es la diferencia honestamente
n
significativa.
El método de comparaciones pareadas por el procedimiento de Tukey implica encontrar una
diferencia significativa entre las medias µj y µk , lo que ocurre si y k − y j excede
q(α, k, νe)
CME
n
El procedimiento de Tukey se ejemplifica con facilidad. Considérese un ejemplo hipotético en el cual se
tienen seis tratamientos en un diseño completamente aleatorizado de un solo factor con 5 observaciones
por tratamiento. Supóngase que el cuadrado medio del error que se toma de la tabla de análisis de
varianza es s2 = 2.45 (24 grados de libertad). Las medias muestrales están dadas por (en orden
ascendente)
y2
14.50
y5
16.75
y1
19.84
y3
21.12
y6
22.90
y4
23.20
Con α = 0.05 el valor de q(0.05, 6, 24) = 4.37. Entonces todas las diferencias absolutas deben compararse
con
4,37
2,45
= 3,059.
5
Como resultado, lo siguiente representa las medias encontradas que son significativamente diferentes
utilizando el procedimiento de Tukey:
4 y 1,
4 y 5,
4 y 2,
6 y 1,
6y5
6 y 2,
3 y 5,
3 y 2,
1 y 5,
1 y 2.
14.10.3. Prueba de Duncan
El segundo procedimiento que se explicará recibe el nombre de procedimiento de Duncan o prueba de
rango múltiple de Duncan. Este procedimiento también se basa en la noción general del rango
estudentizado. El rango de cualquier subconjunto de p medias muestrales debe exceder un cierto valor
antes de que se encuentre que cualquiera de las p medias son diferentes. Este valor se llama rango
menos significativo para las p medias y se representa por Rp, donde
RP = rp
CME
n
Los valores de la cantidad rp, llamado el rango estudentizado menos significativo, dependen del nivel
deseado de significancia y del número de grados de libertad del cuadrado medio del error. Estos valores
pueden obtenerse de la tabla
para p = 2, 3, ..., 10 medias.
Para ejemplificar el procedimiento de la prueba de rango múltiple, considérese el caso hipotético en el
cual se comparan 6 tratamientos con 5 observaciones por tratamiento. Este es el mismo ejemplo que el
que se utilizó para demostrar la prueba de Tukey. Se obtiene Rp multiplicando cada rp por 0.70. Los
resultados de estos cálculos se resumen de la siguiente manera:
246
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
UNIDAD III:INFERENCIA ESTADÍSTICA
p
rp
Rp
2
2,919
2,043
3
3,066
2,146
4
3,160
2,212
5
3,226
2,258
6
3,276
2,293
Al comparar estos rangos menos significativos con las diferencias en las medias ordenadas, se llega a
las siguientes conclusiones:
1. Dado que y4 −y2 = 8.70 > R6 = 2.293, se concluye quey4 yy2, son significativamente diferentes
2. Al comparar y4 −y5 y y6 −y2. con R5 , se concluye quey4 es significativamente más
grande que y5 yy6 . es significativamente más grande quey2 .
3. Al comparary4 -y1 ,y6 -y5 , y  y3 -y2 . con R4, se concluye que cada diferencia es
significativa.
4. Al comparar y4 -y3 , y6 -y1 , y3 -y5 , y y1 -y2 . con R3, se encuentran todas las
diferencias significativas excepto para y4 -y3 . Por lo tanto y4 , y3 y y6 constituyen un subconjunto
de medias homogéneas.
5. Al comparar y3 -y1 , y1 -y5 , y y5 -y2 . con R2 se concluye que únicamentey3 y y1 no son
significativamente diferentes.
Es cuestión de resumir las conclusiones anteriores dibujando una línea debajo de cualquier subconjunto
de medias adyacentes que no sean significativamente diferentes. Entonces se tiene.
y2 .
y5 .
y1 .
y3 .
y6 .
y4 .
14.50
16.75
19.84
21.12
22.90
23.20
Está claro que, en este caso, los resultados de los procedimientos de Tukey y Duncan son muy
similares. El procedimiento de Tukey no detecta una diferencia entre 2 y 5, mientras que el de Duncan
sí.
247
Cátedra de Cálculo Estadístico y Biometría – Facultad de Ciencias Agrarias – UNCuyo / Ciclo 2013
Descargar