Subido por report x9

Mecanismos DMSO, motor

Anuncio
Asignatura Análisis Multivariado en Ciencias del Comportamiento
Prof. Sonia Tirado González
Curso 2014/2015
Tema 2.2. Comprobación de hipótesis con 1 VI y más
de 2 muestras independientes1
Contenido del tema:
1. Análisis de varianza.
2. Modelos de ANOVA.
3. ANOVA de un factor completamente aleatorizado.
4. Tamaño del efecto.
5. Comparaciones múltiples.
Podría decirse que el Análisis de Varianza (ANOVA) constituye una de las técnicas de análisis estadístico con más
trascendencia en el ámbito de la Psicología. Si bien su nombre hace referencia al estudio de la variabilidad
observada en los datos tras su recogida, se utiliza para comparar las medias de más de dos grupos, por lo que puede
considerarse como una extensión del contraste de hipótesis de dos medias (prueba t-Student).
Ejemplo 1.
Supongamos que queremos comprobar si existen diferencias en el rendimiento (variable dependiente) en una tarea de
destreza motora como consecuencia del tiempo de práctica previo (variable independiente). Se prepara un estudio que incluya dos
situaciones experimentales: un grupo de sujetos ha de realizar la tarea sin tiempo de práctica previo y al otro se le permite cinco minutos de
práctica antes de realizar la tarea. A todos los sujetos se les contabiliza el rendimiento mediante una prueba, se aplica la función descriptiva
y se encuentra que, por término medio, el grupo al que se le permitió cinco minutos de práctica presenta mayor rendimiento.
Visto esto, podríamos preguntarnos: ¿Puede decirse que el tiempo de práctica previo mejora el rendimiento de los sujetos? Para responder
a esta pregunta no basta con la estadística descriptiva. Podríamos decir que, aun cuando el tiempo de práctica no mejorara el rendimiento,
sería improbable que las medias de los dos grupos fuesen idénticas. Alguna diferencia se debería observar, puesto que otras variables que no
hemos controlado (factores de azar) producirán, sin duda alguna, diferentes medias.
La pregunta crucial, entonces, desde el punto de vista inferencial, sería ¿la diferencia entre las medias es suficientemente grande como para
descartar que se debe al azar? Dicho de otro modo, ¿existen diferencias significativas en el rendimiento como consecuencia del tiempo de
práctica previo? Si repitiésemos el estudio ¿podremos predecir que la misma diferencia (la media obtenida tras un tiempo de práctica antes
de realizar la tarea es mayor que la obtenida sin tiempo de práctica previo) se presentará sistemáticamente? Pues bien, supongamos que
hemos realizado este pequeño experimento y que los resultados que hemos obtenido son los siguientes:
1
Este tema es un resumen de los capítulos 2 y 3 del libro Cañadas, I (1999): Análisis de varianza. Santa Cruz de Tenerife: Resma.
1
Yj
~
S j2
sin práctica previa
5 min. de práctica
1
2
2
0
3
5
3
5
6
1
1,6
4,0
1,3
4
Podemos observar que las medias difieren en las muestras estudiadas, siendo mayor la del grupo al que se le ha permitido cinco minutos de
práctica, pero nuestras dudas van más allá de estos sujetos y lo que realmente nos interesa saber es si la media en la segunda condición
experimental es significativamente mayor. Para poder responder a esta cuestión no tenemos más que realizar el contraste de hipótesis
acerca de dos medias independientes, que ya conocemos.
Una vez planteadas las hipótesis estadísticas:
H0: 2  1
H1 : 2 > 1
debemos tener en cuenta las condiciones poblacionales de partida, así como las características muestrales para determinar la distribución
muestral del estadístico de contraste (en este caso,Y2 -Y1) que nos permita decidir acerca de H0. En nuestro experimento suponemos que
la variable rendimiento se distribuye normalmente en ambas poblaciones. Como las varianzas poblacionales son desconocidas y de ellas
depende el error típico de la distribución muestral deY2 -Y1, debemos realizar un contraste de varianzas previo al contraste de hipótesis.
~ ~
S 2 S 2  3,08
Teniendo en cuenta que las muestras son independientes, utilizamos como estadístico de contraste 2 1
, que sigue una
distribución F-Fisher, con n2 - 1 = 4 grados de libertad para el numerador y n1 - 1 = 4 grados de libertad para el denominador. La probabilidad
asociada a este estadístico es igual a 0,301, por lo que suponemos que las varianzas poblacionales, aun siendo desconocidas, no difieren
significativamente (trabajamos con un  = 0,05).
Podemos ya continuar con el contraste de medias y, en este caso, el estadístico de contraste t = 2,32 sigue una distribución t-Student con
n1 + n2 - 2 = 8 grados de libertad. Dado que la probabilidad asociada a este estadístico es menor que 0,05 decidimos rechazar la hipótesis
nula de igualdad de medias poblacionales, concluyendo que la práctica previa influye en el rendimiento en la tarea de destreza motora.
Ahora bien, en lugar de limitarnos a este experimento tan sencillo, podríamos ir un poco más allá y estar
interesados, no sólo en la existencia de diferencias en los grupos como consecuencia de la ausencia o no de práctica
previa a la tarea (que ya hemos visto que sí influye en el rendimiento), sino que además nos puede interesar
averiguar si existe un efecto del tiempo de práctica sobre el rendimiento, en relación a distintos minutos empleados
e, incluso, averiguar cuál es la función que relaciona el tiempo de práctica con el rendimiento (en el caso de
demostrar que sí hay una influencia).
De este modo, podemos complicar un poco más el diseño y, en lugar de dos grupos, podemos construir
aleatoriamente tres grupos: el primero, sin tiempo de práctica antes de realizar la tarea; el segundo, con cinco
minutos de práctica y el tercero, con diez minutos de práctica antes de la prueba. Vamos a analizar detenidamente
esta situación a continuación.
2
1. Análisis de varianza
Ejemplo 2. Como decíamos antes, en este caso, vamos a trabajar con tres grupos porque, además de estar interesados en si la ausencia o
no de práctica previa influye en el rendimiento de los sujetos, queremos averiguar si el rendimiento se ve afectado por el tiempo de práctica
antes de realizar la tarea.
0 min. Práctica
Yj
5 min. práctica
10 min. práctica
1
2
2
0
3
5
3
5
6
1
5
4
7
5
2
1,6
4,0
4,6
Del mismo modo que ocurría en el Ejemplo 1, las medias de destreza motora (medida a partir de las
puntuaciones obtenidas por los sujetos en la tarea) vuelven a ser diferentes. Ahora disponemos de tres grupos
Y , Y
yY

3 diferentes entre sí y la duda que nos surge es si
aleatorios con sus correspondientes medias muestrales 1 2
estas medias difieren lo suficiente como para pensar que proceden de poblaciones con medias 1, 2 y 3,
respectivamente, distintas, lo que significaría que los grupos difieren como consecuencia del tiempo de práctica, o
bien, si las diferencias observadas se deben sólo al azar y los grupos se han obtenido de poblaciones con la misma
media. Esta cuestión podríamos expresarla más formalmente en términos que ya conocemos:
H0: j = 
H1: j  
(Todas las medias poblacionales son iguales)
(No todas las medias poblacionales son iguales)
Pues bien, el análisis de varianza pretende hacer inferencias sobre las medias poblacionales, 1, 2 y 3
Y ,Y y Y
3 (obtenidas experimentalmente) y, concretamente,
(desconocidas) a partir de las medias muestrales, 1 2
pone a prueba la hipótesis nula H0: j =  teniendo en cuenta los resultados obtenidos en las tres muestras.
Sin embargo, la forma de llevar a cabo el contraste, aunque resulte un tanto extraño, no va a ser
comparando las medias. ¿En qué va a consistir, entonces? Simplemente, como el propio nombre de la técnica
indica, vamos a analizar la variabilidad observada en las puntuaciones. Veámoslo un poco más detenidamente.
Si observamos las puntuaciones obtenidas en el Ejemplo 2 podemos ver que no todas son iguales, ni siquiera
dentro de cada grupo. ¿A qué se debe esta variabilidad? Lo primero que se nos ocurre pensar es que, puesto que
hemos sometido a los grupos a diferentes condiciones (el primero ha realizado la tarea sin tiempo de práctica
previo, el segundo ha tenido cinco minutos de práctica y, el tercero, diez minutos), es lógico que el rendimiento sea
distinto en cada grupo y esto dé lugar a las diferentes puntuaciones en la tarea. Ciertamente, dentro de cada grupo
existen diferencias, pero estas se deben sólo al azar (por mucho que controlemos el experimento este fenómeno
siempre estará presente) y lo que en realidad ha dado lugar a esa variabilidad observada en la destreza motora ha
sido el efecto del tiempo de práctica previo. En este caso, diríamos que las medias observadas son estadísticamente
distintas o, dicho de otro modo, los grupos pertenecen a poblaciones distintas (con medias diferentes).
Sin embargo, también cabe pensar que las diferentes puntuaciones obtenidas por los sujetos no se deban al
hecho de someter a los grupos a diferentes condiciones experimentales, sino al azar, a esos otros factores extraños
que no hemos controlado o tenido en cuenta en el experimento (constituyen lo que se denomina error
experimental). Por ejemplo, podemos pensar que tal vez la variabilidad observada se deba, no al tiempo de
práctica, sino a otras variables como la edad, el sexo de los sujetos, etc. De hecho, como señalábamos en el párrafo
anterior, si nos fijamos en las puntuaciones dentro de cada grupo, éstas no son iguales como cabría esperar si sólo
hubiese actuado la variable tiempo de práctica previo. En este caso, deduciríamos que las diferencias se deben al
3
azar y no tendríamos razones para pensar otra cosa que no ha habido un efecto de la variable que hemos
manipulado y que las muestras, por tanto, pertenecen a poblaciones con medias iguales.
2
En cualquier caso, la varianza poblacional (  ) es desconocida, pero podemos estimarla desde estas dos
perspectivas y esto es precisamente lo que nos va a permitir desarrollar un estadístico para poder llevar a cabo el
contraste de hipótesis. Se trataría de realizar dos estimaciones independientes de la varianza total descomponiendo
la variabilidad observada en el conjunto de todas las puntuaciones en dos componentes:
1. Un componente debido a la variable estudiada. Será la parte de varianza que se denominemos variabilidad
intergrupo.
2. Otro componente debido a los factores extraños y no controlados en el experimento. Será la parte de varianza
que denominemos varianza intragrupo o varianza de error.
Si estos dos componentes no difieren apreciablemente, podemos concluir que todas las medias grupales
provienen de la misma población y, por tanto, las diferencias observadas se deben al azar. Por el contrario, si ha
habido un efecto de la variable independiente (el tiempo de práctica) la variabilidad intergrupo habrá de ser
significativamente mayor que la variabilidad intragrupo y, por lo tanto, concluiremos que las medias provienen de
poblaciones distintas.
Más adelante, cuando veamos el primer modelo de ANOVA, profundizaremos en este aspecto.
2. Modelos de ANOVA
Antes de presentar los distintos modelos de análisis de varianza, es conveniente ir familiarizándonos con algunos
de los términos utilizados dentro de este contexto.
 Las variables independientes se denominan factores. Las distintas modalidades de los factores son los niveles. En
el ejemplo, el factor es el tiempo de práctica y sus tres niveles 0, 5 y 10 minutos de práctica.
 Los sujetos se denominan unidades experimentales.
 La influencia de cada nivel sobre las unidades experimentales de su grupo es el efecto.
 El error experimental lo constituyen todos aquellos factores que influyen en el experimento y que no podemos
controlar a pesar de llevarlo a cabo en las condiciones más rigurosas.
 Las diferentes muestras se denominan condiciones experimentales o tratamientos.
 Cuando las diferentes condiciones experimentales tienen el mismo número de sujetos decimos que el modelo es
equilibrado.
Con respecto a los modelos de ANOVA, existen varias clasificaciones. Si nos acogemos a la de Pardo y San
Martín (1994), encontramos los siguientes tipos de modelos:
1. En función del número de factores:

Modelo de un factor (o modelo de clasificación simple, modelo de una vía, etc.) cuando trabajamos con una sola
variable independiente, como es el caso del ejemplo.

Modelo de dos factores (o modelo de doble clasificación, modelo de dos vías, etc.) cuando sean dos las variables
independientes.

Si son tres los factores, el modelo es de triple clasificación o de tres vías, y así sucesivamente. Normalmente, con
dos o más factores se utiliza el término genérico de modelos factoriales y suele emplearse una notación que
4
indique directamente el número de factores involucrados y el número de niveles de cada uno. En concreto, se
designan como A x B x C x ..., donde el número de multiplicandos indica el número de factores y los valores de
A, B, C, ... el número de niveles de cada uno. Por ejemplo, un diseño factorial 3 x 2 x 4 será un diseño con tres
factores: el primero con tres niveles, el segundo con dos y el tercero con cuatro niveles. Al combinarlos,
tendremos un total de veinticuatro condiciones experimentales o tratamientos (3 x 2 x 4 = 24).
2. En función del muestreo de niveles:

Modelos de efectos fijos (o modelo I): cuando el investigador quiere, por ejemplo, probar la eficacia de tres métodos
de aprendizaje de lectura, puesto que su intención es comprobar la existencia o no de diferencias significativas
entre estos métodos concretos y no otros.

Modelos de efectos aleatorios (o modelo II): si existiesen multitud de métodos de aprendizaje de lectura y sólo
quisiera demostrar que el nivel de la misma depende de cómo se aprenda, seleccionaría al azar unos pocos
métodos de aprendizaje de todos los posibles y llevaría a cabo el análisis, pero la inferencia la realizaría sobre
el total de los niveles.

Modelos mixtos (o modelo III): cuando en el diseño intervienen más de un factor, siendo alguno de ellos de
efectos fijos y otros de efectos aleatorios.
En el ejemplo, dado que los niveles 0, 5 y 10 minutos de práctica son aquellos sobre los que nos interesa
realizar la inferencia estadística, decimos que es un ANOVA de un factor de efectos fijos.
3. Según el tipo de aleatorización, es decir, según cómo asignemos a los sujetos a las distintas condiciones
experimentales.

Modelo completamente aleatorizado, cuando disponemos de un grupo de sujetos y, siguiendo algún método
aleatorio, los adjudicamos a cada tratamiento de forma que cada sujeto pasa por una sola condición
experimental. El número total de observaciones coincide con el número total de sujetos experimentales. La
aleatorización será eficaz si manejamos tamaños muestrales lo suficientemente grandes como para garantizar
que las variables extrañas queden efectivamente bien repartidas entre los grupos.

Diseños de medidas repetidas, aquéllos en los que un único grupo de sujetos recibe la totalidad de los
tratamientos, es decir, pasa por todas las condiciones experimentales. En este tipo de diseño, el número total
de observaciones no coincide con el número de sujetos utilizados.
En el ejemplo sobre el rendimiento a partir del tiempo de práctica, estamos utilizando tres grupos de sujetos
independientes, cada uno de los cuales pasa por una condición experimental. Como tenemos 5 sujetos por grupo,
en total son 15 las observaciones resultantes. Podemos completar ya el nombre de nuestro modelo: ANOVA de un
factor de efectos fijos completamente aleatorizado.
3. Modelo de un factor completamente aleatorizado
Visto el objetivo del análisis de varianza y la forma general en la que opera este procedimiento estadístico, vamos a
comenzar este tema con el modelo más sencillo, el modelo de un factor, cuya finalidad primaria es comprobar la
efectividad de más de dos niveles sobre un criterio común.
Estructura y notación de los datos
Si partimos de un grupo de N sujetos distribuidos aleatoriamente en los J niveles en los que se ha dividido el
factor A, los resultados obtenidos tras la realización del experimento se pueden expresar de la siguiente manera:
5
niveles
A1
Y11
Y21
...
Yi1
...
Yn11
n1
T1
Y1
observaciones
nº de sujetos
total de puntuaciones
medias
A2
Y12
Y22
...
Yi2
...
Yn22
n2
T2
Y2
...
...
...
...
...
...
...
Aj
Y1j
Y2j
...
Yij
...
Ynjj
nj
Tj
Yj
...
AJ
Y1J
...
...
...
...
...
...
Y2J
...
YiJ
...
YnJJ
nJ
TJ
YJ
N
T
Y
Esta forma de expresarnos hace referencia a datos muestrales. Si queremos referirnos a la población, en
lugar de los estadísticosYj,Y, etc., hablaremos de los parámetros j, , etc.
Ejemplo 3. Con nuestros datos:
0’
5’
10’
1
2
2
0
3
5
3
5
6
1
5
4
7
5
2
nj
5
5
5
15
Tj
8
20
23
51
Yj
1,6
4,0
4,6
3,4
Modelo
Podemos introducir ya el modelo correspondiente al diseño de un factor de efectos simples completamente
aleatorizado que, teniendo en cuenta el modelo lineal en el que se fundamenta el ANOVA, expresa el valor de la
variable dependiente Y observada en el sujeto i sometido al tratamiento j como la suma de tres componentes:
Yij =  + j + ij
donde  es el promedio de todas las puntuaciones en la población. Esta media también viene dada como el
promedio de las medias de las subpoblaciones (j) correspondientes a cada uno de los niveles en los que se ha
dividido la variable independiente:

n
j
j
j
 nj
que no es más que una media ponderada, con pesos n1, n2, ..., nj, de las medias 1, 2, ..., j.
Puesto que cada sujeto ha sido asignado a un tratamiento concreto (Aj), es posible que se vea influido por el
efecto específico de ese tratamiento y no de otro. Por eso, a la media total hay que sumar un componente (j) que
indique esa posible influencia. Este efecto, propio del nivel Aj sobre la puntuación Yij, podemos definirlo, por tanto,
como:
j = j - 
6
Este componente no es más que una puntuación diferencial, por tanto,  j  ( j   )  0 . Es decir, el
efecto de unos tratamientos se compensa con el efecto de otros y siempre va a ocurrir que la suma de todos ellos es
igual a cero.
Dado que el investigador pretende averiguar si los niveles en los que se divide la variable independiente (en
nuestro ejemplo eran los distintos minutos de práctica) tienen un efecto sobre la variable dependiente (rendimiento
motor), recordemos que la hipótesis nula que somete a comprobación es la de igualdad de medias poblacionales, es
decir:
H0 : 1 = 2 = ... = j = ... = J
Esto es lo mismo que decir que el efecto de los distintos tratamientos (j) es nulo, por lo que podemos
escribir la hipótesis nula de otra manera, concretamente como:
H0 : 1 = 2 = ... = j = ... = J
O, también (y teniendo en cuenta que la suma de los efectos es igual a cero):
H 0 :  j  2j  0
Estas tres formas de escribir la H0 expresan lo mismo y mediante la técnica del ANOVA comprobaremos o
no su falsedad.
Por otro lado, cuando realicemos experimentos de este tipo, podremos observar que no sólo las
puntuaciones son diferentes entre los distintos niveles como consecuencia del efecto propio del tratamiento (j),
sino que además, dentro de cada nivel no todas son iguales a su media (j). Esto quiere decir que distintos factores
de carácter aleatorio están actuando además del que estamos estudiando (minutos de práctica) y dan lugar a esas
diferencias entre las puntuaciones dentro de un mismo grupo. Por tanto, volviendo al modelo planteado, debemos
añadir a la ecuación lo que denominaremos término de error (ij).
Supuestos del modelo
Como siempre que se lleva a cabo un contraste de hipótesis, necesitamos establecer las condiciones o
supuestos bajo los cuales el estadístico de contraste nos permitirá tomar decisiones acerca de la hipótesis nula
planteada. Esto es muy importante ya que de su cumplimiento o no dependerá que las decisiones sobre la hipótesis
nula sean más o menos acertadas.
El ANOVA, como cualquier otra técnica paramétrica, está sujeta a una serie de restricciones. Antes tal vez
convenga recordar que las pruebas paramétricas, en general, son más potentes que las no paramétricas, es decir,
tienen mayor capacidad para rechazar una hipótesis nula falsa. Por el contrario, son menos robustas que las no
paramétricas, lo que significa que, de violarse los supuestos a los que están sometidas, es más fácil alterar la
distribución muestral del estadístico de contraste. El ANOVA, sin embargo, a pesar de ser una prueba paramétrica
sujeta a una serie de restricciones, es bastante robusta y el hecho de que no se cumplan estrictamente sus supuestos
no va a producir consecuencias serias si las muestras son equilibradas y se trabaja con un modelo de efectos fijos.
Ya que el ANOVA no es más que una versión específica del modelo lineal general, deberá cumplir los
supuestos básicos de este modelo. Además, pone a prueba la existencia o no de un efecto de la variable
independiente sobre la dependiente, por lo que deberá cumplir también las condiciones que permitan obtener la
distribución muestral del estadístico de contraste que se utiliza en la prueba estadística (Riba, 1987).
7
Los supuestos que debe cumplir teniendo en cuenta el modelo lineal en el que se fundamenta son:
a. Especificación completa del modelo.
b. Aditividad del modelo.
c. Esperanza matemática de los errores igual a cero.
Además, para poder realizar el contraste de hipótesis sobre diferencias de medias, se deben cumplir las siguientes
condiciones:
d. Independencia de las puntuaciones (o de los errores).
e. Normalidad de las observaciones (o de los errores).
f. Homogeneidad de varianzas de las subpoblaciones.
A continuación, vamos a ver cada uno de estos supuestos de forma más detallada, qué técnicas podemos utilizar
para probarlos, qué ocurre cuando se violan y qué soluciones existen para solventar los problemas que se deriven
de su incumplimiento.
a.
Especificación completa del modelo
Siguiendo a Riba (1987), se da la circunstancia de que numerosos investigadores, preocupados por descubrir
diferencias entre los grupos experimentales, no incluyen todas las variables relevantes en la ecuación y, en
consecuencia, el término de error se ve incrementado por la variabilidad correspondiente a la variable omitida. El
resultado final es que las pruebas de significación que se lleven a cabo se verán afectadas.
Una forma de comprobar el cumplimiento o no de este supuesto es centrando nuestra atención en los
errores. Si existe una variable que no ha sido especificada en el modelo, los errores no son independientes de las
observaciones, lo que puede constatarse o bien en una relación significativa entre errores y observaciones, o bien en
una representación gráfica de los primeros en función de los segundos, representación en la que no se verá reflejada
la aleatoriedad de los errores.
b.
Aditividad del modelo
El modelo de ANOVA del que partimos, Yij =  + j + ij , involucra tres componentes cuya relación es aditiva: cada
observación (Yij) es igual a la media total de la variable dependiente (), más un término que refleja la desviación de
la media de cada grupo con respecto a la media total (j), más lo que se desvía la observación de la media de su
grupo (ij)
Podemos saber si esta relación se cumple analizando los efectos j. Si, por ejemplo, el incremento de j en
una cantidad fija no supone el incremento de Yij en esa misma cantidad, sino en una determinada proporción, la
relación es multiplicativa, es decir, Yij =  j + ij. Una solución a este problema consistiría en la transformación de
los datos brutos, Yij, en sus correspondientes logaritmos, logYij.
c.
Esperanza matemática de los errores
Dado que los errores constituyen las desviaciones de las puntuaciones con respecto a la media de su grupo, cabe
esperar que su media sea cero.


E( ij )  E(Yij     j )  E Yij    ( j   )  E(Yij   j )   j   j  0
8
Dado que en todo experimento la presencia de factores aleatorios no controlados es inevitable, los errores
siempre están presentes, no obstante, unos se compensan con otros y, a la larga, es de esperar que se anulen.
Cuando esto no sucede, las puntuaciones están sesgadas.
d.
Independencia de las observaciones
Este supuesto implica la selección aleatoria de los sujetos objeto de estudio. La independencia de las puntuaciones
Yij se consigue cuando cada una de ellas ha sido extraída aleatoriamente de la población. A pesar de que este
procedimiento asegura que los sujetos representen bien a la población y, por ende, se pueda realizar una buena
generalización de los resultados obtenidos de los análisis estadísticos, por diversas razones (economía de tiempo y
dinero; interés del investigador centrado, más que en la representación de los sujetos, en detectar el efecto de la
variable independiente sobre la dependiente, etc.) no es el método más utilizado en los experimentos.
Normalmente se parte de una muestra elegida por su mayor disponibilidad (lo que no implica que sea cualquier
muestra) y se asignan los sujetos a los niveles de la variable independiente de forma aleatoria, de manera que las
variables extrañas quedan controladas.
En cualquier caso, ha de lograrse la independencia de las observaciones puesto que la violación de este
supuesto trae consecuencias graves: rechazaremos una hipótesis nula con mayores niveles de significación de lo
que en realidad justifican los datos.
Una forma de comprobar si las puntuaciones son independientes es aplicando el coeficiente de correlación serial
de separación 1 o bien el test de rachas a las mismas. Este último es muy utilizado y consiste en comprobar si el
número de rachas (se entiende por racha cualquier secuencia de observaciones que están por encima o por debajo
de la mediana, por ejemplo) es el cabe esperar por mero azar. Si vemos que no se cumple el supuesto podemos
transformar los datos brutos en sus logaritmos, sin embargo, es la restricción más fácil de conseguir mediante un
proceso adecuado de aleatorización.
El hecho de que las puntuaciones sean independientes implica que también los errores lo sean, puesto que
partimos de un modelo en el que la v.a. ij está en función de la v.a. Yij.
e.
Normalidad de las observaciones
Bajo este supuesto las observaciones, Yij, y, por tanto, también los errores, ij, de cada nivel o tratamiento Aij
pertenecen a poblaciones cuya distribución sigue el modelo normal, con medias j y 0, respectivamente.
Hay muchas pruebas que nos permiten probar este supuesto. Dentro de las pruebas no paramétricas para
comprobar la bondad de ajuste de los datos a la distribución normal tenemos a disposición dos que resultan de gran
utilidad a nuestros propósitos: el contraste Kolmogorov-Smirnov y el contraste de Lilliefors.
No obstante lo dicho, el ANOVA permanece robusto frente a la violación de este supuesto, no
incrementándose la probabilidad de cometer el error tipo I, sobre todo en modelos de efectos fijos. Sí tendrá mayor
influencia en las pruebas que se utilizan para comprobar el supuesto que viene a continuación. En el caso de
necesitar la normalidad de los datos, una transformación logarítmica nos ayudará a obtenerla.
f.
Homogeneidad de varianzas
Dentro de cada nivel Aj las puntuaciones se ven influidas, por un lado, por el efecto propio del tratamiento y, por
otro, por las variables extrañas (error experimental). Como el efecto del tratamiento es el mismo para todos los
sujetos, la variación observada entre las puntuaciones se deberá a esos factores no controlados. Es decir:
 2j =  2
9
Además, si el proceso de aleatorización ha sido adecuado, cabe esperar que las variables extrañas actúen por
igual en todos los niveles, con lo que:
 21 =  22 = ... =  2j = ... =  2J =  2
suponemos que todas las muestras proceden de subpoblaciones con idéntica varianza. Si esto es así,
entonces todas estas varianzas son iguales a la varianza poblacional:
 21 =  22 = ... =  2j = ... =  2J =  2 =  2
Para comprobar si las varianzas son homogéneas podemos aplicar el contraste de Bartlett o el contraste de
Cochran. El primero es muy eficaz, pero sensible al incumplimiento del supuesto de normalidad de las
puntuaciones, tanto que resulta una excelente prueba para comprobar este supuesto de normalidad por sí solo. El
segundo es aplicable a modelos equilibrados y, al igual que el primero, es sensible a la no normalidad de las
puntuaciones.
Por el contrario, el contraste de Levene no es sensible a la falta de normalidad. Se trataría simplemente de
realizar un ANOVA con las puntuaciones diferenciales en valor absoluto de las observaciones, puntuaciones que se
obtienen restando a cada observación la media de su grupo.
El ANOVA permanece robusto ante el incumplimiento de este supuesto, siempre que los tamaños muestrales
sean iguales. Cuando los tamaños muestrales sean desiguales, correspondiéndose los de menor tamaño con
varianzas mayores (y al revés), la prueba F se torna liberal, es decir, se produce un incremento de la probabilidad
de cometer el error tipo I, se infla el ; cuando a las muestras de mayor tamaño les corresponde las varianzas
también mayores, la prueba se vuelve conservadora (Hernández, Borges y Ramírez, 1996). Para solucionar estos
problemas, podemos realizar una transformación de los datos.
Estimación de los términos del modelo
A partir del modelo establecido y de sus supuestos, podemos expresar la ecuación propuesta de otra manera:
Yij =  + j + ij =  + (j - ) + (Yij - j)
El problema que nos surge es el hecho de venir expresada la ecuación en términos de parámetros, que son
desconocidos y debemos estimar. De las distintas maneras disponibles para obtener los estimadores, vamos a
presentar el método de los mínimos cuadrados, que ya resulta familiar. Así, vamos a tratar de estimar los valores
de , j y ij de modo que la suma de los errores cuadráticos sea mínima, es decir, 
Yij     j 2 sea mínimo.
i
j
 Y
Estimador del parámetro 
̂ 
Estimador del parámetro j
̂ j  Y j  Y
Estimador de ij
i
j
n
ij
Y
 ij  Yij  Y j
Volviendo a la ecuación presentada al principio de este apartado:
Yij =  + j + ij =  + (j - ) + (Yij - j)
10
podemos reescribirla sustituyendo sus parámetros por los estimadores muestrales que acabamos de obtener. De este
modo,
si
Yij =  + (j -  ) + (Yij - j ) es válida en la población
Yij=Y + (Yj -Y ) + (Yij -Yj ) es válida en la muestra
Llegados a este punto, nos vamos a detener un momento para retomar nuestros objetivos y ver qué hemos obtenido
hasta ahora, antes de que “los árboles no nos dejen ver el bosque”. Nuestra finalidad es determinar si distintos
niveles de la variable independiente o tratamientos que estamos estudiando tienen un efecto sobre la variable
dependiente de interés. Para ello, debemos realizar un contraste de hipótesis sobre las medias correspondientes a
las diferentes subpoblaciones. Sin embargo, como hemos podido ver, este contraste se realiza descomponiendo la
variabilidad observada en el conjunto de las puntuaciones en dos componentes: la que se debe a la variable
estudiada, varianza intergrupo, y la debida a factores extraños y no controlados por el experimentador, varianza de
error o intragrupo (ambas, estimaciones independientes de la misma varianza poblacional). En la medida en que la
variabilidad intergrupo sea significativamente mayor que la intragrupo, podremos concluir que ha habido un efecto
de la variable independiente sobre la dependiente.
Por el momento, hemos presentado el planteamiento de la hipótesis nula, el modelo de ANOVA en el que se
fundamenta este análisis estadístico y los supuestos que se deben cumplir. Además, dado que trabajamos con datos
muestrales, a partir del método de los mínimos cuadrados hemos podido sustituir los parámetros del modelo por
sus correspondientes estimadores.
Como vemos, estamos siguiendo los pasos habituales de un contraste de hipótesis y, dado que ya disponemos del
modelo y sus supuestos, nuestro siguiente paso es determinar el estadístico de contraste que nos permita tomar
decisiones acerca de la hipótesis nula de igualdad de medias o efecto nulo de la variable independiente o factor.
Veamos, pues, cómo se llega a él.
Descomposición de la varianza total en sus componentes aditivos
Hasta ahora conocemos la siguiente expresión:
Yij=Y + (Yj -Y ) + (Yij -Yj )
Podemos restar a dicha puntuación la media totalY, de forma que:
Yij -Y = (Yj -Y ) + (Yij -Yj )
Esta expresión nos indica lo que se desvía una puntuación concreta, Yij, de la media del total de las
puntuaciones,Y. Esta variación total vemos que se puede descomponer en dos componentes aditivos: el primero nos
indica lo que se desvía la media del grupo,Yj, al que pertenece la puntuación, de la media total y el segundo
componente nos indica lo que desvía la puntuación de la media de su grupo.
Si en lugar de referirnos sólo a una observación lo hacemos con el conjunto de todas las observaciones, la
expresión anterior quedaría como sigue:
 Y
i
j
  Y
i
j
ij
ij
Y
Y
  Y
2
i
j
j
 
 Y  Yij  Y j
   n Y  Y     Y
2
2
j
11
j
j
i
j
ij

2
 Yj

2
Téngase en cuenta que hemos tenido que elevar al cuadrado los dos miembros de la ecuación porque, como
sabemos, la suma de puntuaciones de desviación es igual a cero y elevando al cuadrado evitamos que se anulen las
diferencias.
El miembro de la izquierda
  Y
j
j
ij
Y

2
representa (del mismo modo que sucedía con un sujeto) la
desviación del conjunto de las puntuaciones con respecto a la media total. Lo llamaremos, por tanto, variabilidad
total.
Por su parte,
 n Y
j
j
j
Y

 Yj

2
nos indica cuánto se desvían las medias de los grupos de la media total, refleja la
variabilidad intergrupo.
Por último,
 Y
i
j
ij
2
es un indicador de la desviación de cada puntuación con respecto de la media de
su grupo, por tanto, lo llamaremos variabilidad intragrupo o error (recordemos que es el error experimental el que da
lugar a que las puntuaciones Yij no sean iguales dentro de cada grupo).
Dado que los tres miembros de la ecuación constituyen sumas de diferencias cuadráticas, podemos hablar en
estos términos, es decir, suma cuadrática total, suma cuadrática intergrupo y suma cuadrática intragrupo, respectivamente:
SCtotal = SCinter + SCintra
En definitiva, la suma cuadrática total se puede descomponer en dos componentes aditivos: la suma
cuadrática inter y la suma cuadrática intra.
Medias cuadráticas
Recordemos que para poder llevar a cabo el contraste de diferencias de medias tenemos que realizar dos
estimaciones de la varianza poblacional  2 desde perspectivas distintas: una, correspondiente a la varianza
intergrupo, tendrá en cuenta las desviaciones de los grupos con respecto a la media total y, la otra, correspondiente a
la varianza intragrupo, tendrá en cuenta las desviaciones de las puntuaciones con respecto a la media de su grupo.
Pues bien, si dividimos las sumas cuadráticas obtenidas anteriormente por sus respectivos grados de libertad,
obtendremos las varianzas que buscamos.
En el contexto del ANOVA estas varianzas se conocen con el nombre de medias cuadráticas o varianzas
estimadas.
De esta forma, la media cuadrática intergrupo (MCinter) será igual a:
MCinter = SCinter / glinter
Del mismo modo, la media cuadrática intragrupo o de error (MCintra) será igual a:
MCintra = SCintra / glintra
La razón F
En el apartado anterior hemos podido ver que MCinter es un indicativo de la variación de las medias de los grupos
respecto a la media poblacional.
Además, ambas estimaciones de la varianza poblacional, MCinter y MCintra, son independientes puesto que
MCinter se obtiene a partir de las medias muestrales y MCintra de las varianzas muestrales.
12
Consecuentemente, la H0 de igualdad de medias puede ser puesta a prueba mediante la razón entre las
medias cuadráticas. Si la H0 se cumple, el valor esperado de MCinter /MCintra será 1 (o cercano a 1). Es decir, que, si
H0 es cierta, ambas medias cuadráticas serán parecidas, sus valores esperados igual a  2 y su cociente
aproximadamente igual a uno.
Por el contrario, si hay un efecto significativo de la variable independiente sobre la dependiente (H0 es falsa),
el valor esperado de MCintra será mayor que el valor esperado de MCintra, y, por tanto, el cociente entre ambas medias
cuadráticas será significativamente mayor que uno.
En definitiva, vamos a utilizar la razón
F
MCint er
MCint ra
como estadístico de contraste para comprobar la falsedad o no de la H0, que se distribuirá según FJ - 1; N – J.
Valores F menores que 1
Hay ocasiones en las que nos encontramos con valores F menores que 1, lo cual resulta contradictorio
teniendo en cuenta las esperanzas matemáticas de las medias cuadráticas. Si esto ocurre debemos sospechar que
algo ha ocurrido y que, en la medida de lo posible, repitamos el experimento.
Si observamos una serie de valores F repetidamente pequeños, esto nos indica una tendencia sistemática de
las medias cuadráticas del numerador a ser más pequeñas que las medias cuadráticas del denominador, lo que nos
puede hablar de un sesgo negativo (Abelson, 1998) que se produce cuando algún factor sistemático aporta una gran
varianza al término de error, pero no al numerador de la razón F. En estos casos el modelo es inadecuado. Los
valores F excesivamente pequeños también pueden deberse al incumplimiento de alguno de los otros supuestos del
modelo.
Valores F demasiado grandes
La otra cara de la moneda la constituye una F excesivamente grande. Es raro que en la investigación
psicológica nos encontremos con valores F muy grandes, salvo que las diferencias sean tan enormes que no resulte
necesario el análisis (excepto, claro está, que llevemos a cabo una comprobación rutinaria de una fuerte
manipulación experimental). En estos casos estaríamos hablando de un sesgo positivo (Abelson, 1998), según el
cual, alguna variable (o variables), aparte de la que estamos estudiando, aporta más varianza al numerador que al
denominador de la razón F. Cuando esto ocurre las observaciones no son todas independientes entre sí, como
exige el modelo y el resultado es que se infla indebidamente la F.
También puede suceder que estemos trabajando con muestras excesivamente grandes. En este sentido, cabe
todo lo dicho al respecto en el apartado que hace referencia al tamaño del efecto. Únicamente añadir que para un
tamaño de efecto dado, el valor de F es aproximadamente proporcional al tamaño de n por grupo. Podemos acudir
a Rosenthal (1991, cit. por Abelson, 1998) para una exposición más detallada. Baste decir que un valor de F/n
igual a 0,5 nos habla ya de un resultado inusual; un valor de 1,0 es muy raro y un valor mayor que 2,0 es
extraordinario.
Por último, que la razón F sea excesivamente grande también puede deberse a la existencia algún tipo de
error. Podemos descartar su presencia mediante una representación gráfica, donde únicamente deberíamos ver que
los grupos son muy diferentes, como lo indica la F.
13
Resumen del ANOVA de un factor
1) Hipótesis a contrastar:

H1 : j   // H1 :  
H0 : j =  // H0 :
j
2
j
0
j
2
j
0
2) Supuestos:
a) Especificación completa del modelo.
b) Aditividad del modelo.
c) Esperanza matemática de los errores igual a cero.
d) Independencia de las observaciones (o de los errores).
e) Normalidad de las observaciones (o de los errores).
f) Homogeneidad de varianzas.
3) Estadístico de contraste:
F
MCint er
; FJ - 1; N – J.
MCint ra
Fuentes de
variación:
FV
inter
Sumas
cuadráticas:
SC
intra
 n Y  Y 
  Y  Y 
total
  Y
2
j
j
j
Grados de
libertad:
gl
J–1
Medias
cuadráticas:
MC
SCinter / glinter
2
j
j
i
i
ij
ij
j
Y
N–J

SCintra / glintra
Estadístico de
contraste:
F
F
MCint er
MCint ra
N–1
2
Ejemplo 4. Como ejemplo práctico vamos a resolver el problema sobre el rendimiento motor propuesto en este tema, teniendo en
cuenta que, con tan solo cinco observaciones por condición, trabajamos con muestras nada representativas de las poblaciones
de las cuales han sido extraídas, produciéndose con gran probabilidad la violación de los supuestos básicos del análisis de
varianza. Sin embargo, consideremos este ejemplo con fines únicamente didácticos.
0’
5’
10’
1
2
2
0
3
5
3
5
6
1
5
4
7
5
2
nj
5
5
5
N = 15
Tj
8
20
23
T = 51
Yj
1,6
4,0
4,6
Y = 3,4
14
1. Planteamiento de las hipótesis:
H0 : 1 =2 =3 (todas las medias son iguales: el tiempo de práctica no afecta al rendimiento motor)
H1 : j   (no todas las medias poblacionales son iguales: el tiempo de práctica afecta al rendimiento motor)
2. Supuestos: (teniendo en cuenta lo dicho anteriormente) poblaciones normales con varianzas iguales, muestras
aleatorias e independientes.
3. Estadístico de contraste:
Comenzamos calculando los totales de puntuaciones:
N   j n j  5  5  5  15
T   j T j  8  20  23  51
Y
i
2
j ij
 12  22  ...  52  22  233
Ya podemos calcular las sumas cuadráticas:
SCtotal  
Y 2  T 2 / N  233 512 / 15  59,6
i
j ij


SCint ra  
Y 2   j T j2 / n j 
i
j ij
 233 (8 / 5  20 / 5  232 / 5)  233 198,6  34,4
2
2
SCint er  SCtotal  SCint ra  59,6  34,4  25,2
Los grados de libertad asociados a cada una de las sumas cuadráticas son:
glinter = J - 1 = 3 - 1 = 2
glintra = N - J = 15 - 3 = 12
gltotal = N - 1 = 15 - 1 = 14
Con estos datos podemos construir la tabla de ANOVA:
FV
SC
gl
MC
F
inter
intra
25,5
34,4
2
12
25,5 / 2 = 12,6
34,4 / 12 = 2,86
4,395
total
59,6
14
4. Distribución muestral del estadístico de contraste: F se distribuye F2, 12.
Nivel de significación  = 0,05. Por tanto, en la Tabla 4 del apéndice encontramos que F0,95; 2, 12 = 3,89.
5. Decisión: Con un margen de error de 0,05, rechazamos H0 ya que 4,395 > 3,89.
6. Conclusión: A la vista de los resultados, podemos concluir que existen diferencias en el rendimiento motor entre al
menos dos grupos experimentales, o, lo que es lo mismo, respondiendo a la pregunta inicial, se puede afirmar que
sujetos con diferentes tiempos de práctica (0’, 5’ y 10’) tienden a puntuar de forma distinta en la prueba de rendimiento
motor.
15
Podemos representar las medias de las puntuaciones de los tres grupos en la siguiente gráfica:
V.D. 5
4
3
2
1
0
0'
5'
10'
En el eje X representamos los niveles del factor y en el eje Y las medias de los tres grupos.
4. Tamaño del efecto
A lo largo de las páginas anteriores hemos podido ver cómo el ANOVA resuelve eficazmente el problema de
comparar J medias sin tener que recurrir a la prueba t-Student. Sin embargo, seguimos teniendo un problema que
resolver. Como ocurre en cualquier prueba de contraste, el tamaño o tamaños muestrales influyen en la
significación de la misma, de forma que un resultado significativo puede deberse, no sólo al efecto de la variable
independiente sobre la dependiente, sino también al elevado número de observaciones. Es decir, podemos
encontrar diferencias significativas entre dos estadísticos aun cuando las diferencias entre ellos sean muy pequeñas,
insignificantes. En otras palabras, siguiendo a Pardo y San Martín (1994), la significación estadística de un resultado
no es sinónima de la significación o importancia real de ese resultado.
La prueba F no escapa a este fenómeno, de modo que podemos obtener resultados significativos partiendo
de muestras suficientemente grandes. Por este motivo, debemos desarrollar algún índice que nos permita obtener el
tamaño del efecto para saber hasta qué punto las diferencias encontradas mediante el ANOVA se pueden atribuir a la
situación experimental. Estos índices responden al nombre de medidas de asociación o proporción de varianza explicada
y pretenden medir el tamaño del efecto, es decir, el grado de influencia de la variable independiente sobre la
dependiente.
Vimos que la suma cuadrática total, SCtotal, se descomponía en dos partes aditivas: la suma cuadrática
intergrupo, SCinter, y la suma cuadrática intragrupo o de error, SCintra. La primera refleja la variación debida a los
efectos de la variable independiente sobre la dependiente y la segunda refleja la variación debida a otros factores no
tenidos en cuenta en el experimento. Pues bien, podemos utilizar estas sumas cuadráticas para expresar la fuerza
de la relación entre la variable dependiente y el factor:
 yx2 
SCint er
SCint er

SCint er  SCint ra
SCtotal
Esta expresión se denomina razón de correlación y se interpreta como la proporción de varianza de la variable
dependiente explicada por el factor o variable independiente. Es importante saber esto porque así evitamos
sobrevalorar resultados significativos que carecen de utilidad práctica.
Ejemplo 5. En nuestro ejemplo, 2yx arroja un valor de 25,2/59,6 = 0,423, lo que significa que el 42,3% de la variabilidad de la
destreza motora se debe al efecto del tiempo de práctica.
A pesar de que eta cuadrado nos indica el grado en que la variable dependiente se ve afectada por la
independiente, no es un buen estimador de su parámetro por ser muy sesgado. Un mejor índice que intenta corregir
16
(o al menos disminuir) el sesgo positivo inherente a eta es el desarrollado por Hays en 1963 (Tatsuoka, 1993) que se
define como:
2 
SCint er  glint er  MCint ra
MCint ra  SCtotal
y que podemos poner en relación con el valor de F mediante:
2 
F 1
F 1 
N
J 1
Así, mientras que F es una medida de la significación estadística de las diferencias de J medias, 2 es una
medida de su importancia práctica o científica. Precisamente porque ambos datos no van siempre en relación
directa, debemos obtener los dos.
Ejemplo 6. Con los datos de nuestro ejemplo,
2 
25,2  2  2,86
 0,3118
2,86  59,6
o bien
2 
4,395 1
 0,3116
15
4,395 1 
3 1
No obstante lo dicho anteriormente, hay que tener cierta precaución a la hora de interpretar esta medida. Si
bien conceptualmente resulta un buen complemento a la información proporcionada por la prueba global F, mejor
que 2yx, no está exenta de inconvenientes. Por ejemplo, su error típico es muy grande, sobre todo en tamaños
muestrales pequeños, lo que nos puede llevar a un valor de 2 muy grande cuando el efecto no lo es. O puede
ocurrir justo lo contrario (Pardo y San Martín, 1994).
5. Comparaciones múltiples
Hasta ahora hemos visto el procedimiento para comprobar si más de dos medias poblacionales son o no
iguales. Las hipótesis que establecíamos eran:
H0: μj = μ (Todas las medias poblacionales son iguales)
H1: μj  μ (No todas las medias poblacionales son iguales)
y, mediante el análisis de varianza, llegábamos al rechazo o no de la hipótesis nula.
El rechazo de H0 supone llegar a la conclusión de que no todas las medias son iguales, lo que en ningún caso
significa que todas sean distintas. La razón F obtenida sólo supone una valoración global de la efectividad de la
variable independiente sobre la dependiente y, si se rechaza la hipótesis nula, el enunciado no todas las medias son
iguales no nos suministra gran información, dado que no nos permite conocer de forma concreta qué medias son las
que difieren.
Por ejemplo, supongamos dos situaciones en las que se comparan tres tratamientos. En la primera de ellas el
investigador obtiene 𝑌̅1 = 20, 𝑌̅2 = 20 y 𝑌̅3 = 40 y en la segunda 𝑌̅1 = 5, 𝑌̅2 = 10 y 𝑌̅3 = 30. Si en ambos casos
obtiene una razón F significativa, el experimentador llegará a la conclusión de que H0 es falsa. Sin embargo, las
relaciones entre las medias poblacionales son muy diferentes en las dos situaciones.
Por eso, por ser tan general la conclusión a la que llegamos, la prueba F suele recibir los nombres de prueba
global F o prueba ómnibus. Parece necesario, por tanto, disponer de alguna técnica que nos permita localizar entre
17
qué grupos o condiciones se encuentran las posibles diferencias, una vez hemos rechazado la H0 global de que
todas las medias son iguales.
Otra situación diferente pero que también se nos puede plantear es aquélla en la que ya sabemos que una
variable independiente afecta a la dependiente y sólo queremos ir en busca de algunas diferencias concretas entre
los grupos de interés. En estos casos, no nos interesa la prueba global F (ni siquiera llegamos a realizarla), sino
alguna otra técnica que nos permita evaluar esos contrastes concretos.
Comparaciones múltiples o contrastes
Independientemente de si las comparaciones se realizan después de la prueba global o sin llegar a ella,
podemos llevar a cabo diferentes tipos de contrastes entre las medias, pero siempre serán dos grupos los que se
comparan (comparaciones dos a dos, comparaciones de una media con el resto, etc.). En cualquier caso, todas
reciben el nombre de comparaciones múltiples porque, como su propio nombre indica, se puede realizar más de una
comparación con los mismos datos.
Contrastes a priori y a posteriori
Hay ocasiones en las que el investigador, ya antes de la realización de su experimento, planifica ciertas
comparaciones que tienen relevancia directa con la teoría que subyace a su trabajo experimental. En estas
situaciones, sus conjeturas son concretas y corresponden a cuestiones que espera responder al realizar el
experimento, sin necesidad de llegar a realizar la prueba global. Las técnicas que se utilizan para contrastar estas
hipótesis concretas se denominan contrastes a priori o planeados.
Por el contrario, en otras ocasiones, el investigador sospecha que una variable independiente puede tener un
efecto sobre otra dependiente y diseña un experimento con varios niveles de tratamientos para ver si se confirman
sus dudas. En estas situaciones, el análisis de los datos adecuado es un ANOVA ómnibus ya que es el que le
permite examinar la hipótesis básica de que todas las medias son iguales. Si éste resulta significativo quiere decir
que efectivamente la variable independiente afecta a la dependiente, pero, dado que el análisis de varianza es muy
general, deberá aplicar alguna técnica que le permita averiguar dónde están exactamente las diferencias. En estos
casos utilizará procedimientos que responden al término de contrastes a posteriori o post-hoc.
Una diferencia estadística importante entre estas pruebas es el control que ejercen sobre la probabilidad de
cometer el error tipo I en los contrastes que se realicen. Las pruebas planeadas, en general, no realizan ese control,
llevándose a cabo cada una de ellas con niveles de significación convencionales. Por el contrario, las pruebas a
posteriori, dado que se utilizan fundamentalmente para indagar entre las medias (con lo que se llevan a cabo más
comparaciones), están diseñadas de manera que sus niveles de significación sean más rigurosos. En consecuencia,
estas últimas tienen una menor sensibilidad de cara a rechazar una H0.
En este sentido, se dice que son menos potentes que las pruebas a priori. Las comparaciones a priori se
efectúan aunque la razón F no sea estadísticamente significativa. De hecho, se establecen los contrastes a realizar
incluso antes de la fase de recogida de datos y no se llega a realizar el análisis de varianza general. Por eso, a estas
técnicas se las suele considerar como alternativas a la prueba global. En cambio, las comparaciones a posteriori exigen
que la razón F sea estadísticamente significativa, puesto que tratan de determinar dónde se hallan las diferencias
detectadas por el análisis de varianza. De ahí, que a estas técnicas se las considere como un complemento de éste
(San Martín y Pardo, 1989).
Bibliografía
Cañadas, I (1999): Análisis de varianza. Santa Cruz de Tenerife: Resma.
18
Descargar