Métodos Paramétricos vs No Paramétricos Introducción Familias param. y no-param. • Familias paramétricas: Funciones de distribución caracterizadas por pocos parámetros • Familias no paramétricas: Funciones de distribución que no se pueden caracterizar con pocos parámetros Comparación de variables “continuas” • Métodos paramétricos: Métodos estadísticos válidos para la familia de las distribuciones normales • Métodos no paramétricos: Métodos estadísticos válidos para una familia de distribuciones no paramétricas. También se les llama métodos estadísticos de distribución libre puesto que sus propiedades estadísticas no dependen de la distribución de la población que se estudia 2 Métodos Paramétricos vs No Paramétricos Introducción Métodos Paramétricos vs No Paramétricos Introducción Métodos No Paramétricos Ventajas • Requieren pocas asunciones (normalidad) • El cálculo manual es más rápido en muestras pequeñas Ventajas • Son a menudo más fáciles de entender • Son relativamente insensibles a valores extremos Desventajas 3 Métodos Paramétricos vs No Paramétricos Introducción 4 Métodos Paramétricos vs No Paramétricos Introducción Ventajas Desventajas • Son aplicables en muchas situaciones donde los métodos paramétricos no lo son. Muchos métodos no paramétricos precisan sólo los rangos de las observaciones, en vez de la magnitud. • Los métodos jacknife y boostrap permiten una aproximación en situaciones muy complicadas. • El desarrollo de programas informáticos ha facilitado un rápido cálculo del p-valor en los métodos no paramétricos condicionados. Por eso, en principio, siempre es posible el cálculo exacto del p-valor. 5 • Cuando las variables son normales (en cuyo caso ambos métodos son válidos) son menos eficientes (potentes). – En este caso el p-valor excede al obtenido por métodos paramétricos. Así es más difícil encontrar un resultado significativo con una prueba no paramétrica. Aunque la diferencia no es muy grande • El cálculo manual con muestras grandes es tedioso y largo • Permiten menos refinamientos en el análisis posterior, más detallado, de los datos. 6 Métodos Paramétricos vs No Paramétricos Introducción Métodos Paramétricos vs No Paramétricos Introducción Tamaño de la muestra Rangos Puntuaciones • Un factor que limita la aplicabilidad de los métodos paramétricos es el tamaño de la muestra disponible para el análisis. • Las pruebas no paramétricas usan el orden de los datos para su análisis • Podemos asumir que la distribución de la muestra es normal aunque no estemos seguros si la variable en la población es normal, siempre que nuestra muestra sea suficientemente grande (p.e. 30 o 100 observaciones o más). • Rango: El orden de cada uno de los datos • Puntuación (“score”): Se transforma el rango en una puntuación para realizar la prueba estadística • Si nuestra muestra es pequeña, entonces estos métodos pueden ser usados solamente si estamos seguros de que la variable se distribuye normalmente y no hay manera de comprobar esta asunción si la muestra es pequeña. • Los empates pueden tratarse de diferente manera 7 8 Métodos Paramétricos vs No Paramétricos Introducción Métodos Paramétricos vs No Paramétricos Introducción Rangos Puntuaciones Comprobación Normalidad • Ejemplo Datos Wilcoxon Median VW Savage 1 1 2 3 2 0 -0,90846 -0,78889 3,5 0 -0,47667 -0,59246 3 3,5 0 -0,47667 -0,59246 4 5 5 0 -0,11419 -0,35437 6,5 1 5 6 6,5 7 8 0 -1,33518 -0,90000 Siegel-Tukey Ansari-Bradley Klotz Mood 1 1,78271 20,25 4 2 0,82530 12,25 6,5 3,5 0,22721 6,5 3,5 0,22721 4 10 5 0,01304 0,25 0,23147 -0,02937 8,5 4,5 0,05358 1 1 0,23147 -0,02937 8,5 4,5 0,05358 1 8 1 0,60459 0,42897 5 3 0,36553 6,25 9 1 0,90846 0,92897 3 2 0,82530 12,25 10 1 1,33518 2 1 1,78271 20,25 1,92897 1 4 • Prueba de Kolmogorov-Smirnov – SAS también realiza los estadísticos de Anderson-Darling y Cramer-von Mises – Se basan en las diferencias entre la distribución observada y la esperada • Estadístico de Shapiro-Wilks – El SPSS versión 8 lo calcula para muestras 50 observaciones – El SAS lo calcula para muestras 2000 observaciones 9 Métodos Paramétricos vs No Paramétricos Introducción 10 Métodos Paramétricos vs No Paramétricos Introducción Comprobación Normalidad Preguntas comunes • Hay que tener en cuenta que la capacidad de una prueba de rechazar la hipótesis nula (potencia) aumenta con el tamaño de la muestra • Si las pruebas no paramétricas con válidas para los datos con o sin distribución normal, ¿porqué no usarlos siempre? – Con tamaños de muestra grandes se pueden detectar desviaciones pequeñas de la normalidad – Puesto que pequeñas desviaciones no afectan gravemente a la validez de las pruebas estadísticas es importante examinar otras pruebas y los gráficos 11 12 Métodos Paramétricos vs No Paramétricos Introducción Métodos Paramétricos vs No Paramétricos Introducción Preguntas comunes Preguntas comunes – Se prefieren las pruebas paramétricas porque: • Raramente estamos interesados sólo en la significación estadística; muchas veces queremos conocer aspectos de la población original, y esto se consigue con estimadores e intervalos de confianza • ¿Las pruebas no paramétricas comparan medianas? • Es difícil hacer un modelo flexible con las pruebas no paramétricas, por ejemplo para factores de confusión en regresión múltiple 13 14 Métodos Paramétricos vs No Paramétricos Introducción Métodos Paramétricos vs No Paramétricos Introducción Preguntas comunes Elección de la prueba Datos independientes – Es una creencia común que la prueba de MannWhitney es, de hecho, una prueba para diferencias entre medianas. • Sin embargo, dos grupos podrían tener la misma mediana y tener una prueba significativa. • Considerar los siguientes datos de dos grupos con 100 observaciones. – Grupo 1: 98 (0), 1, 2. – Grupo 2: 51 (0), 1, 48 (2). – La mediana en ambos casos es 0. – Prueba de Mann-Whitney: p<0.0001 Nominal Variable Inicial 2 Nominal o Fisher Categórica (>2 categorías) 2 Variable Resultado Ordinal Cuantitativa Discreta 2 -tendencia Manno Mann-W. Whitney KruskalKruskalWallis Wallis Spearman Spearman Cuantitativa No-Normal Mann-Whitney o log-rank (1) Kruskal-Wallis 2 2 (2) Cuantitativa Discreta Cuantitativa No-Normal 2 -tendencia o Mann-Whitney Regresión Logística Regresión Logística (2) (2) Spearman Spearman (2) (2) (2) Gráfico datos y Pearson o Spearman Cuantitativa Normal Regresión Logística (2) (2) (2) Regresión lineal Categórica (>2 cat.) Ordinal Spearman Análisis de la varianza Spearman o regresión lineal Spearman o regresión lineal Gráfico datos y Pearson o Spearman y regresión lineal Pearson y regresión lineal P.e. ensayo clínico: Var.de entrada=Tipo de tratamiento (nominal). Var.resultado=Colesterol (cuant.normal). t-Student P.e. Var.de entrada=Puntuación clínica (cuantitativa). Var.resultado=Curación (nominal). Regresión logística (1) (2) 15 Si los datos son censurados Hay muchas técnicas avanzadas. Sin embargo, requieren ciertas asunciones y a menudo es más fácil dicotomizar la variable resultado o tratarla como continua 16 Métodos Paramétricos vs No Paramétricos Introducción Elección de la prueba Datos apareados Variable Nom inal O rdinal (Categorías ordenadas) Cuantitativa (Discreta o No-Normal) Cuantitativa (Norm al) Cuantitativa Normal t-Student Prueba M cNemar W ilcoxon W ilcoxon t-test para datos apareados 17 Estimación y análisis Supón que todos los datos numéricos de tu muestra son cuantitativos y procede en consecuencia. Puede que el ordenador te calcule la media de la situación civil RESULTADOS Situación civil 3,4 Sexo 2,3 Conduce 1,3 No compruebes si tus datos siguen una ley normal. Las pruebas no paramétricas no son tan divertidas. 19 20 K-S de 1 muestra / Normal H0: NORMALIDAD H1: NO NORMALIDAD Prueba de Kolmogorov-Smirnov para una muestra SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 a. La distribución de contraste es la Normal. b. Se han calculado a partir de los datos. 21 K-S de 1 muestra / Normal H0: NORMALIDAD p 0.05 22 K-S de 1 muestra / Normal H1: NO NORMALIDAD H0: NORMALIDAD p 0.05 p < 0.05 Prueba de Kolmogorov-Smirnov para una muestra SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) p < 0.05 Prueba de Kolmogorov-Smirnov para una muestra PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) a. La distribución de contraste es la Normal. b. Se han calculado a partir de los datos. H1: NO NORMALIDAD PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 a. La distribución de contraste es la Normal. 23 b. Se han calculado a partir de los datos. 24 Pueden haber muchas formas... ...y NO hay normalidad • Transformar la variable (A) (B) 0 50 100 150 x 0 1 2 3 4 5 x^0,25 80 x (C) 60 (D) 0 20 40 ¿Raíz cuarta de ‘algo’? 0.2 0.4 0.6 0.8 1.0 1.2 1.4 1.6 x^0.25 25 26 No pasa nada, hay otras técnicas • Técnicas basadas en –Rangos –Puntuaciones –Signos ¿Son independientes las variables? 27 Métodos 28 Ejemplo de los gemelos Clark y cols. realizaron diferentes pruebas psicológicas en gemelos bicigóticos (p.e. no idénticos) para comprobar si había relación entre entre ellas. • Métodos paramétricos – Coef. de correlación de Pearson • Métodos no paramétricos – Coef. de correlación de Spearman – Kendall tau 29 Pareja Gemelo 1 Gemelo 2 1 277 256 2 169 118 3 157 137 4 139 144 5 108 146 6 213 221 7 232 184 8 229 188 9 114 97 10 232 231 11 161 114 12 149 187 13 128 230 30 Si lo graficamos... 300 250 200 150 100 50 50 100 150 200 250 300 31 32 Coef. de correlación de Pearson Correlations GEMELO1 GEMELO2 Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N GEMELO1 GEMELO2 1,000 ,649* , ,016 13 13 ,649* 1,000 ,016 , 13 13 *. Correlation is significant at the 0.05 level (2-tailed). Se interpreta en términos de variabilidad explicada 33 34 Kendall tau GEMELO1 GEMELO2 Coef. de correlación de Spearman GEMELO1 Correlation Coefficient Sig. (2-tailed) GEMELO1 GEMELO2 GEMELO1 Correlation Coefficient Sig. (2-tailed) N GEMELO2 Correlation Coefficient Sig. (2-tailed) N 1.000 0.514 , 0.072 13 13 0.514 1.000 0.072 , 13 13 N GEMELO2 Correlation Coefficient Sig. (2-tailed) N 1,000 0,348 , 0,099 13 13 0,348 1,000 0,099 , 13 13 Es similar a Spearman en términos. Sin embargo son muy diferentes en cuanto a la magnitud puesto que los cálculos son muy diferentes (Spearman: rangos; Kendall: signos). Al igual que el coef. de correlación de Pearson se interpreta en términos de variabilidad explicada. La diferencia es que el coef. de Spearman se calcula con rangos. Se interpreta como la diferencia entre la probabilidad que en los datos observados las dos variables estén en el mismo orden versus la probabilidad que las dos variables estén en diferente orden. 35 36 Métodos • U de Mann Whitney - Independencia observaciones - Distribución de Probabilidad contínua Este test fue desarrollado en 1945 por Wilcoxon y después ampliado por Mann y Whitney en 1947. De ahí que en algunos libros se denomine test de Wilcoxon y en otros la prueba U de MannWhitney. INDEPENDIENTES 38 Que en términos de eficiencia... Características El test U de Mann-Whitney, también denominado test de Wilconxon-Mann-Whitney, o test de la suma de rangos de Wilcoxon, evalúa los rangos de las puntuaciones combinadas de dos grupos independientes. En Es el test no paramétrico con más potencia estadística. N Paramétrico N No _ Paramétrico Siendo n el tamaño muestral necesario para conseguir Una determinada potencia del test. Para el caso de la U de Mann-Whitney E=95, es decir, si para el test paramétrico se necesita n=100, para el homólogo no paramétrico es suficiente con 95 39 40 ¿Pero qué supone el Test? ¿Cómo trabaja? • • Supone que la forma de las muestras a comparar son la misma, sin tener en cuenta dicha forma Este test examina la siguiente hipótesis nula: - “La probabilidad de que una observación obtenida al azar de la primera población supere una observación aleatoria de la segunda población es igual a 1/2”. • El test es sensible a diferencias de medianas • Poco sensible a diferencias de asimetría • Insensible a diferencias de varianzas • Resistente a los “outliers” 41 42 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) Ejemplo V. CUANTITATIVA NORMALEN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Grupos apareados Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? 43 Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal 44 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Grupos apareados Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal 45 46 47 48 K-S de 1 muestra / Normal K-S de 1 muestra / Normal H0: NORMALIDAD H0: NORMALIDAD H1: NO NORMALIDAD p 0.05 Prueba de Kolmogorov-Smirnov para una muestra SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) p < 0.05 Prueba de Kolmogorov-Smirnov para una muestra PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 Media Desviación típica Absoluta Positiva Negativa H1: NO NORMALIDAD SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) a. La distribución de contraste es la Normal. b. Se han calculado a partir de los datos. PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 a. La distribución de contraste es la Normal. 49 b. Se han calculado a partir de los datos. 50 K-S de 1 muestra / Normal H0: NORMALIDAD H1: NO NORMALIDAD p 0.05 p < 0.05 Prueba de Kolmogorov-Smirnov para una muestra SEXO hombre N Parámetros normales a,b Diferencias más extremas mujer Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) N Parámetros normales a,b Diferencias más extremas Media Desviación típica Absoluta Positiva Negativa Media Desviación típica Absoluta Positiva Negativa Z de Kolmogorov-Smirnov Sig. asintót. (bilateral) PESO INICIAL (kg) 23 89.57 3.47 .115 .075 -.115 .552 .921 27 80.22 5.37 .179 .179 -.105 .931 .352 a. La distribución de contraste es la Normal. b. Se han calculado a partir de los datos. 51 52 53 54 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Grupos apareados Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal Prueba T para muestras independientes H0: H1: 55 Prueba T para muestras independientes H0: 56 Prueba T para muestras independientes H1: H0: Estadísticos del grupo PESO INICIAL (kg) SEXO hombre mujer N 23 27 Media 89.57 80.22 H1: Estadísticos del grupo Error típ. de la media .72 1.03 Desviación típ. 3.47 5.37 PESO INICIAL (kg) SEXO hombre mujer N Media 89.57 80.22 23 27 Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas F PESO INICIAL (kg) Se han asumido varianzas iguales No se han asumido varianzas iguales 3.896 Sig. .054 Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias t Sig. (bilateral) gl Error típ. de la media .72 1.03 Desviación típ. 3.47 5.37 Diferencia de medias Error típ de la diferencia Intervalo de confianza para la diferencia Inferior Superior 7.163 48 .000 9.34 1.30 6.72 11.97 7.406 45.009 .000 9.34 1.26 6.80 11.88 F PESO INICIAL (kg) Se han asumido varianzas iguales No se han asumido varianzas iguales 3.896 Sig. .054 Prueba T para la igualdad de medias Intervalo de confianza para la diferencia Inferior Superior Diferencia de medias Error típ de la diferencia 7.163 48 .000 9.34 1.30 6.72 11.97 7.406 45.009 .000 9.34 1.26 6.80 11.88 t Sig. (bilateral) gl H0: p 0.05 p < 0.05 57 Prueba T para muestras independientes H0: 58 Prueba T para muestras independientes H1: H0: H1: p 0.05 Estadísticos del grupo PESO INICIAL (kg) SEXO hombre mujer N 23 27 Media 89.57 80.22 p < 0.05 Estadísticos del grupo Error típ. de la media .72 1.03 Desviación típ. 3.47 5.37 PESO INICIAL (kg) SEXO hombre mujer N 23 27 Media 89.57 80.22 Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas F PESO INICIAL (kg) Se han asumido varianzas iguales No se han asumido varianzas iguales 3.896 Sig. .054 Prueba de muestras independientes Prueba de Levene para la igualdad de varianzas Prueba T para la igualdad de medias t Sig. (bilateral) gl Error típ. de la media .72 1.03 Desviación típ. 3.47 5.37 Diferencia de medias Error típ de la diferencia Intervalo de confianza para la diferencia Inferior Superior 7.163 48 .000 9.34 1.30 6.72 11.97 7.406 45.009 .000 9.34 1.26 6.80 11.88 F PESO INICIAL (kg) Se han asumido varianzas iguales No se han asumido varianzas iguales H0: 3.896 Sig. .054 Prueba T para la igualdad de medias Intervalo de confianza para la diferencia Inferior Superior Diferencia de medias Error típ de la diferencia 7.163 48 .000 9.34 1.30 6.72 11.97 7.406 45.009 .000 9.34 1.26 6.80 11.88 t Sig. (bilateral) gl H0: 59 60 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Estadística / Comparar medias / Prueba T para muestras independientes Grupos independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Estadística / Comparar medias / Prueba T para muestras relacionadas Grupos apareados V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal NORMALIDAD? 61 62 Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney H1: U H0: U= N1*N2 N1*N2 63 Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney 23*27 H0: U= N1*N2 = = 310.5 2 H1: U 64 Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney 23*27 H0: U= N1*N2 = = 310.5 2 N1*N2 310.5 2 H1: U p 0.05 N1*N2 310.5 2 p < 0.05 Rangos SEXO PESO INICIAL (kg) hombre mujer Total N 23 27 50 Rango promedio 36.65 16.00 Rangos Suma de rangos 843.00 432.00 SEXO PESO INICIAL (kg) hombre mujer Total N 23 27 50 Rango promedio 36.65 16.00 Suma de rangos 843.00 432.00 Estadísticos de contrastea U de Mann-Whitney W de Wilcoxon Z Sig. asintót. (bilateral) Estadísticos de contrastea PESO INICIAL (kg) 54.000 432.000 -5.003 .000 U de Mann-Whitney W de Wilcoxon Z Sig. asintót. (bilateral) a. Variable de agrupación: SEXO 65 PESO INICIAL (kg) 54.000 432.000 -5.003 .000 a. Variable de agrupación: SEXO 66 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Estadística / Comparar medias / Prueba T para muestras relacionadas Grupos apareados V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal 67 68 69 70 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Grupos apareados Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal Prueba T para muestras relacionadas H0:d 71 H1:d 72 Prueba T para muestras relacionadas H0:d Prueba T para muestras relacionadas H0:d H1:d PESO INICIAL (kg) PESO FINAL (kg) Media 84.52 79.68 N 50 50 Desviación típ. 6.54 7.38 Error típ. de la media .93 1.04 Par 1 Correlaciones de muestras relacionadas N Par 1 PESO INICIAL (kg) y PESO FINAL (kg) PESO INICIAL (kg) PESO FINAL (kg) Media 84.52 79.68 N 50 50 Sig. .571 N Par 1 .000 PESO INICIAL (kg) y PESO FINAL (kg) Media 4.84 Desviación típ. Error típ. de la media 6.49 .92 Sig. .571 .000 Prueba de muestras relacionadas Diferencias relacionadas PESO INICIAL (kg) PESO FINAL (kg) Error típ. de la media .93 1.04 Correlación 50 Prueba de muestras relacionadas Par 1 Desviación típ. 6.54 7.38 Correlaciones de muestras relacionadas Correlación 50 p < 0.05 Estadísticos de muestras relacionadas Estadísticos de muestras relacionadas Par 1 H1:d p 0.05 Diferencias relacionadas Intervalo de confianza para la diferencia Inferior Superior 3.00 6.68 t 5.272 Sig. (bilateral) gl 49 Media Par 1 .000 PESO INICIAL (kg) PESO FINAL (kg) 4.84 Desviación típ. Error típ. de la media 6.49 Intervalo de confianza para la diferencia Inferior Superior .92 3.00 6.68 t 5.272 Sig. (bilateral) gl 49 .000 73 74 75 76 V. CUANTITATIVA .vs. V. CUALITATIVA (2 grupos) V. CUANTITATIVA NORMAL EN AMBOS GRUPOS Grupos independientes Estadística / Comparar medias / Prueba T para muestras independientes V. CUANTITATIVA NO NORMAL EN ALGUN GRUPO Estadística / Pruebas no paramétricas / 2 muestras independientes / U de Mann-Whitney COMPARACIÓN DE MEDIAS V. DIFERENCIA NORMAL Grupos apareados Estadística / Comparar medias / Prueba T para muestras relacionadas V. DIFERENCIA NO NORMAL Estadística / Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon NORMALIDAD? Estadísticos / Pruebas no paramétricas / K-S de 1 muestra / Normal Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon H0: T= n (n+1) 77 H1: T n (n+1) 78 Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon H1: T H0: T= n (n+1) = 49*50 = 612.5 4 Pruebas no paramétricas / 2 muestras relacionadas / Wilcoxon n (n+1) 612.5 H0: T= n (n+1) = 49*50 = 612.5 4 Rangos negativos Rangos positivos Empates Total 38a 11b 1c 50 Rango promedio 27.68 15.73 Suma de rangos 1052.00 173.00 N PESO FINAL (kg) - PESO INICIAL (kg) Rangos negativos Rangos positivos Empates Total a. PESO FINAL (kg) < PESO INICIAL (kg) a. PESO FINAL (kg) < PESO INICIAL (kg) b. PESO FINAL (kg) > PESO INICIAL (kg) b. PESO FINAL (kg) > PESO INICIAL (kg) c. PESO INICIAL (kg) = PESO FINAL (kg) c. PESO INICIAL (kg) = PESO FINAL (kg) contrasteb Z Sig. asintót. (bilateral) p < 0.05 Rangos N Estadísticos de n (n+1) 612.5 p 0.05 Rangos PESO FINAL (kg) - PESO INICIAL (kg) H1: T 38a 11b 1c 50 Rango promedio 27.68 15.73 Suma de rangos 1052.00 173.00 Estadísticos de contrasteb PESO FINAL (kg) - PESO INICIAL (kg) -4.379a .000 Z Sig. asintót. (bilateral) a. Basado en los rangos positivos. PESO FINAL (kg) - PESO INICIAL (kg) -4.379a .000 a. Basado en los rangos positivos. b. Prueba de los rangos con signo de Wilcoxon b. Prueba de los rangos con signo de Wilcoxon 79 Comparación de dos medianas 80 Trabajo previo Determinar la mediana combinada de las observaciones de las Muestras n1 + n2 • Sirve para comprobar si dos muestras aleatorias independientes y cuyos datos se miden por lo menos en una escala ordinal proceden de poblaciones con la misma mediana. Contar cuántas observaciones en cada grupo caen por encima y por debajo de la mediana combinada (Tabla de contingencia 2 x 2) • Es una forma alternativa de testar la hipótesis nula 1=2 Realizar un contraste de hipótesis tipo Ji al cuadrado o prueba Exacta de Fisher (según frecuencia esperada) • Si ambas muestras proceden de poblaciones con la misma mediana, cabe esperar bajo H0 que la mitad de valores de una muestra y la mitad de la otra han de ser superiores a la mediana de la población. • ATENCIÓN: sólo un 64% de eficiencia respecto a una T de Student. 81 La tabla en cuestión... Muestra 1 Muestra 2 Total Valores superiores a la mediana A B A+B Valores inferiores a la mediana C D C+D A+C B+D N1+N2 82 ...y las consideraciones del tamaño • Si n1+n2 > 40 2 con corrección de Yates • Si 20 < n1+n2 >40 2 con Yates, si no hay freq. Esperadas <5, en tal caso Fisher • Si n1+n2 < 20 83 • Prueba exacta de Fisher 84 Un ejemplo Trat Control 80 96 77 79 76 74 82 82 83 69 84 72 75 94 69 77 97 77 71 97 85 75 74 69 98 95 88 78 96 73 72 83 75 70 94 . Los cálculos Trat Mediana Tratamiento Mediana Control 81 77 Mediana combinada 78 <Me >Me Total Obtenidas Control 8 10 18 Trat <Me >Me Total Total 10 7 17 Esperadas Control 9.257 8.743 18 Estadístico 2= 0.7237 18 17 35 Total 8.743 8.257 17 18 17 35 Valor de p= 0.3949 85 86 Independientes 87 Test H de Kruskal-Wallis Aplicación El punto de partida del test H de Kruskal Wallis es el mismo que para la U Se ordenan las n observaciones de las k muestras en una única serie creciente y se les asigna números de rango (desde 1 hasta n) Sea Ri la suma de rangos de la muestra i-ésima Si se cumple la hipótesis nula, y para valores de n suficientemente grandes (en la práctica ni 5 y k 4), el estadístico Que sigue una distribución 2 con k-1 grados de libertad 89 90 Interpretación de los primeros resultados Solución elegante • Queda claro que las muestras son diferentes pero cuáles son distintas entre sí. • Realización de un ANOVA con rangos – El SAS lo hace previo cambio de los datos a rangos (Proc Rank) – Permite la interpretación de los resultados vía la típica tabla de Análisis de la Varianza •Se ordenan las sumas de rangos de las k muestras •de mayor a menor como en las comparaciones paramétricas de Tukey) •Se empieza comparando la suma de rangos mayor con la menor •Se divide la diferencia de rangos por el error estándar apropiado par obtener un estadístico de distribución conocida. En esta caso Q. 91 92 Comparación de más de 2 muestras relacionadas. Test de Friedman Ejemplo: • Comparación de la eficacia de k=4 muestras de penicilina por el método de la difusión en placas. • La experiencia se realiza con n=3 placas de agar de 9 cm de diámetro cada una en las que se cultiva B. Subtilis (bacilo de heno). • En cada una de las placas se deposita una cantidad fija de penicilina y se extiene provocando la inhibición de crecimiento de la B.subtilis. El diámetro de la zona de inhibición es proporcional a la concentración de penicilina. Se pregunta si los diámetros de las zonas de inhibición presentan alguna diferencia. Dependientes 94 Comparación de más de 2 muestras relacionadas. Test de Friedman Comparación de más de 2 muestras relacionadas. Test de Friedman • H0: el diámetro de las zonas de inhibición son las mismas en todas las disoluciones de penicilina • Análisis de la variancia de un diseño experimental de bloques con una observación por celda. Placa nº 1 2 3 Placa nº 1 2 3 Suma de rangos 1 27 27 25 Disoluciones de penicilina 2 3 23 26 23 25 21 26 4 21 21 20 1 4 4 3 Disoluciones de penicilina 2 3 2 3 2 3 2 4 4 1 1 1 11 6 10 b= nº de bloques a=nº de tratamientos 3 95 96 Comparación de más de 2 muestras relacionadas. Test de Friedman Resultados iniciales con SPSS Estadísticos descriptivos • El test de Friedman se puede considerar que se aproxima a una distribución ji cuadrado con a-1 grados de libertas N Disolució Disolució Disolució Disolució 3 3 3 3 Media 6.3333 2.3333 5.6667 0.6667 Percentiles Desviación típica MínimoMáximo 25 0 (Mediana 75 1.1547 25.00 27.00 5.0000 27.0000 7.0000 1.1547 21.00 23.00 1.0000 23.0000 3.0000 .5774 25.00 26.00 5.0000 26.0000 6.0000 .5774 20.00 21.00 0.0000 21.0000 1.0000 Rangos Disolución 1 Disolución 2 Disolución 3 Disolución 4 • Se rechaza la hipótesis nula de igualdad de las cuatro soluciones 97 Muestras relacionadas:COCHRAN Prueba 1 0 1 1 1 1 1 1 1 Prueba 2 1 0 0 0 0 1 0 0 Prueba 3 0 1 1 0 0 1 0 0 Prueba 4 0 0 0 0 0 0 0 0 Frecuencias Valor 0 P1 P2 P3 P4 1 1 6 5 8 7 2 3 0 Estadísticos de contraste Variables binarias N Q de Cochran gl Sig. asintót. Sig. exacta Probabilidad en el punto 8 12.000a 3 .007 .006 .004 a. 0 se trata como un éxito. 99 Rango promedio 3.67 2.00 3.33 1.00 Estadísticos de contrastea N Chi-cuadrado gl Sig. asintót. Sig. exacta Probabilidad en el punto a. Prueba de Friedman 3 8.200 3 .042 .017 .016 98