69 Estadística Tema 7: Estimación por intervalos de confianza. 7.1 Introducción. Cuando tratamos la estimación puntual, uno de los problemas que se plantearon es que el valor de la estimación es sólo uno de los valores (posiblemente infinitos) del estimador, obtenido al extraer una muestra concreta, de forma que si extraemos dos muestras distintas, las estimaciones serán distintas. Al hacer cualquier estimación se está cometiendo un error, y sería deseable proporcionar una medida de la precisión de la estimación del parámetro. En este tema vamos a introducir el concepto de intervalo de confianza como un intervalo cuyos extremos son variables que dependen de la muestra, y en el cual se confía que esté el valor de parámetro. El intervalo se obtendrá a partir de un estadístico generalmente relacionado con un estimador puntual, cuya distribución no depende del parámetro desconocido, y una medida de la validez del intervalo es el nivel de confianza, que indica la proporción de intervalos de todos los que se podrían construir a partir de muestras distintas, que realmente contienen al parámetro. Definición 1 Sea X una v.a. con distribución que depende de un parámetro θ desconocido y sea X1 , . . . , Xn una m.a.s. de X. Llamaremos intervalo de confianza de nivel 1 − α, (α ∈ (0, 1)) a un intervalo (L1 (X1 , . . . , Xn ), L2 (X1 , . . . , Xn )), cuyos extremos son variables aleatorias que dependen de la muestra, tal que el (1 − α)100% de los intervalos construidos a partir de las posibles muestras de tamaño n, contiene a θ. Para comprender mejor el concepto de intervalo de confianza y la forma en que estos se construyen, vamos a comenzar presentando un ejemplo sencillo: Ejemplo: Intervalo de confianza para la media de una v.a. con distribución normal y varianza (σ 2 ) conocida. Sea X una v.a. con distribución N (μ, σ) y sea X1 , . . . , Xn una m.a.s. de esta distribución. Como ya hemos visto en el tema anterior, el estimador X de μ, que se define como: X= n Xi i=1 n es una suma de variables aleatorias con distribución normal e independientes (pues X1 , . . . , Xn lo son) 2 y, por tanto, tiene distribución normal. Su media es μ y su varianza σn . Si estandarizamos esta variable, se tiene que: X −μ √ ; N (0, 1). σ/ n Obsérvese que esta variable aleatoria tiene distribución conocida e independiente del valor del parámetro μ, que por otra parte es el único valor desconocido de la variable una vez extraída una m.a.s. concreta de tamaño n. Esto es lo que nos va a permitir construir el intervalo de confianza para μ. 70 Estadística Si fijamos un nivel 1 − α de confianza, pretendemos que para un (1 − α)100 % de las muestras de tamaño n posibles, el valor de μ esté incluido en el intervalo que vamos a construir. Para ello, vamos a considerar el valor z ∈ IR para el cuál p(−z ≤ Z ≤ z) = 1 − α, donde Z es una variable aleatoria con distribución N (0, 1). (Recuérdese que esto significa que el (1 − α)100 % de los valores de la variable Z que extraigamos al azar, estarán en el intervalo (−z, z)). En particular, p −z ≤ X−μ √ σ/ n ≤ z = 1 − α. ¿Qué significa esto? Que para el (1 − α)100 % de las muestras de tamaño n de la v.a. X, al obtener X y formar el cociente anterior, ese valor estará entre -z y z. Si en: −z ≤ despejamos μ, se obtiene: X −μ √ ≤z σ/ n σ σ X − z√ ≤ μ ≤ X + z√ n n que es el intervalo correspondiente. Observación 1 (a) Los extremos del intervalo, X ± z √σn , son variables aleatorias que dependen de la muestra, es decir, para cada muestra distinta, tomarán un valor diferente. (b) El valor del parámetro, aunque desconocido, es un valor fijo. (c) El valor z que interviene en el intervalo, es el valor que corresponde a una probabilidad acumulada de 1 − α2 , y se obtiene fácilmente a partir de la tabla de la N (0, 1); denotaremos este punto por z1− α2 . (Puesto que en el intervalo (-z,z) debe haber una probabilidad 1−α, en las colas debe quedar distribuida una probabilidad de α y de ahí que p(Z ≤ z) = 1 − α2 .) Podríamos elegir otros valores z1 y z2 , tales que p(z1 ≤ Z ≤ z2 ) = 1 − α y a partir de ellos obtendríamos también intervalos de confianza de nivel 1 − α, de la forma σ σ X − z2 √ ≤ μ ≤ X − z1 √ n n pero estos intervalos tendrían mayor amplitud, y por tanto, la estimación de μ sería menos precisa. Para obtener el intervalo anterior, hemos utilizado un estadístico que depende de la muestra y del X−μ √ ), cuya distribución es conocida e independiente del parámetro. Esto sugiere que para parámetro ( σ/ n construir intervalos de confianza para otros parámetros o en otras condiciones (por ejemplo, si no se conoce σ 2 ), es necesario utilizar estadísticos similares, con distribución conocida. Esta es la forma en que procederemos en general: • Consideraremos un estadístico T (X1 , . . . , Xn , θ) que depende de la muestra X1 , . . . , Xn y del parámetro que queremos estimar, θ, cuya distribución sea conocida e independiente de dicho parámetro. • Para dicha distribución y fijado el nivel de confianza 1 − α, seleccionaremos un intervalo [a,b] del soporte, que tenga probabilidad 1 − α. • En la desigualdad a ≤ T (X1 , . . . , Xn , θ) ≤ b, despejamos θ, obteniendo el intervalo deseado. 71 Estadística Naturalmente, como nos interesa obtener intervalos "pequeños" en amplitud, trataremos de elegir el intervalo [a,b] de menor amplitud posible. Hay que señalar que, en los casos en los que la distribución del estadístico sea simétrica, los intervalos que vamos a construir son de amplitud mínima, para un nivel de confianza fijado. En los demás casos, la construcción de un intervalo de amplitud mínima resulta excesivamente complicado y conduce a fórmulas poco manejables en la práctica, y por tanto, los intervalos construidos, lo serán, buscando una mayor sencillez. Vamos a estudiar algunos de estos estadísticos y a introducir algunas distribuciones importantes, relacionadas con la distribución normal. 7.2 Distribuciones utilizadas en la construcción de intervalos de confianza (a) Distribución χ2n . Definición 2 Sean Z1 , . . . , Zn v.a. con distribución N (0, 1) e independientes. Entonces la v.a. X = Z12 + Z22 + . . . + Zn2 se dice que tiene una distribución chi-cuadrado con n grados de libertad y se denota por χ2n . Propiedades 1 i. SX = [0, ∞). ii. E(X) = n y V ar(X) = 2n. iii. Propiedad de reproductividad: Si X1 , . . . , Xk tienen distribuciones χ2ni , i = 1, . . . , k, y son independientes, entonces la variable X = distribución χ2n con n = de libertad. k i=1 k i=1 Xi tiene ni grados iv. Si Z es una v.a. con distribución χ2n , X es una v.a. con distribución χ2n1 , n > n1 , y Z = X + Y con X e Y variables independientes, entonces Y tiene distribución χ2n−n1 . Esta nueva distribución es la que siguen algunos estadísticos que utilizaremos para obtener intervalos de confianza. En particular, el estadístico que describimos a continuación y que se utiliza para construir el intervalo de confianza de la varianza de una variable X con distribución N (μ, σ) Proposición 1 Sea X una v.a. con distribución N (μ, σ) y sea X1 , . . . , Xn una m.a.s. de esta 2 tiene distribución χ2n−1 . distribución. Entonces el estadístico nS σ2 Demostración Vamos a desarrollar nS 2 σ2 = n = (Xi − X)2 i=1 σ2 n = (Xi − μ + μ − X)2 i=1 σ2 = n (Xi − μ)2 + (μ − X)2 + 2(Xi − μ)(μ − X) i=1 σ2 = 72 Estadística n = = (Xi − μ)2 i=1 n (Xi − μ)2 i=1 σ2 σ2 n + (μ − X)2 i=1 + 2(μ − X) σ2 n (Xi − μ) i=1 σ2 n Xi − μ (μ − X)2 (μ − X)2 +n − 2n = 2 2 σ σ σ i=1 Por tanto, n Xi − μ 2 σ i=1 2 = − (μ − X)2 σ 2 /n nS 2 (μ − X)2 + σ2 σ 2 /n = X−μ √ tiene Para cada i = 1, . . . , n, la variable Xiσ−μ tiene distribución N (0, 1). La variable σ/ n también distribución N (0, 1); por último, aunque este resultado no se va a demostrar, las 2 X−μ √ son independientes (esta independencia se debe a que si X es una y σ/ variables nS σ2 n variable aleatoria con distribución normal, las variables X y S 2 son independientes). Por tanto, n 2 Xi −μ 2 2 tiene una distribución χ2n , la variable (X−μ) σ σ2 /n tiene distribución χ1 . Se i=1 deduce, aplicando la propiedad (iv), que Observación 2 Puede observarse que expresiones para el estadístico. nS 2 σ2 nS 2 σ2 = tiene una distribución χ2n−1 . (n−1)Sc2 , σ2 de forma que pueden utilizarse ambas (b) Distribución t de Student. Definición 3 Sea Z una v.a. con distribución N (0, 1) y sea Y una v.a. con distribución χ2n . Si Z e Y son independientes, la variable X = √Z se dice que tiene una distribución t de Student Y /n con n grados de libertad. Esta distribución se denota por tn . Propiedades 2 i. SX = (−∞, ∞). ii. E(X) = 0 y V ar(X) = n n−2 , si n > 2. iii. La distribución es simétrica respecto de x = 0, y es similar a la normal (distribución a la que tiende cuando el número de grados de libertad tiende a ∞.) Tiene colas más amplias que la normal. Esta distribución aparece por ejemplo, al construir el intervalo de confianza para el parámetro μ de una variable X con distribución N (μ, σ), y σ desconocido. O también a la hora de estimar el valor de la diferencia de medias μ1 − μ2 de X1 ; N (μ1 , σ) e X2 ; N (μ2 , σ), independientes, con varianzas desconocidas pero iguales. Proposición 2 Sea X una v.a. con distribución N (μ, σ) y sea X1 , . . . , Xn una m.a.s. de esta distribución. Entonces el estadístico X−μ √ S/ n−1 tiene distribución tn−1 . 73 Estadística Demostración En efecto, ya habíamos visto anteriormente que la variable N (0, 1). Por otra parte, la variable de la anterior. Por tanto, nS 2 σ2 tiene una distribución X−μ √ σ/ n nS 2 /σ2 = n−1 X−μ √ σ/ n χ2n−1 tiene distribución y es independiente X −μ √ S/ n − 1 tiene distribución tn−1 . Observación 3 Puede observase que: X −μ X −μ √ √ . = Sc / n S/ n − 1 Al construir intervalos de confianza pueden utilizarse cualquiera de los dos estadísticos (generalmente, en función de la información disponible, es decir, según que lo que se conozca sea S o Sc .) Proposición 3 Sean X ; N (μ1 , σ) e Y ; N (μ2 , σ) independientes, con varianzas iguales; si X1 , . . . , Xn1 es una m.a.s. de la variable X e Y1 , . . . , Yn2 es una m.a.s. de la variable Y, el estadístico X − Y − (μ1 − μ2 ) , n1 S12 +n2 S22 1 1 + n1 +n2 −2 n1 n2 , tiene distribución tn1 +n2 −2 . Observación 4 Notar que también n1 S12 +n2 S22 n1 +n2 −2 = (n1 −1)(Sc )21 +(n2 −1)(Sc )22 . n1 +n2 −2 (c) Distribución F de Fisher-Snedecor Definición 4 Sean X e Y variables chi-cuadrado con n y m grados de libertad, respectivamente, e independientes. Entonces, la variable F = YX/n /m , se dice que tiene distribución F de FisherSnedecor con n,m grados de libertad. Se denota por Fn,m . Propiedades 3 ii. E(F ) = V ar(F ) i. SF = [0, ∞). m m−2 , si m > 2, 2m2 (n+m−2) = n(m−2) 2 (m−4) , y si m > 4. iii. Si X tiene una distribución Fn,m e Y tiene una distribución Fm,n , entonces el punto x ∈ IR para el cual p(X ≤ x) = 1 − α, verifica que p(Y ≤ x1 ) = α. iv. La distribución F tiene una gráfica (su función de densidad) similar a la de la chicuadrado. Esta distribución es la que utilizaremos para obtener el intervalo de confianza del cociente de varianzas de variables normales independientes. 74 Estadística Proposición 4 Sean X ; N (μ1 , σ1 ) e Y ; N (μ2 , σ2 ), independientes. El estadístico tiene distribución Fn1 −1,n2 −1 . En efecto, hemos visto anteriormente que las variables distribuciones χ2n1 −1 y χ2n2 −1 . (n1 −1)(Sc )21 σ12 y (n2 −1)(Sc )22 σ22 (Sc )21 /σ12 (Sc )22 /σ22 tiene respectivamente Además son independientes, por serlo X e Y. Por tanto, la variable (Sc )21 /σ12 (n1 − 1)(Sc )21 /σ12 (n2 − 1)(Sc )22 /σ22 : = (n1 − 1) (n2 − 1) (Sc )22 /σ22 tiene distribución Fn1 −1,n2 −1 . En la Tabla 1, aparecen los estadísticos y principales intervalos de confianza de parámetros de variables con distribución normal. 7.3 Otros intervalos de confianza. Se pueden construir también intervalos de confianza para algunos parámetros de los que depende la distribución de algunas variables aleatorias no normales, por ejemplo el parámetro p de una variable B(p), o el parámetro λ de una variable con distribución P(λ). En general, dada una variable aleatoria X cuya media E(X) = μ, el estadístico: X −μ ; N (0, 1) σ/n si el tamaño de la muestra, n, es suficientemente grande. Si la varianza de X es conocida, a partir del estadístico anterior, podríamos deducir un intervalo de confianza para μ con un nivel de confianza 1 − α: σ σ X − z1− α2 √ ≤ μ ≤ X + z1− α2 √ n n Si σ es desconocido, se puede sustituir en la expresión del estadístico por una estimación de la misma, obtenida a partir de la m.a.s. En ese caso, el estadístico tiene aproximadamente una distribución N (0, 1). Por ejemplo, si X ; B(p), una estimación de p la proporciona el valor de X y el estadístico: X −μ X(1 − X)/n N (0, 1) por tanto, el intervalo de nivel 1 − α para p es: X − z1− α2 X(1 − X) ≤ μ ≤ X + z1− α2 n X(1 − X) n Igualmente, se pueden construir intervalos de confianza para la diferencia de medias de variables independientes, no necesariamente normales, a partir de sendas muestras aleatorias simples, siempre que el tamaño de éstas sea lo suficientemente grande. La Tabla 2 contiene los estadísticos e intervalos de confianza asintóticos más usuales para parámetros de distribuciones no normales. 75 Estadística 7.4 Algunas aplicaciones de los intervalos de confianza. (a) Toma de decisiones: Además de servirnos para estimar el valor de un parámetro, proporcionando una medida del error de estimación, los intervalos de confianza permiten tomar ciertas decisiones en cuánto al valor de dichos parámetros; por ejemplo: • Si un valor determinado podría ser o no el valor del parámetro. • Si las medias de dos variables pueden ser o no iguales. • Si las varianzas de dos variables pueden ser o no iguales. • Si la probabilidad p de una característica en dos poblaciones distintas, puede ser o no igual. ... Todas estas decisiones se basan en el significado del nivel de confianza: si un intervalo tiene nivel 1 − α, sabemos que eso significa que para el (1 − α)100% de los intervalos construidos a partir de muestras de tamaño n, el parámetro estará en el intervalo; cuando seleccionamos una muestra, existe por tanto probabilidad 1 − α de elegir una de estas muestras "buenas", de forma que si determinado valor no está en el intervalo, parece poco creíble que pudiera ser el valor del parámetro, mientras que si lo está, es admisible que sea el valor del parámetro. La forma de expresar lo anterior no es casual y está llena de matices: no tiene el mismo significado "no ser creíble" que "ser admisible". Respecto de los ejemplos citados, si quiero decidir si es posible, por ejemplo que las medias de dos variables sean iguales, construiría el intervalo de confianza para la diferencia de medias y si el 0 estuviera en él, concluiría que la igualdad es posible, mientras que si no está concluiría que las medias son diferentes. De la misma forma, si quiero decidir si es posible que las varianzas de dos variables sean iguales, construiría el intervalo de confianza para el cociente de varianzas y si el 1 estuviera en él, concluiría que la igualdad es posible, mientras que si no está concluiría que las varianzas son diferentes. Se procede igual con los otros ejemplos. (b) Determinación del tamaño muestral para garantizar una precisión en la estimación de un parámetro. La precisión de un intervalo simétrico consideramos que es la semilongitud del mismo; para intervalos no simétricos, se considera la longitud del intervalo. En ocasiones se puede determinar qué tamaño de muestra mínimo es necesario para garantizar que la precisión del intervalo es un valor prefijado. Por ejemplo, si X es una variable con distribución N (μ, σ), con σ conocido y queremos que la precisión del intervalo sea , basta despejar n en la desigualdad: σ z1− α2 √ < n (Recordad que el intervalo para μ en este caso tiene la forma: X − z1− α2 √σn ≤ μ ≤ X + z1− α2 √σn ) Tabla 1 INTERVALOS DE CONFIANZA Intervalo de confianza de nivel 1 − α Parámetro Pivote Extremo Inferior PROBLEMA DE UNA MUESTRA: X ∼ N (µ, σ); Extremo Superior X1 , X2 , . . . , X n m.a.s. µ (σ conocido) X −µ √ ∼ N (0, 1) σ/ n σ X − z1− α2 √ n σ X + z1− α2 √ n µ (σ desconocido) X −µ √ ∼ tn−1 Sc / n Sc X − tn−1,1− α2 √ n Sc X + tn−1,1− α2 √ n n 1 X (Xi − µ)2 ∼ χ2n σ 2 i=1 σ 2 (µ conocido) n X (Xi − µ)2 n X i=1 i=1 µ1 − µ2 (σ1 = σ2 desc.) (n1 2 c,1 c,2 (n − 1)Sc2 χ2n−1, α independientes; s σ12 σ2 X − Y − z1− α2 + 2 n1 n2 r X − Y − (µ1 − µ2 ) ³ −1)S 2 +(n −1)S 2 n1 +n2 −2 (n − 1)Sc2 χ2n−1,1− α 1 n1 + n12 2 X ∼ N (µ1 , σ1 ), Y ∼ N (µ2 , σ2 ) X − Y − (µ1 − µ2 ) p ∼ N (0, 1) σ12 /n1 + σ22 /n2 r χ2n, α 2 PROBLEMA DE DOS MUESTRAS: µ1 − µ2 (σ1 , σ2 conoc.) χ2n,1− α 2 (n − 1)Sc2 ∼ χ2n−1 σ2 σ 2 (µ desconocido) (Xi − µ)2 ´ ∼ tn1 +n2 −2 X − Y − tn1 +n2 −2,1− α2 2 X 1 , X 2 , . . . , X n1 2 +(n −1)S 2 (n1 −1)Sc,1 2 c,2 n1 +n2 −2 ³ 1 n1 + n12 e Y1 , Y2 , . . . , Yn2 m.a.s. s σ12 σ2 X − Y + z1− α2 + 2 n1 n2 r ´ X − Y + tn1 +n2 −2,1− α2 2 +(n −1)S 2 (n1 −1)Sc,1 2 c,2 s µ1 − µ2 (σ1 6= σ2 desc.) X − Y − (µ1 − µ2 ) r ≈ tr 2 Sc,1 n1 σ12 (µ1 , µ2 conocidos) σ22 σ12 σ22 1 n2 + n2 X 2 Sc,2 (Ver [2]) n2 (Yi − µ2 )2 i=1 1 n1 n1 X ∼ Fn2 ,n1 2 (Xi − µ1 ) i=1 2 σ1 2 σ2 (µ1 , µ2 desc.) X − Y − tr,1− α2 2 σ12 Sc,2 ∼ Fn2 −1,n1 −1 2 σ22 Sc,1 n1 +n2 −2 s 2 2 Sc,1 Sc,2 + n1 n2 n1 1 X (Xi − µ1 )2 n1 i=1 n2 1 X (Yi − µ2 )2 n2 i=1 Fn2 ,n1 , α2 2 Sc,1 α 2 Fn2 −1,n1 −1, 2 Sc,2 X − Y + tr,1− α2 n1 1 X (Xi − µ1 )2 n1 i=1 n2 1 X (Yi − µ2 )2 n2 i=1 2 2 Sc,1 Sc,2 + n1 n2 Fn2 ,n1 ,1− α2 2 Sc,1 α 2 Fn2 −1,n1 −1,1− 2 Sc,2 ³ 1 n1 + n12 ´ Tabla 2 Parámetro Pivote INTERVALOS DE CONFIANZA ASINTÓTICOS Intervalo de confianza de nivel 1 − α Extremo Inferior Extremo Superior PROBLEMA DE UNA MUESTRA: X ∼ (µ, σ); X1 , X 2 , . . . , X n m.a.s. µ (σ conocido) X −µ √ ≈ N (0, 1) σ/ n σ X − z1− α2 √ n σ X + z1− α2 √ n µ (σ desc.) X −µ √ ≈ N (0, 1) S/ n S X − z1− α2 √ n S X + z1− α2 √ n PROBLEMA DE DOS MUESTRAS: X ∼ (µ1 , σ1 ), Y ∼ (µ2 , σ2 ) µ1 − µ2 (σ1 , σ2 conocidos) X − Y − (µ1 − µ2 ) p ≈ N (0, 1) σ12 /n1 + σ22 /n2 µ1 − µ2 (σ1 , σ2 desc.) X − Y − (µ1 − µ2 ) p ≈ N (0, 1) S12 /n1 + S22 /n2 independientes; X1 , X2 , . . . , Xn1 s σ12 σ2 X − Y − z1− α2 + 2 n1 n2 e Y 1 , Y 2 , . . . , Y n2 s X − Y − z1− α2 I.C. PARA UNA PROPORCIÓN: X −p q ≈ N (0, 1) p p(1−p) n X ∼ B(p); X −λ q ≈ N (0, 1) λ n X − Y − (p1 − p2 ) q ≈ N (0, 1) p1 (1−p1 ) 2) + p2 (1−p n1 n2 [2]. r representa el entero más próximo al valor 2 Sc,1 n1 2 S + nc,2 s X + z1− α2 X(1 − X) n 2 n2 +1 X ∼ P(λ); X1 , X2 , . . . , Xn s X X − z1− α2 n m.a.s. s X + z1− α2 X n (Ver [4]) Y ∼ B(p2 ); independientes; X1 , X2 , . . . , Xn1 e Y1 , Y2 , . . . , Yn2 m.a.s. s s X(1 − X) Y (1 − Y ) X(1 − X) Y (1 − Y ) X − Y − z1− α2 + X − Y + z1− α2 + n1 n2 n1 n2 [3]. X corresponde a la proporción muestral del suceso considerado. [4]. X e Y corresponden a las proporciones muestrales de los sucesos cuyas probabilidades p1 y p2 consideramos. !2 2 /n 2 2 /n 2 (Sc,2 (Sc,1 1) 2) + n1 +1 m.a.s. X ∼ B(p1 ); [1]. Si los datos son apareados se considera la m.a.s. de las diferencias Di = Yi − Xi y se aplican los intervalos de confianza para una muestra correspondientes. Ã S2 S12 + 2 n1 n2 X − Y + z1− α2 (Ver [3]) I.C. PARA LA DIFERENCIA DE DOS PROPORCIONES: p1 − p2 s S2 S12 + 2 n1 n2 X1 , X2 , . . . , X n s X(1 − X) X − z1− α2 n I.C. PARA UNA DISTRIBUCIÓN DE POISSON: λ σ12 σ2 + 2 n1 n2 X − Y + z1− α2 s m.a.s. − 2.