LAS ESTADÍSTICAS DE ORDEN COMO UNA APLICACIÓN DE

Anuncio
LAS ESTADÍSTICAS DE ORDEN COMO UNA APLICACIÓN DE TRANSFORMACIÓN DE FUNCIONES VARIABLES OLGA ARDILA SANCHEZ [email protected] Trabajo de Grado para Optar el Titulo de Matemático Director Benigno Lozano Rojas FUNDACION UNIVERSITARIA KONRAD LORENZ FACULTAD DE MATEMATICAS BOGOTA D.C. 2007
6 RESUMEN Este trabajo es un complemento, de las variables aleatorias, la aplicación de las técnicas de transformaciones para encontrar la función de distribución de una variable a partir de otra ya conocida y en especial las estadísticas de orden donde estas estadísticas juegan un papel importante en la inferencia estadística particularmente porque algunas de sus propiedades no dependen de la distribución de la cual fue obtenida la muestra aleatoria. ABSTRACT This work is a complement, of the random variables, the application of the technique of transformations to find the distribution function of a variable from other one already known, and special the statistics of order where statistical these play an important paper (role) in the statistical inference particularly because some of properties do not depend on the distribution on which was obtained the random sample.
7 AGRADECIMIENTOS Agradezco al profesor Benigno Lozano Rojas, quien me acompaño y apoyo con los valiosos aportes en la ejecución de este trabajo, agradezco también al doctor Antonio Velasco Muños decano de la facultad de matemáticas y a cada uno de los docentes y compañeros que tuvieron un aporte importante para mí formación a lo largo de la carrera. Y agradecer a mis padres y hermanos por el apoyo y consejos durante todo este tiempo de formación.
8 INTRODUCCION El presente trabajo se encuentra dividido en dos partes, la primera parte consta de tres capítulos de conceptos básicos que se utilizan en las estadísticas de orden y la segunda parte es el desarrollo del tema. Se hará una introducción: sobre las variables aleatorias discretas y continuas; donde las variables aleatorias se conocen porque todos los resultados posibles de un espacio muestral, se pueden transformar en cantidades numéricas. También se tratara sobre las distribuciones discretas que surgen al contar y las distribuciones continuas que aparecen cuando se mide, y por ultimo se abordara sobre las técnicas de transformaciones que es usada tanto en distribuciones de probabilidad variables aleatorias discretas como en distribuciones de probabilidad de variables aleatorias continuas. Esta técnica se utiliza para encontrar la función de distribución de una variable aleatoria a partir de una variable aleatoria ya conocida. La segunda parte comprende de las estadísticas de orden. Estas estadísticas juegan un papel importante en la inferencia estadística particularmente porque algunas de sus propiedades no depende de la distribución de la cual fue obtenida la muestra aleatoria. Estas estadísticas se ordenan ascendentemente a partir de las muestras obtenidas anteriormente, esto quiere decir que a menudo necesitamos ordenar las variables aleatorias observadas de acuerdo a su magnitud para identificar modelos probabilisticos tales como el máximo, el mínimo, el rango, la mediana y entre otros. Ya que en estos modelos se aplican métodos matemáticos específicos.
9 CAPITULO UNO 1. VARIABLE ALEATORIA Definición 1.1: “ Sea S un espacio muestral sobre el cual se encuentra definida una función de probabilidad. Sea X una función de valor real definida sobre S, de manera que transforme los resultados de S en puntos sobre la recta de los reales, se dice entonces que X es una variable aleatoria.” 1 El conjunto de valores que una variable aleatoria puede tomar se denomina el rango de la variable aleatoria. Se dice que X es una variable aleatoria si todos los resultados posibles de un espacio muestral, se pueden transformar en cantidades numéricas. Ejemplo 1.1: Sea: X= número de caras que se obtiene en lanzamientos independientes de una moneda de diez y una de cinco centavos. En este caso S consta de los cuatro puntos (resultados) (H, H) (H, T) (T, H) (T, T) Entonces S= {HH, HT, TH, TT} 1 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág.52
10 (H= cara, T= cruz; la primera letra se refiere al diez y la segunda al cinco). Los valores correspondientes de X son: 2 1 1 0, respectivamente. S X HH 2 HT 1 TH 1 TT 0 Tabla 1 Definición 1.2: “ Se dice que una variable aleatoria X es discreta si su rango es un conjunto finito o infinito numerable de valores.” 2 Ejemplo 1.2: En el ejemplo 1.1 los valores posibles de X son 0, 1 y 2. Luego X es una variable aleatoria discreta. Definición 1.3: Se dice que una variable aleatoria X es continua si su rango es un conjunto infinito no numerable de valores. Este conjunto puede definirse en un intervalo o en un conjunto finito de intervalos. Ejemplo 1.3: Sea una variable aleatoria X cuyos valores sean los pesos en kilogramos de todas las persona mayores de 30 años, lógicamente hay infinitos valores asociados a estos pesos. Si estos pesos se asignaran a la recta 2 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 53
11 real, puede definirse un número finito de intervalos para describir todos los posibles valores de peso. 1.1 DISTRIBUCIONES DE PROBABILIDAD Definición 1.4: Una distribución de probabilidad es un listado de las probabilidades de todos los posibles resultados que podrían obtenerse si el experimento se lleva a cabo. Las distribuciones de probabilidad se clasifican como discretas y continuas. 1.1.2 Distribuciones de probabilidad de variables discretas Una variable aleatoria asume cada uno de sus resultados con cierta probabilidad. Definición 1.5: “ Sea X una variable aleatoria discreta. Se llamará f ( x ) = P ( X = x ) función de probabilidad de la variable aleatoria X , si satisface las siguientes propiedades.” 3 1. P ( x ) ³ 0; 2.
å x P ( x ) = 1; Ejemplo 1.4 Se arrojan dos dados legales hallar: 3 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 54
12 a. La función de probabilidad f ( x ) donde X es la suma de los dos números que se obtienen al arrojar dos dados legales. b. La probabilidad de que la suma de los dos dados sea 6. Solución: a. La función de probabilidades f ( x ) , correspondiente, tiene los siguientes valores: Resultado N° de Probabilidad ocurrencias 2 1 1/36 3 2 2/36 4 3 3/36 5 4 4/36 6 5 5/36 7 6 6/36 8 5 5/36 9 4 4/36 10 3 3/36 11 2 2/36 12 1 1/36 Tabla 2 Note que los valores posibles de X conforman los posibles conteos sobre el espacio muestral y en consecuencia las probabilidades suman 1. A continuación se muestran las graficas de f (x)
13 Función de densidad
0,18 0,16 0,14 0,12 0,1 0,08 0,06 0,04 0,02 0 Serie1 0 5 10 15 Gráfica 1 b. La función probabilidad donde x= 6 será: f ( 6 ) = P ( X = 6 ) = 6/36 Definición 1.6: “ La distribución acumulativa de la variable aleatoria X es la probabilidad de que X sea menor o igual a un punto específico de X y esta dada por” 4 : F ( X ) = P ( X £ x ) =
å x P ( x i ) i Con ciertas propiedades: 1. 0 £ F ( x ) £ 1. 2. F ( x i ) £ F ( x j ) si xi £ x j . 3. P ( X > x ) = 1 ­ F ( x ) . 4. P ( X = x ) = F ( x ) - F ( x - 1 ) . 5. P ( x i £ X £ x j ) = P ( X £ x j ) ­ P ( X < x j ) = F ( x j ) - F ( x i -1 ) . Cabe anotar que P ( X £ x ) ¹ P ( X < x ) si X es una variable discreta. 4 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.. Pág. 53 14 P ( X £ x ) =…+ P ( X = 0 ) + P ( X = 1 ) +…+ P ( X = x ­1 ) + P ( X = x ) P ( X < x ) =…+ P ( X = 0 ) + P ( X = 1 ) +…+ P ( X = x ­1 ) Ejemplo 1.5:
·
Encuentre la distribución acumulada de la variable aleatoria X del ejemplo 1.3 Solución: F ( 2 ) = P ( X £ 2 ) = P ( X = 2 ) = 1/36; F ( 3 ) = P ( X £ 3 ) = P ( X = 2 ) + P ( X = 3 ) = 1/36 + 2/36 = 3/36; F ( 4 ) = P ( X £ 4 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) = 1/36 + 2/36 + 3/36 = 6/36; F ( 5 ) = P ( X £ 5 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) = 1/36 + 2/36 + 3/36+ 4/36 = 10/16; F ( 6 ) = P ( X £ 6 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5)+ P ( X = 6) = 1/36 + 2/36 + 3/36+ 4/36+ 5/36 = 15/36; F ( 7 ) = P ( X £ 7 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7) = 1/36 + 2/36 + 3 /36+ 4/36 + 5/36 + 6/36 = 21/36; F ( 8 ) = P ( X £ 8 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7) + P ( X = 8)
15 = 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 = 26/36; F ( 9 ) = P ( X £ 9 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7) + P ( X = 8) + P ( X = 9) = 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36 =30/36; F ( 10 ) = P ( X £ 10 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7) + P ( X = 8) + P ( X = 9) + P ( X = 10) =1/36 + 2/36 + 3/36+4/36+5/36+6/36+5/36 + 4/36+3/36 =33/36; F ( 11 ) = P ( X £ 11 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7) + P ( X = 8) + P ( X = 9) + P ( X = 10) + P ( X = 11) = 1/36 + 2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36+3/36+2/36 = 35/36; F ( 12 ) = P ( X £ 12 ) = P ( X = 2 ) + P ( X = 3 ) + P ( X = 4 ) + P ( X = 5 ) + P ( X = 6 ) + P ( X = 7)+ P ( X = 8)+ P ( X = 9)+ P ( X = 10)+ P ( X = 11)+ P ( X = 12) =1/36+2/36 + 3/36+ 4/36+ 5/36 + 6/36 + 5/36 + 4/36+ 3/36+ 2/36 +1/36 = 1 Luego la distribución acumulada es:
16 ì
ï
ï
ï
ï
ï
ï
ï
ïï
í
ï
ï
ï
ï
ï
ï
ï
ï
ïî
F ( X ) = 0 1 / 36 3 / 36 6 / 36 10 / 36 15 / 36 21 / 36 26 / 36 30 / 36 33 / 36 35 / 36 1 x < 2 2 £ x < 3 3 £ x < 4 4 £ x < 5 5 £ x < 6 6 £ x < 7 7 £ x < 8 8 £ x < 9 9 £ x < 10 10 £ x < 11 11 £ x < 12 x ³ 12 1.1.3 Distribuciones de probabilidad de variables continúas En el caso de las distribuciones continúas P ( X = x ) = 0. Ejemplo 1.6: La variable aleatoria continua W se define como la altura de todas las personas mayores de 20 años en un intervalo de 170 hasta 180 centímetros. Suponga que se quiere encontrar
p ( X = 175 ) , aparentemente parece que se pudiera calcular fácilmente, pero si entendiéramos que en el intervalo (170, 180) hay infinidades de números, evidentemente hay infinidad de estaturas por lo cual p ( X = 175 ) tiende a ser nulo, para este caso es mejor utilizar intervalos. En nuestro caso seria p ( 174.9 £ X £ 175.1 ) . La distribución de probabilidad de una variable continua X esta caracterizada por una función f ( x ) , la cual recibe el nombre de función
17
de densidad de probabilidad y proporciona un medio para calcular p ( a £ X £ b ) con b > a. De manera formal se define de la siguiente manera: Definición 1.7: “ Si existe una función f ( x ) tal que” 5 :
· f ( x ) ³ 0 ·
ò ¥
-¥
­ ¥ < 0 < ¥
f ( x ) dx = 1
· P ( a £ X £ b ) =
b a,b
òa f ( x ) dx ÎÂ
Entonces se dice que f ( x ) es la función de densidad de probabilidad de la variable aleatoria continua X . De esta definición se derivan algunas otras propiedades. Sea X una variable aleatoria continúa con función de densidad f ( x ) probar: 1. P ( X = a ) = 0 2. P ( a £ X £ b ) = P ( a < X < b ) Solución: a 1. P ( X = a ) = P ( a £ X £ a ) = ò f ( x ) dx = 0 a 2. P ( a £ X £ b ) = P ( X = a ) + P ( a < X < b ) + P ( X = b ) = P ( a < X < b ) Ejemplo 1.7: Sea X una variable aleatoria continua con la siguiente distribución: 5 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 58
18 ì 1 - 1 2 x ï 2 e ï
f ( x ) = í
ï 0 ï
î
s i 0 < x £ ¥
en otro caso a. Encontrar P (1 £ X £ 2 ) Solución: Primero se verifica si el modelo es legítimo: ò
¥
0 1 -1 / 2 x e dx 2 Integrando por sustitución tenemos que - e -1 / 2 x ¥
0 = 0 - [ -1 ] = 1 Por lo tanto el modelo es legítimo. Ahora se encontrará la P (1 £ X £ 2 ) P (1 £ X £ 2 ) = ò
2 1 1 -1 / 2 x e dx 2 Integrando por sustitución tenemos que: - e -1 / 2 x 2 1 = -e -1 + e -1 / 2 Entones se tiene que: -1
-1 / 2 P (1 £ X £ 2 ) = - e + e 19
1.2 Valor esperado Los grandes jugadores de pòker dicen que los jugadores no experimentados pueden ganar dinero a corto plazo pero que perderán dinero a largo plazo. Lo contrario vale para profesionales y muy buenos jugadores, lo cuales ganarán generalmente a largo plazo. “¿Por qué esto es así? Esto se debe a un concepto conocido como “valor esperado”. Valor esperado es el beneficio que se espera. Por ejemplo, supongamos que he realizado una apuesta para tirar una moneda. Si sale cara, perderé $1, si sale cruz, ganare $100. ¿Debo aceptar teóricamente esta apuesta (asumiendo que la moneda es verdadera y existe un cincuenta­cincuenta de posibilidad de que salga cara o cruz)? Se debería aceptar la apuesta. Existe una probabilidad de 1/2 de que caiga en cara y gane $100. Por lo tanto, la ganancia esperada es 0.5*$100=50. Si saliera cruz, pierdo $1. Por lo que, la perdida esperada 0.5*$1=0.50 Y el beneficio esperado es la ganancia esperada menos la pérdida esperada. Es decir, que mi beneficio esperado es de $49,5. Entonces, no ganaré $49,50. Ganaré $100 o perderé $1. Sin embargo, deberíamos ver la apuesta como "ganar" $49,50. Los resultados en los juegos de azar están influenciados por la suerte a corto plazo. Sin embargo, a los resultados se verán cercanos a semejarse al valor esperado. Si lanzamos la moneda un millón de veces, mi beneficio final será muy cercano a 49,50 millones.” 6 Entonces resumiendo: Sea X una variable discreta donde solo podrá tomar dos valores, $100(ganancia), $­1 (la perdida ósea X = {­1, 100} ahora la probabilidad 6 www.pokertips.com.es/strategy/expected­value.php
20 de ganancia es 0.5 y la ganancia de perdida es 0.5. por tanto su valor esperado es:
m = (­1) (0.5)+ (100) (0.5)=49.5 Luego se observa que el valor esperado esta dado por:
1 E ( X ) = x i .P ( x i ) = (­1) (0.5)+ (100) (0.5)=49.5 å
i = 0 Así se llega a la definición de valor esperado o esperanza matemática de una variable aleatoria Definición 1.8: La media de una variable aleatoria se considera como una cantidad numérica alrededor de la cual los valores de la variable aleatoria tienden a agruparse por lo tanto la media es una medida de tendencia central y se define por:
m = E ( X ) = åx xp ( x ) Si X es una variable discreta
¥
m = E ( X ) = Si X es una variable continua ò xf ( x ) dx -¥
En general define el valor esperado de una función de X , h ( x ) , por la igualdad
E [h ( X ) ] = åx h ( x ) p ( x ) Si X es una variable discreta.
¥
E[h ( X ) ] = Si X es una variable continua.
ò h( x ) f ( x ) dx - ¥
21 Análogamente para mas de dos variables x1 , x 2 , x 3 ,..., x k el valor esperado de cualquier función h de las variantes, se define por
E[h ( x 1 , x 2 , x 3 ,..., x k ) ] = ... å h ( x , x , x ,..., x k ) p ( x , x , x ,..., x k ) ååå
x x x x 1
1 2 2 3 1 2 3 k 3 Si x1 , x 2 , x 3 ,..., x k variables discretas.
¥
E[h ( x 1 , x 2 , x 3 ,..., x k ) ] = ò h ( x , x , x ,..., x k ) f ( x , x , x ,..., x k ) dx dx dx ... dx k 1 2 3 1 2 3 1 2 3 - ¥
Si x1 , x 2 , x 3 ,..., x k variables continuas. El valor esperado o media posee algunas propiedades: 1. E ( k ) = k para k una constante 2. E ( cx + k ) = cE ( x ) + k para k , c constantes 3. E[ g ( x ) + h ( x )] = E [( g ( x )] + E [( h ( x )] donde g y h funciones de distribución NOTA: El valor esperado, puede no existir dependiendo si la correspondiente suma o integral diverge a un valor infinito. Ejemplo: Halle la media de cada una de las siguientes distribuciones: a. x ­5 ­4 1 2 f ( x ) 1/4 1/8 1/2 1/8 b. x 1 3 5 7 f ( x ) 1/6 1/9 1/2 22 1/3
Solución: æ 1 ö æ 1 ö æ 1 ö æ 1 ö
a. m = E ( X ) = å xf ( x ) = -5 ç ÷ - 4 ç ÷ + 1 ç ÷ + 2 ç ÷ = -1 è 4 ø è 8 ø è 2 ø è 8 ø
æ 1 ö æ 1 ö æ 1 ö æ 1 ö 50 b. m = E ( X ) = å xf ( x ) = 3 ç ÷ + 2 ç ÷ + 5 ç ÷ + 7 ç ÷ =
è 3 ø è 9 ø è 2 ø è 3 ø 9 23 CAPITULO DOS 2. DISTRIBUCIONES ESPECIALES 2.1. DISTRIBUCIONES ESPECIALES DISCRETAS 2.1.1 DISTRIBUCION UNIFORME “La distribución uniforme es la que corresponde a una variable que toma todos sus valores, x 1, 7 x2,...,x n, con igual probabilidad; el espacio muestral debe ser finito. Donde n es el parámetro de la distribución”. Si la variable tiene n posibles valores, su función de probabilidad sería: f(x)= 1 para n n= 1, 2,3,…. La media y la varianza de la distribución uniforme se calculan por las expresiones: Media:
Varianza:
m =
n + 1
2 s 2 = n 2 - 1 12 La función generadora de momentos esta dada por: 7 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20uniforme
24 n
1 m x (t ) = å e it i =1 n 2.1.2. DISTRIBUCION BERNOULLI “Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1­p la probabilidad de que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, Podríamos por tanto definir este experimento mediante una variable aleatoria discreta X que toma los valores X = 0 si el suceso no ocurre, y X = 1 en caso de que el suceso ocurra” 8 . La función de probabilidad de la variable bernoulli es:
f ( x ) = p x q 1 - x para 0 £ p £ 1 . x = 0 , 1 La media y la varianza de la distribución bernoulli se calculan: Media:
Varianza:
m = p s 2 = p q La función generadora de momentos esta dada por:
m x (t ) = q + pe t 8 www.bioestadistica.uma.es/libro/node69.htm
25
2.1.3. DISTRIBUCION BINOMIAL La distribución binomial posee las siguientes características: 1. “El modelo está compuesto de n ensayos independientes iguales, siendo n un número natural fijo. 2. Cada ensayo resulta en un suceso que cumple las propiedades de la variable binómico o de Bernouilli, es decir, sólo existen dos posibles resultados, mutuamente excluyentes, que se denominan generalmente como éxito y fracaso. 3. La probabilidad del ‚éxito (o del fracaso) es constante en todos los ensayos. P (éxito) = p; P (fracaso) = 1 ­ p = q 4. Los ensayos son estadísticamente independientes. La función de probabilidad de la variable binomial se representa como b(x,n,p) donde n y p son los parámetros de la distribución e indica la probabilidad de que ocurran exactamente x éxitos en una muestra de n observaciones de Bernoulli independientes” 9 . n el número de pruebas p la probabilidad de éxito.
æ n ö
f ( x ) = çç ÷÷ p x q n - x è x ø
para x = 0, 1 , 2 ,..., n 0 £ p £ 1 n = 1 , 2 , 3 ... La media y la varianza de la distribución binomial se calculan: 9 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20binomial
26 Media:
m = np Varianza:
s 2 = npq La función generadora de momentos esta dada por:
m x (t ) = (q + pe t ) n 2.1.4. DISTRIBUCION HIPERGEOMÉTRICA Una variable tiene distribución hipergeométrica si posee un modelo que cumple las siguientes condiciones: 1. “Se toma una muestra de tamaño n, sin reemplazo, de un conjunto finito de M objetos. 2. K de los M objetos se pueden clasificar como ‚éxitos y M ­ K como fracasos. 3. X cuenta el número de éxitos obtenidos en la muestra. En este caso, la probabilidad de éxito en pruebas sucesivas no es constante pues depende del resultado de las pruebas anteriores. Por tanto, las pruebas no son independientes entre sí” 10 . La función de probabilidad de la variable hipergeométrica es:
æ K öæ M - K ö
çç ÷÷çç
÷
x øè n - x ÷ø
è
f ( x ) = æ M ö
çç ÷÷
è n ø
para 10 x = 1, 2 , 3 ,..., n M = 1 , 2 , 3 ,... K = 0 , 1 , 2 ,..., M n = 1 , 2 , 3 ,..., M www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20hipergeomé trica
27 La media y la varianza de la distribución hipergeométrica se calculan: m = n Media:
Varianza:
K M æ K öæ M - K öæ M - n ö
֍
֍
÷
è M øè M øè M - 1 ø
s 2 = n ç
2.1.5. DISTRIBUCION POISSON Una variable de tipo poisson cuenta ‚éxitos que ocurren en una región del espacio o del tiempo. El modelo que la genera debe cumplir las siguientes condiciones: 1. “El número de éxitos que ocurren en cada región del tiempo o del espacio es independiente de lo que ocurra en cualquier otro tiempo o espacio disyunto del anterior. 2. La probabilidad de un ‚éxito en un tiempo o espacio pequeño es proporcional al tamaño de este y no depende de lo que ocurra fuera de él. 3. La probabilidad de encontrar uno o más ‚éxitos en una región del tiempo o del espacio tiende a cero a medida que se reducen las dimensiones de la región en estudio” 11 . La función de probabilidad de una variable Poisson es: 11
www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20de%20poisso n
28 f ( x ) =
e - l l x
x ! si
x = 0, 1 , 2 , 3 ,.., ¥
y
l >0 La media y la varianza de la distribución poisson se calculan: Media:
m = l Varianza:
s 2 = l
La función generadora de momentos esta dada por:
mx (t ) = [ (
)] exp l e t - 1 2.1.6. DISTRIBUCION GEOMETRICA “La distribución geométrica comparte algunas características del modelo Binomial pero la diferencia entre los dos modelo es que en la distribución geométrica la variable x es el número de ensayos que son necesarios realizar para que ocurra por primera vez un éxito” 12 . La función de probabilidad de una variable geométrica es: f ( x ) = pq x x = 0, 1 , 2 , 3 ,.., ¥
0<p<1 y (q=1­p) La media y la varianza de la distribución geométrica se calculan: 12 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.110
29
Media:
Varianza:
m =
s 2 = q p q p 2 La función generadora de momentos esta dada por:
m x (t ) = p
1 - qe t 2.1.7. DISTRIBUCION BINOMIAL NEGATIVA “La distribución binomial negativa surge de un contexto semejante al que conduce a la distribución geométrica, donde cada ensayo idéntico e independiente da origen a uno de los dos resultados de éxito o fracaso” 13 . Este modelo nos permite encontrar la probabilidad del número de ensayos que son necesarios realizar en el que ocurre el n­ésimo éxito. La función de probabilidad de una variable binomial negativa es: æ r + x - 1 ö r x ÷ p q x ÷ø
è
para f ( x ) = çç
0< p £ 1 y r > 0
x = 0, 1 , 2 , 3 ,.., ¥
La media y la varianza de la distribución binomial negativa se calculan: Media:
m =
rq p 13 13 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.116
30 s 2 = Varianza:
rq p 2 La función generadora de momentos esta dada por:
m x (t ) = æ p ö
çç
÷
t ÷
è 1 - qe ø
r 2.2. DISTRIBUCIONES ESPECIALES CONTINUAS 2.2.1. DISTRIBUCION UNIFORME La función de distribución uniforme es constante en el intervalo (a, b). Por esto, tal distribución también se conoce como distribución rectangular La función de densidad de la distribución uniforme es: f(x)= 1 b - a para
a < x < b - ¥ < a < b < ¥
La media y la varianza de la distribución uniforme se calculan por las expresiones: Media:
Varianza:
m =
a + b 2 s 2 = ( b - a ) 2 12 La función generadora de momentos esta dada por:
m x (t ) = e bt - e at (b - a ) t 31 2.2.2. DISTRIBUCION NORMAL “Una variable es normal cuando se ajusta a la ley de los grandes números, es decir, cuando sus valores son el resultado de medir reiteradamente una magnitud sobre la que influyen infinitas causas de efecto infinitesimal. Las variables normales tienen una función de densidad con forma de campana a la que se llama campana de Gauss” 14 . La función de densidad de una variable normal es:
f ( x ) = 2 é
ù
exp ê- ( x - m )
2 ú
2 s
2 ps ë
û
1 para ¥<m <¥
s >0
La media y la varianza de la distribución normal se calculan: Media: Varianza:
m = E ( X ) s 2 = E ( X - m ) 2 La función generadora de momentos esta dada por:
mx (t ) = 1 é
ù
exp ê mt + s 2 t 2 ú
2 ë
û
2.2.3. DISTRIBUCION BETA “La distribución beta permite generar una gran variedad de perfiles, se ha utilizado para representar variables físicas cuyos valores se encuentran restringidos a un intervalo de longitud finita” 15 . 14 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm#Distribución%20normal%20 o%20de%20Gauss
32 La función de densidad de una variable beta es: 1 f ( x ) = x a -1 ( 1 - x ) b -1 B ( a , b ) 0 < x < 1 para a > 0 b > 0 La media y la varianza de la distribución beta se calculan: Media: m =
Varianza:
s 2 = a
a + b ab
( a + b + 1 )( a + b ) 2 2.2.4. DISTRIBUCION WEIBULL “En los últimos 25 años esta distribución se empleó como modelo para situaciones del tiempo­falla y con el objetivo de lograr una amplia variedad de componentes mecánicos y eléctricos. La distribución de Weibull depende de dos parámetros a , q ” 16 . La función de densidad de una variable Weibull es: a f ( x ) = a x a - 1 exp[ - ( x / q ) a ] q
o < x < ¥
a > 0
q > 0 La media y la varianza de la distribución Weibull se calculan: Media:
æ
è
m = qGç1 +
1 ö
÷
aø
15 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.Pág. 147 16 CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill.159
33 é æ
ë è
s 2 = q 2 êGç1 +
Varianza:
2 ö
1 öù
2 æ
÷ - G ç1 + ÷ú
aø
è a øû
La función generadora de momentos esta dada por:
mx (t ) = a - b Gæç1 + t ö÷
t b ø
è
2.2.5. DISTRIBUCIÓN CHI­CUADRADO Sea v un entero positivo. Se dice que una variable aleatoria X tiene una distribución Chi­cuadrado con v grados de liberta si y sólo si X es una variable aleatoria con una distribución gamma y parámetros a = v
b = 2 . La función de densidad de una variable Chi­cuadrado es:
1 æ 1 ö
f ( x ) =
ç ÷
G v è 2 ø
2 ( )
v 2 v ( )
- 1 x 2 x 2 -1 e La media y la varianza de la distribución Chi­cuadrado se calculan: Media: m =v
Varianza:
s 2 = 2 v La función generadora de momentos esta dada por:
m x (t ) = æ 1 ö
ç
÷
è 1 - 2 t ø
v 2 34 2 y 2.2.6. DISTRIBUCION T STUDENT “Supongamos dos variables aleatorias independientes, una normal tipificada, Z, y otra con distribución c2 con n grados de libertad, la variable definida según la ecuación” 17 :
T=
Z x 2 n tiene distribución t con n grados de libertad. La función de densidad de una variable t student es:
f ( x ) = G[(v + 1 ) / 2 ]
[1 + ( ) ] 2 / v - ¥ < x < ¥
- ( v +1 ) / 2 pv G( v / 2 ) para v > 0
v > 1 La media y la varianza de la distribución t student se definen: Media: Varianza:
m = 0
s 2 = v v - 2
para v>2 2.2.7. DISTRIBUCION F “La distribución F aparece frecuentemente como la estadística de prueba de la hipótesis nula (distribución nula) de una prueba estadística, 17 www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htmDistribuciónT%20de%20Stud ent
35 especialmente en el análisis de varianza, para mas de dos poblaciones” 18 . La función de densidad de una variable distribución F es:
G[(m + n ) / 2 ] æ m ö
f ( x ) =
ç ÷
G(m / 2 )G(n / 2 ) è n ø
para m 2 x (m - 2 ) / 2 ( m + n ) / 2 1 + m x n [ ( )]
o < x < ¥
m , n = 1 , 2 ,... La media y la varianza de la distribución F se calculan: Media: Varianza:
m = n
n - 2
s 2 = para n>2 2 n 2 ( m + n - 2 ) para n>4 m ( n - 2 ) 2 ( n - 4 ) 2.2.8. DISTRIBUCION GAMMA “La distribución gamma es una distribución de probabilidad continua con dos parámetros a y b . El parámetro a recibe el nombre de parámetro de forma, ya que la forma de la densidad gamma difiere por los distintos valores de a . El parámetro b recibe el nombre de parámetro de escala debido a la multiplicación de una variable aleatoria con distribución gamma por una constante positiva” 19 . 18 es.wikipedia.org/wiki/Distribuci%C3%B3n_F 19 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.177
36 La función de densidad de una variable gamma es: b a a -1 - bx f ( x ) = x e G ( a ) o < x < ¥
b > 0
a > 0 para La media y la varianza de la distribución gamma se calculan: Media:
Varianza:
m = s 2 = r
b
r b 2
La función generadora de momentos esta dada por:
m x (t ) = b
b -t
Como casos especiales de la distribución gamma encontramos: 2.2.9. DISTRIBUCION EXPONENCIAL “La función gamma en la que α = 1 se llama función de densidad exponencial. La función de densidad exponencial se utiliza con frecuencia para describir la duración de los componentes electrónicos” 20 . La función de densidad de una variable exponencial es: f ( x ) = be - bx para 0 £ x £ ¥
b > 0 La media y la varianza de la distribución exponencial se calculan: 20 WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson.Pág.178
37 Media:
Varianza:
m = s 2 = 1
b
1
b 2 La función generadora de momentos esta dada por:
m x (t ) = b
b -t
38 CAPITULO TRES 3. TECNICA DE TRANSFORMACIONES Esta técnica es usada tanto en distribuciones de probabilidad variables aleatorias discretas como en distribuciones de probabilidad de variables aleatorias continuas 3.1 TECNICA DE TRANSFORMACIONES PARA VARIABLES ALEATORIAS DISCRETAS Teorema 3.1: “ Supóngase que X es una variable aleatoria discreta con distribución de probabilidad P(x). Si la función Y=g(X) define una transformación uno a uno entre los valores X y Y , de tal forma que la ecuación y = g ( x ) tenga su inversa x = g -1 ( y ) , entonces la distribución de Y es” 21 :
f Y ( y ) = f X (g -1 ( y ) ) Demostración:
F Y ( y ) = P ( Y = y ) = P ( g ( x ) = y ) = P ( x = g -1 ( y )) =
21 probabilidad y estadística. Warpole. Meyer. Pag184
39 f X (g -1 ( y ) ) Ejemplo 3.1: Sea X es una variable aleatoria discreta donde su distribución se encuentra dada por ì 2x ï
f X ( x ) = P ( X = x ) = í 3 ïî0 x = 1, 2 , 3 , 4 en otro caso Encontrar la distribución de Y = 2 X - 1 Solución: Si x varia entre 1 y 4 remplazando en y tenemos que y = 1, 3, 5,7 y = g ( x ) = 2 x - 1 Þ x = g -1 ( y ) =
y + 1 2 Ahora
æ
è
f Y ( y ) = P ( Y = y ) = P ( 2 X - 1 = y ) = P ç X =
y + 1 ö
÷=
2 ø
æ y + 1 ö
÷
è 2 ø
f X ç
æ ( y + 1 ) ö
÷
è 3 ø
f Y ( y ) = ç
Luego la distribución de y se encuentra dada por: ì y + 1 ï
f Y ( y ) = P (Y = y ) = í 3 ïî0 y = 1, 3 , 5 , 7 en otro caso Suponga ahora el problema en el que X 1 , X 2 ,..., X n , son variables aleatorias discretas con función conjunta f X 1 , X 2 ,..., X n ( x 1 , x 2 ,..., x n ), y se desea encontrar la probabilidad conjunta f Y 1 , Y 2 ,..., Y n ( y 1 , y 2 ,..., y n ) de las nuevas variables aleatorias
40 y1 = g 1 ( x 1 , x 2 ,..., x n ), y 2 = g 2 ( x 1 , x 2 ,..., x n ), ..., y n = g n ( x 1 , x 2 ,..., x n ), las cuales definen una transformación uno a uno entre los conjuntos de puntos ( x 1 , x 2 ,..., x n ) y ( y 1 , y 2 ,..., y n ) .Si se resuelven las ecuaciones simultáneamente se encontrara la solución inversa única x1 = g 1 -1 ( y 1 , y 2 ,..., y n ), x 2 = g 2 -1 ( y 1 , y 2 ,..., y n ), ..., x n = g n -1 ( y 1 , y 2 ,..., y n ), Teorema 3.2: Sean que X 1 , X 2 ,..., X n , son variables aleatorias discretas con distribución de probabilidad conjunta f X 1 , X 2 ,..., X n ( x 1 , x 2 ,..., x n ) . Si las funciones y1 = g 1 ( x 1 , x 2 ,..., x n ), y 2 = g 2 ( x 1 , x 2 ,..., x n ), ..., y n = g n ( x 1 , x 2 ,..., x n ), definen una transformación uno a uno entre los valores ( x 1 , x 2 ,..., x n ) y ( y 1 , y 2 ,..., y n ) de tal forma que las ecuaciones: y1 = g 1 ( x 1 , x 2 ,..., x n ), y 2 = g 2 ( x 1 , x 2 ,..., x n ),..., y n = g n ( x 1 , x 2 ,..., x n ), tengan inversa x1 = g 1 -1 ( y 1 , y 2 ,..., y n ), x 2 = g 2 -1 ( y 1 , y 2 ,..., y n ),..., x n = g n -1 ( y 1 , y 2 ,..., y n ), , respectivamente entonces la distribución conjunta de Y 1 , Y 2 ,..., Y n , es: f Y , Y ,..., Y n , ( y 1 , y 2 ,..., y n ) 1
2 = f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] Demostración: f Y , Y ,..., Y n , ( y 1 , y 2 ,..., y n ) 1
2 = P ( Y 1 = y 1 , Y 2 = y 2 , ... , Y n = y n ) = P ( g 1 ( x 1 , x 2 ,... x n ) = y 1 , g 2 ( x 1 , x 2 ,... x n ) = y 2 , ... , g n ( x 1 , x 2 ,... x n ) = y n ) = P ( X 1 = g 1- 1 ( y 1 , y 2 ,... y n ), X 2 = g -2 1 ( y 1 , y 2 ,... y n ), ..., X n = g n -1 ( y 1 , y 2 ,... y n )) =
f X , X ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] 1
2 41 Ejemplo 3.2: Sean X 1 , X 2 variables discretas con distribución de probabilidad conjunta
ì X 1 X 2 ï 18 ï
f ( x 1 , x 2 ) = í
ï0 ï
î
X 1 = 1 , 2 X 2 = 1 , 2 , 3 en otro caso Encontrar la distribución de probabilidad de la variable aleatoria Y1 = X 1 X 2 Solución: Sea y1 = g 1 ( x 1 , x 2 ) y2 = g 2 ( x 1 , x 2 ) f Y , Y ( y 1 , y 2 ) = P ( Y 1 = y 1 , Y 2 = y 2 ) 1
2 =
P
(g 1 ( x 1 , x 2 ) = y 1 , g 2 ( x 1 , x 2 ) = y 2 ) -1 -1 = P ( x 1 = g 1 ( y 1 , y 2 ) , x 2 = g 2 ( x 1 , x 2 ) = f X ( g 1- 1 ( y 1 , y 2 ) , g 2 -1 ( x 1 , x 2 ) Y1 = X 1 X 2 Þ f Y 1 ( y 1 ) = ? Se usa una variable auxiliar Y2 = X 2 Ahora procedemos a encontrar las inversas: y1 = X 1 X 2 Þ y 1 = X 1 y 2 Þ x 1 =
y 1 = g 1- 1 ( y 1 , y 2 ) Y 2 x2 = y 2 = g 2 -1 ( y 1 , y 2 ) Los Intervalos de y 1 y y 2 son: x 1 1 2 x 2 1 2 3 1 2 2 4 3 6
42 Por lo tanto y 1 = 1, 2, 3, 4, 6 y 2 = 1, 2, 3 Tenemos:
æ y 1 ö
, y 2 ÷÷
è y 2 ø
f Y , Y ( y 1 , y 2 ) = f x çç
1 2 = Y 1 f Y ( y 1 ) 1
y 1 18 1 2 3 4 5 1 18 2 9 1 6 2 9 1 3 3.2. TECNICA DE TRANSFORMACIONES PARA VARIABLES CONTINUAS En este caso se enuncia el siguiente teorema: Teorema 3.3: Sean X es una variable aleatoria continua con distribución de probabilidad f X ( x ) . Si la función Y= g(X) define una correspondencia uno a uno entre los valores X y Y , de tal forma que la ecuación y = g ( x ) tenga su inversa x = g -1 ( y ) , entonces la distribución de Y es:
f Y ( y ) = f X (g -1 ( y ) ) J donde J =
d -1 g ( y ) y recibe el nombre de jacobiano de la dy transformación.
43 Demostración: La demostración puede abrirse en dos casos, en el caso en el que y = g ( x ) es creciente y en el caso en el que y = g ( x ) es decreciente.
·
Supóngase que y = g ( x ) es creciente. 4 b a 0 g­1(a) 0 1,5 Gráfica 2 Se escoge dos puntos arbitrarios de y , por ejemplo a y b entonces: P (a £ Y £ b ) = P (Y £ b ) - P ( Y £ a ) = P ( g ( X ) £ b ) - P ( g ( X ) £ a ) = P ( X £ g -1 ( b )) - P ( X £ g -1 ( a )) = P[ g -1 ( a ) £ X £ g -1 ( b )] g -1 ( b ) =
òf
X g - 1 ( a ) ( x ) dx 44 Ahora se cambia las variable de integración de x a y por la relación x = g -1 ( y ) se tendría que: dx = [ g -1 ( y )] ' dy luego b P (a £ Y £ b ) =
-1 òa f X ( g ( y ))[ g -1 ( y )] ' dy como a y b recorren todos los valores permisibles de y siempre que a < b se tiene que f Y ( y ) = f X ( g -1 ( y ))[ g -1 ( y )] ' = f X (g -1 ( y ) ). J Se conoce a J = [ g -1 ( y )] ' como el reciproco de la pendiente de la línea tangente a la curva de la función creciente y = g ( x ) es evidente que J = J . Luego
·
f Y ( y ) = f X (g -1 ( y ) ) J
Suponga que y = g ( x ) es decreciente. b a 0 0 g­1(a) Gráfica 3
45 5 Se escoge otra vez puntos arbitrarios de y , a y b entonces: P (a £ Y £ b ) = P (Y £ b ) - P ( Y £ a ) = P ( g ( X ) £ b ) - P ( g ( X ) £ a ) = P ( X £ g -1 ( b )) - P ( X £ g -1 ( a )) = P [ g -1 ( b ) £ X £ g -1 ( a )] g -1 ( a ) =
ò f X ( x ) dx g - 1 ( b ) otra vez cambiando la variable de integración de x a y se tiene que: a -1 P (a £ Y £ b ) =
òb f X ( g ( y ))[ g -1 ( y )] ' dy b = - ò f X ( g -1 ( y ))[ g -1 ( y )] ' dy a Como a y b recorren todos los valores permisibles de y siempre que a < b se tiene que P (a £ Y £ b ) = - f X (g -1 ( y ) ). J en este caso la pendiente de la curva es negativa, por tanto J = - J .
f Y ( y ) = f X (g -1 ( y ) ) J con lo cual se concluye el teorema. Ejemplo 3.3: Sea X una variable aleatoria continua donde su distribución se encuentra dada por:
ì 2 x 0 £ x £ 1 ï
f X ( x ) = P ( X = x ) = í
ï0 en otro caso î
46 Encontrar a Y= 3Y­1 Solución: Se encuentra el intervalo de y - 1 < y = 3 x - 1 < 2 - 1 £ y £ 2 Ahora F Y ( y ) = P ( Y = y ) = P [ 3 x - 1 £ y ] = P[ 3 x £ y + 1 ] y + 1 ù
é
= P ê x £ 3 úû
ë
F X = y + 1
3 æ y + 1 ö
ç
÷
æ y + 1 ö ç 3 ÷
f Y ( y ) = F X ç
d ÷
è 3 ø ç dy ÷
ç
÷
è
ø
æ y + 1 ö 1 = f X ç
÷. è 3 ø 3 f Y ( y ) = 2 y + 1 9 Teorema 3.4: Sean X 1 , X 2 ,..., X n son variables aleatorias continuas con distribución de probabilidad conjunta f X 1 , X 2 ,..., X n , ( x 1 , x 2 ,..., x n ) . Si y1 = g 1 ( x 1 , x 2 ,..., x n ), y2 = g 2 ( x 1 , x 2 ,..., x n ), ..., y n = g n ( x 1 , x 2 ,..., x n ), definen una transformación uno a uno entre los valores ( x 1 , x 2 ,..., x n ) y
47 ( y 1 , y 2 ,..., y n ) de tal forma que las ecuaciones: y1 = g 1 ( x 1 , x 2 ,..., x n ), y 2 = g 2 ( x 1 , x 2 ,..., x n ),..., y n = g n ( x 1 , x 2 ,..., x n ), Tengan inversa x1 = g 1 -1 ( y 1 , y 2 ,..., y n ), x 2 = g 2 -1 ( y 1 , y 2 ,..., y n ),..., x n = g n -1 ( y 1 , y 2 ,..., y n ), , respectivamente entonces la distribución conjunta de Y 1 , Y 2 ,..., Y n , es: f Y , Y ,..., Y n , ( y 1 , y 2 ,..., y n ) 1
2 = f X 1 , X 2 ,..., X n [ g 1 -1 ( x 1 , x 2 ,..., x n ), g 2 -1 ( x 1 , x 2 ,..., x n ),... g n -1 ( x 1 , x 2 ,..., x n )] J donde el jacobiano es el determinante de n x n. ¶ x1 ¶x 1 y 1 y 2 ¶x 2 ¶x 2 y 1 y 2 ¶x n ¶x n y 1 y 2 M ... ¶x 1 ... ¶x n M
y n y 2 M
... ¶x n y n Ejemplo 3.4: Sean X 1 y X 2 variables aleatorias independientes exponenciales de parámetros q = 1 , halle la distribución de la suma Solución: X1 »
= f ( x 1 ) = e - x 1 0 £ x1 £ ¥
X 2 »
= f ( x 2 ) = e - x 2 0 £ x2 £ ¥
f X , X ( x 1 , x 2 ) = e - ( x + x ) 1
1
0 £ x1 £ ¥
2 2 0 £ x2 £ ¥
48 1. y1 = x 1 + x 2 = g 1 ( x 1 , x 2 ) 2. y2 =
x 1 x 1 + x 2 = g 2 ( x 1 , x 2 ) Sea encuentran las inversas de: g1- 1 ( y 1 , y 2 ) y g 2- 1 ( y 1 , y 2 ) de 2. tenemos ( x1 + x 2 ) y 2 = x 1 = y 1 y 2 = g 1 -1 ( y 1 , y 2 ) de 1. tenemos x2 = y 1 - x 1 x2 = y 1 - y 1 y 2 x2 = y 1 ( 1 - y 2 ) = g 2- 1 ( y 1 , y 2 ) Los intervalos son:
0 £ x 2 £ ¥
0 £ y 1 ( 1 - y 2 ) £ ¥
0 £ y 2 £ 1 0 £ y 1 £ ¥
Aplicando el teorema encontramos la distribución conjunta de Y 1 y Y 2 es:
f ( y 1 , y 2 ) = (g 1 -1 ( y 1 , y 2 ), g 2 -1 ( y 1 , y 2 ) ) J y2 y 1 = - y 2 y 1 - y 1 ( 1 - y 2 ) ( 1 - y 2 ) - y 1 = - y 2 y 1 - y 1 + y 1 y 2 ) = y 1 f ( y , y ) ( y 1 y 2 , y 2 ( 1 - y 2 ) ) 1
2 = e -( y1 y 2 + y 1 (1 - y 2 ) ) y 1 = y 1 e -( y 1 y 2 + y 1 ( 1 - y 2 ) ) = y 1 e - y 1 49 Y para encontrar la distribución de f Y 1 ( y 1 ) se integra la distribución conjunta con respecto a y 2 , entonces: 1 = f y 1 ( y 1 ) = ò y 1 e - y 1 dy 2 0 - y 1 = y 1 e Con lo que se tiene una variable Gamma (2,1)
50 CAPITULO CUATRO 4. ESTADISTICAS DE ORDEN DEFINICION Sean X 1 , X 2 ,..., X n una muestra aleatoria de tamaño n de una distribución de tipo continuo que tiene función de densidad f(x) positiva para a < x <b. Entonces Y1 £ Y 2 £,... £ Y n , donde las Y i son las X i arregladas en orden creciente de magnitudes son definidas como las estadísticas de orden correspondientes a la muestra aleatoria X 1 , X 2 ,..., X n . Estas estadísticas juegan un papel importante en la inferencia estadística particularmente porque algunas de sus propiedades no dependen de la distribución de la cual fue obtenida la muestra aleatoria. Se puede analizar la función de densidad conjunta de la muestra (Distribución muestral) en una muestra A ordenada así: Sea X 1 , X 2 ,..., X n una muestra aleatoria de una distribución de tipo continuo que tiene densidad f X ( x ) que es positiva, siempre que a<x<b.
51 Sea Y 1 la más pequeña de estas X i , Y 2 la siguiente X i en orden de magnitudes, y Y n la mas grande de las X i esto es Y1 < Y 2 < ... < Y n representan a donde estas ultimas se ordenan X 1 , X 2 ,..., X n ascendentemente en orden de las i de la muestra aleatoria de magnitud. TEOREMA 4.1: Sean Y1 , Y 2 ,..., Y n una muestra ordenada de las variables aleatorias X 1 , X 2 ,..., X n , entonces la función de densidad conjunta de Y1 , Y 2 ,..., Y n está dada por ìn ! f ( y 1 ) f ( y 2 )... f ( y n ) ï
g( y1 , y 2 ,..., y n ) = í
ï 0 en otro caso î
a < y 1 < y 2 < ... < y Demostración: Se probará para el caso n = 3. Si n = 3, entonces, la función de densidad conjunta de X 1 , X 2 , X 3 es f ( x 1 ) f ( x 2 ) f ( x 3 ) . Considere la probabilidad de un evento tal como: P (a< X 1 = X 2 <b, a< X 3 <b) = ò
b b x 2 òò
a a x2 Porque
f ( x 1 ) f ( x 2 ) f ( x 3 ) dx 1 dx 2 dx 3 ò f ( x ) dx = 0 1 1 Como se anotó, se puede definir la función de densidad conjunta f ( x 1 ) f ( x 2 ) f ( x 3 ) sin alterar la distribución de X 1 , X 2 , X 3 como cero en todos los puntos ( X 1 , X 2 , X 3 ) que tienen al menos dos de sus coordenadas iguales. Entonces el espacio, donde f ( x 1 ) f ( x 2 ) f ( x 3 ) es la unión de los 6 conjuntos disyuntos siguientes:
52 A1= { ( x 1 , x 2 , x 3 ); a < x 1 < x 2 < x 3 < b} A2= { ( x 1 , x 2 , x 3 ); a < x 2 < x 1 < x 3 < b} A3= { ( x 1 , x 2 , x 3 ); a < x 1 < x 3 < x 2 < b} A4= { ( x 1 , x 2 , x 3 ); a < x 2 < x 3 < x 1 < b} A5= { ( x 1 , x 2 , x 3 ); a < x 3 < x 1 < x 2 < b} A6= { ( x 1 , x 2 , x 3 ); a < x 3 < x 2 < x 1 < b} Hay 6 de estos conjuntos porque podemos ordenar x 1 , x 2 , x 3 precisamente de 6 formas. Considere las funciones: y1 = mín { x 1 , x 2 , x 3 } y2 = el valor de magnitud mediana de { x 1 , x 2 , x 3 }, y y3 = máx { x 1 , x 2 , x 3 }. Estas funciones definen una transformación uno a uno que mapea cada uno de los conjuntos A1, A2, A3, A4, A5, A6 anteriores sobre uno de los conjuntos
B = {(y1, y2, y3); a < y1 < y 2 < y 3 < b}. Las funciones inversas son para los puntos en A i , i=1, 2, 3, 4, 5, 6, así: A1 = x 1 = y 1 x 2 = y 2 x 3 = y 3 A2 = x 1 = y 2 x 2 = y 1 x 3 = y 3 A3 = x 1 = y 1 x 2 = y 3 x 3 = y 2 A4 = x 1 = y 3 x 2 = y 1 x 3 = y 2 A5 = x 1 = y 2 x 2 = y 3 x 3 = y 1 A6 =
x 1 = y 3 x 2 = y 2 x 3 = y 1 Entonces el jacobiano de cada Ai, es:
53 é ¶x 1 ê ¶y ê 1 ê
ê ¶x J = ê 2 ¶y ê 1 ê
ê ¶x 3 ê ¶y ë 1 ¶x 1 ¶y 2 ¶x 2 ¶y 2 ¶x 3 ¶y 2 ¶x 1 ù
¶y 3 ú
ú
ú
¶x 2 ú
¶y 3 ú
ú
ú
¶x 3 ú
¶y 3 úû
é1 0 0 ù
J 1 = êê0 1 0 úú
êë0 0 1 úû
é0 1 0 ù
J 2 = êê1 0 0 úú
êë0 0 1 úû
é1 0 0 ù
J 3 = êê0 0 1 úú
êë0 1 0 úû
é0 1 0 ù
J 4 = êê0 0 1 úú
êë1 0 0 úû
é0 0 1 ù
J 5 = êê1 0 0 úú
êë0 1 0 úû
é0 0 1 ù
J 6 = êê0 1 0 úú
êë1 0 0 úû
El valor absoluto de cada un de los 6 jacobianos es +1. De este modo la función de densidad conjunta de las estadísticas de orden: y1 = mín { x 1 , x 2 , x 3 } y2 = el valor de magnitud mediana de { x 1 , x 2 , x 3 }, y y3 = máx { x 1 , x 2 , x 3 }. g ( y 1 , y 2 , y 3 ) = J 1 f ( x 1 ) f ( x 2 ) f ( x 3 ) + J 2 f ( x 1 ) f ( x 2 ) f ( x 3 ) + . . . + J 6 f ( x 1 ) f ( x 2 ) f ( x 3 ) a< y1< y2< y3< b 0 en otro caso es decir. g ( y 1 , y 2 , y 3 ) ì 3! f ( y 1 ) f ( y 2 )... f ( y n ) ï
= í
ï0 en otro caso î
54
a < y 1 < y 2 < y 3 < b Ejemplo 4.1: Sea X una variable aleatoria de tipo continuo con función de densidad f ( x ) que es positiva y continua, para a<x<b, y cero en otra parte. La función de distribución F ( x ) de X se puede escribir: si x £ a 0 F X ( x ) = x f ( w ) dw 1 si x ³ b ò a
si a < x < b De esta manera hay una única mediana m de la distribución con F X (m ) = 1 . Considere la muestra aleatoria X 1 , X 2 , X 3 de esta distribución y sea 2 y1 < y 2 < y 3 las estadísticas de orden de la muestra. Calcular la probabilidad de que y2 £ m Solución: 6 f ( y 1 ) f ( y 2 )... f ( y n ) a < y 1 < y 2 < y 3 < b g ( y 1 , y 2 , y 3 ) = en otro caso 0 La función de densidad de Y 2 es entonces:
h ( y 2 ) = 6 f ( y 2 ) ò
b y 2 y òa
f ( y 1 ) f ( y 3 ) dy 1 dy 3 2 b [
= 6 f ( y 2 ) ò F ( y 1 ) y 2 y 2 a ]f ( y ) dy 3 3 b = 6 f ( y 2 ) F ( y 2 ) ò f ( y 3 ) dy 3 y 2 [
= 6 f ( y 2 ) F ( y 2 ) F ( y 3 ) b y 2 ] 6 f ( y 2 ) F ( y 2 )[ 1 - F ( y 2 )] h ( y 2 ) = a < y 2 < b 0 en otro caso 55 Por consiguiente m
{
} P ( y2 £ m ) = 6 ò F ( y 2 ) f ( y 2 ) [F ( y 2 ) ]2 f ( y 2 ) d ( y 2 ) a
m ì (F(y 2 ) )2 (F(y 2 ) ) 3 ü
1 P ( y2 £ m ) = 6 í
- ý =
2 3 þ a 2 î
El resultado anterior puede usarse para obtener expresiones de las demás estadísticas de orden. Sea X una variable aleatoria de tipo continuo que tiene función de densidad f ( x ) que es positiva y continua, en a<x<b, y cero en otro caso. Entonces la función distribución F ( x ) se puede escribir F ( x ) = 0 si x £ a =
x òa f ( w ) dw si a < x < b = 1 si x ³ b Por consiguiente F ¢( x ) = f ( x ) a < x < b Además si a < x < b 1­ F ( x ) = F (b ) - F ( x ) b =
òa =
òx f ( w ) b x f ( w ) dw - ò f ( w ) dw a dw Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamaño n de estas distribuciones, y sea Y1 , Y 2 ,..., Y n las estadísticas de orden de la muestra aleatoria. Entonces la función de densidad conjunta de Y1 , Y 2 ,..., Y n es:
56 n ! f ( y 1 ) f ( y 2 )... f ( y n ) 0 en otro caso g ( y 1 , y 2 ,..., y n =
a < y 1 < y 2 < ... < y n < b 4.1. DISTRIBUCIÓN DEL MAXIMO ( Y n ) La función de densidad del máximo (densidad marginal de y n ) puede expresarse en términos de la función de distribución F ( X ) y de la función de densidad f ( x ) de la variable aleatoria X. Si a < y n < b, la función de densidad marginal de Y n esta dada por: g n ( y n ) = y n y 4 y 3 y 4 y 3 y 2
òa ... òa òa òa y n òa y n ... ò
a òa y 4 y 3
n ! f ( y 1 ) f ( y 2 ) f ( y 3 )... f ( y n ) dy 1 dy 2 dy 3 ... dy n -1 y 2
n ! æç ò f ( y 1 ) dy 1 ö÷ f ( y 2 ) f ( y 3 )... f ( y n ) dy 2 dy 3 ... dy n -1 è
ø
a òa ... òa òa n ! F ( y ) f ( y ) f ( y )... f ( y n ) 2 y n òa y n
òa y n
òa y n
òa 2 3 dy 2 dy 3 ... dy n -1 y 4 y 3
... ò n ! æç ò F ( y 2 ) f ( y 2 ) dy 2 ö÷ f ( y 3 )... f ( y n ) dy 3 ... dy n -1 a è a ø
æ F ( y ) 2 2 ... ò n ! ç
a ç 2 è
y 4 y 4
a ö
÷ f ( y )... f ( y ) dy ... dy 3 n 3 n -1 ÷
ø
[F ( y 3 ) ] 2 f ( y ) f ( y )... f ( y ) ... ò n ! a y 3
2 3 4 n dy 3 dy 4 ... dy n -1 æ y 4 [F ( y 3 ) ] 2 ö
... ò n ! ç ò
f ( y 3 ) dy 3 ÷ f ( y 4 )... f ( y n ) dy 4 dy 5 ... dy n -1 ç a ÷
a 2 è
ø
y 5
57
y n
y 5
òa ... òa y n
òa y n
òa 3 F ( y 4 ) ] [
n ! f ( y )... f ( y ) 2 . 3 n 4 dy 4 ... dy n -1 æ y 5 [F ( y 4 ) ] 3 ö
y 6
... ò n ! ç ò
f ( y 4 ) dy 4 ÷ f ( y 5 )... f ( y n ) dy 5 ... dy n -1 ç a ÷
a 2 . 3 è
ø
y 5
... ò n ! a [F ( y 5 ) ] 4 f ( y )... f ( y ) 2 . 3 . 4 n 5 dy 5 ... dy n -1 ×
×
×
n! [F ( y n ) ] n -1 2 . 3 . 4 ...( n - 1 ) f ( y n ) a < y n < b Entonces g n ( y n ) =
n! [F ( y n ) ] n -1 f ( y n ) ( n - 1 ) é n [F ( y n ) ]n -1 f ( y n ) ê
g n ( y n ) ê
ê 0 en otro caso ë
a < y n < b a < y n < b De esta manera, la función de distribución de Y n F y n ( y ) es: F y n ( y ) = P [Y n £ y ] = P [ X 1 £ y ; X 2 £ y ; ... ; X n £ y ] Porque el más grande de los X i es menor o igual a y si solamente todas las X i son menores o iguales a y . Ahora si los X i se asumen independientemente, entonces:
n
P [X 1 £ y ; X 2 £ y ; ... ; X n £ y ] = Õ P ( X i £ y ) =
i =1 58
n
F X ( y ) Õ
i 1
=1 Así, la distribución de Y n = max ( X 1 ,..., X n ) se puede expresar en términos de las distribuciones marginales de X 1 ,..., X n . Si en total se asume que todas las X 1 ,..., X n tienen la misma distribución acumulativa, F X (.), entonces:
n
Õ
i F X ( y ) = [F X ( y ) ]n 1 = 1 Lo anterior produce el siguiente teorema. TEOREMA 4.2: Si X 1 ,..., X n son variables aleatorias independientes y si
Y n = max ( X 1 ,..., X n ) , entonces:
n
F Y n ( y ) = Õ F X ( y ) 1 i = 1 Si X 1 ,..., X n son variables aleatorias independientes e idénticamente distribuidas, con función de distribución F X (.), entonces: F Yn ( y ) = [F X ( y ) ]n COLORARIO: Si X 1 ,..., X n son variables aleatorias independientes, e idénticamente distribuidas, y continuas con función de densidad probabilística f X (.) y función de distribución acumulativa F (.), entonces: f Yn ( y ) = n [F X ( y ) ] n -1 f X ( y ) Demostración: f Yn ( y ) =
d n -1 F Y n ( y ) = n [F X ( y ) ] f X ( y ) dy 4.2. DISTRIBUCIÓN DEL MINIMO ( Y 1 )
F Y ( y ) = P [Y 1 £ y ] = 1 - P [Y 1 > y ] 1 = 1 - P [ X 1 > y ; X 2 > y ; ... ; X n > y ] 59 Porque Y 1 es mayor que y si cada X i > y . Por otra parte, si X 1 , X 2 ,..., X n son independientes, entonces:
F Y ( y ) = 1 - P [ X 1 > y ; X 2 > y ; ... ; X n > y ] 1
n
= 1 - Õ P ( X i > y ) i =1 n
(
)
= 1 - Õ 1 - F X i ( y ) i =1 Si además se asume que X 1 , X 2 ,..., X n son idénticamente distribuidas con función de distribución acumulativa F X (.) común, entonces:
n
F Y ( y ) = 1 - Õ (1 - F x i ( y ) )
1
i =1 =
1 - [1 - F x ( y ) ] n Lo anterior produce el siguiente teorema: TEOREMA 4.3: Si X 1 , X 2 ,..., X n son variables aleatorias independientes y
Y1 = min {X 1 ,..., X n } , entonces
n
F Y ( y ) = 1 - Õ (1 - F X i ( y ) )
1
i =1 Y si X 1 , X 2 ,..., X n son independientes e idénticamente distribuidas con función de distribución acumulativa F X (.) entonces:
F Y ( y ) = 1 - [1 - F X ( y ) ]n 1
COLORARIO: Si X 1 , X 2 ,..., X n son variables aleatorias continuas independientemente idénticamente distribuidas con función de densidad probabilística común F X (.), entonces,
f Y ( y ) = 1 - [1 - F X ( y ) ] n -1 f X ( y ) 1
60 Demostración: f Y ( y ) =
1
d d n F Y ( y ) =
1 - [1 - F X ( y ) ]
dy dy } {
1
= - n [1 - F X ( y ) ] ( - f X ( y )) n -1 = n [1 - F X ( y ) ] f X ( y ) n -1 si a < y 1 < b 4.3 FUNCIÓN DE DISTRIBUCIÓN DE CUALQUIER ESTADISTICA DE ORDEN La función de distribución de cualquier estadística Y a de orden, se da a continuación: TEOREMA 4.4: Sea Y1 £ Y 2 £ ... £ Y n que representan las estadísticas de orden de una muestra aleatoria de tamaño n cada una con función de densidad f(x) y función de distribución acumulativa F X (.). La función de distribución acumulativa de Y a , a = 1, 2,…, n, está dada por:
æ n ö
çç ÷÷[F ( y ) ] j [1 - F ( y ) ]n j å j a j n
FY ( y ) =
a
=
-
è ø
Demostración: Para un y fijo sea
Z i = I (- ¥ , y ) ( X i ); n
Z i =
å
i X i £ y =1
n
Note que
Z i å
i tiene una distribución binomial con parámetros n y F ( y ). =1 61 Ahora
n
æ n ö
FY ( y ) = P [Y a £ y ] = P [å Z i ³ a ] = å çç ÷÷[F ( y ) ] j [1 - F ( y ) ]n - j j =a è j ø
¥ El paso clave en esta prueba es la equivalencia de los dos eventos
{Ya
£ y } y
{å Z ³ a }. Si la
a ­ésima estadística de orden es menor o i igual a y , entonces, seguramente el numero de las X i menores o iguales a y es mayor o igual a a , e inversamente. n n æ ö
çç ÷÷[F ( y ) ] j [1 - F ( y ) n - j ] = [ f ( y ) ]n F
(
y ) =
COLORARIO:
å
Y a
j = n è j ø
y
n n æ ö
FY ( y ) = å çç ÷÷[F ( y ) ] j [1 - F ( y ) n - j ] j =1 è j ø
1
0 n
æ ö
j = 1 - å çç ÷÷[F ( y ) ] 1 - F ( y ) n - j j = 0 è j ø
[
æ n ö
0
= 1 - çç ÷÷[F ( y ) ] 1 - F ( y ) n è 0 ø
[
[
= 1 - 1 - F ( y ) n ] ] ] Asume que la muestra aleatoria X 1 , X 2 ,..., X n viene de una función de densidad probabilística f (.); esto es, que las variables aleatorias X i son continuas buscamos la densidad de Y a , la cual, desde luego, se puede obtener derivando a F Ya ( y ) . Note que:
62 f Ya ( y ) =
dF y a
F Y ( y + Dy ) - F Y a ( y ) lim a
dy D ®0 Dy P [ y < Y a £ y + Dy ] D ® 0 Dy = lim = lim D ® 0
P [(a - 1 )de los X i £ y ; un X i en ( y ; y + Dy ); ( n - a ) de los X i > y + Dy ] Dy ì
n ! [F ( y ) ]a -1 [F ( y + Dy ) - F ( y ) ]1 [1 - F ( y + Dy ) ]n-a ü
= lim í
ý
D ®0 ( Dy î a - 1 )! ( n - a )! þ
f Ya ( y ) = n ! [F ( y ) ]a -1 [1 - F X ( y ) ] n -a f x ( y ) ( a - 1 )! ( n - a )! Utilizando el mínimo criterio de la distribución multinomial, se puede hallar la función de densidad conjunta entre
Y a y Y b para 1 £ a < b £ n
f Ya ,Y b ( x , y ) Dx Dy » P [x < Y a £ x + Dx ; y < Y b £ y + Dy ] é (a - 1)de los X i £ x ; un X i en ( x ; x + Dx ); ( b - a - 1 ) de los ù
» P ê
ú
ë X i en ( x + Dx ; y ); un X i en ( y ; y + Dy ) ( n - b ) de los X i > y + Dy û
[F ( x ) ]a - 1 [F ( y ) - F ( x - Dx ) ]b -a -1 [1 - F ( y + Dy ) ] n b f ( x ) Dxf ( y ) Dy n ! ( a - 1 )! 1 ! ( b - a - 1 )! 1 ! ( n - b )! -
»
Por lo tanto:
63
n ! ì
a -1 b -a -1 [1 - F ( y ) ]n - b f ( x )( y ) ï ( a - 1 )! ( b - a - 1 )! ( n - b )! [F ( x ) ] [F ( y ) - F ( x ) ]
f Ya ,Y b ( x , y ) = ïí
ï0 si x ³ y ï
î
En general se da el siguiente teorema: TEOREMA 4.5: Sean X 1 , X 2 ,..., X n una muestra aleatoria de la población cuya función de densidad probabilística es f (.) y con función de distribución acumulativa F (.). Sean Y1 £ Y 2 £ ... £ Y n las correspondientes estadísticas de orden entonces:
f Ya ( y ) = f Y
a , Y b
n ! [F X ( y ) ]a -1 [1 - F X ( y ) ] n -a f X ( y ) ( a - 1 )! ( n - b ) ( x , y ) =
n ! [F X ( x ) ]a -1 [F X ( y ) - F X ( x ) ]b -a -1 [1 - F X ( y ) ]n -a f X ( x ) f X ( y ) ( a - 1 )! ( b - a - 1 )! ( n - b )! - ¥ < x < y < ¥
ìn ! f ( y 1 ) f ( y 2 )... f ( y n ) si y 1 < y 2 < ... < y n ï
f Y 1 ,Y 2 ,..., Y n ( y 1 , y 2 ,..., y n ) = í
ï 0 en otro caso î
4.4 DISTRIBUCIÓN DE FUNCIONES DE ESTADISTICAS DE ORDEN En la sección anterior se hallaron distribuciones marginales y distribuciones conjuntas de las estadísticas de orden. En esta sección se hallará la distribución de probabilidades de ciertas funciones de estadísticas de orden.
64 DEFINICION 4.1: Sea Y1 £ Y 2 £ ... £ Y n que denota las estadísticas de orden de una muestra aleatoria X 1 , X 2 ,..., X n de una población con función densidad f (.). La mediana muestral es definida como la estadística de orden mitad si n es impar, y el promedio de las dos estadísticas mitad si n es par. El rango muestral Se define como Y n - Y 1 , y el semi­suma muestral como Yi + Y n . 2 Si la muestra es de tamaño impar, entonces la distribución de la mediana se puede expresar coma la distribución de la estadística de orden Y a . Por ejemplo si n = 2k+1 (n impar), entonces la estadística de orden Y K +1 es la mediana muestral cuya distribución esta dada por f Ya ( y ) expresada antes. Si la muestra es par, es decir, n=2k, entonces la media de orden Y K y Y K +1 , y la distribución desde la cual puede obtenerse la distribución de la mediana es f Ya ,Y b ( x , y ) haciendo
a = k y b = k+1, iniciando la transformación con la densidad conjunta f Yk ,Y k + 1 ( x , y ) . EJEMPLO 4.2: Hallar la función de densidad conjunta del rango y del semi­suma, y a partir de allí, halle las distribuciones marginales respectivas, f k donde R = Y n - Y 1 y f T en donde T= Y1 + Y n 2 . Solución:
65 En primer lugar se halla f Y ,Y n ( x , y ) es decir 1
f Y ,Y n ( x , y ) =
1 n ! ì
1 -1 n -1 -1 [1 - F X ( y ) ]n - n f X ( x ) f X ( y ) ï ( 1 - 1 )! ( n - 1 - 1 )! ( n - n )! [F X ( y ) ] [F X ( y ) - F X ( x ) ]
ï
- ¥ < Y 1 < Y n < ¥
í
ï 0 en otro caso ï
î
ì
ï
n ( n - 1 ) [F X ( y ) - F X ( x ) ]n - 2 f X ( x ) f X ( y ) ïï
f Y1, Y n ( x , y ) = íï
0 en otro caso ï
ïî
Se hace la transformación R = Y n - Y 1 y T= Y1 + Y n 2 - ¥ < Y 1 < Y n < ¥
. Entonces 1 2 r = g 1 ( y 1 , y n ) = y n - y 1 t = g 2 ( y 1 , y n ) = ( y1 + y n ) r = y n - y 1 t = Y1 + Y n 2 y n - y 1 = r y n - y 1 = r y n + y 1 = 2t - y n - y 1 = ­2 t 2 y n = r + 2t 2 y 1 = r ­ 2t ­ r + 2 t y1 = yn = r + 2t 2 2 66 . y 1 < y n r r t - < t +
2 g 1- 1 ( r , t ) = y1 = J =
r > 0 2 ­ r + 2 t 2 ¶g 1-1 ¶r g 2- 1 ( r , t ) = yn = ¶g 1 -1 ¶t -
1 2 ¶g 2 -1 ¶t r + 2 t 2 1 =
¶g 2 -1 ¶r - ¥ < t < ¥
= 1 2 1 1 - = -1 2 2 1 g R, T ( r , t ) = f Y , Y n ( g 1 -1( r , t ), g 2 -1( r , t )) J 1
é æ r + 2 t ö
æ - r + 2 t öù
= n ( n - 1 ) ê F X ç
÷ - F X ç
÷ú
è 2 øû
ë è 2 ø
é æ
r ö
r öù
æ
= n ( n - 1 ) ê F X ç t + ÷ - F X ç t - ÷ú
è 2 øû
ë è 2 ø
n - 2 n - 2 æ - r + 2 t ö æ r + 2 t ö
÷ f X ç
÷
è 2 ø è 2 ø
f X ç
r ö æ r ö
æ
f X ç t - ÷ f X ç t + ÷
è
2 ø
2 ø
è
r > 0 - ¥ < t < ¥
Entonces las distribuciones marginales f R ( r ) y f T ( t ) están dada por:
¥
g R ( r ) = ò g R ,T ( r , t ) dt g T ( t ) =
-¥
67
ò
¥
0 g R , T ( r , t ) dr Ejemplo 4.3: Sea Y1 < Y 2 < Y 3 < Y 4 < Y 5 las estadísticas de orden de una muestra aleatoria de tamaño S f X ( x ) = e - x de una población con densidad x > 0 . a. Halle la función de densidad de la mediana. b. Halle la función de densidad del rango c. Halle la función de densidad del semi­rango. Solución: a. En este caso n =5 puede escribirse n = 2k+1 donde k = 2. Entonces, la mediana es Y 3 = Y k +1 ; entonces la densidad de la mediana es un caso particular de
F X ( x ) = 1 - e - x f Y ( y 3 ) = 3
Y a . Por otra parte, x > 0 entonces:
5 ! [F X ( y 3 ) ]2 [1 - F X ( y 3 ) ] 2 f X ( y 3 ) ( 3 - 1 )! ( 5 - 3 )! y 3 > 0 [
] [e ] e y > 0 = 30 (1 - 2 e + e ) e f ( y ) = 30( e
- 2 e + e ) y > 0 = 30 1 - e - y3
2 - y 3 2 3 - y 3 -3 y 3 Y3 - y 3 -2 y 3 -4 y 3 -3 y 3 -5 y 3 3 3
b. La función del rango R = Y 5 - Y 1 . Primero se halla la distribución conjunta de Y 1 , Y 5 , así:
f Y , Y ( y 1 , y 5 ) = 1
5 5 ! [F X ( y 1 ) ]0 [F X ( y 5 ) - F X ( y 1 ) ]3 [1 - F X ( y 5 ) ]0 f X ( y 1 ) f X ( y 5 ) ( 5 - 2 )! 0 < y 1 < y 5 < ¥
68 ì
ï
- y - y 3 - y - y ïï20 1 - e 5 - 1 + e 1 e 1 e 5 f Y1 , Y 5 (y 1 , y 5 ) = í
ï 0 en otro caso ï
ïî
[
]
0 < Y 1 < Y 5 < ¥
f Y , Y (y 1 , y 5 ) = 20 (e - y - e - y ) e - y e - y 1 1
5 3 1 0 < y 1 < y 5 < ¥
5 5 La transformación R = Y 5 - Y 1 T = Y 5 entonces: r = y 5 - y 1 t = y 5 y1 = t - r y5 = t J = ¶y 1
¶r ¶y 1 ¶t - 1 ¶y 5 ¶t 0 < r < t 1 =
¶y 5 ¶r 0 < t < ¥
= - 1 0 1 g R ,T ( r , t ) = f Y , Y ( t - r , t ) J 1 5 ¥
g R ( r ) = ò 20 (e - t + r - e -t ) e -t + r e - t dt 3
r [
¥
] 3
= ò 20 e - t ( e r - 1 ) e - 2 t e r dt r ¥
= 20( e r - 1 ) 3 e r ò e - 5 t dt r æ e - 5 t = 20 ( e - 1 ) e ç ç 5 è
r 3 r = 20 ( e r - 1 ) 3 e r = 20 ( e r - 1 ) 3 ¥
ö
÷
÷
r ø
e -5 r 5 e -4 r 5 = 4( e 3 r - 3 e 2 r + 3 e r - 1 ) e -4 r 69
r > 0 r > 0 = 4 ( e r - 3 e -2 r + 3 e -3 r - e -4 r ) r > 0 c. Halle la función de densidad del semi­rango. La función de densidad de Y 1 , Y 5 , es
f Y , Y ( y 3 ) = n ( n - 1 ) [(F X ( y 5 ) - F X ( y 1 ) )]5 - 2 f X ( y 1 ) f X ( y 5 ) 1
5 0 < y 1 < y 5 < ¥
Se hace la transformación:
f Y , Y (y 1 , y 5 ) = 20 (e - y - e - y ) e - y e - y 1 1
5 3 1 0 < y 1 < y 5 < ¥
5 5 R = ( Y 5 + Y 1 ) 2 T = Y 5 Entonces: r = g 1 ( y 1 , y 5 ) =
( y 1 + y 5 ) 2 t = g 2 ( y 1 , y 5 ) = y 5 y1 = g 1 - 1 ( y 1 , y 5 ) = 2 r - t y5 = g 2 - 1 ( y 1 , y 5 ) = t nueva región: 0 < y1 < y 5 0 < 2 r - t < t t < 2r < 2 t a) t < 2r b) 2 r < 2 t t > r J =
¶g 1-1 ¶r ¶g 1 -1 ¶t ¶g 2 -1 ¶r ¶g 2 -1 ¶t 2 - 1 =
= 2 0 1 70 entonces g R , T ( r , t ) = f Y , Y ( g 1 -1 ( r - t ))( g 2 -1 ( r - t )) J 1
5 = f Y1 ,Y 5 (2 r - t , t )2 = 20 (e - ( 2 r - t ) - e -t ) e - ( 2 r -t ) - e - t 3 t < 2 r < 2 t t < r < t 2 t < 2 r t > r g R ( r ) =
¥
òr 40 (e - 2 r + t ) 3 - e - t e - 2 r -t e - t dt 71 r > 0 CONCLUSIONES Las estadísticas de orden se calculan a través de la técnica de transformaciones de variables. Las estadísticas de orden sirven para identificar modelos de probabilidades, de observaciones ubicadas de las muestras en cualquier posición especifica. Una vez conocido el modelo de probabilidad de una estadística de orden es posible hacer un análisis completo a dicho orden (valor esperado, grafico..., etc.). El tema abre un camino por lo menos entorno a la facultad para estudiar aplicaciones en áreas del conocimiento que incluyan este tipo de variables de estadísticas ordenadas.
72 BIBLIOGRAFIA WACKERLY Dennis, MENDENHALL William, SCHEAFFER Richard.2002. Estadística matemática con aplicaciones. Thomson. WALPOLE Ronald, MEYERS Raymond.2005. Probabilidad y estadística. Mc Graw Hill. CANAVOS George. Probabilidad y estadística aplicaciones y métodos. Mc Graw Hill. HOGG Robert. Introduction to mathemátical. Collier Macmillan publishers. www.pokertips.com.es/strategy/expected­value.php. www.personal.us.es/olmedo/El%20concepto%20de%20Valor%20Esperad o.pdf. www.ucm.es/info/genetica/Estadistica/estadistica_basica%201.htm. www.ucm.es/info/genetica/Estadistica/estadistica_basica. www.bioestadistica.uma.es/libro/node69.htm.
73 
Descargar