Funciones de Distribución

Anuncio
08. FUNCIONES DE DISTRIBUCIÓN
Principales leyes de distribución de variables aleatorias. Atendiendo a la
clasificación de las Variables Aleatorias en discretas y continuas describiremos las
principales leyes de probabilidad de cada una de ellas, las cuales constituirán el
soporte subyacente de la inferencia estadística y a las que será necesario hacer
referencia en el estudio de dicho bloque. Iniciamos este capítulo con el estudio de las
distribuciones para Variables Aleatorias discretas.
DISTRIBUCIÓN UNIFORME
Una variable aleatoria X se dice que es uniforme en el intervalo [a, b] si su función de
densidad es constante dentro de él. La distribución uniforme modeliza de algún modo
la incertidumbre más completa sobre una variable aleatoria continua. Tiene especial
importancia en el ámbito computacional, pues es a partir de ella que se pueden
realizar simulaciones de cualquier otra variable aleatoria. La función de densidad de
la distribución uniforme es
1
xa
f (x) 
x  a, b
F( x ) 
x  (a, b)
ba
ba
Su media y varianza son, respectivamente,
ab
1
E( x ) 
V( x ) 
(b  a) 2
2
12
La distribución uniforme es aquella que puede tomar cualquier valor dentro de un
intervalo, todos ellos con la misma probabilidad. Es una distribución continua porque
puede tomar cualquier valor y no únicamente un número determinado (como ocurre
en las distribuciones discretas).
Ejemplo, el precio medio del litro de gasolina durante el próximo año se estima que
puede oscilar entre 140 y 160 pesos. Podría ser, por tanto, de 143 pesos., o de 143,4
pesos., o de 143,45 pesos., o de 143,455 pesos, etc. Hay infinitas posibilidades, todas
ellas con la misma probabilidad.
Su función de densidad, aquella que nos permite conocer la probabilidad que tiene
cada punto del intervalo, viene definida por:
f (x) 
1
ab
Donde, b: es el extremo superior (en el ejemplo, $160, y a: es el extremo inferior (en
el ejemplo, 140 pesos). Por lo tanto, la función de distribución del ejemplo sería:
f (x) 
1
 0.05
160  140
,
1
es decir, que el valor final esté entre 140 pesos y 141 pesos tiene un 5% de
probabilidad, que esté entre 141 y 142, otro 5%, etc.
El valor medio de esta distribución se calcula: (a+b)/2
La distribución uniforme discreta es la que surge en situaciones tales como el
lanzamiento de una moneda, de un dado o en la extracción de una bola numerada de
un bombo de la lotería. En todos estos casos, si no hay truco, existe equiprobabilidad
entre todos los sucesos elementales posibles: dos en el caso de la moneda, seis en el
del dado y n en el caso del bombo de la lotería, siendo n el número de bolas. La
función de probabilidad viene dada por
1
f ( x) 
x  (1,...,n)
f ( x )  0 x  (1,...,n)
n
y la de distribución por
x x  1,n
F( x ) 
n
siendo [x] la parte entera de x. La media y la varianza de esta distribución vienen
dadas por, respectivamente
1 n
n2  1
E( X) 
V( X) 
2
12
La función característica es
b
1
e itb  e ita
 x (t )   e itx
dx 
a
ba
it (b  a )
Los momentos son
ba
(b  a ) 3
2
E( X) 
E(X ) 
2
3
(b  a ) 2
V( X) 
12
2
DISTRIBUCIÓN DE BERNOULLI
La distribución de Bernoulli de parámetro p es el modelo más simple de probabilidad.
Se aplica a situaciones en las que un cierto atributo aparece con probabilidad p y la
ausencia de este mismo atributo con probabilidad 1-p, como en el lanzamiento de una
moneda o la presencia o no de cierta bacteria en una muestra biológica. Es en los
procesos de Bernoulli donde aparecen otras variables, como la binomial o la
geométrica. Las funciones de probabilidad y de distribución son, respectivamente,
f ( x)  Px  (1 P)(1 x)
F( x)  1 P
x  (0,1)
La media y la varianza de la distribución de Bernoulli son
E( x)  P
V( x)  P(1 P)
Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso
ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo
sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que
únicamente puede tomar dos modalidades, es por ello que el hecho de llamar éxito o
fracaso a los posibles resultados de las pruebas obedece más una tradición literaria o
histórica, en el estudio de las variable aleatoria, que a la situación real que pueda
derivarse del resultado.
Podríamos por tanto definir este experimento mediante una variable aleatoria discreta
X que toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se
denota
0 si P(X  0)  q  1  p
X  B(p)  
1 si P(X  1)  p
Ejemplo, Un ejemplo típico de este tipo de variables aleatorias consiste en lanzar una
moneda al aire y considerar la variable aleatoria X=(Número de caras obtenidas), en
cuyo caso X=0 si q=1/2, y X=1 si p=1/2
Para una variable aleatoria de Bernouilli, tenemos que sus funciones de probabilidad
y de distribución son,
si x  0
q
0 si x  0


f ( x )  p
si x  1
F( x )  q
si 0  x  1
0

otro caso

1 si x  1
Su función característica y momentos son,
3
 x (t ) 
e
x i 0,1
E(X)  p
itxi
f (x i )  q  p  eit
V(X)  p  q
DISTRIBUCIÓN BINOMIAL
La distribución binomial aparece de forma natural al realizar n repeticiones
independientes de cierto experimento cuyo resultado consiste en la presencia, con
probabilidad p, de cierto atributo A. La probabilidad p permanece constante durante
todo el proceso muestral. Si Xi es la variable asociada a la i-ésima réplica, que tomará
el valor 1 si se verifica A, y 0 en caso contrario, la variable
n
S  i1 X i
que representa el número de veces que aconteció A, tiene una distribución binomial
de parámetros n y p, lo que se suele indicar como B(n, p), de forma que
n
f (r )  P(S  r )   Pr (1 P)nr
r 
siendo su función de probabilidad acumulada
n
n
F(r )  P(S  r )  k 0  Pk (1 P)nk
r 
La media y la varianza de S son E[S] = n*p y V[S] = n*p*(1-p), respectivamente.
La distribución binomial parte de la distribución de Bernoulli. La distribución de
Bernoulli se aplica cuando se realiza una sola vez un experimento que tiene
únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede
tomar dos valores: el 1 y el 0. La distribución Binomial se aplica cuando se realizan
un número n de veces el experimento de Bernoulli, siendo cada ensayo independiente
del anterior. La variable puede tomar valores entre 0 si todos los experimentos han
sido fracaso, hasta n si todos los experimentos han sido éxitos
Ejemplo, se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna
la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas
han sido cara la variable toma el valor 10. La distribución de probabilidad de este tipo
de distribución sigue el siguiente modelo,
n!
P( X  x ) 
P k Qnk
PQ 1
k! (n  k )!
Ejemplo, ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10
veces?. k es el número de aciertos. En este ejemplo k igual a 6 (en cada acierto
4
decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k=6), n es el
número de ensayos. En nuestro ejemplo son 10, P es la probabilidad de éxito, es
decir, que salga cara al lanzar la moneda. Por lo tanto P=0,5. Entonces,
10!
P( X  6) 
0.5 6 0.510 6  0.205
6! (10  6)!
Luego, P(x=6) = 0,205, es decir, se tiene una probabilidad del 20,5% de obtener 6
caras al lanzar 10 veces una moneda.
Ejemplo, ¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar un
dado ocho veces?, siendo k (número de aciertos) toma un valor de 4, y n toma el
valor 8
La probabilidad de que salga un 3 al tirar el dado es 1/6, entonces,
8!
P( X  4) 
0.166 4 (1  0.166) 4  0.026
4!4!
Luego, P(x=4)=0,026, es decir, se tiene una probabilidad del 2,6% de obtener cuatro
veces el números 3 al tirar un dado 8 veces.
Supongamos que realizamos n pruebas de Bernouilli, Xi, donde en todas ellas, la
probabilidad de éxito es la misma (p), y queremos calcular el número de éxitos, X,
obtenidos el total de las n pruebas.
n
f (x)  P(X  x)   p x (1  p) n x
x  0,1,...,n
x
El modo más simple de calcular la función característica nos lo da el teorema que
afirma que la función característica de la suma de variables independientes es el
producto de las funciones características de estas:
x (t)  x1  x2   x n  (q  peit ) n
Los principales momentos de X los calculamos más fácilmente la función
característica,
 ( t )
E(X)  x
 np(p  q) n 1  np
i t 0
V(X)  E(X 2 )  E(X) 2 
x ( t )
2
i
 npq
t 0
Ejemplo, Un médico aplica un test a 10 alumnos de un colegio para detectar una
enfermedad cuya incidencia sobre una población de niños es del 10%. La sensibilidad
del test es del 80% y la especificidad del mismo es del 75%. ¿Cual es la probabilidad
5
de que exactamente a cuatro personas le de un resultado positivo? Si en la muestra
hay cuatro personas a las que el test le da positivo, ¿cuál es la probabilidad de que
entre estas, exactamente dos estén sanas? Calcular la probabilidad de que el test
suministre un resultado incorrecto para dos personas. Calcular la probabilidad de que
el resultado sea correcto para más de 7 personas.
Solución: Los datos de que disponemos son: P(E)=0.10, P(T+/E)=0.80, y P(T/E)=0.75, donde E, T+, y T- tienen el sentido que es obvio. Si queremos saber a
cuantas personas el test le dará un resultado positivo, tendremos que calcular P(T+),
para lo que podemos usar el teorema de la probabilidad total (estar enfermo y no
estarlo forman una colección exhaustiva y excluyente de sucesos):
P(T+)=P(T+/E)*P(E)+P(T+/E-)*P(E-)=0.80*0.10+0.25*0.90=0.305
Sea X1 la variable aleatoria que contabiliza el número de resultados positivos. Es
claro que llamando p1=P(T+), se tiene que X sigue una distribución binomial
10
10
x
X1  B(10,0.305)  P(X1  x)   p1x q10
   * 0.3054 * 0.6956  0.2048
1
x 
4 
Ahora bien, si queremos calcular a cuántas personas les dará el test positivo aunque
estén sanas, hemos de calcular previamente P(E-/T+)
P(E   T  ) 1  P(T  / E  ) * P(E  )
P(E  / T  ) 

 0.7377
P(T  )
P(T  )


DISTRIBUCIÓN POISSON
La distribución de Poisson parte de la distribución binomial, cuando en una
distribución binomial se realiza el experimento un número n muy elevado de veces y
la probabilidad de éxito p en cada ensayo es reducida, entonces se aplica el modelo de
distribución de Poisson, se tiene que cumplir que
λk
P( X  k )  e  λ
k!
 =n*P, es decir, el número de veces n que se realiza el experimento multiplicado por
la probabilidad P de éxito en cada ensayo, k es el número de éxito cuya probabilidad
se está calculando
Ejemplo, La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se
viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes?
Como la probabilidad P es menor que 0,1, y el producto n*P es menor que 10,
entonces aplicamos el modelo de distribución de Poisson,
6
63
 0.0892
3!
Por tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9%
P( X  3)  e 6
Ejemplo, La probabilidad de que un niño nazca pelirrojo es de 0,012. ¿Cuál es la
probabilidad de que entre 800 recién nacidos haya 5 pelirrojos?
9.6 5
P( X  5)  e 9.6
 4.602
5!
Por tanto, la probabilidad de que haya 5 pelirrojos entre 800 recién nacidos es del
4,6%
Esta distribución aparece en algunos procesos que tienen una dimensión temporal o
espacial, como el número de llamadas telefónicas que recibe un servicio de atención a
urgencias durante un intervalo de tiempo determinado, o el número de cultivos
infectados por una plaga en una cierta región geográfica. Las funciones de
probabilidad y de distribución de una variable aleatoria de Poisson con media m>0,
que simplificamos con la notación P(m), son
f (r )  P( X  r ) 
e 3 mr
r!
F(r )  P( X  r )  k 0
r
e mm k
k!
La media y varianza de X son ambas iguales a m, E[X] = V[X] = m.
DISTRIBUCIÓN HIPERGEOMÉTRICA
La distribución hipergeométrica es el modelo que se aplica en experimentos del
siguiente tipo: En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la
probabilidad de que al sacar 2 bolas las dos sean blancas?
Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay
tan sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la
distribución binomial en que los distintos ensayos son dependientes entre sí. Si en una
urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el
segundo ensayo hay una bola blanca menos por lo que las probabilidades son
diferentes (hay dependencia entre los distintos ensayos). La distribución
hipergeométrica sigue el siguiente modelo,
 N1  N2 
N1!
N2 !
 


k n  k  k!*( N1  k )! (n  k )!*( N2  n  k )!
p( X  x )   

N!
 N
 
n!*( N  n)!
n 
7
Donde, para el ejemplo, N es el número total de bolas en la urna, N1: es el número
total de bolas blancas, N2 es el número total de bolas negras, k es el número de bolas
blancas cuya probabilidad se está calculando, n es el número de ensayos que se
realiza
Ejemplo, en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la
probabilidad de que 3 sean blancas?
N = 12; N1 = 7; N2 = 5; k = 3; n = 4, entonces,
 7  5 
  
3 1
P( X  3)      0.354
12 
 
4 
Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%.
Ejemplo, en una fiesta hay 20 personas: 14 casadas y 6 solteras. Se eligen 3 personas
al azar ¿Cuál es la probabilidad de que las 3 sean solteras?
 7 14 
  
3 0
P( X  3)      0.0175
 20 
 
3 
Es decir, la probabilidad de que las 3 personas sean solteras es tan sólo del 1,75%.
Esta distribución suele aparecer en procesos muéstrales sin reemplazo, en los que se
investiga la presencia o ausencia de cierta característica. Piénsese en un
procedimiento de control de calidad en una empresa farmacéutica, durante el cual se
extraen muestras de las cápsulas fabricadas y se someten a análisis para determinar su
composición. Durante las pruebas, las cápsulas son destruidas y no pueden ser
devueltas al lote del que provienen. Si N1 es el número de cápsulas defectuosas en el
lote y N2 el de aquéllas dentro de las tolerancias establecidas, tomada una muestra al
azar de tamaño n, la cantidad de unidades observadas no válidas, r, tiene una
distribución hipergeométrica HG(N1, N2, n), cuya función de probabilidad es
 N1  N2 
 

r  n  r 

f (r )  P( X  r ) 
max(0, n  N2 )  r  min(N1, n)
 N1  N2 


 n 
8
siendo su función de distribución
 N1  N2 
 

r  n  r 
r

F(r )  P( X  r )  k 0
 N1  N2 


 n 
La media y la varianza de esta distribución son
nN1N2 (N1  N2  n)
nN1
E( X) 
V( X) 
N1  N2
(N1  N2 )2 (N1  N2  1)
Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a
aproximarse a la binomial:
DISTRIBUCIÓN MULTINOMIAL
La distribución multinomial es similar a la distribución binomial, con la diferencia de
que en lugar de dos posibles resultados en cada ensayo, puede haber múltiples
resultados
Ejemplo de distribución binomial: a unas elecciones se presentaron 2 partidos
políticos: el LALA obtuvo un 70% de los votos y el JEJE el 30% restante. ¿Cuál es la
probabilidad de que al elegir 5 ciudadanos al azar, 4 de ellos hayan votado al JEJE?
Ejemplo de distribución multinomial, a esas elecciones se presentaron 4 partidos
políticos: el LALA obtuvo un 40% de los votos, el JEJE el 30%, el MUMU el 20% y
el LALA el 10% restante. ¿Cuál es la probabilidad de que al elegir 5 ciudadanos al
azar, 3 hayan votado al LALA, 1 al MUMU y 1 al LALA?
La distribución multinomial sigue el siguiente modelo,
n!
P( X1  x 1,, Xk  x k ) 
P1x x    Pkxk
x1    x k
Donde Xk = xk indica que el suceso Xk aparezca xk veces (en el ejemplo, que el
partido LALA lo hayan votado 3 personas), n indica el número de veces que se ha
repetido el suceso (en el ejemplo, 5 veces), n! es factorial de n (en el ejemplo,
5*4*3*2*1), y Pk es la probabilidad del suceso Xk (en el ejemplo, el 40%)
9
Ejemplo, En una fiesta, el 20% de los asistentes son españoles, el 30% franceses, el
40% italiano y el 10% portugueses. En un pequeño grupo se han reunido 4 invitados:
¿cual es la probabilidad de que 2 sean españoles y 2 italianos?
4!
P( X1  2, X 2  0, X 3  2, X 4  0) 
0.2 2  0.3 0  0.4 2  0.10  0.0384
2!0!2!0!
Luego, la probabilidad de que el grupo esté formado por personas de estos países es
tan sólo del 3,84%
DISTRIBUCIÓN MULTIVARIADA
La distribución multihipergeométrica es similar a la distribución hipergeométrica, con
la diferencia de que en la urna, en lugar de haber únicamente bolas de dos colores,
hay bolas de diferentes colores.
Ejemplo, en una urna hay 7 bolas blancas, 3 verdes y 4 amarillas: ¿cuál es la
probabilidad de que al extraer 3 bolas sea cada una de un color distinto?
 N1 
N 
      4 
x
x4 
P( X1  x 1, X k  x k )   1 
N
 
n 
Donde X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que una de
las bolas sea blanca), N1 indica el número de bolas blancas que hay en la urna (en el
ejemplo, 7 bolas), N es el número total de bolas en la urna (en el ejemplo, 14 bolas), n
es el número total de bolas que se extraen (en el ejemplo, 3 bolas)
Entonces,
7 3  4
       
1
1
1
P( X1  1, X 2  1, X 3  1)         0.2307
14 
 
3 
Es decir, que la probabilidad de sacar una bola de cada color es del 23,07%.
DISTRIBUCIÓN GAMMA
La distribución gamma de parámetros a y b es versátil como pocas, ya que otras
distribuciones importantes son casos particulares de ésta; así, cuando a = 1, se reduce
a la exponencial y cuando a = n/2 y b = 2, obtenemos la Chi-cuadrado de Pearson con
n grados de libertad.
10
Desde el punto de vista de las aplicaciones suele utilizarse para modelar variables
aleatorias acotadas por un extremo; tal es el caso del tiempo requerido para que se
produzcan exactamente a sucesos independientes, si estos ocurren con una frecuencia
constante. Las funciones de densidad y de probabilidad acumulada son
x

1
1 x / b a1 u
f ( x)  a
x a1e b
F( x) 
u e du,
x0
Γ (a) 0
b Γ (a)

Γ (P)   x P1e x dx
0
respectivamente, siendo
la función gamma de Euler
La media viene dada por E(X)=ab y la varianza por V(X)=ab2.
DISTRIBUCIÓN EXPONENCIAL
Una variable aleatoria X tiene distribución exponencial de parámetro a > 0 si sus
funciones de densidad y de distribución acumulada son,
f (x)  aeax
F(x)  1  a ax
x0
La interpretación del parámetro a es sencilla, pues coincide con la inversa de la
esperanza de la variable aleatoria X. Dentro del contexto del análisis de
supervivencia, cuando X se interpreta como el tiempo necesario para que se produzca
el fallo de un componente de una máquina, o el tiempo que transcurre hasta la muerte
de un organismo biológico, tiene especial importancia la función
S(x) = Pr(X > x) = 1 - F(x) = exp(-a x)
que recibe el nombre de función de supervivencia y que es la probabilidad de que el
individuo no fallezca antes del instante x. La media y la varianza de la distribución
exponencial son
1
1
E( X) 
V( X)  2
a
a
Para calcular el valor esperado y la varianza de la distribución exponencial,
obtenemos en primer lugar la función característica


a
a
itx
 ax
( it  a ) x
 x ( t )   e ae dx 
e

0
it  a
it  a
0
 (0) 1
ai
x ( t ) 
 E(X)  x

2
i
a
(it  a )
 (0) 2
 2ai 2
2 1
1
 E(X 2 )  x2  2  V(X)  2     2
3
(it  a )
i
a
a
a
a
2
x ( t ) 
11
La distribución exponencial es el equivalente continuo de la distribución geométrica
discreta. Esta ley de distribución describe procesos en los que:
Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que,
el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en
un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha
pasado nada.
Aplicaciones, El tiempo que tarda una partícula radiactiva en desintegrarse. El
conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo,
la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono
14, C14; El tiempo que puede transcurrir en un servicio de urgencias, para la llegada
de un paciente; En un proceso de Poisson donde se repite sucesivamente un
experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la
ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial.
Ejemplo, En un experimento de laboratorio se utilizan 10 gramos de Polonio
radiactivo. Sabiendo que la duración media de un átomo de esta materia es de 140
días, Cuántos idas transcurrirán hasta que haya desaparecido el 90% del material?
Solución: El tiempo T de desintegración de un átomo de 210
84 Po es una variable
aleatoria de distribución exponencial, Como el número de átomos existentes en una
muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por
los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente
aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias
relativas acumuladas debe ser muy aproximado a la curva de su función de
distribución F. Entonces el tiempo que transcurre hasta que el 90% del material
radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir
12
F( t 90 )  0.90  e at90  1  0.90,
entonces ,
1
t 90   Ln 0.10  322 días
a
Ejemplo, Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue
una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a
una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro
antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un
paciente,
Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una
persona.
20
P(T  20)   f (t )dt  1  e 20 / 16  0.7135
0
DISTRIBUCIÓN BETA
La distribución beta de parámetros a y b, ambos estrictamente positivos, tiene como
soporte el intervalo (0,1), por lo que suele utilizarse en la modelización de datos que
se encuentren dentro de este rango. La función de densidad es
1
f ( x) 
x a1(1  x )b1
x  (0,1)
β(a,b)
y la de distribución
F( x )  0,
x0
b 1
x
1
a 1
u
(
1

u
)
du
β(a, b) 0
F( x )  1
x 1
F( X) 
x  (0,1)
Siendo  la función Beta de Euler. La media y la varianza de esta distribución son,
respectivamente,
a
ab
E( X) 
y
V( X) 
2
ab
(a  b) (a  b  1)
DISTRIBUCIÓN DE WEIBULL
La variable aleatoria X tiene distribución de Weibull de parámetros a > 0 y b > 0 si su
función de densidad es
ax
f ( x)   
bb
a 1
e  x / b 
a
x0
13
La función de distribución, o de probabilidad acumulada, es
F(x)  PX  x  1 e( x / b)
a
x0
Igual que en el caso de la distribución exponencial, la de Weibull se suele utilizar
como modelo paramétrico en problemas de análisis de supervivencia. En este ámbito,
es de interés la probabilidad de que se presente el fallo o muerte después de
transcurrido un tiempo x; de ahí que se defina la función de supervivencia
S(x)  PX  x  1 F(x)  e( x / b)
a
 0
Por último, la esperanza y la varianza de esta distribución son, respectivamente,
  2   1 
1 
E( X)  bΓ  1
y
V( X)  b 2 Γ  1  Γ  1
a 
  a   a 

donde siendo
Γ (P)   x P1e x dx
0
la función gamma de Euler con P>0.
DISTRIBUCIÓN DE RAYLEIGH
La distribución de Rayleigh de parámetro a > 0, es un caso particular de la de
Weibull, estando su uso muy extendido en el contexto del análisis de datos
censurados. La función de densidad es
f ( x )  2a 2 xea x
f ( x)  0
x0
2 2
F( X)  1  e a x
2 2
F( X)  0
x0
x0
x0
La media y la varianza de esta distribución son, respectivamente,
 π
 1  π 

E( X)  
y
V
(
X
)

b
 2 1  4 

2
a

 a 


DISTRIBUCIÓN DE GUMBEL
La distribución de Gumbel, o del valor extremo, de parámetros a  , b  0 se
utiliza en el análisis de la distribución asintótica de los extremos muéstrales, con
aplicaciones concretas en la predicción de catástrofes naturales y en el diseño de
estructuras de ingeniería civil que van a estar sometidas a condiciones climatológicas
extremas. Su función de densidad es
14
f (x) 
ax
1
 a  x 
exp
 exp
 
a
 b 
 b

 a  x 
F( X)  exp  exp
 
 b 

x 
x
donde es la constante de Euler - Mascheroni, cuyo valor es aproximadamente
0.5772156649... Finalmente, la media y la varianza de esta distribución viene dada
por la expresión
b2π 2
E( X)  a  bγ
y
V( X) 
6
DISTRIBUCIÓN LOGÍSTICA
La distribución logística de parámetros a pertenece a los reales y b>0 se ha llegado a
utilizar como sustituta de la normal, debido a su forma acampanada y de más fácil
manejo. Más frecuente es su uso en la modelización de respuestas aleatorias binarias,
como en la regresión logística. La función de densidad logística toma la forma
 xa
exp 

b 

f (x) 
x

 x  a 
b1  exp 

b  


F( x ) 
1

 x  a 
1  exp 

b  


x
V( X) 
Por último, sus momentos son E(X)=a y
b2π 2
3
DISTRIBUCIÓN DE PARETO
La distribución de Pareto de parámetros a>0 y b>0, es tal que algunos de sus
momentos existen cuando a supera cierta cota. Tiene aplicaciones en las ciencias
medioambientales y en la estadística industrial. Su función de densidad es
f ( x)  ab a x a1
x b
f ( x)  0
xb
en la que se notará que toma valores no nulos para x  (b, ) . La función de
distribución toma la forma
15
a
b
F( x )  1   
xb
x
F( x )  0
xb
La esperanza y la varianza de la distribución de Pareto son
ab
ab 2
E( X) 
si a  1 y
V( X) 
si
a 1
(a  2)(a  1)2
a2
DISTRIBUCIÓN DE LAPLACE
La distribución de Laplace de parámetros a pertenece a los reales y b>0 se utiliza en
ocasiones para modelar errores en observaciones de tipo real, de forma similar a
como se hace con la distribución normal. La función de densidad es
 x a 
1

f (x) 
exp
x 

2b
b


1
1
 x a
ax
F( x )  exp
y F( x )  1  exp


2
2
 b 
 b 
Si x es menor o igual, o a es mayor, respectivamente, que a. Su media es E[X]=a y su
varianza V[X]=2b2.
DISTRIBUCIÓN DE CAUCHY
La distribución de Cauchy, o de Lorentz, de parámetros a pertenece a los reales y b>0
es de uso frecuente en física para describir el patrón de impactos de partículas sobre
una recta. También es de interés teórico por ser una distribución que carece de
momentos. Sus funciones de densidad y de distribución son
b
1 1
 x a
f ( x) 
F( x)   arctan
x 

2
2
2 π
π ( x  a)  b
 b 


Como queda dicho más arriba, la distribución de Cauchy no tiene ni media ni
varianza.
DISTRIBUCIÓN GEOMÉTRICA
En una secuencia de experimentos binarios independientes (A se observa con
probabilidad P y deja de observarse con probabilidad 1-P), el número de réplicas
antes de la primera observación de A tiene una distribución geométrica o de Pascal,
G(P). Para cada número natural r, la función de probabilidad se define como
f (r )  P(1 P)r
16
r 1
siendo su función de distribución F(r )  1 (1 P)
La media y varianza de la distribución geométrica son
1
1 P
E( X)   1
V( X)  2
P
P Respectivamente.
De hecho, se trata de un caso especial de la distribución binomial negativa tomando
n=1.
geométrica ( o de fracasos)
DISTRIBUCIÓN ERLANG
La función de densidad de probabilidad,
1
f ( x; , ) 
x  1 exp(  x / ), x  0

()
en donde  es un entero positivo. La variable aleatoria de Erlang es la suma de 
variables independientes distribuidas exponencialmente, en donde cada valor se
genera por
  1 
x   Ln

  1 u 
1/ 
17
Descargar