08. FUNCIONES DE DISTRIBUCIÓN Principales leyes de distribución de variables aleatorias. Atendiendo a la clasificación de las Variables Aleatorias en discretas y continuas describiremos las principales leyes de probabilidad de cada una de ellas, las cuales constituirán el soporte subyacente de la inferencia estadística y a las que será necesario hacer referencia en el estudio de dicho bloque. Iniciamos este capítulo con el estudio de las distribuciones para Variables Aleatorias discretas. DISTRIBUCIÓN UNIFORME Una variable aleatoria X se dice que es uniforme en el intervalo [a, b] si su función de densidad es constante dentro de él. La distribución uniforme modeliza de algún modo la incertidumbre más completa sobre una variable aleatoria continua. Tiene especial importancia en el ámbito computacional, pues es a partir de ella que se pueden realizar simulaciones de cualquier otra variable aleatoria. La función de densidad de la distribución uniforme es 1 xa f (x) x a, b F( x ) x (a, b) ba ba Su media y varianza son, respectivamente, ab 1 E( x ) V( x ) (b a) 2 2 12 La distribución uniforme es aquella que puede tomar cualquier valor dentro de un intervalo, todos ellos con la misma probabilidad. Es una distribución continua porque puede tomar cualquier valor y no únicamente un número determinado (como ocurre en las distribuciones discretas). Ejemplo, el precio medio del litro de gasolina durante el próximo año se estima que puede oscilar entre 140 y 160 pesos. Podría ser, por tanto, de 143 pesos., o de 143,4 pesos., o de 143,45 pesos., o de 143,455 pesos, etc. Hay infinitas posibilidades, todas ellas con la misma probabilidad. Su función de densidad, aquella que nos permite conocer la probabilidad que tiene cada punto del intervalo, viene definida por: f (x) 1 ab Donde, b: es el extremo superior (en el ejemplo, $160, y a: es el extremo inferior (en el ejemplo, 140 pesos). Por lo tanto, la función de distribución del ejemplo sería: f (x) 1 0.05 160 140 , 1 es decir, que el valor final esté entre 140 pesos y 141 pesos tiene un 5% de probabilidad, que esté entre 141 y 142, otro 5%, etc. El valor medio de esta distribución se calcula: (a+b)/2 La distribución uniforme discreta es la que surge en situaciones tales como el lanzamiento de una moneda, de un dado o en la extracción de una bola numerada de un bombo de la lotería. En todos estos casos, si no hay truco, existe equiprobabilidad entre todos los sucesos elementales posibles: dos en el caso de la moneda, seis en el del dado y n en el caso del bombo de la lotería, siendo n el número de bolas. La función de probabilidad viene dada por 1 f ( x) x (1,...,n) f ( x ) 0 x (1,...,n) n y la de distribución por x x 1,n F( x ) n siendo [x] la parte entera de x. La media y la varianza de esta distribución vienen dadas por, respectivamente 1 n n2 1 E( X) V( X) 2 12 La función característica es b 1 e itb e ita x (t ) e itx dx a ba it (b a ) Los momentos son ba (b a ) 3 2 E( X) E(X ) 2 3 (b a ) 2 V( X) 12 2 DISTRIBUCIÓN DE BERNOULLI La distribución de Bernoulli de parámetro p es el modelo más simple de probabilidad. Se aplica a situaciones en las que un cierto atributo aparece con probabilidad p y la ausencia de este mismo atributo con probabilidad 1-p, como en el lanzamiento de una moneda o la presencia o no de cierta bacteria en una muestra biológica. Es en los procesos de Bernoulli donde aparecen otras variables, como la binomial o la geométrica. Las funciones de probabilidad y de distribución son, respectivamente, f ( x) Px (1 P)(1 x) F( x) 1 P x (0,1) La media y la varianza de la distribución de Bernoulli son E( x) P V( x) P(1 P) Consiste en realizar un experimento aleatorio una sola vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea así (éxito) y q=1-p el que no lo sea (fracaso). En realidad no se trata más que de una variable dicotómica, es decir que únicamente puede tomar dos modalidades, es por ello que el hecho de llamar éxito o fracaso a los posibles resultados de las pruebas obedece más una tradición literaria o histórica, en el estudio de las variable aleatoria, que a la situación real que pueda derivarse del resultado. Podríamos por tanto definir este experimento mediante una variable aleatoria discreta X que toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota 0 si P(X 0) q 1 p X B(p) 1 si P(X 1) p Ejemplo, Un ejemplo típico de este tipo de variables aleatorias consiste en lanzar una moneda al aire y considerar la variable aleatoria X=(Número de caras obtenidas), en cuyo caso X=0 si q=1/2, y X=1 si p=1/2 Para una variable aleatoria de Bernouilli, tenemos que sus funciones de probabilidad y de distribución son, si x 0 q 0 si x 0 f ( x ) p si x 1 F( x ) q si 0 x 1 0 otro caso 1 si x 1 Su función característica y momentos son, 3 x (t ) e x i 0,1 E(X) p itxi f (x i ) q p eit V(X) p q DISTRIBUCIÓN BINOMIAL La distribución binomial aparece de forma natural al realizar n repeticiones independientes de cierto experimento cuyo resultado consiste en la presencia, con probabilidad p, de cierto atributo A. La probabilidad p permanece constante durante todo el proceso muestral. Si Xi es la variable asociada a la i-ésima réplica, que tomará el valor 1 si se verifica A, y 0 en caso contrario, la variable n S i1 X i que representa el número de veces que aconteció A, tiene una distribución binomial de parámetros n y p, lo que se suele indicar como B(n, p), de forma que n f (r ) P(S r ) Pr (1 P)nr r siendo su función de probabilidad acumulada n n F(r ) P(S r ) k 0 Pk (1 P)nk r La media y la varianza de S son E[S] = n*p y V[S] = n*p*(1-p), respectivamente. La distribución binomial parte de la distribución de Bernoulli. La distribución de Bernoulli se aplica cuando se realiza una sola vez un experimento que tiene únicamente dos posibles resultados (éxito o fracaso), por lo que la variable sólo puede tomar dos valores: el 1 y el 0. La distribución Binomial se aplica cuando se realizan un número n de veces el experimento de Bernoulli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre 0 si todos los experimentos han sido fracaso, hasta n si todos los experimentos han sido éxitos Ejemplo, se tira una moneda 10 veces: ¿cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10. La distribución de probabilidad de este tipo de distribución sigue el siguiente modelo, n! P( X x ) P k Qnk PQ 1 k! (n k )! Ejemplo, ¿Cuál es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces?. k es el número de aciertos. En este ejemplo k igual a 6 (en cada acierto 4 decíamos que la variable toma el valor 1: como son 6 aciertos, entonces k=6), n es el número de ensayos. En nuestro ejemplo son 10, P es la probabilidad de éxito, es decir, que salga cara al lanzar la moneda. Por lo tanto P=0,5. Entonces, 10! P( X 6) 0.5 6 0.510 6 0.205 6! (10 6)! Luego, P(x=6) = 0,205, es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda. Ejemplo, ¿Cuál es la probabilidad de obtener cuatro veces el número 3 al lanzar un dado ocho veces?, siendo k (número de aciertos) toma un valor de 4, y n toma el valor 8 La probabilidad de que salga un 3 al tirar el dado es 1/6, entonces, 8! P( X 4) 0.166 4 (1 0.166) 4 0.026 4!4! Luego, P(x=4)=0,026, es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el números 3 al tirar un dado 8 veces. Supongamos que realizamos n pruebas de Bernouilli, Xi, donde en todas ellas, la probabilidad de éxito es la misma (p), y queremos calcular el número de éxitos, X, obtenidos el total de las n pruebas. n f (x) P(X x) p x (1 p) n x x 0,1,...,n x El modo más simple de calcular la función característica nos lo da el teorema que afirma que la función característica de la suma de variables independientes es el producto de las funciones características de estas: x (t) x1 x2 x n (q peit ) n Los principales momentos de X los calculamos más fácilmente la función característica, ( t ) E(X) x np(p q) n 1 np i t 0 V(X) E(X 2 ) E(X) 2 x ( t ) 2 i npq t 0 Ejemplo, Un médico aplica un test a 10 alumnos de un colegio para detectar una enfermedad cuya incidencia sobre una población de niños es del 10%. La sensibilidad del test es del 80% y la especificidad del mismo es del 75%. ¿Cual es la probabilidad 5 de que exactamente a cuatro personas le de un resultado positivo? Si en la muestra hay cuatro personas a las que el test le da positivo, ¿cuál es la probabilidad de que entre estas, exactamente dos estén sanas? Calcular la probabilidad de que el test suministre un resultado incorrecto para dos personas. Calcular la probabilidad de que el resultado sea correcto para más de 7 personas. Solución: Los datos de que disponemos son: P(E)=0.10, P(T+/E)=0.80, y P(T/E)=0.75, donde E, T+, y T- tienen el sentido que es obvio. Si queremos saber a cuantas personas el test le dará un resultado positivo, tendremos que calcular P(T+), para lo que podemos usar el teorema de la probabilidad total (estar enfermo y no estarlo forman una colección exhaustiva y excluyente de sucesos): P(T+)=P(T+/E)*P(E)+P(T+/E-)*P(E-)=0.80*0.10+0.25*0.90=0.305 Sea X1 la variable aleatoria que contabiliza el número de resultados positivos. Es claro que llamando p1=P(T+), se tiene que X sigue una distribución binomial 10 10 x X1 B(10,0.305) P(X1 x) p1x q10 * 0.3054 * 0.6956 0.2048 1 x 4 Ahora bien, si queremos calcular a cuántas personas les dará el test positivo aunque estén sanas, hemos de calcular previamente P(E-/T+) P(E T ) 1 P(T / E ) * P(E ) P(E / T ) 0.7377 P(T ) P(T ) DISTRIBUCIÓN POISSON La distribución de Poisson parte de la distribución binomial, cuando en una distribución binomial se realiza el experimento un número n muy elevado de veces y la probabilidad de éxito p en cada ensayo es reducida, entonces se aplica el modelo de distribución de Poisson, se tiene que cumplir que λk P( X k ) e λ k! =n*P, es decir, el número de veces n que se realiza el experimento multiplicado por la probabilidad P de éxito en cada ensayo, k es el número de éxito cuya probabilidad se está calculando Ejemplo, La probabilidad de tener un accidente de tráfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, ¿cual es la probabilidad de tener 3 accidentes? Como la probabilidad P es menor que 0,1, y el producto n*P es menor que 10, entonces aplicamos el modelo de distribución de Poisson, 6 63 0.0892 3! Por tanto, la probabilidad de tener 3 accidentes de tráfico en 300 viajes es del 8,9% P( X 3) e 6 Ejemplo, La probabilidad de que un niño nazca pelirrojo es de 0,012. ¿Cuál es la probabilidad de que entre 800 recién nacidos haya 5 pelirrojos? 9.6 5 P( X 5) e 9.6 4.602 5! Por tanto, la probabilidad de que haya 5 pelirrojos entre 800 recién nacidos es del 4,6% Esta distribución aparece en algunos procesos que tienen una dimensión temporal o espacial, como el número de llamadas telefónicas que recibe un servicio de atención a urgencias durante un intervalo de tiempo determinado, o el número de cultivos infectados por una plaga en una cierta región geográfica. Las funciones de probabilidad y de distribución de una variable aleatoria de Poisson con media m>0, que simplificamos con la notación P(m), son f (r ) P( X r ) e 3 mr r! F(r ) P( X r ) k 0 r e mm k k! La media y varianza de X son ambas iguales a m, E[X] = V[X] = m. DISTRIBUCIÓN HIPERGEOMÉTRICA La distribución hipergeométrica es el modelo que se aplica en experimentos del siguiente tipo: En una urna hay bolas de dos colores (blancas y negras), ¿cuál es la probabilidad de que al sacar 2 bolas las dos sean blancas? Son experimentos donde, al igual que en la distribución binomial, en cada ensayo hay tan sólo dos posibles resultados: o sale blanca o no sale. Pero se diferencia de la distribución binomial en que los distintos ensayos son dependientes entre sí. Si en una urna con 5 bolas blancas y 3 negras en un primer ensayo saco una bola blanca, en el segundo ensayo hay una bola blanca menos por lo que las probabilidades son diferentes (hay dependencia entre los distintos ensayos). La distribución hipergeométrica sigue el siguiente modelo, N1 N2 N1! N2 ! k n k k!*( N1 k )! (n k )!*( N2 n k )! p( X x ) N! N n!*( N n)! n 7 Donde, para el ejemplo, N es el número total de bolas en la urna, N1: es el número total de bolas blancas, N2 es el número total de bolas negras, k es el número de bolas blancas cuya probabilidad se está calculando, n es el número de ensayos que se realiza Ejemplo, en una urna hay 7 bolas blancas y 5 negras. Se sacan 4 bolas ¿Cuál es la probabilidad de que 3 sean blancas? N = 12; N1 = 7; N2 = 5; k = 3; n = 4, entonces, 7 5 3 1 P( X 3) 0.354 12 4 Es decir, la probabilidad de sacar 3 bolas blancas es del 35,3%. Ejemplo, en una fiesta hay 20 personas: 14 casadas y 6 solteras. Se eligen 3 personas al azar ¿Cuál es la probabilidad de que las 3 sean solteras? 7 14 3 0 P( X 3) 0.0175 20 3 Es decir, la probabilidad de que las 3 personas sean solteras es tan sólo del 1,75%. Esta distribución suele aparecer en procesos muéstrales sin reemplazo, en los que se investiga la presencia o ausencia de cierta característica. Piénsese en un procedimiento de control de calidad en una empresa farmacéutica, durante el cual se extraen muestras de las cápsulas fabricadas y se someten a análisis para determinar su composición. Durante las pruebas, las cápsulas son destruidas y no pueden ser devueltas al lote del que provienen. Si N1 es el número de cápsulas defectuosas en el lote y N2 el de aquéllas dentro de las tolerancias establecidas, tomada una muestra al azar de tamaño n, la cantidad de unidades observadas no válidas, r, tiene una distribución hipergeométrica HG(N1, N2, n), cuya función de probabilidad es N1 N2 r n r f (r ) P( X r ) max(0, n N2 ) r min(N1, n) N1 N2 n 8 siendo su función de distribución N1 N2 r n r r F(r ) P( X r ) k 0 N1 N2 n La media y la varianza de esta distribución son nN1N2 (N1 N2 n) nN1 E( X) V( X) N1 N2 (N1 N2 )2 (N1 N2 1) Cuando el tamaño de la población (N) es muy grande, la ley hipergeométrica tiende a aproximarse a la binomial: DISTRIBUCIÓN MULTINOMIAL La distribución multinomial es similar a la distribución binomial, con la diferencia de que en lugar de dos posibles resultados en cada ensayo, puede haber múltiples resultados Ejemplo de distribución binomial: a unas elecciones se presentaron 2 partidos políticos: el LALA obtuvo un 70% de los votos y el JEJE el 30% restante. ¿Cuál es la probabilidad de que al elegir 5 ciudadanos al azar, 4 de ellos hayan votado al JEJE? Ejemplo de distribución multinomial, a esas elecciones se presentaron 4 partidos políticos: el LALA obtuvo un 40% de los votos, el JEJE el 30%, el MUMU el 20% y el LALA el 10% restante. ¿Cuál es la probabilidad de que al elegir 5 ciudadanos al azar, 3 hayan votado al LALA, 1 al MUMU y 1 al LALA? La distribución multinomial sigue el siguiente modelo, n! P( X1 x 1,, Xk x k ) P1x x Pkxk x1 x k Donde Xk = xk indica que el suceso Xk aparezca xk veces (en el ejemplo, que el partido LALA lo hayan votado 3 personas), n indica el número de veces que se ha repetido el suceso (en el ejemplo, 5 veces), n! es factorial de n (en el ejemplo, 5*4*3*2*1), y Pk es la probabilidad del suceso Xk (en el ejemplo, el 40%) 9 Ejemplo, En una fiesta, el 20% de los asistentes son españoles, el 30% franceses, el 40% italiano y el 10% portugueses. En un pequeño grupo se han reunido 4 invitados: ¿cual es la probabilidad de que 2 sean españoles y 2 italianos? 4! P( X1 2, X 2 0, X 3 2, X 4 0) 0.2 2 0.3 0 0.4 2 0.10 0.0384 2!0!2!0! Luego, la probabilidad de que el grupo esté formado por personas de estos países es tan sólo del 3,84% DISTRIBUCIÓN MULTIVARIADA La distribución multihipergeométrica es similar a la distribución hipergeométrica, con la diferencia de que en la urna, en lugar de haber únicamente bolas de dos colores, hay bolas de diferentes colores. Ejemplo, en una urna hay 7 bolas blancas, 3 verdes y 4 amarillas: ¿cuál es la probabilidad de que al extraer 3 bolas sea cada una de un color distinto? N1 N 4 x x4 P( X1 x 1, X k x k ) 1 N n Donde X1 = x1: indica que el suceso X1 aparezca x1 veces (en el ejemplo, que una de las bolas sea blanca), N1 indica el número de bolas blancas que hay en la urna (en el ejemplo, 7 bolas), N es el número total de bolas en la urna (en el ejemplo, 14 bolas), n es el número total de bolas que se extraen (en el ejemplo, 3 bolas) Entonces, 7 3 4 1 1 1 P( X1 1, X 2 1, X 3 1) 0.2307 14 3 Es decir, que la probabilidad de sacar una bola de cada color es del 23,07%. DISTRIBUCIÓN GAMMA La distribución gamma de parámetros a y b es versátil como pocas, ya que otras distribuciones importantes son casos particulares de ésta; así, cuando a = 1, se reduce a la exponencial y cuando a = n/2 y b = 2, obtenemos la Chi-cuadrado de Pearson con n grados de libertad. 10 Desde el punto de vista de las aplicaciones suele utilizarse para modelar variables aleatorias acotadas por un extremo; tal es el caso del tiempo requerido para que se produzcan exactamente a sucesos independientes, si estos ocurren con una frecuencia constante. Las funciones de densidad y de probabilidad acumulada son x 1 1 x / b a1 u f ( x) a x a1e b F( x) u e du, x0 Γ (a) 0 b Γ (a) Γ (P) x P1e x dx 0 respectivamente, siendo la función gamma de Euler La media viene dada por E(X)=ab y la varianza por V(X)=ab2. DISTRIBUCIÓN EXPONENCIAL Una variable aleatoria X tiene distribución exponencial de parámetro a > 0 si sus funciones de densidad y de distribución acumulada son, f (x) aeax F(x) 1 a ax x0 La interpretación del parámetro a es sencilla, pues coincide con la inversa de la esperanza de la variable aleatoria X. Dentro del contexto del análisis de supervivencia, cuando X se interpreta como el tiempo necesario para que se produzca el fallo de un componente de una máquina, o el tiempo que transcurre hasta la muerte de un organismo biológico, tiene especial importancia la función S(x) = Pr(X > x) = 1 - F(x) = exp(-a x) que recibe el nombre de función de supervivencia y que es la probabilidad de que el individuo no fallezca antes del instante x. La media y la varianza de la distribución exponencial son 1 1 E( X) V( X) 2 a a Para calcular el valor esperado y la varianza de la distribución exponencial, obtenemos en primer lugar la función característica a a itx ax ( it a ) x x ( t ) e ae dx e 0 it a it a 0 (0) 1 ai x ( t ) E(X) x 2 i a (it a ) (0) 2 2ai 2 2 1 1 E(X 2 ) x2 2 V(X) 2 2 3 (it a ) i a a a a 2 x ( t ) 11 La distribución exponencial es el equivalente continuo de la distribución geométrica discreta. Esta ley de distribución describe procesos en los que: Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que, el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada. Aplicaciones, El tiempo que tarda una partícula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datación de fósiles o cualquier materia orgánica mediante la técnica del carbono 14, C14; El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente; En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilístico exponencial. Ejemplo, En un experimento de laboratorio se utilizan 10 gramos de Polonio radiactivo. Sabiendo que la duración media de un átomo de esta materia es de 140 días, Cuántos idas transcurrirán hasta que haya desaparecido el 90% del material? Solución: El tiempo T de desintegración de un átomo de 210 84 Po es una variable aleatoria de distribución exponencial, Como el número de átomos existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegración de cada uno de estos átomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polígono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su función de distribución F. Entonces el tiempo que transcurre hasta que el 90% del material radiactivo se desintegra es el percentil 90, t90, de la distribución exponencial, es decir 12 F( t 90 ) 0.90 e at90 1 0.90, entonces , 1 t 90 Ln 0.10 322 días a Ejemplo, Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribución exponencial con media de 16 años. ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 años? Si el marcapasos lleva funcionando correctamente 5 años en un paciente, Solución: Sea T la variable aleatoria que mide la duración de un marcapasos en una persona. 20 P(T 20) f (t )dt 1 e 20 / 16 0.7135 0 DISTRIBUCIÓN BETA La distribución beta de parámetros a y b, ambos estrictamente positivos, tiene como soporte el intervalo (0,1), por lo que suele utilizarse en la modelización de datos que se encuentren dentro de este rango. La función de densidad es 1 f ( x) x a1(1 x )b1 x (0,1) β(a,b) y la de distribución F( x ) 0, x0 b 1 x 1 a 1 u ( 1 u ) du β(a, b) 0 F( x ) 1 x 1 F( X) x (0,1) Siendo la función Beta de Euler. La media y la varianza de esta distribución son, respectivamente, a ab E( X) y V( X) 2 ab (a b) (a b 1) DISTRIBUCIÓN DE WEIBULL La variable aleatoria X tiene distribución de Weibull de parámetros a > 0 y b > 0 si su función de densidad es ax f ( x) bb a 1 e x / b a x0 13 La función de distribución, o de probabilidad acumulada, es F(x) PX x 1 e( x / b) a x0 Igual que en el caso de la distribución exponencial, la de Weibull se suele utilizar como modelo paramétrico en problemas de análisis de supervivencia. En este ámbito, es de interés la probabilidad de que se presente el fallo o muerte después de transcurrido un tiempo x; de ahí que se defina la función de supervivencia S(x) PX x 1 F(x) e( x / b) a 0 Por último, la esperanza y la varianza de esta distribución son, respectivamente, 2 1 1 E( X) bΓ 1 y V( X) b 2 Γ 1 Γ 1 a a a donde siendo Γ (P) x P1e x dx 0 la función gamma de Euler con P>0. DISTRIBUCIÓN DE RAYLEIGH La distribución de Rayleigh de parámetro a > 0, es un caso particular de la de Weibull, estando su uso muy extendido en el contexto del análisis de datos censurados. La función de densidad es f ( x ) 2a 2 xea x f ( x) 0 x0 2 2 F( X) 1 e a x 2 2 F( X) 0 x0 x0 x0 La media y la varianza de esta distribución son, respectivamente, π 1 π E( X) y V ( X ) b 2 1 4 2 a a DISTRIBUCIÓN DE GUMBEL La distribución de Gumbel, o del valor extremo, de parámetros a , b 0 se utiliza en el análisis de la distribución asintótica de los extremos muéstrales, con aplicaciones concretas en la predicción de catástrofes naturales y en el diseño de estructuras de ingeniería civil que van a estar sometidas a condiciones climatológicas extremas. Su función de densidad es 14 f (x) ax 1 a x exp exp a b b a x F( X) exp exp b x x donde es la constante de Euler - Mascheroni, cuyo valor es aproximadamente 0.5772156649... Finalmente, la media y la varianza de esta distribución viene dada por la expresión b2π 2 E( X) a bγ y V( X) 6 DISTRIBUCIÓN LOGÍSTICA La distribución logística de parámetros a pertenece a los reales y b>0 se ha llegado a utilizar como sustituta de la normal, debido a su forma acampanada y de más fácil manejo. Más frecuente es su uso en la modelización de respuestas aleatorias binarias, como en la regresión logística. La función de densidad logística toma la forma xa exp b f (x) x x a b1 exp b F( x ) 1 x a 1 exp b x V( X) Por último, sus momentos son E(X)=a y b2π 2 3 DISTRIBUCIÓN DE PARETO La distribución de Pareto de parámetros a>0 y b>0, es tal que algunos de sus momentos existen cuando a supera cierta cota. Tiene aplicaciones en las ciencias medioambientales y en la estadística industrial. Su función de densidad es f ( x) ab a x a1 x b f ( x) 0 xb en la que se notará que toma valores no nulos para x (b, ) . La función de distribución toma la forma 15 a b F( x ) 1 xb x F( x ) 0 xb La esperanza y la varianza de la distribución de Pareto son ab ab 2 E( X) si a 1 y V( X) si a 1 (a 2)(a 1)2 a2 DISTRIBUCIÓN DE LAPLACE La distribución de Laplace de parámetros a pertenece a los reales y b>0 se utiliza en ocasiones para modelar errores en observaciones de tipo real, de forma similar a como se hace con la distribución normal. La función de densidad es x a 1 f (x) exp x 2b b 1 1 x a ax F( x ) exp y F( x ) 1 exp 2 2 b b Si x es menor o igual, o a es mayor, respectivamente, que a. Su media es E[X]=a y su varianza V[X]=2b2. DISTRIBUCIÓN DE CAUCHY La distribución de Cauchy, o de Lorentz, de parámetros a pertenece a los reales y b>0 es de uso frecuente en física para describir el patrón de impactos de partículas sobre una recta. También es de interés teórico por ser una distribución que carece de momentos. Sus funciones de densidad y de distribución son b 1 1 x a f ( x) F( x) arctan x 2 2 2 π π ( x a) b b Como queda dicho más arriba, la distribución de Cauchy no tiene ni media ni varianza. DISTRIBUCIÓN GEOMÉTRICA En una secuencia de experimentos binarios independientes (A se observa con probabilidad P y deja de observarse con probabilidad 1-P), el número de réplicas antes de la primera observación de A tiene una distribución geométrica o de Pascal, G(P). Para cada número natural r, la función de probabilidad se define como f (r ) P(1 P)r 16 r 1 siendo su función de distribución F(r ) 1 (1 P) La media y varianza de la distribución geométrica son 1 1 P E( X) 1 V( X) 2 P P Respectivamente. De hecho, se trata de un caso especial de la distribución binomial negativa tomando n=1. geométrica ( o de fracasos) DISTRIBUCIÓN ERLANG La función de densidad de probabilidad, 1 f ( x; , ) x 1 exp( x / ), x 0 () en donde es un entero positivo. La variable aleatoria de Erlang es la suma de variables independientes distribuidas exponencialmente, en donde cada valor se genera por 1 x Ln 1 u 1/ 17