ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Tema 6 Algunos modelos de distribuciones discretas. Una vez expuesta la teorı́a general sobre variables aleatorias y sus distribuciones de probabilidad, vamos a describir algunas distribuciones particulares que han demostrado, empı́ricamente, ser modelos apropiados para situaciones que ocurren en la vida real. A pesar de ello tales distribuciones presentan un carácter teórico en el sentido de que sus funciones de probabilidad o de densidad se deducen matemáticamente en base a ciertas hipótesis que se suponen válidas para los fenómenos aleatorios. La elección de una distribución de probabilidad para representar un fenómeno de interés práctico debe estar motivada tanto por la comprensión de la naturaleza del fenómeno en sı́, como por la posible verificación de la distribución seleccionada a través de la evidencia empı́rica. En todo momento debe evitarse aceptar de manera tácita una determinada distribución de probabilidad como modelo de un problema práctico. Una distribución de probabilidad está caracterizada, de forma general, por una o más cantidades que reciben el nombre de parámetros de la distribución. Un parámetro puede tomar cualquier valor de un conjunto dado y, en ese sentido, se define una familia de distribuciones de probabilidad que tendrán la misma función genérica de probabilidad o función de densidad. En este tema estudiaremos varias distribuciones de tipo discreto de gran utilidad en aplicaciones. En cada caso, se expondrá detalladamente cómo surgen (el modelo probabilı́stico subyacente) y se deducirán sus momentos, función generatriz de momentos y otras caracterı́sticas de interés 1. Distribución degenerada La distribución discreta más sencilla es la correspondiente a una variable aleatoria degenerada o constante, es decir, la asociada a un experimento aleatorio que da lugar siempre al mismo resultado. Por tanto, dicha variable aleatoria tomará un único valor c. Su función masa de probabilidad es x=c 1 P[X = x] = 0 x 6= c Algunas de sus caracterı́sticas son: Función de distribución: F (x) = P[X ≤ x] = 0 x<c 1 x≥c Patricia Román Román 1 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Momentos no centrados: mk = E[X k ] = ck P[X = c] = ck , k = 1, 2, · · · Y, en particular, la MEDIA E[X] = c. Momentos centrados: µk = E[(X − c)k ] = 0, k = 1, 2, · · · Y, en particular, la VARIANZA Var[X] = 0. Esta propiedad caracteriza a las distribuciones degeneradas; es decir, una variable aleatoria tiene varianza cero si y solamente si es degenerada en un punto (Propiedades de la varianza). Función generatriz de momentos: M (t) = E[etX ] = etc ∀t ∈ R. Notas Si una variable aleatoria tiene función generatriz de momentos MX (t) = e5t ∀t ∈ R entonces, dado que la f.g.m. determina de forma única la distribución de la variable, X tiene una distribución degenerada en el punto 5, es decir P[X = 5] = 1 Si una variable aleatoria tiene función generatriz de momentos MX (t) = 1 ∀t ∈ R entonces, dado que la f.g.m. determina de forma única la distribución de la variable, X tiene una distribución degenerada en el punto 0, es decir P[X = 0] = 1 Patricia Román Román 2 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas 2. Distribución uniforme discreta Esta es la distribución de probabilidad de una variable aleatoria discreta que toma un número finito de valores que son equiprobables y se utiliza para modelizar variables aleatorias asociadas a experimentos aleatorios que tienen un número finito de posibles resultados que son equiprobables. Su función masa de probabilidad es 1 , i = 1, 2, · · · , n n Se dice entonces que la variable aleatoria X se distribuye uniformemente sobre los puntos x1 , x2 , · · · , xn y se notará X ∼ U (x1 , x2 , . . . , xn ). P[X = xi ] = Ejemplo La variable aleatoria asociada al experimento aleatorio de lanzar un dado al aire (tiene seis resultados posibles y equiprobables si el dado está bien construido) 1 P [X = i] = , i = 1, 2, · · · , 6 6 Algunas de sus caracterı́sticas son: Función de distribución: 0 1 i F (x) = (Número de valores xi ≤ x) = n n 1 si x < x1 si xi ≤ x < xi+1 , i = 1, . . . , n − 1 si x ≥ xn Momentos no centrados: n 1X k mk = E[X ] = x , n i=1 i k k = 1, 2, · · · Y, en particular, la MEDIA n 1X E[X] = xi = x̄. n i=1 Momentos centrados: n 1X µk = E[(X − EX) ] = (xi − x̄)k , n i=1 k Patricia Román Román k = 1, 2, · · · 3 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Y, en particular, la VARIANZA n 1X (xi − x̄)2 . Var[X] = n i=1 Función generatriz de momentos: n M (t) = E[etX ] = 1 X txi e n i=1 ∀t ∈ R. En el caso particular xi = i, i = 1, 2, . . . , n E[X] = 1 n E[X 2 ] = Pn 1 n Var[X] = i=1 Pn i= i=1 1 n(n+1) n 2 i2 = (n+1)(2n+1) 6 = n+1 2 1 n(n+1)(2n+1) n 6 − (n+1)2 4 = = (n+1)(2n+1) 6 n2 −1 12 3. Distribución de Bernoulli Supongamos un experimento aleatorio que da lugar, únicamente, a dos posibles resultados que son mutuamente excluyentes y exhaustivos. Los dos posibles resultados se denotan como: - éxito (E), que será el suceso objeto de estudio, y - fracaso (F ), que es el complementario de E. Evidentemente E, F ⊂ Ω, E ∪ F = Ω, E ∩ F = ∅. A este tipo de experimentos aleatorios se les llama experimentos o pruebas de Bernoulli. Asociado a un experimento o prueba de Bernoulli y a su correspondiente espacio muestral Ω = {E, F }, se define la variable aleatoria con distribución de Bernoulli como si ocurre el suceso E 1 X= 0 si no ocurre el suceso E (ocurre F ) Si se denota por p a la probabilidad del suceso éxito (E) y, por tanto, la probabilidad del suceso fracaso será 1 − p, la función masa de probabilidad de esta variable aleatoria será P[X = 1] = p P[X = 0] = 1 − p o bien, Patricia Román Román 4 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas P[X = x] = px (1 − p)1−x , x = 0, 1; 0 < p < 1 y se notará como X ∼ B(1, p). (Los casos p = 0 y p = 1 dan lugar a variables degeneradas) Ejemplos - La variable aleatoria asociada al experimento aleatorio de lanzar una moneda (si la moneda está bien construida p = 1/2) - La variable aleatoria asociada a contabilizar ocurrencias, por ejemplo si una persona es votante de un partido o no, si una pieza manufacturada es defectuosa o no (variables indicadoras). Algunas de sus caracterı́sticas son: Función de distribución F (x) = 0 x<0 1−p 0≤x<1 1 x≥1 Momentos no centrados: mk = p, k = 1, 2, · · · Y, en particular, E[X] = p, E[X 2 ] = p Momentos centrados: µk = (1 − p)k p + (−p)k (1 − p), k = 1, 2, · · · Y, en particular, Var[X] = E[X 2 ] − (E[X])2 = p − p2 = p(1 − p) Función generatriz de momentos: M (t) = pet + (1 − p) Patricia Román Román ∀t ∈ R 5 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Nota Si una variable aleatoria tiene función generatriz de momentos MX (t) = 0,8et + 0,2 ∀t ∈ R entonces, dado que la f.g.m. determina de forma única la distribución de la variable, X tiene una distribución B(1, 0,8). Ejemplo.- Un agente de seguros dedicado a la venta de seguros de vida, realiza visitas a posibles clientes con el fin de contratar un seguro de vida. Se sabe de su trayectoria como agente que en el 60 % de las visitas logra contratar un seguro. Definir la variable aleatoria asociada a este experimento aleatorio y obtener su media y varianza. Tenemos un experimento aleatorio o prueba de Bernoulli que consiste en realizar una visita a un cliente e intentar contratarle un seguro. Los dos posibles resultados serán: - El cliente contrata el seguro, suceso éxito. - El cliente no contrata el seguro, suceso fracaso. La variable aleatoria asociada al experimento se define como si el cliente contrata el seguro (ocurre el suceso E) 1 X= 0 si el cliente no contrata el seguro (no ocurre el suceso E) En este caso la probabilidad de éxito es p = 0,6 y de aquı́ que la función masa de probabilidad de la variable aleatoria X es P[X = 1] = P (E) = 0,6 = p P[X = 0] = P (E) = 0,4 = 1 − p La media y la varianza son E[X] = p = 0,6 Var[X] = p(1 − p) = 0,6 · 0,4 = 0,24 4. Distribución binomial Una generalización de la distribución de Bernoulli se obtiene cuando: - El experimento o prueba de Bernoulli se repite n veces de forma independiente. - La probabilidad de éxito p permanece constante en cada repetición del experimento. Se define ahora una variable aleatoria X como el número de éxitos en las n repeticiones independientes del experimento que puede tomar los valores k = 0, 1, · · · , n. Calculemos la probabilidad de que dicha variable tome cada uno de esos valores; esto es, P[X = k], k = 0, 1, · · · , n, o lo que es lo mismo, la probabilidad de obtener k éxitos (o realizaciones del suceso E) en las n pruebas de Bernoulli. Una de las posibles formas de obtener k éxitos en las n pruebas serı́a que se realizara E en las k primeras pruebas y Ē en las n − k restantes Patricia Román Román 6 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas EE · · k) E Ē Ē · · n−k) Ē Al ser las pruebas independientes, la probabilidad de la intersección de los n sucesos anteriores será el producto de las probabilidades de cada uno de los sucesos; esto es pp · · k) p(1 − p)(1 − p) · · n−k) (1 − p) = pk (1 − p)n−k Ahora habrá que multiplicar esta probabilidad por el número de posibles ordenaciones de los k éxitos y los n − k fracasos, que es el número de permutaciones de n elementos con repetición de k elementos de un tipo y n − k de otro n! n = k!(n − k)! k Por tanto n x P[X = x] = p (1 − p)n−x , x x = 0, 1, · · · , n Definición.- Se dice que una variable aleatoria X sigue una distribución binomial de parámetros n y p, n ∈ N, p ∈ (0, 1) si modeliza el número de éxitos en n repeticiones independientes de un ensayo de Bernoulli con probabilidad p de éxito, manteniéndose ésta constante en las n repeticiones del experimento; o bien, si su función masa de probabilidad es n x P[X = x] = p (1 − p)n−x , x = 0, 1, · · · , n. x Se notará como X ∼ B(n, p). Nota.-Observemos que la distribución de Bernoulli no es más que un caso particular de la distribución binomial con n = 1. Probemos que, en efecto, es una función masa de probabilidad. En primer lugar, son valores mayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo en cuenta el binomio de Newton n X n X n x P[X = x] = p (1 − p)n−x = [p + (1 − p)]n = 1 x x=0 x=0 Ejemplo: Número de caras al lanzar una moneda n veces de forma independiente. Aplicaciones Sus principales áreas de aplicación incluyen control de calidad, ventas, mercadotecnia, medicina, investigación de opiniones y otras. Patricia Román Román 7 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas - Número de unidades defectuosas en un proceso de fabricación. En un proceso de manufactura se produce un determinado producto en el que algunas unidades son defectuosas. Si la proporción de unidades defectuosas producidas por este proceso es constante durante un periodo razonable y si, como procedimiento de rutina, se seleccionan aleatoriamente un determinado número de unidades, entonces el número de artı́culos defectuosos en dicha muestra se puede modelizar mediante el empleo de la distribución binomial. - En aplicaciones de publicidad para la venta de un artı́culo, también puede considerarse la distribución binomial, si se supone que la probabilidad de venta es constante para todas las personas consideradas. - En Medicina, por ejemplo, para estudiar el número de individuos que contraen una enfermedad, si para un grupo determinado de la población la probabilidad de contraer tal enfermedad se mantiene constante. Algunas de sus caracterı́sticas son: Función de distribución: F (x) = P[X ≤ x] = 0 x<0 P[X = 0] + . . . P[X = i] i ≤ x < i + 1; i = 1, 2, . . . , n − 1 1 x≥n o bien, 0 [x] X n k F (x) = p (1 − p)n−k k k=0 1 x<0 0≤x<n x≥n donde [x] denota la parte entera de x. Dicha función de distribución es una función escalonada con n + 1 saltos en los puntos 0, · · · , n de longitudes P[X = 0], . . . , P[X = n] Función generatriz de momentos M (t) = (pet + (1 − p))n ∀t ∈ R En efecto Patricia Román Román 8 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas n tX X tx n px (1 − p)n−x = e M (t) = E e x x=0 = n X n x=0 x (pet )x (1 − p)n−x = [pet + (1 − p)]n Momentos: Dado que la variable está acotada, existen los momentos de todos los órdenes, pero nos limitaremos a calcular hasta los de orden dos. Media E[X] = np lo cual se puede probar, o bien a partir de la función generatriz de momentos o bien, directamente. Veamos la obtención directa n n X X n x n! n−x px (1 − p)n−x = E[X] = x p (1 − p) = x x!(n − x)! x x=0 x=0 n X x=1 n X (n − 1)! n! x n−x p (1 − p) = np px−1 (1 − p)n−x (x − 1)!(n − x)! (x − 1)!(n − x)! x=1 Tomando y = x − 1 y m = n − 1, entonces E[X] = np m X y=0 m! py (1 − p)m−y = np y!(m − y)! dado que los términos de la última suma corresponden a la función masa de probabilidad de una B(m, p) y, por tanto, suman uno. Varianza Var[X] = np(1 − p) dado que el momento no centrado de orden dos es m2 = E[X 2 ] = n(n − 1)p2 + np. Este se puede obtener a partir de la función generatriz de momentos o bien directamente. Veamos esta última forma E[X 2 ] = E[X(X − 1)] + E[X] Dado que E[X] ya es conocida, obtengamos la otra Patricia Román Román 9 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas n X n X n x n! n−x px (1 − p)n−x E[X(X − 1)] = x(x − 1) p (1 − p) = x(x − 1) x!(n − x)! x x=0 x=0 n X x=2 n X n! (n − 2)! x n−x 2 p (1 − p) = n(n − 1)p px−2 (1 − p)n−x (x − 2)!(n − x)! (x − 2)!(n − x)! x=2 Tomando ahora y = x − 2 y m = n − 2, de forma análoga a la media , se obtiene E[X(X − 1)] = n(n − 1)p 2 m X y=0 m! py (1 − p)m−y = n(n − 1)p2 y!(m − y)! dado que los términos de la última suma corresponden a la función masa de probabilidad de una B(m, p) y, por tanto suman uno. Propiedad de simetrı́a.- Si X ∼ B(n, p), entonces la variable aleatoria que contabiliza el número de fracasos, Y = n − X ∼ B(n, 1 − p) y, además P[X = x] = P[Y = n − x] Se puede probar calculando la función generatriz de momentos. n n MY (t) = E[et(n−X) ] = etn MX (−t) = etn pe−t + (1 − p) = (1 − p)et + p . Cálculo de probabilidades y representaciones gráficas (Ver apuntes y scripts de R, y applets de Java con Geogebra) EJERCICIOS 1.- Un club nacional de automovilistas comienza una campaña telefónica con el propósito de aumentar el número de miembros. En base a experiencia previa, se sabe que una de cada 20 personas que reciben la llamada se une al club. Si en un dı́a, 25 personas reciben la llamada telefónica, ¿cuál es la probabilidad de que por lo menos dos de ellas se inscriban al club? ¿Cuál es el número esperado? Solución: Si cada persona que recibe la llamada se une o no al club, independientemente del resto, entonces, X : Número de personas que se unen al club de las 25 llamadas Patricia Román Román 10 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas X ∼ B(25, 1/20) P[X ≥ 2] = 1 − P[X < 2] = 1 − [P[X = 0] + P[X = 1]] = " 1 24 # 0 25 25 1 19 25 1 19 =1− + = 0.3576 0 20 20 1 20 20 1 = 1.25 20 2.- Un representante realiza cinco visitas cada dı́a a los comercios de su ramo y, por experiencia anterior, sabe que la probabilidad de que le hagan un pedido en cada visita es 0.4. Calcular E[X] = np = 25 a) La distribución del número de pedidos por dı́a. b) Media y varianza del número de pedidos por dı́a. c) Probabilidad de que el número de pedidos que realiza durante un dı́a sea 4. d) La probabilidad de que realice por lo menos dos pedidos. e) La probabilidad de que el número de pedidos que realiza durante un dı́a esté comprendido entre 1 y 3. Solución: Supuesto que en cada visita se hace un pedido o no independientemente de lo que se haga en otra visita: a) X : Número de pedidos diarios ∼ B(5, 0.4) b) E[X] = 5 × 0.4 = 2, V ar[X] = 5 × 0.4 × 0.6 = 1.2 c) P (X = 4) = 54 0.44 0.61 = 0.0768. Con R, dbinom(4,5,0.4)=0.0768. d) P (X ≥ 2) = 1 − P (X < 2) = 1 − P (X ≤ 1) = 1 − (P (X = 0) + P (X = 1)) = 0.66304. Con R, 1-pbinom(1,5,0.4)=0.66304, o bien, dado que P (X ≥ 2) = P (X > 1), pbinom(1,5,0.4,lower.tail=FALSE)=0.66304. e) P (1 ≤ X ≤ 3) = P (X = 1)+P (X = 2)+P (X = 3) = 51 0.41 0.64 + 52 0.42 0.63 + 53 0.43 0.62 = 0.2592 + 0.3456 + 0.2304 = 0.8352. Con R, sum(dbinom(1:3,5,0.4))=0.8352, o bien, pbinom(3,5,0.4)-pbinom(0,5,0.4)=0.8352. 3.- Se envı́an 20 invitaciones a los representantes estudiantiles para asistir a una conferencia. De experiencias anteriores se sabe que la probabilidad de aceptar la invitación es 0.8. Si las decisiones de aceptar estas invitaciones son independientes, determinar la probabilidad de que como mı́nimo 17 estudiantes acepten la invitación. Solución: X : Número de representantes que aceptan la invitación ∼ B(20, 0.8) Patricia Román Román 11 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas P (X ≥ 17) = P (X = 17) + P (X = 18) + P (X = 19) + P (X = 20) Con R, pbinom(16,20,0.8,lower.tail=FALSE)=0.4114489. 5. Distribución de Poisson Esta distribución sirve para representar el número de ocurrencias de un determinado suceso durante un periodo de tiempo fijo o en una región fija del espacio, cuando el número de ocurrencias sigue unas determinadas pautas: El número de ocurrencias en un intervalo o región especificada debe ser independiente del número de ocurrencias en cualquier otro intervalo o región. Si se considera un intervalo de tiempo muy pequeño (o una región muy pequeña), la probabilidad de una ocurrencia es proporcional a la longitud del intervalo (al volumen de la región) y la probabilidad de dos o más ocurrencias es prácticamente nula (despreciable). Definición: Una variable aleatoria X tiene distribución de Poisson de parámetro λ (λ > 0) si su función masa de probabilidad es P[X = x] = e−λ λx , x! x = 0, 1, . . . Se nota X ∼ P(λ). Probemos que en efecto es una función masa de probabilidad. En primer lugar, son valores mayores o iguales que cero y, en segundo lugar, su suma vale uno. En efecto, teniendo en cuenta el desarrollo de la exponencial ∞ X x=0 P[X = x] = ∞ X e−λ x=0 ∞ X λx λx = e−λ = e−λ eλ = 1 x! x! x=0 Aplicaciones Esta distribución sirve para representar, por ejemplo: - Número de accidentes que ocurren durante un determinado espacio de tiempo en una determinada carretera. - Número de llamadas telefónicas a una oficina (en un determinado intervalo de tiempo). - Número de bacterias en un cultivo. En general, las situaciones reales en las que se usa la distribución de Poisson se caracterizan porque la probabilidad del suceso cuyo número de ocurrencias se contabiliza es pequeña y por ello suele denominarse la LEY DE LOS SUCESOS RAROS. Algunas de sus caracterı́sticas son: Patricia Román Román 12 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Función de distribución F (x) = 0 x<0 [x] k X −λ λ e k! x≥0 k=0 donde [x] denota la parte entera de x. Función generatriz de momentos M (t) = eλ(e −1) t ∀t ∈ R En efecto M (t) = ∞ X x tx −λ λ e e x=0 x! −λ =e ∞ X (et λ)x x=0 x! = e−λ ee λ = eλ(e −1) t t Media E[X] = λ lo cual se puede probar o bien directamente, o a partir de la función generatriz de momentos. Veamos la obtención directa E[X] = ∞ X x=0 xe−λ ∞ X λx λx−1 = λe−λ = λe−λ eλ = λ x! (x − 1)! x=1 Por tanto, el parámetro λ de la distribución es el número medio de ocurrencias en el intervalo de tiempo o región del espacio considerada. Varianza Var[X] = λ Razonando de forma análoga a la binomial y calculando E[X(X − 1)] E[X(X − 1)] = ∞ X x=0 −λ λ x(x − 1)e x x! 2 −λ =λ e ∞ X λx−2 = λ2 e−λ eλ = λ2 (x − 2)! x=2 se obtiene E[X 2 ] = λ2 + λ, de donde se deduce el valor de la varianza. Patricia Román Román 13 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Relación entre las distribuciones binomial y de Poisson La distribución de Poisson se puede obtener como lı́mite de una distribución binomial: Consideramos una variable que modeliza el número de sucesos ocurridos en un intervalo de tiempo, y dividimos dicho intervalo en n subintervalos tan pequeños de forma que en cada uno de ellos pueda ocurrir a lo sumo un suceso con probabilidad no nula, a la que llamaremos p. De esta forma el número de sucesos que ocurren en cada subintervalo tiene una distribución B(1, p) y, al ocurrir los sucesos de forma independiente en los subintervalos, el número de sucesos en el intervalo es una B(n, p). Claramente, cuando n aumenta, p disminuye ya que al aumentar n disminuye la amplitud de los intervalos y, por tanto, la probabilidad de que ocurra un suceso en él. En consecuencia, considerando un número n grande de pruebas de Bernoulli independientes, con probabilidad de ocurrencia p pequeña, y tomando λ = np, se obtiene la distribución de Poisson como lı́mite de la binomial cuando n → ∞. Es decir, si n → ∞, p → 0 y np → λ la distribución binomial tiende a una Poisson, es decir x n x n−x −λ λ x = 0, 1, · · · lı́m p (1 − p) = e n→∞ x! x p→0 np→λ En efecto, n x n! (np)x P[X = x] = p (1 − p)n−x = (1 − p)n−x = x x x!(n − x)! n (np)x n(n − 1) · · · (n − x + 1) (1 − p)n−x x x! n Ahora tomando lı́mites cuando n → ∞, p → 0 de forma que np → λ, se tiene n x e−λ λx n−x lı́m p (1 − p) = n→∞ x x! p→0 = np→λ dado que lı́m np→λ lı́m n→∞ (np)x λx = x! x! n(n − 1) · · · [n − (x − 1)] =1 nx lı́m (1 − p)n−x = elı́m(n−x)(−p) = e−λ n→∞ p→0 Cálculo de probabilidades y representaciones gráficas (Ver apuntes y scripts de R, y applets de Java con Geogebra) Patricia Román Román 14 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas EJERCICIOS 1.- En una cierta empresa constructora el número de accidentes es por término medio de 3 por mes. Calcular: a) La probabilidad de que no ocurra ningún accidente en un mes dado. b) La probabilidad de que ocurran menos de 5 accidentes en un mes dado. c) La probabilidad de que ocurran más de 3 accidentes en un mes dado. d) La probabilidad de que ocurran exactamente 3 accidentes en un mes dado. Si suponemos que los accidentes cuando ocurren son independientes unos de otros y además, que ocurren con una tasa de ocurrencia constante, la variable aleatoria número de accidentes en un mes dado tiene una distribución de Poisson. Dado que el número medio de accidentes al mes es 3 y el parámetro λ de una Poisson es el valor medio (λ = 3), la distribución considerada es una P(3). Las probabilidades solicitadas son a) P[X = 0] = 30 −3 e 0! = 0.0498 Con R, dpois(0,3)=0.04978707. b) P[X < 5] = P[X ≤ 4] = P[X = 0] + P[X = 1] + P[X = 2] + P[X = 3] + P[X = 4] = 0 −λ λ =e 0! +e 1 −λ λ 1! −λ λ +e 2 2! −λ λ +e 3 3! 4 −λ λ +e 4! = = 0.0498 + 0.1494 + 0.2240 + 0.2240 + 0.1680 = 0.8152. Con R, ppois(4,3)=0.8152632. c) P[X > 3] = 1 − P[X ≤ 3] Con R, 1-ppois(3,3) o ppois(3,3,lower.tail=FALSE)=0.3527681. d) P[X = 3] = 0.2240. Con R, dpois(3,3)=0.2240418. 2.- Desde el año 1980 el número medio de empresas, con más de 100 trabajadores, que han presentado suspensión de pagos ha sido de 6.8 por año, y admitimos que el número de empresas con más de 100 trabajadores, X, que han presentado suspensión de pagos durante un periodo determinado de tiempo sigue una distribución de Poisson. Obtener a) La probabilidad de que ninguna empresa de más de 100 trabajadores presente suspensión de pagos durante un trimestre. b) La probabilidad de que por lo menos dos empresas de más de 100 trabajadores presenten suspensión de pagos durante un determinado año. La distribución que sigue X, el número de empresas con más de 100 trabajadores que han presentado suspensión de pagos durante un periodo de tiempo es una Poisson de parámetro λ. a) Como las empresas de mas de 100 trabajadores presentan suspensión de pagos a razón de 6.8 por año, en un trimestre será Patricia Román Román 15 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas 6.8 = 1.7 4 Luego la variable Y , número de empresas con más de 100 trabajadores que han presentado suspensión de pagos durante un trimestre es una Poisson de parámetro λ = 1.7 y la probabilidad pedida P[Y = 0] = e−1.7 1.70 = 0.1827 0! Con R, dpois(0,1.7)= 0.1826835. b) Para obtener ahora la probabilidad de que por lo menos dos empresas de más de 100 trabajadores presenten suspensión de pagos durante un determinado año consideraremos la variable aleatoria X ∼ P(6.8). Luego P[X ≥ 2] = 1 − P[X = 0] − P[X = 1] = 1 − 0.0011 − 0.0076 = 0.9913 Con R, ppois(1,6.8, lower.tail=FALSE)=0.9913126, o bien 1-ppois(1,6.8). 3.- A una calculadora le fallan, por término medio en cada hora de trabajo, dos transistores. Se sabe que el número de fallos de los transistores sigue una distribución de Poisson. La calculadora deja de funcionar cuando se le averı́an seis o más transistores. Calcular la probabilidad de que una operación de tres horas se pueda realizar sin averı́a. X: Número de fallos en tres horas ∼ P(6) Se pide P(X < 6) = P(X ≤ 5) = 5 X x=0 P (X = x) = 5 X x=0 e−6 6x = 0.0025 + 0.0149 + 0.0446 + 0.0892 + x 0.1339 + 0.1606 = 0.4457 Con R, ppois(5,6)=0.4456796. 6. Distribución binomial negativa Consideremos ahora un experimento aleatorio consistente en repeticiones independientes de ensayos de Bernoulli con probabilidad de éxito constante, hasta que aparezca el éxito k-ésimo. Es decir, en lugar de fijar el número de ensayos y observar el número de éxitos en esas n realizaciones, se repiten las realizaciones hasta obtener un número determinado de éxitos y contabilizamos los fracasos. Definimos la variable aleatoria con distribución binomial negativa como aquella que modeliza el número de fracasos antes de que aparezca el éxito k-ésimo. Nota.- Si en vez de contabilizar el número de fracasos antes del k-ésimo éxito se contabiliza el número de pruebas necesarias (variable aleatoria Y = X + k), se obtiene la distribución de Pascal que verifica Patricia Román Román 16 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas P[Y = n] = P[X = n − k]. La variable aleatoria X puede tomar los valores x = 0, 1, 2, . . . y k debe ser un entero positivo, es decir, k = 1, 2, . . . . Calculemos la función masa de probabilidad de la variable aleatoria binomial negativa; esto es, P[X = x], x = 0, 1, 2, . . . Uno de los posibles sucesos para el cual ocurre {X = x} serı́a que en las x primeras repeticiones apareciera “fracaso”, en las k − 1 siguientes “éxito” y en la ultima “éxito” E .x). . E|E k−1) . . . E|E y como las repeticiones de las pruebas de Bernoulli son independientes, la probabilidad del suceso anterior será h i x) k) P E .x). . EE .k). . E = P(E) · · · P(E) · P(E) · · · P(E) = (1 − p)x pk Pero la obtención de los x fracasos y los k − 1 éxitos se pueden obtener de tantas maneras como las permutaciones con repetición de x + k − 1 elementos en los que hay iguales x y k − 1, es decir x+k−1 (x + k − 1)! = x!(k − 1)! x Por tanto, la función masa de probabilidad de esta variable aleatoria es P[X = x] = x+k−1 (1 − p)x pk , x x = 0, 1, 2, · · · (k = 1, 2, · · · ; 0 ≤ p < 1) y se notará como X ∼ BN (k, p). Comprobemos que es, en efecto, una función masa de probabilidad. Para ello tengamos en cuenta lo siguiente ∀α ∈ R, α0 = 1 ∀α ∈ R, x ∈ N, αx = α(α−1)···(α−x+1) x! P α x (1 + t)α = ∞ |t| < 1, ∀α ∈ R x=0 x t , Propiedad:“Para cualquier número real α > 0 −α r α+r−1 = (−1) ” r r Patricia Román Román 17 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas En primer lugar, es evidente que P[X = x] ≥ 0, x = 0, 1, 2, . . . y ∞ X P[X = x] = x=0 = ∞ X k+x−1 x x=0 (1 − p)x pr ∞ X −k [−(1 − p)]x pk = pk [1 − (1 − p)]−k = pk p−k = 1 x x=0 Observemos que, de hecho, otra expresión de la función masa de probabilidad de la binomial negativa es −k P[X = x] = [−(1 − p)]x pk x Ejemplos - Número de preguntas falladas en un examen tipo test antes de tener el décimo acierto. - Número de unidades defectuosas antes de obtener un número concreto de correctas. Algunas de las caracterı́sticas de la distribución binomial negativa son: Función de distribución: F (x) = P[X ≤ x] = 0 x<0 [x] X i+k−1 (1 − p)i pk i x≥0 i=0 Función generatriz de momentos: M (t) = p 1 − (1 − p)et k ∀t < −ln(1 − p) En efecto, tX E e = ∞ X tx e P[X = x] = x=0 ∞ X e tx x=0 −k (−(1 − p))x pk x que converge si |et (−(1 − p))| < 1 ⇔ et (1 − p) < 1 ⇔ t < −ln(1 − p) = ∞ X −k x=0 x t x k (−(1 − p)e ) p = p k ∞ X −k x=0 x (−(1 − p)et )x = pk (1 − (1 − p)et )−k Patricia Román Román 18 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Momentos: Existen todos dado que existe la función generatriz de momentos. Nos limitaremos a obtener los momentos de primer y segundo orden. Media E[X] = k(1 − p) p Veamos la obtención de forma directa: ∞ ∞ X X (−k)(−k − 1) · · · (−k − x + 1) −k x k k x (−(1 − p))x = E[X] = x (−(1 − p)) p = p x(x − 1)! x x=1 x=0 ∞ X −k − 1 k(1 − p) (−k) p (−(1 − p)) (−(1 − p))x−1 = k(1 − p)pk (1 − (1 − p))−k−1 = x−1 p x=1 k Varianza Var[X] = k(1 − p) p2 Razonando de forma análoga al caso binomial, se obtiene E[X 2 ] = k(k + 1)(1 − p)2 k(1 − p) + , p2 p de donde se deduce la expresión de la varianza. Relación entre las distribuciones binomial y binomial negativa Si X es una variable aleatoria con distribución BN (k, p), el suceso {X = x} significa la intersección de los sucesos A = {se han obtenido k − 1 éxitos en los primeros k + x − 1 ensayos de una serie de pruebas independientes de Bernoulli} B = {se ha obtenido un éxito en el siguiente ensayo de la serie} El suceso A equivale a {Y = k − 1}, con Y ∼ B(k + x − 1, p), y el segundo es independiente del primero y ocurre con probabilidad p. Entonces P[X = x] = P[Y = k − 1] · p Caso particular: Distribución Geométrica La distribución geométrica es un caso particular de la distribución binomial negativa para el caso de k = 1. Es decir, modeliza el número de fracasos antes del primer éxito en repeticiones independientes de ensayos de Bernoulli con probabilidad de éxito p. Su función masa de probabilidad es Patricia Román Román 19 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas P[X = x] = (1 − p)x p, x = 0, 1, 2, · · · (0 < p < 1) y se notará como X ∼ G(p). Sus caracterı́sticas más relevantes son Función de distribución: F (x) = P[X ≤ x] = 0 x<0 [x] X (1 − p)i p x≥0 i=0 Pero como 1 [x] X [x] X 1 − (1 − p)[x]+1 i = 1 − (1 − p)[x]+1 (1 − p) p = p (1 − p) = p 1 − (1 − p) i=0 i=0 i se puede reescribir la función de distribución como F (x) = P[X ≤ x] = 0 x<0 1 − (1 − p)[x]+1 x≥0 Función generatriz de momentos: M (t) = p 1 − (1 − p)et ∀t < −ln(1 − p) Media: E[X] = 1−p p Varianza: Var[X] = 1 1−p p2 Recordemos que la suma de los n términos de una progresión geométrica an de razón r es Sn = Patricia Román Román a1 − an · r 1−r 20 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Propiedad de olvido o falta de memoria: Esta propiedad se formula de la siguiente forma: Si X es una variable aleatoria con distribución geométrica de parámetro p, G(p), entonces se verifica que P[X ≥ h + k|X ≥ h] = P[X ≥ k], h, k = 0, 1, 2, . . . “Si se ha realizado la h-ésima repetición del experimento o prueba de Bernoulli y no se ha obtenido ningún éxito, entonces la probabilidad de que se realicen por lo menos otras k repeticiones sin que se presente ningún éxito, es decir que se realicen por lo menos h + k repeticiones, es la misma que si consideramos que la primera repetición es la h + 1-ésima; es decir, esa probabilidad es la misma que la probabilidad de que realicemos al menos k repeticiones sin obtener el primer éxito, y por consiguiente se olvidan las h repeticiones realizadas inicialmente. Vamos a demostrarla, si X ∼ G(p) P[X ≥ x] = 1 − P[X < x] = 1 − F (x − 1) = 1 − (1 − (1 − p)x ) = (1 − p)x . Por tanto, si k, h, ∈ N P[X ≥ h + k|X ≥ h] = P[X ≥ h + k, X ≥ h] = P[X ≥ h] P[X ≥ h + k] (1 − p)h+k = = (1 − p)k = P[X ≥ k] P[X ≥ h] (1 − p)h Esta propiedad, además, caracteriza a la distribución geométrica como la única entero valuada (positiva) que la cumple. La distribución de probabilidad geométrica se aplica frecuentemente en el estudio de la distribución de la duración de tiempos de espera. Ası́ pues, si las repeticiones del experimento se realizan a intervalos regulares de tiempo, entonces la variable aleatoria con distribución geométrica nos dará el número de intervalos de tiempo transcurridos hasta que aparezca el primer éxito. EJERCICIOS 1.- Un examen de Estadı́stica consta de 20 preguntas tipo test y se conoce de experiencias anteriores que un alumno tiene probabilidad 0.7 de contestar bien cada pregunta. Obtener: a) La probabilidad de que la primera pregunta que contesta bien sea la cuarta. b) Sabiendo que para aprobar el examen es necesario contestar bien a 10 preguntas, ¿cuál es la probabilidad de que apruebe al contestar la pregunta duodécima? a) X= Número de fallos antes del primer éxito, X ∼ G(0.7) Patricia Román Román 21 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas P[X = 3] = (0.3)3 0.7 = 0.0189 Con R, dgeom(3,0.7)=0.0189. b) X= Número de fallos antes del décimo éxito, X ∼ BN (10, 0.7) 2 + 10 − 1 11 2 10 P[X = 2] = (0.3) (0.7) = (0.3)2 (0.7)10 . 2 2 Con R, dnbinom(2,10,0.7)=0.1398252. Esta probabilidad se puede obtener mediante la relación con la binomial Y = Número de éxitos en las 11 primeras pruebas, Y ∼ B(11, 0.7) P [X = 2] = P [Y = 9] · 0.7 2.- Una máquina dedicada a la fabricación de piezas de alta precisión produce las piezas de una en una, siendo independiente la fabricación de cada pieza. La probabilidad de fabricar una pieza defectuosa es 0.15. Obtener a) La probabilidad de que la primera pieza defectuosa durante ese dı́a sea la número 40. b) Sabiendo que en la fabricación de cada pieza se tardan 20 segundos ¿cuál será el tiempo medio que hay que esperar hasta que sea producida la primera pieza defectuosa? c) Probabilidad de que las ocho primeras piezas fabricadas sean todas buenas. a) X= Número de piezas buenas antes de la primera defectuosa, X ∼ G(0.15) P [X = 39] = (0.85)39 · 0.15 Con R, dgeom(39,0.15)= 0.000265112. = 00..85 = 5.666. que es el número medio de piezas buenas antes de la primera b) EX = 1−p p 15 defectuosa. Por tanto, el tiempo pedido es 20 × (5.666 + 1) = 133.33 segundos. c) P [X ≥ 8] = 1 − F (7) = 1 − P [X ≤ 7] Con R, 1-pgeom(7,0.15) o pgeom(7,0.15, lower.tail=FALSE)= 0.2724905. Si consideramos Y = Número de piezas buenas en las 8 primeras, Y ∼ B(8, 0.85) P [Y = 8] Con R, dbinom(8,8,0.85)= 0.2724905. 7. Distribución hipergeométrica Se denomina población a cualquier colección de individuos, objetos o elementos arbitrarios y una muestra de tamaño n de esa población es cualquier subconjunto con n elementos. El procedimiento de selección de muestras de una población se denomina muestreo y éste puede realizarse de distintas formas, dando lugar a distintos tipos de muestras de las que aquı́ vamos a distinguir las dos siguientes (suponiendo una población finita): Patricia Román Román 22 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas MUESTRA ALEATORIA CON REEMPLAZAMIENTO (CON DEVOLUCIÓN O SIMPLE). Se selecciona al azar un elemento de la población (suponiendo que todos tienen la misma probabilidad de ser seleccionado), se devuelve a la población (después de anotar las caracterı́sticas de interés) y se selecciona otro también de forma aleatoria; se continua el proceso hasta completar el tamaño muestral deseado. Notemos que una muestra aleatoria con reemplazamiento puede contener elementos repetidos y, en ciertas ocasiones, esto no es conveniente (incluso puede no ser posible, por ejemplo, al estudiar la duración de vida de cierto tipo de bombillas). MUESTRA ALEATORIA SIN REEMPLAZAMIENTO (SIN DEVOLUCIÓN). Se selecciona al azar un elemento de la población (suponiendo que todos tienen la misma probabilidad de ser seleccionado); a continuación, sin devolverlo a la población, se selecciona otro suponiendo que los restantes tienen la misma probabilidad de ser elegidos y ası́ sucesivamente. Notemos que ahora todos los elementos de la muestra serán distintos. El muestreo sin reemplazamiento es útil en muchas situaciones prácticas. Por ejemplo, consideremos una población con N individuos que deben elegir entre dos candidatos A y B a cierto puesto. Con objeto de realizar un sondeo de opinión antes de la elección se efectúa un muestreo de n individuos para ver su preferencia. En una situación de este tipo parece lógico hacer un muestreo sin reemplazamiento, que proporcionará más información sobre la intención de voto al tener todos los individuos diferentes. Observemos que si en la población hay N1 votantes de A y la muestra se elige con reemplazamiento, cada elemento de la muestra tiene probabilidad N1 /N de ser votante de A. Por tanto, la selección de la muestra equivale a la repetición de n pruebas de Bernoulli independientes con probabilidad constante de éxito (ser votante de A) y la variable X: Número de votantes de A en la muestra ∼ B(n, NN1 ) Por el contrario, si el muestreo se realiza sin reemplazamiento, la probabilidad de éxito varı́a después de cada selección y las pruebas de Bernoulli no son independientes: La probabilidad de que el primer individuo seleccionado vote al candidato A es N1 N La probabilidad de que el segundo individuo seleccionado vote al candidato A depende de lo que haya ocurrido en la primera prueba P (2A/1A) = N1 − 1 , N −1 P (2A/1B) = N1 . N −1 Por tanto, la variable X: Número de votantes de A en la muestra, no tiene ahora una distribución binomial, sino que su distribución es la denominada HIPERGEOMÉTRICA. Antes de introducir formalmente esta distribución notemos que, a efectos de calcular probabilidades, el muestreo sin reemplazamiento equivale a la selección simultánea de n elementos Patricia Román Román 23 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas de la población, suponiendo que todos los subconjuntos de n elementos tienen la misma probabilidad de ser elegidos. En efecto, si la selección se realiza simultáneamente no cabe distinguir entre dos muestras que tengan los mismos elementos (no se tiene en cuenta el orden) y hay en total Nn muestras distintas y la probabilidad de elegir una cualquiera de ellas (esto es, que n individuos determinados formen parte de la muestra) es N1 . (n) Por otra parte, si la selección se realiza elemento a elemento, dos muestras con los mismos elementos en distinto orden serán distintas y, en total, hay N (N − 1) · · · (N − n + 1) muestras distintas; la probabilidad de que una muestra esté formada por n individuos concretos es n! 1 = N N (N − 1) · · · (N − n + 1) n que es igual a la anterior. Definición Supongamos una población de N individuos divididos en dos categorı́as de N1 y N2 (= N − N1 ) individuos cada uno. Se elige una muestra de n individuos de la población (sin reemplazamiento o simultáneamente). La variable aleatoria X que contabiliza el número de individuos de la primera categorı́a en la muestra se dice que tiene distribución hipergeométrica de parámetros N , N1 y n y se nota X ∼ H(N, N1 , n), n, N1 , N ∈ N − {0}, n, N1 ≤ N Función masa de probabilidad Evidentemente, un valor de la variable X debe ser un número natural (debe incluirse el cero) verificando máx(0, n − (N − N1 )) ≤ x ≤ mı́n(n, N1 ) pues como hay N1 elementos en la primera subpoblación y N2 en la segunda subpoblación se tiene que cumplir x ≤ n, x ≤ N1 ⇒ x ≤ mı́n(n, N1 ) x ≥ 0, n − x ≤ N2 ⇒ x ≥ máx(0, n − N2 ) Obtengamos la función masa probabilidad de dicha variable aleatoria, esto es la P[X = x], para los diferentes valores posibles de x. P{X = x} = N1 N −N1 ( x )( n−x ) (Nn ) −(x−1) N −N1 N −N1 −1 n N1 N1 −1 · · · NN1−(x−1) · · · N −NN1 −(n−x−1) N N −1 N −x N −x−1 −n+1 x N1 N −N1 = ( x )(Nn−x ) (n) Patricia Román Román Muestra simultánea (Regla de Laplace) Muestra con reemp. 24 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Luego la función masa de probabilidad de esta variable aleatoria será N1 N −N1 P[X = x] = x n−x N n máx(0, n − (N − N1 )) ≤ x ≤ mı́n(n, N1 ) Probemos que es una función masa de probabilidad. En efecto, las probabilidades son no negativas y además 2 mı́nX (n,N1 ) P[X = x] = x=máx(0,n−(N −N1 )) mı́nX (n,N1 ) x=máx(0,n−(N −N1 )) N1 x N −N1 n−x N n = N1 +N −N1 n N n N n N n = =1 Ejemplos y/o aplicaciones La distribución hipergeométrica se aplica en el control estadı́stico de calidad de una fabricación en serie. Ası́ pues, si el lote bajo control contiene N1 elementos buenos y N2 = N − N1 elementos defectuosos, cuando tomamos una muestra de tamaño n sin reemplazamiento estaremos interesados en saber el número de elementos buenos que han aparecido en la muestra de tamaño n para ası́ determinar la calidad del proceso de fabricación. En sondeos de opinión también tiene aplicación la distribución hipergeométrica. Podemos realizar una encuesta para intentar conocer si los individuos de una población tienen o no intención de votar en las próximas elecciones de tal manera que el número de individuos, de una muestra sin reemplazamiento, que tienen intención de votar sigue una distribución hipergeométrica. Algunas de sus caracterı́sticas son: 2 Usando que dados dos números cualesquiera a y b y un entero positivo n, se verifica n X a b a+b = x n−x n x=0 aunque realmente, dado que xa = 0 si x > a al haber un término nulo en a(a − 1) · · · (a − x + 1) se debe tomar b x ≤ a, y dado que n−x = 0 si n − x > b se debe tomar x ≥ n − b. Por tanto la suma parte de máx(0, n − b) y llega a mı́n(n, a) y realmente se tiene mı́n (n,a) X x=máx(0,n−b) Patricia Román Román a b a+b = x n−x n 25 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas Función de distribución: x < máx(0, n − (N − N1 )) 0 P N (1−p) Np [x] ( i )( n−i ) F (x) = N i=0 (n) 1 máx(0, n − (N − N1 )) ≤ x ≤ mı́n(n, N1 ) x > mı́n(n, N1 ) Función generatriz de momentos: Existe ∀t ∈ R porque la variable toma un número finito de valores. mı́nX (n,N1 ) MX (t) = e N1 tx x x=máx(0,n−(N −N1 )) N −N1 n−x N n No se conoce una forma funcional especı́fica. Media: E[X] = n N1 N En efecto, mı́nX (n,N1 ) EX = x N1 x x=máx(0,n−(N −N1 ) N −N1 n−x N n = mı́nX (n,N1 ) 1 N n x=máx(1,n−(N −N1 ) N1 − 1 N − N1 N1 = x−1 n−x haciendo x − 1 = k N1 = N n mı́n(n−1,N X 1 −1) k=máx(0,(n−1)−(N −N1 ) N − N1 N1 N − 1 nN1 N1 − 1 = N = k (n − 1) − k n−1 N n Varianza: Var[X] = n(N − n)N1 (N − N1 ) N 2 (N − 1) Para ello, calculemos en primer lugar el momento no centrado de orden dos; es decir E[X 2 ] = E[X(X − 1)] + E[X] Patricia Román Román 26 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas mı́nX (n,N1 ) E[X(X − 1)] = x(x − 1) N1 x x=máx(2,n−(N −N1 ) mı́nX (n,N1 ) N1 (N1 − 1) = N n x=máx(2,n−(N −N1 ) N −N1 n−x N n = N1 − 2 N − N1 = x−2 n−x haciendo x − 2 = k N1 (N1 − 1) = N n mı́n(n−2,N X 1 −2) k=máx(0,(n−2)−(N −N1 ) N1 − 2 N − N1 = k (n − 2) − k n(n − 1)N1 (N1 − 1) N1 (N1 − 1) N − 2 = = N n−2 N (N − 1) n E[X 2 ] = n(n − 1)N1 (N1 − 1) nN1 + N (N − 1) N de donde se deduce la expresión de la varianza. V ar[X] = n(n − 1)N1 (N1 − 1) nN1 n2 N12 n(N − n)N1 (N − N1 ) + − = 2 N (N − 1) N N N 2 (N − 1) EJERCICIOS 1.- Sea una baraja de 40 cartas. De ella se toma una muestra de 5 cartas sin reemplazamiento. Obtener la probabilidad de obtener al menos dos ases. Tenemos 40 cartas, de las cuales 4 son ases y se realiza un muestreo de tamaño 5 sin reemplazamiento. X: Número de ases en la muestra ∼ H(40, 4, 5) y se pide 4 36 4 36 P[X ≥ 2] = 1 − P[X = 0] − P[X = 1] = 1 − 0 5 − 40 5 1 4 40 5 = 0,06899 Con R los parámetros de la distribución hipergeométrica son: tamaño de la primera subpoblación (N1 ), tamaño de la segunda subpoblación (N2 ) y tamaño de la muestra. Ası́, la probabilidad pedida se calcula mediante phyper(1, 4,36,5,lower.tail=FALSE)=0.06899004. 2.- Una determinada empresa quiere aumentar su plantilla de vendedores en 20 personas y se presentan 40 personas al proceso de selección. Determinar la probabilidad de que, después de Patricia Román Román 27 ESTADÍSTICA DESCRIPTIVA E INTRODUCCIÓN A LA PROBABILIDAD Doble Grado en Ingenierı́a Informática y Matemáticas realizar todas las pruebas de selección, entre las 20 personas seleccionadas estén los 10 mejores de las 40 personas que se presentaron. Consideramos la variable aleatoria X: Número de los mejores vendedores entre los 20 seleccionados. X ∼ H(40, 10, 20) Nos piden 10 10 30 10 P[X = 10] = 40 20 = 0,000217 Con R, dhyper(10,10,30,20)=0.0002179599. Patricia Román Román 28