5. Distribuciones discretas -¿Qué tal van las clases, Bartolo? Me pregunta mi barbero. -Bien... Dando probabilidad y estadística... Respondo. -¡Ah! Probabilidad... Yo suelo jugar a la lotería... Dice mientras me pasa la cuchilla. -Cuando compro un número, tal y como yo lo veo, hay dos posibilidades: ganar o perder. De modo que tengo un 50% de probabilidad de ganar y un 50% de perder. -¡Muy bien, Ricardo! Respondo, mientras pienso que no es bueno 1 contradecir a nadie que tenga una navaja en mi cuello... Distribución de Bernoulli Experimento de Bernoulli: solo son posibles dos resultados: éxito o fracaso. Podemos definir una variable aleatoria discreta X tal que: éxito → 1 fracaso → 0 Si la probabilidad de éxito es p y la de fracaso 1 - p, podemos construir una función de probabilidad: 1− x P( x) = p (1 − p ) x x = 0,1 Un típico experimento de Bernoulli es el lanzamiento de una moneda con probabilidad p para cara y (1-p) para cruz. 2 1− x P( x) = p (1 − p ) x x = 0, 1 Función de distribución: 1 − p, para x = 0 F ( x) = 1, para x = 1 3 Ejercicio: Calcular la esperanza y la varianza de la distribución de Bernoulli. 1 E[ X ] = µ = ∑ x P ( X = x) = x =0 0 ⋅ P ( X = 0) + 1 ⋅ P ( X = 1) = p 1 Var ( X ) = E[ X ] − ( E[ X ]) = ∑ x P( X = x) − p 2 2 2 x =0 = 0 ⋅ P( X = 0) + 1 ⋅ P( X = 1) − p = 2 2 2 p − p = p (1 − p ) 2 4 2 Distribución geométrica Consideremos el siguiente experimento: Partimos de un experimento de Bernoulli donde la probabilidad de que ocurra un suceso es p (éxito) y la probabilidad de que no ocurra q = 1- p (fracaso). Repetimos nuestro experimento hasta conseguir el primer éxito. Definimos la variable aleatoria X, como el número de fracasos hasta que se obtiene el primer éxito. Entonces: G ( p ) = P( X = x) = (1 − p ) p, x = 0 ,1, 2 , ... x 5 p(x) G ( p) = P( X = x) = (1 − p ) p, x = 0 ,1, 2 , ... x x Función de distribución: n 1 E( X ) = p 1− p Var ( X ) = 2 p F (n) = ∑ (1 − p ) x p =1 − (1 − p ) n +1 x =0 6 La probabilidad de que una muestra de aire contenga una molécula rara es 0.01. Si se supone que las muestras son independientes respecto a la presencia de la molécula. Determine cuál es la probabilidad de que sea necesario analizar 125 muestras antes de detectar una molécula rara fx(125;0.01) = (1 − 0.01)125 −1 0.01 = 0.0029 Distribución binomial La distribución binomial aparece cuando estamos interesados en el número de veces que un suceso A ocurre (éxitos) en n intentos independientes de un experimento. P. ej.: # de caras en n lanzamientos de una moneda. Si A tiene probabilidad p (probabilidad de éxito) en un intento, entonces 1-p es la probabilidad de que A no ocurra (probabilidad de fracaso). 10 Experimento aleatorio: n = 3 lanzamientos de una moneda. Probabilidad de éxito en cada lanzamiento (cara) = p. Probabilidad de fracaso en cada lanzamiento (cruz) = 1- p = q. 3 p 2 (1 − p ) 3 p (1 − p ) 2 11 Supongamos que el experimento consta de n intentos y definamos la variable aleatoria: X = Número de veces que ocurre A. En nuestro ejemplo: X = Número de veces que sale cara. Entonces X puede tomar los valores 0, 1, 2, ... n. Si consideramos uno de estos valores, digamos el valor x , i.e. en x de los n intentos ocurre A y en n - x no. Entonces la probabilidad de cada posible n x n-x ordenación es p q y existen x idénticas 12 ordenaciones. La función de probabilidad P(X = x) será la distribución binomial: n x n! n− x x n− x B (n, p ) = p ( x) = p (1 − p ) = p (1 − p ) x!(n − x)! x Distribución binomial para n = 5 y distintos valores de p, B(5, p) 13 14 Características de la distribución binomial Media µ = E(X) = n p µ = 5 · 0.1 = 0.5 µ = 5 · 0.5 = 0.25 P(X) .6 .4 .2 0 n = 5 p = 0.1 X 0 1 2 3 4 5 Desviación estándar σ = np (1 − p ) σ = 5 ⋅ 0.1 ⋅ (1 − 0.1) = 0.67 σ = 5 ⋅ 0.5 ⋅ (1 − 0.5) = 1.1 P(X) .6 .4 .2 0 n = 5 p = 0.5 X 0 1 2 3 4 5 16 18 Tablero de Galton o quincunx Comprar un quincux: http://www.qualitytng.com/. Applets: http://www.jcu.edu/math/isep/Quincunx/Qui ncunx.html Quincunx Sir Francis Galton (1822-1911) La vida y la obra de Galton, así como el contexto histórico en que se desarrollaron, está muy bien explicado en el libro de Stigler: "The History of Statistics" (cap. 8). ¿Cuál es la probabilidad de que en una familia de 4 hijos exactamente 2 sean niñas? n x p( x ) = p (1 − p ) n − x x p = 0.5; n = 4; x = 2 4 2 p( 2) = 0.5 (1-0.5) 4 - 2 2 Si una décima parte de personas tiene cierto grupo sanguíneo, ¿cuál es la probabilidad de que entre 100 personas escogidas al azar, exactamente 8 de ellas pertenezcan a este grupo sanguíneo? ¿Y si la pregunta es 8 como máximo? n x p ( x ) = p (1 − p ) n − x x p = 0.1; n = 100; x = 8 100 8 p (8) = 0.1 (1-0.1)92 8 n x ≤ = p( x 8) ∑ p (1 − p ) n − x x =0 x 8 100 x = ∑ 0.1 ⋅ 0.9100− x x =0 x 8 20 Calcula la probabilidad de obtener al menos dos seises al lanzar un dado cuatro veces. n k n−k P(k ) = p q k (k = 0,1,....n) p = 1/6, q = 5/6, n = 4 Al menos dos seises, implica que nos valen k = 2, 3, 4. P(2) + P(3) + P (4) 4 1 5 4 1 5 4 1 = + + 2 6 6 3 6 6 4 6 2 2 3 4 1 171 = 4 (6 ⋅ 25 + 4 ⋅ 5 + 1) = = 0.132 6 1296 21 Supongamos que la probabilidad de encontrar una estrella de masa m* >10 M en un cúmulo estelar joven es del 4%. ¿Cuál es la probabilidad de que en una muestra escogida al azar, entre 10 miembros del cúmulo encontremos 3 estrellas con m* >10 M? n x p( x ) = p (1 − p ) n − x x p = 0.04; n = 10; x = 3 10 3 10 - 3 p( 3 ) = (0.04) (1-0.04) = 0.043 0.967 = 0.006 3 22 Chuck-a-luck: Elige un número entre 1 y 6. Lanzas 3 dados. Si el número que has elegido sale en los 3 dados cobras 3 euros. Si sale en 2 cobras 2 euros. Si sale en un dado cobras 1 euro. Y si no sale en ninguno, pagas 1 euro. ¿Es un juego justo? 3 1 µ = 3 6 3 1 + 1 6 1 3 3 1 5 5 ⋅ 3 + ⋅ 2 6 2 6 6 0 2 3 5 5 ⋅1 + ⋅ (−1) = −0.08 6 0 6 2 3 28 NACIMIENTO DE LA TEORIA DE PROBABILIDADES Hay dos jugadores jugando a un juego, donde el primer jugador gana con probabilidad p cada partida. El total de lo apostado es ganado por el jugador que gana por primera vez N partidas. Supongamos que el primer jugador ha ganado k partidas y el segundo j y se interrumpe el juego: ¿Cómo debe dividirse el total entre ambos jugadores? Debemos calcular la probabilidad de que el primer jugador gane N - k juegos, antes de que el segundo gane N - j. P= N − j −1 ∑ n =0 Blaise Pascal 1623 - 1662 N − k + n N −k p (1 − p ) n N −k De modo que el primer jugador debería llevarse un porcentaje P del premio y el segundo (1-P). 29 Distribución multinomial Podemos generalizar la distribución binomial cuando hay más de dos acontecimientos posibles (A1, A2, A3 ...) con probabilidades p1 , p2 , p3 ... constantes y tales que: ∑ pi = 1 i n! x3 x1 x2 p( x1 , x2 , x3...) = p1 . p2 . p3 .... x1! x2! x3!.. 30 Un método de diagnóstico tiene 3 resultados posibles: positivo (P), negativo (N) y dudoso (D). Se sabe que, en la población, el 10% de los sujetos son positivos, el 70% negativos y el resto dudosos. ¿Qué probabilidad hay de, en una muestra de 5 individuos, obtener exactamente 1 positivo, 1 negativo y 3 dudosos ? 5! 1 1 3 0.1 × 0.7 × 0.2 = 0.0112 p (1,3,1) = 1!.3!.1! 31 32 ¿Cómo simular de manera sencilla en el ordenador una variable aleatoria binomial X? Sumando n variables aleatorias independientes cuyos valores pueden ser 1 o 0, con probabilidad p y 1-p respectivamente. ¿Y cómo simular una distribución geométrica de parámetro p? Una manera es generar una secuencia de números aleatorios en [0, 1) con la función rnd, y paramos cuando obtengamos un número que no exceda a p, que es el equivalente al primer éxito. El problema es que si p es pequeño, en promedio se necesitan 1/p pasos de tiempo y se consume mucho 33 tiempo de cómputo. Una forma alternativa con tiempo de cómputo independiente del valor de p sería: Sea q = 1- p y definamos la variable Y como el menor entero que satisface: 1 − q ≥ rnd Y Entonces tenemos: i −1 P(Y = i ) = P (1 − q ≥ rnd > 1 − q ) i =q i −1 i −1 i −1 − q = q (1 − q ) = q p. i De modo que Y está distribuida geométricamente con parámetro p. 34 Para generar Y, basta con que despejemos de: 1 − q ≥ rnd Y Ln (1 − rnd ) Y = int Ln q 35 Un acontecimiento ocurre, en la población, en el 10% de los casos. ¿Qué tamaño de muestra debo tomar para tener una probabilidad del 95% de obtener al menos un éxito ? n 0.95 = ∑ pq x =1 x −1 q −1 = p⋅ q −1 n 0.9n − 1 0.95 = 0.1 ⋅ ⇒ 0.95 = −(0.9n − 1) ⇒ 0.95 = −0.9n + 1 0.9 − 1 ln 0.05 − 0.05 = −0.9 ⇒ ln 0.05 = n ln 0.9 ⇒ n = = 28.4 ≅ 29 ln 0.9 n 36 Distribución binomial negativa Consideremos el siguiente experimento: Partimos de un experimento de Bernoulli donde la probabilidad de que ocurra un suceso es p (éxito) y la probabilidad de que no ocurra q = 1- p (fracaso). Repetimos nuestro experimento hasta conseguir el r-ésimo éxito. Definimos la variable aleatoria X, como el número de fracasos x hasta que se obtiene el r-ésimo éxito. Entonces: El último tiene que ser un éxito. x + r − 1 r x p (1 − p ) , BN (r , p ) = P( X = x) = x x = 0 ,1, 2 , ... Se denomina binomial negativa porque los coeficiente provienen de la serie binomial negativa: p -x = (1-q ) -x 37 Distribución binomial negativa (de Pascal o de Pólya) La distribución binomial negativa también se puede definir como el número de pruebas x hasta la aparición de r éxitos. Como el número de pruebas x, en este caso, contabiliza tanto los éxitos como los fracasos se tendría según ésta definición que: x − 1 r p (1 − p )x − r , BN (r , p ) = P( X = x) = r − 1 x = r, r + 1, r + 2, ... E( X ) = r / p r (1 − p ) Var ( X ) = p2 38 Disponemos de una moneda trucada con probabilidad de cara igual a p=0.25. La lanzamos hasta que obtenemos 2 caras. La distribución del número de lanzamientos x será: x − 1 x−2 2 0.25 (1 − 0.25) , BN (r = 2, p = 0.25) = P( X = x) = 2 − 1 x = 2 ,3, 4, ... P(x) x 39 Una aeronave tiene 3 computadoras idénticas. Sólo una de ellas se emplea para controlar la nave, las otras 2 son de reserva, redundantes, por si falla la primera. Durante una hora de operación la probabilidad de fallo es 0.0005. – ¿Cuál es el tiempo promedio de fallo de las tres computadoras? – ¿Cuál es la probabilidad de que las 3 fallen durante un vuelo de 5 horas? a) = E ( x) 3= / 0.0005 6000h b) P ( x ≤ 5) = P ( X =+ 3) P ( X = 4) + P( X = 5) 3 4 3 0.0005 + 0.0005 (0.9995) + 0.00053 (0.9995) = 1.249 x10−9 2 2 3 Elegir al azar con reemplazo Elegir al azar con reemplazo significa que escogemos al azar un elemento de un conjunto y lo regresamos para elegir de nuevo al azar. Esto garantiza la independencia de las elecciones y nos lleva a una distribución binomial. Si una caja contiene N bolas de las cuales A son rojas, entonces la probabilidad de escoger al azar una bola roja es: p = A/N. Si repetimos el experimento sacando n bolas con reemplazo la probabilidad de que x sean rojas es: n A P( x) = x N x A 1 − N n− x ( x = 0,1,....n) (Una distribución binomial) 44 Elegir al azar sin reemplazo Elegir al azar sin reemplazo significa que no devolvemos el elemento elegido al azar al conjunto. De modo que las probabilidades de la siguiente elección dependen de las anteriores. Si repetimos el experimento anterior sacando n bolas sin reemplazo, ¿cuál será ahora la probabilidad de que x sean rojas? N Casos posibles = n Para calcular los casos favorables observa que: N = A + (N – A). De las A bolas rojas tomaremos x y de las N – A bolas no rojas tomaremos n – x. 45 Distribución hipergeométrica A = diferentes formas de tomar x bolas rojas de A x N − A = diferentes formas de tomar n − x bolas no rojas de N − A n−x A N − A Casos favorables = x n − x A N − A x n − x H (n, N , A) = P( x) = N n ( x = 0,1, ..., n) 46 Queremos seleccionar al azar dos bolas de una caja que contiene 10 bolas, tres de las cuales son rojas. Encuentra la función de probabilidad de la variable aleatoria : X = Número de bolas rojas en cada elección (con y sin reemplazo). Tenemos N = 10, A = 3, N - A = 7, n = 2 Escogemos con reemplazo: 2 3 p ( x) = x 10 x 7 10 2− x , p (0) = 0.49, p (1) = 0.42, p (2) = 0.09 Escogemos sin reemplazo: 3 7 x 2 − x p( x) = 10 2 21 3 p (0) = p (1) = ≈ 0.47 , p (2) = ≈ 0.07 45 45 47 Se debe seleccionar 2 miembros de un comité, entre 5, para que asistan a una convención. Suponga que el comité está formado por 3 mujeres y 2 hombres. Determine la probabilidad de seleccionar 2 mujeres al azar: Tenemos N = 5, n = 2, A = 3 y x = 2: 3 2 2 0 3 f (2) = = = 0.3 10 5 2 Hipergeométrica N = 24 X=8 n=5 x 0 1 2 3 4 5 P(x) 0.1028 0.3426 0.3689 0.1581 0.0264 0.0013 N = 240 X = 80 n=5 x 0 1 2 3 4 5 P(x) 0.1289 0.3306 0.3327 0.1642 0.0398 0.0038 Binomial n=5 p = 8/24 =1/3 P(x) 0.1317 0.3292 0.3292 0.1646 0.0412 0.0041 Error -0.0289 0.0133 0.0397 -0.0065 -0.0148 -0.0028 n=5 p = 80/240 =1/3 P(x) 0.1317 0.3292 0.3292 0.1646 0.0412 0.0041 Error -0.0028 0.0014 0.0035 -0.0004 -0.0014 -0.0003 Observa que si N, A, N-A son grandes comparados con n no hay gran diferencia en qué distribución empleemos. La distribución binomial es una aproximación aceptable a la hipergeométrica si n < 5% de N. 49 Distribución de Poisson Cuando en una distribución binomial el número de intentos (n) es grande y la probabilidad de éxito (p) es pequeña, la distribución binomial converge a la distribución de Poisson: −λ e λ , x = 0 ,1,2 , ... λ > 0 p( x) = x! x donde np = λ Observa que si p es pequeña, el éxito es un “suceso raro”. La distribución de Poisson, junto con la uniforme y la binomial, son las distribuciones más utilizadas. 51 Considera los siguientes experimentos: • El número de clientes que llegan a la ventanilla de un banco a la hora. • El número de pacientes que ingresan en un día por urgencias en un hospital. • El número de denuncias que se presentan diariamente en un juzgado. • El número de coches que circulan por una rotonda a la hora. Las v.a. definidas en los ejemplos anteriores comparten las siguientes características: • Todas ellas se refieren a contar el número de veces que un determinado suceso ocurre en un periodo de tiempo determinado. • La probabilidad de que dicho suceso ocurra es la misma a lo largo del tiempo. (si la unidad de tiempo es un día, la prob. de que el suceso en cuestión ocurra es la misma para hoy, para mañana, etc.) • El número de sucesos que ocurren en una unidad de tiempo es independiente del número de sucesos que ocurren durante cualquier otra unidad. Distribución de Poisson Definición: Consideramos una v.a. X que cuenta el número de veces que un determinado suceso ocurre en una unidad (normalmente de tiempo o de espacio). Si verifica: 1) la probabilidad de que el suceso estudiado se produzca en la unidad es constante a lo largo del tiempo. 2) El número de veces que ocurre un suceso durante la unidad considerada es independiente del número de veces que ocurre dicho suceso en otra unidad. 3) Si se considera una unidad inferior (superior), la probabilidad de que ocurra un determinado número de sucesos se reduce (aumenta) proporcionalmente. Entonces X es una v.a. que sigue una distribución de Poisson. Ejemplo: Sea X el número de clientes que han entrado en una tienda de alimentación a lo largo de un mes. Para poder suponer que X sigue una distribución de Poisson tendríamos que verificar que, 1) La probabilidad de entrar en la tienda es la misma a lo largo del periodo (suponemos entonces, que no han abierto/cerrado otras tiendas de la competencia, etc). Esto es equivalente a comprobar que el número medio de clientes en un mes es más o menos constante. 2) Además tiene que ocurrir que el número de clientes en un determinado mes, por ejemplo, octubre, sea independiente del número de clientes que hubo en otro mes, por ejemplo, septiembre. (En este caso sería suponer que no hay clientela fija). 3) Supongamos que el número medio de clientes es 400 al mes. Entonces si X es Poisson se ha de cumplir que el número medio de clientes a los dos meses es 800 y el número medio de clientes a la semana es 100. Características de la distribución de Poisson e − λ λx p( x) = Media µ = E (X ) = λ Desviación estándar σ = x! λ = 0.5 P(X) .6 .4 .2 0 X 0 λ Nota: el máximo de la distribución se encuentra en x ≈ λ , x = 0 ,1,2 , ... λ > 0 1 2 3 4 5 λ=6 P(X) .6 .4 .2 0 X 0 2 4 6 8 10 55 La distribución de Poisson se obtiene como aproximación de una distribución binomial con la misma media, para ‘n grande’ (n > 30) y ‘p pequeño’ (p < 0,1). Queda caracterizada por un único parámetro μ (que es a su vez su media y varianza). µ = σ = np = λ La distribución de Poisson es asimétrica, siendo en general más probables los valores pequeños de la variable que los mayores (normalmente se asocia a procesos que ocurren muy pocas veces). Sin embargo, si λ crece, la distribución tiende a la simetría. Distribución de Poisson para varios valores de µ. 56 El número medio de aviones que usan una pista de aterrizaje en un aeropuerto es 2 cada media hora. Suponiendo que siguen una ley de Poisson, ¿cuál es la probabilidad de que el número de llegadas sea 5 o mayor? ¿Cuál es la probabilidad de que en un cuarto de hora aterrizen más de 4 aviones? P(X ≥ 5) = 1 - [P(0) + P(1) + P(2) + P(3) + P(4)] = 1 - [e-2+2 ·e-2 +22 ·e-2/2 + 23 ·e-2/6 + 24 ·e-2/24] = .052. Sea Y el número de aviones que aterrizan en esa pista cada cuarto de hora. Entonces Y es una Poisson de parámetro 1. Por tanto, P( Y > 4) = P(Y ≥ 5) = 1 - [P(Y=0) + P(Y=1) + P(Y=2) + P(Y=3) + P(Y=4)] =1 - [e-1+1 ·e-1 +12 ·e-1/2 + 13 ·e1/6 + 14 ·e-1/24] = Si la probabilidad de fabricar un televisor defectuoso es p = 0.01, ¿cuál es la probabilidad de que en un lote de 100 televisores contenga más de 2 televisores defectuosos? La distribución binomial nos daría el resultado exacto: 100 99 c P( A ) = 0 100 100 100 99 1 100 99 1 + + 1 100 100 2 100 100 = 0.9206 99 n x n− x p( x) = p q x 98 ( x = 0,1,....n) El suceso complementario Ac: No más de 2 televisores defectuosos puede aproximarse con una distribución de Poisson con µ = np = 1, sumando p(0) + p(1) + p(2). −1 P( A ) ≈ e (1 + 1 + 12 ) = 0.9197 c μ x −μ p( x) = e x! ( x = 0,1,....) 58 2 59 Bombas sobre Londres en la II Guerra Mundial (Feller) Supón que vivías en uno de los 100 bloques que aparecen en la gráfica inferior. La probabilidad de que una bomba cayera en tu bloque era 1/100. Como cayeron 400 bombas, podemos entender el número de impactos en tu bloque como el número de éxitos en un experimento de Bernoulli con n = 400 y p = 1/100. Podemos usar una Poisson con λ = 400 × 1/100 = 4: 400 bombas e −4 4 x p( x) = x! Observado Predicho 10 x 10 60 Muertos por coz de caballo La explicación de cómo se interpreta la frecuencia acumulada queda mucho más clara si se tienen los datos desglosados por año y regimiento, tal como aparecen en la publicación original de Bortkiewicz. La tabla de la parte superior contiene los muertos por regimiento y año. En el regimiento G (primera fila) no murió nadie en el año 75, murieron 2 en el 76, otros 2 en el 77… En total hay 144 casillas que tienen un cero (una rayita), 91 casillas que tienen un 1, 32 casillas que tienen un 2… Para tener el valor medio de muertos por casilla hay que ver que el total de muertos es: 1×91+2×32+3×11+4×2=196. Como hay 280 casillas, el número medio de muertos por casilla es 196/280=0,7. Con este valor medio y aplicando la fórmula de la distribución de Poisson se tiene que: -Probabilidad de 0 muertos = 0,4966 -Probabilidad de 1 muerto = 0,3476 ; etc. Una vez se tienen las probabilidades, multiplicando por 280 se tienen los valores esperados. Cuando escribí el libro busqué los datos originales pero no los encontré. Reproduje la tabla tal como la vi en el texto de Bulmer, ahora veo que es muy parecida a la que aparece en el original (parte central de la página). Hay algo que no entiendo (mi alemán = 0): lo que parece la columna de valores esperados no coincide con los resultados que se obtienen. No sé si se está calculando otra cosa o hay algún error de cálculo o de redondeo. El texto completo se puede descargar aquí. Goles en la liga española Cuando escribí esto la última temporada de la que se tenían los datos completos era la 2008-09. El mejor resumen de resultados lo encontré en La Vanguardia del 1 de junio del 2009. También se tiene una buena aproximación si en vez de goles por equipo se toma como variable los goles por partido. Los datos y gráficos obtenidos, en formato Minitab, están aquí. Pere Grima, «La certeza absoluta y otras ficciones» RBA 61 El perímetro torácico de los soldados Las aportaciones de Quetelet y su estudio sobre el torax de los soldados están en el libro de Ian Hacking: "La domesticación del azar", cap. 13. La cita que se reproduce está en la página 164. [Arriba] Ley de Stigler de los Epónimos Stigler lo explica en el capítulo 14 de su libro: "Statisitcs on the Table". Hay una lista de ejemplos en la wikipedia: http://en.wikipedia.org/wiki/List_of_examples_of_Stigler%27s_law Pere Grima, «La certeza absoluta y otras ficciones» RBA 62 Relación entre las distribuciones Poisson y Binomial La distribución de Poisson es una aproximación de la distribución Binomial cuando n es muy grande y p es pequeño En estos casos, podremos usar tanto la distribución de Poisson como la binomial para calcular estas probabilidades. ¿Cómo? Veamos un ejemplo: La probabilidad de que en una página de un libro haya una errata es 0.02. ¿Cuál es la probabilidad que en libro de 200 páginas haya 3 erratas? Sea X = número de erratas en el libro. Lo podemos interpretar como una binomial, entonces X es B(200,0.02). Por tanto la prob. que nos piden: 200 0.023 × 0.98197 = 0.1973 P ( X = 3) = 3 También podríamos calcularlo usando la distribución de Poisson. Fíjate que E(X) = np = 200*0.02 = 4. En la distribución de Poisson, el parámetro λ representa la esperanza de la variable, por tanto, para calcular la aproximación, consideramos X sigue una distribución P(λ=4), Entonces: P ( X = 3) = 43 e −4 / 3!= 0.1954 Por tanto, una distribución binomial se puede aproximar por una distribución de Poisson (es decir, las prob. calculadas a partir de una u otra fórmula son muy parecidas) si n es grande (consideramos n grande si n es mayor que 100) y p pequeño, de manera que np < 10 Un proceso poissoniano es aquél compuesto de eventos discretos que son independientes en el espacio y/o en el tiempo. Por ejemplo la llegada de fotones a un detector. Usemos la distribución binomial para modelar el proceso. Podemos dividir el intervalo de tiempo en el que ocurre el proceso en n subintervalos suficientemente pequeños, como para asegurarnos que a lo sumo se produce un evento en cada subintervalo. De modo que en cada subintervalo, o se producen 0 o 1 ocurrencias. A lo sumo llega un fotón en cada subintervalo o ninguno. De modo que podemos entender el proceso como un experimento de Bernoulli. Para determinar p, podemos razonar de la siguiente manera: 66 En promedio se producirán λt ocurrencias en un intervalo de tiempo t. Si este intervalo se divide en n subintervalos, entonces esperaríamos en promedio (usando Bernoulli): np ocurrencias. Así: λt = np, p = λt / n. Sin pérdida de generalidad supongamos que t = 1 y que X es la variable aleatoria = número total de ocurrencias. Sabemos que: λ P( X = 0) = B(n, p,0) = (1 − p ) = 1 − n n n Observa que para n grande P(X = 0) es aproximadamente e-λ. Además para n grande (y por tanto p muy pequeño): λ − (k − 1) p λ B ( n, p , k ) = ≈ B(n, p, k − 1) k (1 − p ) k 67 B ( n , p ,0 ) = e Tenemos entonces la siguiente ecuación iterada: B ( n, p , k ) = −λ λ k B(n, p, k − 1) Que nos proporciona: P( X = 1) = B(n, p,1) = λe P( X = 2) = B(n, p,2) = −λ λ2 2 e −λ ... P( X = k ) = λk k! e −λ 68 La señal promedio recibida en un telescopio de una fuente celeste es de 10 fotones por segundo. Calcular la probabilidad de recibir 7 fotones en un segundo dado. Una distribución de Poisson con μ = 10. P(7) = 107 e−10 / 7! = 0.09, es decir μ x −μ p( x) = e x! ( x = 0,1,....) 9% Parece muy baja. Comparemos con el valor de máxima probabilidad que ocurrirá para x = 10: μ = 10 P(10) = 1010 x e−10 / 10! = 0.125, es decir 12.5% Las probabilidades poissonianas para un número de eventos dado, son siempre pequeñas, incluso en el máximo de la distribución de probabilidad. 69 Si en promedio, entran 2 coches por minuto en un garaje, ¿cuál es la probabilidad de que durante un minuto entren 4 o más coches? Si asumimos que un minuto puede dividirse en muchos intervalos cortos de tiempo independientes y que la probabilidad de que un coche entre en uno de esos intervalos es p – que para un intervalo pequeño será también pequeño – podemos aproximar la distribución a una Poisson con µ = np = 2. El suceso complementario “entran 3 coches o menos” tiene probabilidad: −2 2 0 0! P( A ) ≈ p (0) + p (1) + p (2) + p (3) = e ( + c y la respuesta es 1 – 0.857 = 0.143 22 2! + ) = 0.857 μ x −μ p( x) = e x! ( x = 0,1,....) 21 1! + 23 3! 70 El número de enfermos que solicitan atención de urgencia en un hospital durante un periodo de 24 horas tiene una media de µ = 43,2 pacientes. Unas obras en las instalaciones mermarán las capacidades de atención del servicio. Se sabe que colapsará si el número de enfermos excede de 50. ¿Cual es la probabilidad de que colapse el servicio de urgencias del hospital? Bajo las condiciones del modelo de Poisson, se trata de una distribución P(43,2). La probabilidad solicitada es Pr {X > 50} = 1 – Pr {X <= 50} = 1 - F(50) = 0.13. El responsable del servicio deberá valorar si esta probabilidad es lo suficientemente alta como para reforzar urgencias. Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p = 1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya más de 3 personas con dicha enfermedad. Calcular el número esperado de habitantes que la padecen. Consideremos la v.a. X que contabiliza el número de personas que padecen la enfermedad. Claramente sigue un modelo binomial, pero que puede ser aproximado por un modelo de Poisson, de modo que: Así el número esperado de personas que padecen la enfermedad es Existe una gran dispersión, y no sería extraño encontrar que en realidad hay muchas más personas o menos que están enfermas. La probabilidad de que haya más de tres personas enfermas es: Benford's Law The leading digit of a number represents its non-zero leftmost digit. 0,0174 299.959 + x ∈ ℜ , x = m ⋅10 , 1 ≤ m < 10 d ( x) = [m] n ·105 2,99959 [2,99959] = 2 1,74 ·10-2 [1,74] = 1 Simon Newcomb (1835-1909). Note on the frequency of use of the different digits in natural numbers. Amer. J. Math. 4 (1881) 39-40. Red bars: Leading digit histogram of a list of 201 physical constants in SI. d +1 P (d ) = log d Red bars: Leading digit histogram of a list of 201 physical constants in SI. Grey bars: Benford’s law Frank Benford The law of anomalous numbers. Proc. Am. Philos. Soc. 78 (1938) 551-538. Title 1 2 3 4 5 6 7 8 9 Sampls Rivers, Area 31.0 16.4 10.7 11.3 7.2 8.6 5.5 4.2 5.1 335 Population 33.9 20.4 14.2 8.1 7.2 6.2 4.1 3.7 2.2 3259 Constants 41.3 14.4 4.8 8.6 10.6 5.8 1.0 2.9 10.6 104 Newspapers 30.0 18.0 12.0 10.0 8.0 6.0 6.0 5.0 5.0 100 Specific Heat 24.0 18.4 16.2 14.6 10.6 4.1 3.2 4.8 4.1 1389 Pressure 29.6 18.3 12.8 9.8 8.3 6.4 5.7 4.4 4.7 703 H.P. Lost 30.0 18.4 11.9 10.8 8.1 7.0 5.1 5.1 3.6 690 Mol. Wgt. 26.7 25.2 15.4 10.8 6.7 5.1 4.1 2.8 3.2 1800 Drainage 27.1 23.9 13.8 12.6 8.2 5.0 5.0 2.5 1.9 159 Atomic Wgt. 47.2 18.7 5.5 4.4 6.6 4.4 3.3 4.4 5.5 91 , 25.7 20.3 9.7 6.8 6.6 6.8 7.2 8.0 8.9 5000 Design 26.8 14.8 14.3 7.5 8.3 8.4 7.0 7.3 5.6 560 Reader's Digest 33.4 18.5 12.4 7.5 7.1 6.5 5.5 4.9 4.2 308 Cost Data 32.4 18.8 10.1 10.1 9.8 5.5 4.7 5.5 3.1 741 X-Ray Volts 27.9 17.5 14.4 9.0 8.1 7.4 5.1 5.8 4.8 707 Am. League 32.7 17.6 12.6 9.8 7.4 6.4 4.9 5.6 3.0 1458 Blackbody 31.0 17.3 14.1 8.7 6.6 7.0 5.2 4.7 5.4 1165 Addresses 28.9 19.2 12.6 8.8 8.5 6.4 5.6 5.0 5.0 342 , 25.3 16.0 12.0 10.0 8.5 8.8 6.8 7.1 5.5 900 Death Rate 27.0 18.6 15.7 9.4 6.7 6.5 7.2 4.8 4.1 418 Average 30.6 18.5 12.4 9.4 8.0 6.4 5.1 4.9 4.7 1011 Probable Error A fin de proteger su privacidad, PowerPoint bloqueó la descarga automática de esta imagen. 5.761.455 primes 50.847.534 primes 455.052.511 primes 4.118.054.813 primes Red bars: Leading digit histogram of the prime number sequence in the interval [1,N]. Benford Generalizado L. Pietronero, E. Tossati, V. Tossati and A. Vespignani. Explaining the uneven distribution of numbers in nature: the laws of Benford and Zipf. Physica A 293 (2001) 297-304. d +1 P (d ) = log d Scale invariance Red bars: Leading digit histogram of a list of 201 physical constants in SI. Grey bars: Benford’s law P( x) ~ x 10 k ( d +1) ∫ 10 k d −1 10 ( d + 1) d +1 = log x dx = log k d 10 d −1 k Generalized Benford's Law (GBL) P( x) ~ x 10 k ( d +1) ∫ k 10 d x P(d ) = −α 1−α −α (10 ) dN = 1−α 1 1−α 10 k {(d + 1) { (d + 1) −1 α ≠ 1; d = 1, 2, ... ,9 lim P(d ) = 1 / 9 α →0 1−α 1−α −d −d 1−α 1−α } } 5.761.455 primes 50.847.534 primes 455.052.511 primes 4.118.054.813 primes Red bars: Leading digit histogram of the prime number sequence in the interval [1,N]. Red bars: Generalized Benford's law. 1 α (N ) = Ln N − a a = 1.1 ± 0.1 Why do prime number sequence exhibit this unexpected pattern in the leading digit distribution? New Pattern Found in Prime Numbers May 8th, 2009 By Lisa Zyga Physorg.com "Me esperaré a la película, a ver si entiendo algo :)" The Counting Prime Function π ( x) ≡ # of primes in the interval [ 2 ,x]. π(25) = 9. "For me, the smoothness with which this curve climbs is one of the most astonishing facts in mathematics." Don Zagier, "The first 50 million primes" Mathematical Intelligencer, 0 (1977) 1-19 The logarithmic integral function Li(x) Li ( x) = ∫ x 2 du Ln u "within the accuracy of our picture, the two coincide exactly." Don Zagier, "The first 50 million primes" Mathematical Intelligencer, 0 (1977) 1-19 Prime Number Theorem Valee Poussin and Hadamard (1896) x π ( x) ~ ln x lim x →∞ π ( x) x / ln x =1 God may not play dice with the universe, but something strange is going on with the prime numbers. Paul Erdös Modelo de Cràmer Conditions for conformance to GBL A fin de proteger su privacidad, PowerPoint bloqueó la descarga automática de esta imagen. Conditions for conformance to GBL Conditions for conformance to GBL The primes counting function L(N) N L( N ) = eα ( N ) ∫ x −α ( N ) dx cte eα ( N ) 1−α ( N ) L( N ) = N 1−α (N ) 1 with α ( N ) = Ln N − a Minimum for a = 1 105