Introducción a los Procesos de Poisson* Victor M. Pérez Abreu C. Departamento de Probabilidad y Estadística, CIMAT David Reynoso Valle Licenciatura en Matemáticas, DEMAT, Universidad de Guanajuato 22 de julio del 2010 Índice 1. Introducción 2 2. Propiedades de la distribución de Poisson 2.1. Aproximación de Poisson . . . . . . . . . . . . . . . . . . . . . . 2.2. Distribución de Poisson . . . . . . . . . . . . . . . . . . . . . . . 2 2 2 3. Proceso de Conteo 6 4. Proceso de Poisson Homogéneo 6 5. Algunas variables aleatorias de interés 5.1. Tiempos de llegada . . . . . . . . . . . 5.2. Tiempos entre llegadas . . . . . . . . . 5.3. Tiempo de próxima ocurrencia . . . . 5.4. Tiempo desde última falla . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 7 9 13 15 6. Simulación de un Proceso de Poisson 16 7. De…nición equivalente 16 8. Combinación de Procesos de Poisson 20 9. Proceso de Poisson compuesto 20 10.Proceso de Poisson no homogéneo 22 * Notas de la Primera Parte del curso impartido durante el Segundo y Tercer Verano de Probabilidad y Estadística, en julio de 2009 y 2010. 1 1. Introducción En estas notas se compila parte del material que se cubrió en el curso de Probabilidad I de las Licenciaturas en Matemáticas y en Computación de la Universidad de Guanajuato, en el semestre agosto-diciembre del 2008. Estas notas son un complemento al material de la primera parte del Curso de Procesos de Poisson del III Verano de Probabilidad y Estadística. Contienen material básico sobre Procesos de Poisson, el cual aparece en la mayoría de los textos que tratan este tema. El énfasis en estas notas es en el rigor de las de…niciones y las demostraciones detalladas de las principales propiedades de estos procesos, usando conceptos y resultados sencillos de probabilidad. Los autores agradecen de antemano los comentarios que los participantes puedan tener. Nuestro objetivo es terminar pronto una Notas de Introducción al Tema de Procesos de Poisson, dirigidas a alumnos que han tomado un primer curso de probabilidad en licenciatura. 2. 2.1. Propiedades de la distribución de Poisson Aproximación de Poisson La distribución de Poisson es un caso límite de la distribución binomial B (n; pn ) cuando la probabilidad de éxito es variable. Si una variable aleatoria X modela el número de éxitos obtenidos luego de n ensayos Bernoulli con probabilidad de éxito p > 0, entonces la probabilidad de tener k éxitos en n ensayos está dada por P (X = k) = n k p (1 k n k p) . Se dice entonces que X tiene distribución binomial de parámetros n y p (X B (n; p)). Si = E(X) = np se mantiene constante cuando n y p varían, tenemos que k para toda r ( ) = l m P (X = k) = n!1 ke (1) k! 0. (notemos que cuando n crece, p decrece). Ejercicio 1 Probar (1). Sugerencia: Recordar que l mn!1 1 + 2.2. x n n = ex . Distribución de Poisson De…nición 1 Una variable aleatoria X tiene distribución de Poisson P ( ) si toma valores enteros positivos y P (X = k) = k ( )= 2 ke k! k 0 donde puede tomar cualquier valor Ejercicio 2 Probar que si X > 0. P( ) 1. E (X) = . 2. V ar (X) = . 3. La función generadora de momentos de X P( ) t (t) = e (e 1) . En ocasiones es útil extender la de…nición de P ( ) para incluir los casos extremos 0 e 1. P (0) sería la distribución concentrada en el 0 P (X = 0) = 1, y P (1) la distribución concentrada en +1 P (X = +1) = 1. Una de las propiedades más importantes de la distribución de Poisson es su aditividad. Teorema 1 Si X y Y son variables aleatorias independientes con distribuciones P ( 1 ) y P ( 2 ), entonces X + Y P ( 1 + 2 ). Demostración. Ejercicio. Por inducción, podemos ver fácilmente que este resultado es cierto para cualquier suma …nita de variables aleatorias independientes. Además se tiene la siguiente propiedad importante. Ejercicio 3 Probar que la distribución de Poisson es in…nitamente divisible, esto es, dada una variable aleatoria X con distribución Poisson P ( ), para toda n > 0 podemos encontrar n variables aleatorias independientes X1 ; : : : ; Xn Pn con distribución Poisson P ( 1 ) ; : : : ; P ( n ) tales que i=1 Xi P ( ). 1 Teorema 2 (Teorema de Aditividad Numerable) Sea fXj gj=1 una sucesión de variables aleatorias independientes, donde Xj P ( j ) j = 1; 2; : : :. Si 1 X = j j=1 converge, entonces S= 1 X Xj j=1 converge con probabilidad P1 1 y S P ( ). Por otro lado, si j=1 j diverge, entonces S diverge con probabilidad 1. 3 Demostración. Por el Teorema 1, tenemos que Sn = n X Xj n X j. j=1 tiene distribución P ( n) donde n = j=1 Es fácil ver que 8n 1 fSn fS rg fSn+1 1 \ rg = rg, de donde fSn n=1 rg y por tanto1 P (S r) = = = = l m P (Sn lm n!1 lm n!1 r X k=0 Si n ! < 1, por ser r r) n!1 r X P (Sn = r) k=0 r X k ( n) k ( n) . k=0 lm n!1 ( ) continua tenemos que P (S r) = r X k ( ) k=0 y P (S = r) = r ( ). Por lo tanto S es …nita con distribución P ( ). Si n ! 1, P (S r) = r X k ( ) k=0 = e n r X k=0 k n k! ! 0. Entonces P (S > r) = 1. 1 Si An 2 F , n 1 y An # A, entonces P (A) = l mn!1 P (An ) 4 Como este resultado es cierto 8r probabilidad 1. 0, podemos concluir que S diverge con Luego de este resultado parece más natural haber de…nido P (0) y P (1). Con esta convención, si tenemos variables aleatorias independientes PXj con distribuciones P ( j ) respectivamente, su suma tiene distribución P ( j ), y esto es cierto sin importar que haya un número in…nito de ellas, incluso si algunos j son 0 o 1. Supongamos que X1 ; : : : ; Xn son variables aleatorias independientesPcon Xj P ( j ). Entonces S = X1 + +X j, Pn tiene distribución P ( ) con = y entonces, si r1 ; : : : ; rn son tales que rj = s tenemos que P (X1 = r1 ; : : : ; Xn = rn j S = s) = n Y rj j e e s! rj ! j=1 = s j s! r1 ! r1 1 rn n rn ! . Estas son las probabilidades de una distribución multinomial M (s; p1 ; : : : ; pn ), con pi = i . Para el caso en el que n = 2, tenemos que si X y Y son variables aleatorias Poisson independientes (X P ( 1) y Y P ( 2 )), dado que X + Y = m, la distribución condicional de X es B (m; p), donde p= E (X) . E (X) + E (Y ) Hay un resultado muy útil, que parecería ser el converso del anterior. Supongamos que N P ( ) ; y que la distribución condicional de M dado N es B (N; p) para alguna constante p. Esto es P (M = t j N = s) = Entonces, para m; k P (M = m; N s t p (1 t s t p) . 0, M = k) = = = = = = P (N = m + k) P (M = m j N = m + k) m+k e (m + k)! m+k m p (1 m p) k m+k e (m + k)! m k p (1 p) (m + k)! k!m! 1 m k e p e (1 p) m k p (1 p) k!m! k e p m pm e (1 p) k (1 p) m! k! m k p (1 p) e ( p) e ( (1 p)) . m! k! 5 Así, M y N M son variables aleatorias independientes Poisson con medias p y (1 p) respectivamente. 3. Proceso de Conteo De…nición 2 (Proceso de Conteo) Se dice que un proceso estocástico fN (t) ; t es un proceso de conteo si representa el número de eventos ocurridos hasta el tiempo t, esto es, satisface: i) N (0) 0. ii) N (t) toma valores enteros. iii) Es no decreciente, i.e. si s < t, entonces N (s) iv) Para s < t, N (t) el intervalo (s; t]. N (t). N (s) es igual al número de eventos que ocurrieron en La trayectoria de un proceso de conteo es la grá…ca (t; N (t)) para t 0: Las trayectorias se toman de tal forma de que sean continuas por la derecha y que tengan límite por la izquierda. 4. Proceso de Poisson Homogéneo De…nición 3 (Proceso de Poisson homogéneo) Una colección de variables aleatorias fN (t) ; t 0g (de…nidas en un espacio de probabilidad ( ; F; P)) se llama proceso de Poisson (homogéneo) con intensidad > 0 si satisface las siguientes propiedades: i) P(N (0) = 0) = 1, esto es, N (0) es siempre 0. ii) 8 (t 0<s<t s). N (t) N (s) tiene distribución de Poisson de parámetro iii) 8 0 t1 < < tn ; n 1 (es decir, para todo conjunto …nito de tiempos), las variables aleatorias N (tn ) N (tn 1 ); : : : ; N (t2 ) N (t1 ); N (t1 ), son independientes. Esta propiedad se conoce como propiedad de incrementos independientes. Observemos que 8t 0, la variable aleatoria N (t) tiene distribución de Poisson de parámetro t. Por (ii) tenemos que N (t) N (0) P ( (t 0)), y por (i) tenemos que N (0) 0, lo que nos dice que N (t) P ( t). Ahora, 80 < s < t tenemos por (ii) que N (t) N (s) P ( (t s)) y por lo anterior, N (t s) P ( (t s)): Podemos darnos cuenta entonces que la 6 0g distribución del incremento N (t) N (s) y la de la variable aleatoria N (t es la misma. Además esto nos dice que P(N (t) N (s) 0) = 1, pues P(N (t) N (s) 0) = 1 X P(N (t) s) N (s) = k) = 1, k=0 esto es, la distribución sólo depende de la longitud del intervalo t s. Esta propiedad se conoce como propiedad de incrementos estacionarios. Notemos además que esta propiedad nos garantiza que el proceso es no decreciente. 5. Algunas variables aleatorias de interés 5.1. Tiempos de llegada Podemos darnos ahora una idea de cómo se ven las trayectorias de un proceso de Poisson, y una pregunta que debemos hacernos es ¿qué distribución tienen los tiempos de llegada del proceso?, entendiendo por tiempos de llegada los tiempos en los que ocurre un éxito. Para poder ver la distribución de los tiempos de llegada, es necesario asociarles una variable aleatoria. Queremos que el tiempo del primer éxito sea el t más pequeño para el que N (t) = 1, esto es, podemos de…nir el tiempo del primer éxito como T1 = nf ft 0; N (t) = 1g . Ahora, queremos que dado un m 1 el m-ésimo tiempo de llegada sea el t más pequeño para el que N (t) = m, entonces podemos de…nir el tiempo del m-ésimo éxito de la misma forma que antes, pues el proceso es no decreciente, Tm = nf ft 0; N (t) = mg . La pregunta ahora es ¿son T1 ; T2 ; : : : ; Tm ; : : : variables aleatorias? Proposición 1 8t 0 y 8m > 0 tenemos que fTm tg = fN (t) mg. Demostración. Recordemos que fN (t) mg = f! 2 : N (t)(!) mg y fTm tg = f! 2 : Tm (!) tg. Sean t 0 y m > 0. Por de…nición Tm = nf fk 0 : N (k) = mg, esto es, para un ! 2 dado tenemos que Tm (!) = nf fk 0; N (k)(!) = mg. En particular N (Tm (!))(!) = m. Sea ! 0 2 fN (t) mg. Entonces N (t)(! 0 ) m ) N (t)(! 0 ) N (Tm (! 0 ))(! 0 ). Luego, como N (t) es no decreciente, tenemos que t fTm tg. ) fN (t) mg fTm tg. 7 Tm (! 0 ), es decir ! 0 2 Sea ! 0 2 fTm tg. Entonces Tm (! 0 ) es decir, ! 0 2 fN (t) t ) N (Tm (! 0 ))(! 0 ) ) m N (t)(! 0 ) ) fTm tg fN (t) mg. ) fTm tg = fN (t) mg N (t)(! 0 ) mg: Corolario 1 8m > 0 tenemos que Tm es una variable aleatoria.2 Ahora que ya vimos que los tiempos de llegada son variables aleatorias, veamos qué distribución tiene el primer tiempo de llegada. Proposición 2 T1 tiene distribución exponencial de parámetro Demostración. Como fT1 tg = fN (t) t) P(T1 lo que nos dice que T1 1g, = P(N (t) = 1 = 1 = 1 > 0.3 1) P(N (t) = 0) e t ( t)0 0! e t, E( ). Corolario 2 El tiempo esperado de la primera llegada es E(T1 ) = 1 . Proposición 3 La v.a. Tm tiene distribución G m; fTm (t) = 1 (m) m 1 e 0 2 Recordar t 1 . si t 0 . de otra forma de…nición de variable aleatoria. que Runa variable aleatoria X tiene distribución exponencial de parámetro > 0 si P (X x) = 0x f (t) dt, con f (t) = e t . 3 Recordemos 8 Demostración. De la proposición 1 tenemos t) P(Tm = P(N (t) = 1 = m) P(N (t) m X1 1 m 1) P(N (t) = k) k=0 = m X1 ( t)k 1 t e k! k=0 Derivando obtenemos fTm (t) d dt = = e m X1 k=0 = t e e ( t) k! m X1 ( t)k k! k=0 m 1 t = e = 1 (m) ( t) (m 1)! m m 1 t ! t m X1 k 1 k k=1 k k=0 = ( t)k k! ( t)k k! m X1 t e m X1 k=0 t e t m X1 ( t) k! ! k 1 ( t) (k 1)! k=1 ! m X2 ( t)k k! k=0 e que es la función de densidad de una v.a. con distribución G m; 5.2. . Tiempos entre llegadas De…nición 4 (Tiempo entre llegadas) t 4 = nf fs > t : N (s) Teorema 3 8n 1, las v.a. 1 , distribución exponencial E( ). 2, : : :, n N (t) = 1g son independientes y con la misma Demostración. Veamos primero el caso cuando n = 2. Queremos demostrar que 80 < s1 < s2 < 1 se tiene que P( 4 (¡!) 1 1 s1 ; 2 < s2 ) = P( Checar que esté bien de…nido... 9 1 s1 )P( 2 s2 ). P( 1 s1 ; 2 s2 ) = P(T1 s1 ; T2 T1 = P(T1 s1 ; T2 s2 + T1 ) = P(T1 s1 ; T2 s1 + s2 ) = P(N (s1 ) 1; N (s1 + s2 ) 2) 1 X P(N (s1 ) = k1 ; N (s1 + s2 ) = k1 =1 1 X = k1 =1 1 X P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 ) 1 X P(N (s1 ) = k1 ; N (s1 + s2 ) = k2 ) k1 =1 k2 =k1 +1 1 1 X X = 2) k2 =2 k1 <k2 1 X = s2 ) P(N (s1 ) = k1 ; N (s1 + s2 ) N (s1 ) = k2 k1 =1 k2 =k1 +1 por incrementos independientes P( 1 s1 ; 2 1 X s2 ) = 1 X P(N (s1 ) = k1 )P(N (s1 +s2 ) N (s1 ) = k2 k1 ) k1 =1 k2 =k1 +1 usando la propiedad de incrementos estacionarios P( 1 s1 ; s2 ) 2 1 X = 1 X P(N (s1 ) = k1 )P(N (s2 ) = k2 k1 =1 k2 =k1 +1 1 1 X X k1 ) P(N (s1 ) = k1 )P(N (s2 ) = k2 ) = k1 =1 k2 =1 = 1 X ! P(N (s1 ) = k1 ) k1 =1 = (1 = 1 P(N (s1 ) = 0) (1 e s1 1 1 X P(N (s2 ) = k2 ) k2 =1 ! P(N (s2 ) = 0) s2 e Hasta ahora hemos demostrado que 80 < s1 < 1 y 80 < s2 < 1 P( s1 ; 1 pero ya sabemos que T1 P( 1 s1 ; 2 s2 ) = 1 e s1 1 s2 e , (2) E( ), entonces 2 s2 ) = P(T1 s1 ) 1 e s2 = P( s1 ) 1 e s2 10 1 . k1 ) Del lado izquierdo de (2) tenemos l m P( 1 s1 "1 s1 ; s2 ) = P( 2 s2 ), 2 y como l m P(T1 s1 ) = 1, s1 "1 tenemos que P( s2 ) = 1 2 ) s2 e 80 < s1 < 1 E( ). 2 Entonces P( esto es, E ( ). 1 1 y 1 s1 ; 2 s2 ) = P ( s1 ) P ( 1 son independientes y tienen la misma distribución exponencial 2 Veamos ahora el caso para n 2. Supongamos que 1 ; 2 ; : : : ; n son independientes y que i n, esto es, 8 0 < s1 < s2 < < sn < 1 tenemos que P( 1 si ; 1 i n) = n Y ( n Y si ) = i i=1 Queremos demostrar que E( ). Sean 0 < s1 < s2 < P( s2 ) , 2 i s1 ; 1 i n + 1) 1; Ti = P (Ti 0 si + Ti = = P @Ti si ; 1 i n + 1) ;1 i n + 1) 1 i 1 X i X i sj ; 1 0 1 i X P @N @ sj A j=1 X <kn+1 X <kn+1 X <kn+1 11 0 i; 1 P @N @ 0 i X j=1 i 1 sj A 0 1 i X P @N @ sj A 0 1 n + 1A n + 1A i 0 n+1 1 j=1 0 1 k1 < sj ; 1 j=1 P @Ti 1 k1 < = 1 si + 0 1 k1 < = . 2 ; : : : ; n ; n+1 son independientes y que < sn < sn+1 < 1. Entonces P (Ti = si e i=1 = = 1 E( ) para i j=1 0 1 i X P @N @ sj A j=1 1 n + 1A ki ; 1 ki ; 1 i i 1 n + 1A n + 1A 0 1 i 1 X N@ sj A j=1 1 ki i 1 X j=1 kj ; 1 i 1 n + 1A por incrementos independientes P( s1 ; 1 i i n+1 Y X n+1) = 1 k1 < <kn+1 i=1 por incrementos estacionarios P( s1 ; 1 i i 0 0 1 i X P @N @ sj A n + 1) = j=1 P @N (si ) <kn+1 i=1 1 k1 < haciendo cambio de variable P( s1 ; 1 i i n + 1) = j=1 0 n+1 Y X 0 1 i 1 X N@ sj A 1 X n+1 Y ki j=1 P (N (si ) k1 ;:::;kn+1 =1 i=1 n+1 Y = 1 X i=1 n+1 Y = 1 kj A ki ) ! P (N (si ) k) k=1 (1 i 1 X P (N (si ) = 0)) i=1 n+1 Y = 1 si e i=1 Hemos demostrado hasta ahora que P( si ; 1 i i n + 1) = n+1 Y 1 si e i=1 y como por hipótesis tenemos que P( si ; 1 1 i n) = n Y 1 si e i=1 entonces P( i si ; 1 i n Y n + 1) = P( i ! si ) i=1 1 e sn+1 . Tomando límites de ambos lados l m P( s !1 i i si ; 1 i n + 1) = lm s !1 i n Y P( 1 i n i=1 1 i n P( n+1 sn+1 ) = 12 1 e sn+1 . i si ) 1 e sn+1 ki i 1 X j=1 1 kj A Por lo tanto, 8 n 1, las variables aleatorias 1 ; : : : ; tienen la misma distribución exponencial E ( ). n son independientes y No es difícil convencerse de que Tm = m X k, (3) k=0 entonces, como E ( ) = G 1; 1 y la suma de n variables aleatorias independientes con la misma distribución G (k; ) tiene distribución G (nk; ), tenemos que 1 Tm G m; . Ejercicio 4 Probar (3). 5.3. Tiempo de próxima ocurrencia De…nición 5 (Tiempo de próxima falla) Dado un tiempo t queremos estudiar el tiempo que tardaremos en tener otra falla. De…namos t := nf fs 0 ; N (s + t) N (t) = 1g como el tiempo de la primera falla a partir del tiempo t. Proposición 4 t tiene distribución exponencial E( ) independiente de t. Demostración. Sea g(s) = 1 P ( t s) = P ( t > s). Observemos que f t > sg = f t > t + sg 8 s < t. g(s + h) = P( t > s + h) = P( t > t + s + h) = P( t > t + s ; N (t + s + h) N (t + s) = 0) . El evento f t s + tg depende de lo que pasa hasta el tiempo t + s5 y por la propiedad de incrementos independientes, es independiente de lo que ocurre en el intervalo (t + s; t + s + h]. Esto nos dice que f t s + tg, y fN (t + s + h) N (t + s) = 0g son independientes, y por lo tanto f t > s + tg yfN (t + s + h) N (t + s) = 0g también lo son6 . Entonces tenemos g (s + h) = P( t > t + s) P (N (t + s + h) = P( t > s) P (N (h) = 0) = g(s)e h N (t + s) = 0) . 5 Esto es lo que se conoce como tiempo de paro. que si dos eventos A y B son independientes, entonces AC y B son independientes, A y B C son independientes y AC y B C son independientes. 6 Recordemos 13 Así, h g(s) e g(s + h) g(s) = h h y tomando límites nos queda que g 0 (s) = lm h g(s) e 1 h h!0 h e = g (s) l m 1 h h!0 = 1 g (s) . Sabemos que las únicas soluciones para g 0 (s) = s g (s) = ke g (s) son de la forma k 2 R; y también que g (0) = P ( t > 0) = 1. Entonces P( t s > s) = e , por lo tanto P( Esto es, 8t t t s) = 1 s e s > 0. tiene distribución exponencial E ( ). Proposición 5 Una variable aleatoria X con distribución exponencial de parámetro > 0, tiene la propiedad de pérdida de memoria. Esto es P (X > t + s j X > s) = P (T > t) . Demostración. Observemos que 8 t 0 t P (X > t) = e , pues tenemos que P (X Sean s; t t) = 1 t e . 0. Entonces P (T > t + s j T > s) = = = P (T > t + s ; T > s) P (T > s) P (T > t + s) P (T > s) (t+s) e = e s e t = P (T > t) . Por lo tanto X E ( ) tiene la propiedad de pérdida de memoria. 14 Proposición 6 Un proceso de Poisson de parámetro de pérdida de memoria. 5.4. > 0, tiene la propiedad Tiempo desde última falla De…nición 6 (Tiempo desde última falla) Dado un tiempo t queremos estudiar el tiempo que ha pasado desde la última falla. De…namos lt := nf fs 0 : N (t) N (t s) = 0g como el tiempo desde que ocurrió la última falla. Proposición 7 La distribución de lt es la siguiente: P (lt = t) = e P (lt s) = 1 t . e s 80 s < t. Demostración. Se deja como ejercicio checar que lt esté bien de…nida y es variable aleatoria. En el primer caso tenemos que P (lt = t) = P (N (t) N (t t) = 0) = P (N (t) = 0) = P (T1 = e t . En el segundo caso tenemos que si 0 P (lt t) s) = P (N (t) s<t N (t s) 1) y P (lt > s) = P (N (t) N (t s) = 0) = P (N (s) = 0) = P (T1 = e s s) , entonces P (lt s) = 1 e s Observemos que la distribución de la proposición anterior es tal que tiene un salto en t y de otra forma tiene densidad. Es un ejemplo de una distribución que tiene una parte discreta y otra parte continua. 15 6. Simulación de un Proceso de Poisson Proposición 8 Sean U U (0; 1) y > 0. Entonces 1 ln (1 x x 0 0. U) E ( ). Demostración. Queremos demostrar que 1 P 1 P ln (1 ln (1 U) x U) 1 0 = x x e = P (ln (1 U) x) = P 1 U e x = P U 1 e x . Recordemos que x 0 FU (x) = 0 x 1 en otro caso, entonces P U como queríamos. Por lo tanto 1 ln (1 1 U) e x = 1 0 e x x x 0 0, E ( ). La proposición anterior nos muestra un método para simular en una computadora una variable aleatoria con distribución E ( ) usando un generador de números aleatorios uniforme en (0; 1). Entonces, como en un proceso de Poisson Pm de parámetro > 0, m E ( ) y Tm = k=0 k , podemos simular los tiempos de llegada como una suma de variables aleatorias exponenciales E ( ). 7. De…nición equivalente De…nición 7 (Proceso de Poisson homogéneo) Una colección de variables aleatorias fN (t) ; t 0g es un Proceso de Poisson homogéneo de parámetro > 0 si: 1. P (N (0) = 0) = 1. 2. N (t) tiene incrementos estacionarios. 3. N (t) tiene incrementos independientes. 4. Para h pequeña: a) P (N (t + h) N (t) = 1) = h + o (h). 16 b) P (N (t + h) N (t) > 1) = o (h). Observaciones: La condición 4.a nos dice que la probabilidad de que ocurra exactamente un evento en un intervalo de tiempo pequeño, es "proporcional.a la longitud del intervalo. La condición 4.b nos dice que la probabilidad de que ocurran dos o más eventos en un intervalo de tiempo pequeño es despreciable. Teorema 4 Las de…niciones 3 y 7 son equivalentes. Demostración. Veamos primero que (3))(7). En la sección 4 vimos que de acuerdo con la de…nición 3, un proceso de Poisson homogéneo tiene la propiedad de incrementos estacionarios, esto es (3))(7.2) Falta ver que (3))(7.4). a) P (N (t + h) N (t) = 1) = P (N (h) = 1) = ( h) e = h h+ h e h 1 Luego, como lm h h e 1 h h!0 = lm e h h!0 1 = 0, tenemos que P (N (t + h) N (t) = 1) = h + o (h) . b) P (N (t + h) N (t) > 1) = P (N (h) > 1) 1 h X k e = ( h) k! k=2 y como k e lm h!0 ( h) hh k! h tenemos que lm h!0 esto es, = l m hk k! h!0 1 X k ( h) k=2 P (N (t + h) 1 e hk =0 k h e k! = 0, N (t) > 1) = o (h) . 17 2 Por lo tanto (3))(7). Veamos ahora que (7))(3). Falta ver que (7))(3.ii). De…namos una función f (t; n) := P (N (t) = n) . Veamos que f (t; 0) = e f (t + h; 0) h . = P (N (t + h) = 0) = P (N (t) = 0 ; N (t + h) = P (N (t) = 0) P (N (t + h) = f (t; 0) (1 P (N (t + h) = f (t; 0) (1 (P (N (t + h) = f (t; 0) (1 (( h + o (h)) + o (h))) = f (t; 0) (1 ( h + o (h))) = f (t; 0) (1 h + o (h)) . N (t) = 0) N (t) = 0) N (t) 1)) N (t) = 1) + P (N (t + h) Tenemos entonces lm h!0 f (t + h; 0) h f (t; 0) f 0 (t; 0) = f (t; 0) ( lm h!0 = h + o (h)) h f (t; 0) , de donde f (t; 0) = e t . Notemos que 8n > 1 d f (t; n) = dt (f (t; n 18 1) f (t; n)) . N (t) > 1))) f (t + h; n) = P (N (t + h) = n) n X = P (N (t) = n k ; N (t + h) = k=0 n X P (N (t) = n N (t) = k) k) P (N (t + h) N (t) = k) k=0 = P (N (t) = n) P (N (t + h) N (t) = 0) + P (N (t) = n n X + P (N (t) = n k) P (N (t + h) N (t) = k) 1) P (N (t + h) k=2 = f (t; n) (1 P (N (t + h) N (t) 1 X e t n k o (h) ( t) + (n k)! 1)) + f (t; n 1) ( h + o (h)) k=2 = f (t; n) (1 (P (N (t + h) + h f (t; n = f (t; n) (1 N (t) = 1) + P (N (t + h) N (t) > 1))) 1) + o (h) (( h + o (h)) + o (h))) + h f (t; n = f (t; n) + h (f (t; n 1) 1) + o (h) f (t; n)) + o (h) . Entonces lm h!0 f (t + h; n) h f (t; n) d f (t; n) dt Veamos ahora que 8n d dt n+1 ( t) e t (n + 1)! = = lm h (f (t; n 1) f (t; n)) + o (h) h h!0 (f (t; n 1) t n e 0, f (t; n) = ( t) n! f (t; n)) . . n+1 = d n+1 t e (n + 1)! dt t n+1 = = (n + 1)! ( t) n (n + 1) tn e t e n! t n+1 ( t) tn+1 e t e t (n + 1)! Luego, por el Teorema de Existencia Unicidad de solución de ecuaciones diferenciales, tenemos el resultado. Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parámetro (de acuerdo con las de…nición (3). ) Las dos de…niciones son equivalentes. 19 N (t) = 1) 8. Combinación de Procesos de Poisson Teorema 5 Sean fN1 (t) ; t 0g y fN2 (t) ; t 0g procesos de Poisson independientes con parámetros 1 y 2 respectivamente. Sea N (t) = N1 (t) + N2 (t) ; t 0. Entonces fN (t) ; t 0g es un proceso de Poisson de parámetro 1 + 2. Demostración. ClaramentePN (0) 0. Pn n Recordemos que si Sn = i=1 Xi y Xi P ( i ), entonces Sn P ( i=1 i ). Entonces 8t 0 tenemos que N (t) P (t ( 1 + 2 )). Recordemos también que si tenemos fAi g y fBi g dos sucesiones de variables aleatorias independientes, independientes entre sí, entonces fAi + Bi g es una sucesión de variables aleatorias independientes. Esto nos dice que N (t) tiene incrementos independientes, pues dados t0 = 0 < t1 < t2 < < tn tenemos que fNi (tj ) Ni (tj 1 ) ; j = 1; : : : ; ng i = 1; 2 son independientes, y por tanto N (tj ) N (tj 1 ) ; j = 1; : : : ; n también lo son. Por lo tanto fN (t) ; t 0g es un Proceso de Poisson de parámetro 1 + 2 . Corolario 3 Sean fN1 (t) ; t 0g ; fN2 (t) ; t 0g ; : : : ; fNn (t) ; t 0g procesos de Poisson con parámetros 1 ; 2 ; : : : ; n respectivamente. Pindependientes n Sea N (t) = N (t) ; t 0. Entonces fN (t) ; t 0g es un proceso de k=1 kP n Poisson de parámetro k=1 k . 9. Proceso de Poisson compuesto De…nición 8 (Proceso de Poisson Compuesto) Sea fXi gi 1 una sucesión de variables aleatorias independientes idénticamente distribuidas e independientes del proceso de Poisson fN (t) ; t 0g de parámetro . El proceso N (t) X (t) = X Xi i=1 se llama proceso de Poisson compuesto. Teorema 6 Sea fN (t) ; t 0g un proceso de Poisson de parámetro . Supongamos que cada llegada es de tipo 1 con probabilidad p1 o de tipo 2 con probabilidad p2 = 1 p1 , independiente de las demás llegadas. Sea Ni (t) el número de llegadas del tipo i hasta el tiempo t. Entonces fN1 (t) ; t 0g y fN2 (t) ; t 0g son procesos de Poisson independientes con parámetros p1 y p2 respectivamente. 20 Demostración. Sea f k gk parámetro p1 . Entonces 0 una sucesión de variables aleatorias Bernoulli de N (t) N1 (t) = X k k=1 y N (t) N2 (t) = X (1 k) = N (t) N1 (t) . k=1 Es claro que N1 (t) y N2 (t) tienen incrementos independientes y estacionarios, pues N (t) los tiene. Además también es fácil darse cuenta de que P (Ni (t + h) o (h), pues P (N (t + h) N (t) > 1) = o (h) y Ni (h) = s ) N (t) s. Veamos que para h pequeña P (N1 (t + h) N1 (t) = 1) = p1 h + o (h). 0 1 N (t+h) N (t) X X A P (N1 (t + h) N1 (t) = 1) = P @ k k =1 0 k=1 k=1 1 N (t+h) = P@ X = 1A k N (t)+1 = P (N (t + h) N (t) = 1 ; = P (N (t + h) 0g y fN2 (t) ; t ( h + o (h)) p1 = p1 h + o (h) . s1 ; N2 (t) s2 ) = 1) k = 1) N2 (t) = 1) = p2 h + o (h). 0g son Procesos de Poisson con parámetros p1 y p2 . Veamos ahora que son independientes. Sea t P (N1 (t) k N (t) = 1) P ( = Similarmente podemos ver que P (N2 (t + h) ) fN1 (t) ; t Ni (t) > 1) = = = s1 X 0 y s1 ; s2 2 R. P (N1 (t) = k1 ; N2 (t) k1 =0 s1 X s2 X s2 ) P (N1 (t) = k1 ; N2 (t) = k2 ) k1 =0 k2 =0 como sabemos que N1 (t) + N2 (t) = N (t) P (N1 (t) = k1 ; N2 (t) = k2 ) = P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) P (N (t) = k1 + k2 ) y P (N1 (t) = k1 ; N2 (t) = k2 j N (t) = k1 + k2 ) = 21 k1 + k2 k1 k2 p1 p2 k1 entonces P (N1 (t) s1 ; N2 (t) s2 ) s2 s1 X X = = = = e t k1 + k2 k1 k2 k +k p1 p2 ( t) 1 2 k1 (k1 + k2 )! k1 =0 k2 =0 s2 s1 X X k1 =0 k2 =0 s2 s1 X X k1 =0 k2 =0 s2 s1 X X 1 k k pk1 ( t) 1 pk22 ( t) 2 e k1 !k2 ! 1 ( p1 t) k1 p1 t e k1 ! = P (N1 (t) = k1 ) k1 =0 = k2 e p2 t k2 ! P (N1 (t) = k1 ) P (N2 (t) = k2 ) k1 =0 k2 =0 s1 X ( p2 t) (p1 +p2 )t P (N1 (t) ! s1 ) P (N2 (t) Por lo tanto fN1 (t) ; t 0g y fN2 (t) ; t dependientes con parámetros p1 y p2 . s2 X ! P (N2 (t) = k2 ) k2 =0 s2 ) . 0g son procesos de Poisson in- Corolario 4 Sea fN (t) ; t 0g un proceso de Poisson de parámetro . Sea 1 fXk gk=1 una sucesión de variables aleatorias independientes con la misma disn tribución discreta fpk gk=1 . Supongamos que cada llegada es de tipo i con probabilidad pi , independiente de las demás llegadas. Sea Ni (t) el número de llegadas del tipo i hasta el tiempo t. Esto es N (t) Ni (t) = X i Xk k=0 donde ij = 0 1 si i 6= j si i = j. Entonces fN1 (t) ; t 0g ; : : : ; fNn (t) ; t 0g son procesos de Poisson independientes con parámetros p1 ; : : : ; pn respectivamente. 10. Proceso de Poisson no homogéneo De…nición 9 (Proceso de Poisson no homogéneo con intensidad (t)) Una colección de variables aleatorias fN (t); t 0g se llama proceso de Poisson no homogéneo con intensidad (t) si satisface las siguientes propiedades: a) P(N (0) = 0) = 1. 22 b) N (t) tiene incrementos independientes. k e c) 8 0 < s < t se tiene que P (N (t) N (s) = k) = ( (t) (s)) k = 0; 1; 2; : : :. Esto es N (t) N (s) P ( (t) (s)), donde decreciente y (0) = 0. ( (t) (s)) k! (t) es no Veamos la distribución del tiempo del primer evento (T1 ) en un proceso de Poisson de intensidad (t). P (T1 t) = P (N (t) = 1 P (N (t) = 0) 1) = 1 e (t) FT1 (x) = 1 e (t) . Esto es Si (t) es diferenciable en t con derivada fT1 (t) = (t) e . (t), entonces (t) . Notemos que un Proceso de Poisson homogéneo es un caso particular de un Proceso de Poisson no homogéneo, tomando (t) = t. En general es usual proponer Z t (t) = (s) ds, 0 donde (s) 0 8 s. 23