Algunas generalizaciones de ^as distribuciones de Poisson y gamma

Anuncio
ESTADISTICA ESPAÑOLA
Vol. 31, Núm. 120, 1989, págs. 63 a 74
Algunas generalizaciones de ^as
distribuciones de Poisson y gamma
por
^
ALBERTO LUCENO VAZQUEZ
Departamento de Matemática Aplicada y Ciencias de la Computación
Universidad de Cantabria
Avda. de los Castros s/n. - 39005 SANTANDER
RESUMEN
EI punto de partida de este artículo lo constituye uno de los
métodos de generación de las distribuciones de Poisson y gamma. En este método se hacen cuatro hipótesis sobre la forma de
presentarse los sucesos de interés a lo largo del tiempo y se
definen dos variables aleatorias, a saber: el número de sucesos
que ocurren en un intervalo de tiempo dado y el tiempo necesario para observar un número dado de sucesos, cuyas distribuciones respectivas resultan ser de Poisson y gamma.
A lo largo del artículo se analizan los modelos que se obtienen
al suprimir una o más de las cuatro hipótesis mencionadas y se
deducen las distribuciones de las variables aleatorias de interés
bajo los nuevos supuestos, las cuales constituyen generalizaciones de las distribuciones de Poisson y gamma. Conviene resaltar
que todo el estudio se realiza dentro de un esquema metodológico único, lo que pone al descubierto los matices más transcendentales de cada una de las hipótesis realizadas. También se
proporcionan algunos campos de aplicación de los modelos considerados.
Palabras clave: Proceso puntual, proceso de Poisson, proceso de
renovación, distribuciones, tasa de ocurrencia de sucesos,
tiempo entre sucesos.
Clasificación A MS.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9.
E 5 T-^^ [)I^ T li ^[.^F'-^1C)[ >
1. INTRODUCCIoN
La distribucián de Poisson se presenta en muchas situaciones
prácticas af definir una variable aleatoria com© el resultado de contar el
número de sucesos de un determinado tipo, x, que ocurren en un intervalo de
tiempo de longitud dada, t. Para ello, se hacen las siguientes hipótesis:
a. - En un intervalo pequeño de tiempo, dt, la probabilidad de que
ocurra un suceso es:
P(At;i)=a•dt +o(ót)
donde a as la tas2^ de ocurrencia de sucesos y©(^ t) es un
infinitésimo de orden superior a dt cuando et tiende a 0.
b.- ^a tasa de ocurr^encia es constante en el tiempo (o,^).
c.-
La probabilidad . de que en un intervalo pequeño de tiemp©, con
longitud et, ocurra m^s de un suceso es prácticamente nula; o más
COnCretament8 o(St).
d.-
EI número de sucesvs que ocurren en dos intervalos de tiempo
disjuntos, son variables aleatorias independientes.
Bajo estas hipátesis se obtiene la funcián de probabilidad de
Poísson de parámetro ^., como distribución del número de sucesos que
ocurren en un intervalo de tiempo dado, que tiene p©r expresión:
x
P(t;x)=e-^ ^^
x.
,
x=0,1,2,...
. (1)
donde ^= ac t y P(t ; x} es la probabilidad de ^que ocurran x sucesos en un
intervafo de tiempo de longitud t.
Si en este contexto se considera la variable aleatoria que mide el
tiempo necesario, c, para que ocurra un número dado de sucesos, x, aparece
la distribución Gamma de parámetros (x,ac} cuya funcián de densidad es:
f ( x-t
, ) = ^(^t}^rl^_^
(X_l^i
t>0
Aunque este modeio es útil en numerasas aplicaciones, ©curre a
veces que tas hipótesis realizadas son excesivamente restríctívas para
describír de forma adecuada la situación práctica qu^: se desea estudiar.
Sin embargo, alguna generalización del modelo podría ser adecuada. Ello
ha atraido e! interés de muchos investigadores y ha motivado la aparición
de una abundante bibliografía sobre el tema, entre la que, rehuyendo la
pretensión de ser exhaustivo, podría citarse la siguiente: respecto a los
procesos puntuales, procesos de Poisson homogéneos y no homogénec^s y
procesos de renovación, los trabajos de CO^ ^ 1 962), COX e ISHAM
(1980), COX y LEWIS (1 966), KARR { 1 986), LEWIS ed. (1 ^ 7^), PARZEN
(1972) y SNYDER (1975); respecto a las aplicaciones m^^ s conocidas, I©s de
ASCHER y FEINGOLD {1984), BARl..OW y Pf^OSCHAN (197'S), RARTOS,^YNS^ KI,
BROWN, Mc BFiIDE y THOMPSON (1981), CROW (1974), GAIL, SANTNER y
^L_(;(.^ti ^S (^^^ti^^R.^^LI1r^^C^l(^tiES ^E [_^^S DlS^^f?!h^ C^lt^^^.f ^ DF FC)ISSOV^ y ( ,a^^1!^1^
BR4WN (1980), HECKMAN y SINGER ( 1985) y TUMA y HANNAN ( 1984) y, en
cuanto a publicaciones de caracter general con incidencia en el tema, los de
BILLINGSLEY ( 1968), BREMAUD (198^4), CASTILLO (1978), FELLER ( 1968),
I-^AIGHT (1967), JOHNSON y KOTZ ( 1969) y(1970) y MOOD , GRAYBILL and
BOES (1976}. EI objetivo de este trabajo es analizar las principales lineas
en las que puede Ilevarse a cabo la generalización del modelo, para lo cual,
será necesario utilizar algunos desarrollos conocidos por la bibliografía
con el propósito de mantener la unidad y continuidad del esquema
metodológico usado,
En los apartados 2, 3 y 4 se analiza lo que ocurre cuando se suprime la
hipótesis b, es decir, cuando la tasa de acurrencia de sucesos no es
constante, sino que está dada por una función del tiempo que se designará
por a(t); en el apartado 3 sólamente se suprime la hipótesis b, mientras que
en el 4 se suprime además la hipótesis d. En el apartado 5 se generaliza la
distribución de Poisson mediante composición con otras distribuciones que
pueden ser continuas o discretas; el segundo de estos casos permite
estudiar un modelo que resulta de eliminar. la hipótesis c. En el apartado 6
se discute un modelo que resulta al eliminar exclusivarnente la hipótesis d
y en el 7 se analiza la posibilidad de combinar los diferentes casos
estudiados.
2. TASA DE OCURRENCIA VARIABLE: CONDICIONES DEL EXPERIMENTO
En el caso de que la tasa de ocurrencia sea variable es necesario
especificar lo que ocurre en el instante en que se produce cada suceso. En lo
que sigue se supondrá que se verifica una de las dos condiciones siguientes:
1^. La variación de la tasa de ocurrencia a lo largo del tiernpo se
produce de acuerdo con la función a(t), sin verse alterada por la
ocurrencia de sucesos.
2^. La ocurrencia de un suceso en el instante t= t' tiene como
consecuencia que la tasa de ocurrencia para tiempos posteriores a
' varíe según a(t-t'). Es decir, a(t) comienza de nuevo a partir de
a(0) cada vez que se produce un suceso.
Ejemplos de la primera condición se dan en fiabilidad, cuando los
sucesos son fallos de un item dado que se repara inmediatamente. También
ocurre esta condición cuando se observan fenómenos naturales, como la
ocurrencia de temporales o de inundaciones a lo largo de un período largo de
tiempo.
Ejemplos de la segunda condición aparecen en fiabilidad, cuando los
sucesos son fallos de un item dado que se sustituye por otro nuevo e
idéntico cada vez que se produce un fallo del item que se est^ usando.
^[)ItiII ^ ^ t^^ f'-1ti(^1 -1
E1 análisis
condición válid2t.
es diferente dependiendo de cual sea la
estadistico
3. CONDICION PRIMERA: LA OCURRENCIA DE LOS SUCESOS NO
ALTERA EL DESARROLLO DE a(t} A LO LARGO DE1. TIEMPO
3.1. Distribución de/ número de sucesos que ocurren en un intervalo de
tiempo dada
Este caso es el más parecido al de tasa de fallo constante. EI
razonamiento se basa en considerar el intervalo {O,t+et] como la unión de los
intervalos disjuntos (O,t] y(c,t+dt], y aplicar el teorema de la probabilidad
total para determinar la prababilidad de que ocurran x sucesos en dicho
intervalo de tiempo.
EI teorerna de la probabilidad total junto con la hipótesis d de !a
introducción permite poner:
x
P(t+ et;x) _^ P(t;x-- k) P(et;k>
k^
Despreciando infinitésimos de orden superior a et y
hipótesis c, la expresián anterior se reduce a:
P(t+ ^1t;x)=P(t;x)P(at;0)+P(t;x- i)P(dt;l)
usando la
y debido a la hipótesis a se tiene:
.
P(dt;0)=1-a(t}dt
P(dt; 1)=a (t) et
de donde:
P(t+dt;x)-P(t;x) =
^(t)[P(t;x-i)-P(c;x)]
et
Tomando el límite cuando ec^0 resulta:
dP(t;
dt x) _a ( t} [P ( t;x -- i)- P(t; x)]
que para x=0,i,2,... constituye un sistema de ecuaciones diferenciales cuyas
condiciones iniciales son: P(0 ; 0)=1 y P(0 ; x)=0 para x=1,2,... y, por supuesto,
P(t ; - i)^.
La sotución de este sistema de ecuaciones es:
x
P(t;x)=ci^t^ ^(r) , con 1^(t)= jt oc(t)dt , x=0,1,2,_.
x.
0
Es decir, fijado un intervalo de tiempo ( O,t^, la variable aleatoria que
resulta al contar el número de sucesos que ocurren en dicho intervalo tiene
distribución de Poisson a pesar de ser variable la tasa de ocurrencia de
sucesos. Sin embargo, el valor promedio de ^.(t) en el intervalo (O,t]:
x{t)=^(`}=1 j`«(t}dt
t
t p
->I (,[ ti•>ti (^[ ti[ [t•^I I/^( I()^^[ ti [)E [ ^^, [)ItiTRlt31 ( [c^ti[ ti [)[ ['(^l^ti()^ 1 (,•1ti1ti1•^
pasa a ser función de la variable t, a diferencia del caso de tasa constante
en el que se verifica T= a. Este hecho debe ser tenido en cuenta cuando se
utilizan datos correspondientes a intervalos de tiempo (o,c] de distinta
longitud.
La función característica correspondiente a la función de probabilidad
P(t ; x) eS:
•
cpi(u)=exp(7^(t ) [exp(iu)- 1]} , con ^.(t)= j^ a(t) dt
0
3.2. Distribución de/ tiempo necesario para observar un número dado de
sucesos
Designaremos por T; a la variable aleatoria que mide el tiempo que
transcurre desde que ocurre el suceso ( i-1)-ésimo hasta que ocurre el suceso
i-ésimo y por T(z) el tiempo necesario para observar x sucesos. Es claro que:
x
T( )-- ^ Ti
i=1
x
La distribución de T(x) puede hallarse usando el siguiente
razonamiento: EI suceso T(x) <_ t( donde t es dado) ocurre, si y solo si, ocurre ,
el suceso x^ >_ x siendo x^ la variable aleatoria que cuenta el número de
sucesos que ocurren en el intervalo de tiempo (o,t]. Por tanto, Prob(T^x) S t)_
Prob(X^ _> x), es decir, la función de distribución de T(x) se obtiene a partir de
la de x^ mediante la relación:
FT(^)(t )= 1- FXt(x - 1)
(2)
donde:
FX (x _ 1)= ^~1
^ P(t ,k)= e ^^^^ ^-t
^ ^(t)^
^
L
1c=0
r=0 k
siendo:
7^(t)= j^ oc(t)dt^--L.n[1-FT (t)]
o
^
y suponiendo que la función a(t) es tal que la integral díverge cuando c-^^.
La distribución de T(x) definida por FT^^)(t) es una generalización de la
distribución Gamma(x,a) y, teniendo en cuenta la relación existente entre
las funciones de distribución de Poisson y Chi-cuadrado:
Prob [ Poisson ( ^, ) < x -- l ] = 1- Prob [ Chi - cuadrado ( 2 x ) <_ 2 ^, ]
puede obtenerse la siguiente expresión alternativa de FT(^)(t):
FT (t)=F 2
2 j^a(t)dt
x c2X)
( x)
o
donde Fx2(2,^)(t) es la función de distribución Chi-cuadrado con 2x grados de
libertad en el punto t.
f^x
k ^ ^ ^[}Iti^1 I^ ^ k ^f' ^ ^t ^l ^
tnteresa resaitar que las variables aleatorias T^) y T^+^=Tb+1)-T^) no son
independientes en este caso, ya que el valor que tome la primera determina
ei trozo de la función a(c) sobre el que tendrá lugar la realización de Tj ♦ 1.
La distribución condicionada de T^ ♦ x^ dado que Tu)=s está dada por ia
ecuación (2), con tai de trasladar el origen de tiempos al instante s y
cambiar el número de sucesos j+x por x. Es decir:
_
^T
<^+^)
/(T
(^)
=s}(t)
i
_ -^(c,s> ^-1[^ ( t, s )]^
c
^
k^
k=o
donde:
^(t, S)'^s+c a(t) dt=^{t+ s)-^(s)
4. CONDICIUN SEGUNDA: AL OCURRIR UN SUCES^J, LA FUNCION oc(t)
VUEEVE AL 4RIGEN ,
En este caso conviene realizar el cálcuio en el sentido inverso, es
decir, determinar la distribuc^ón de T(x) en primer lugar y a continuacíón
usar ia reiación Prob(T(x) s t)= prob(Xt > x) para determinar la distribución x^.
La diferencia con el caso de la primera condición radica en que ahora
ias variables aleatorias T1 , T^ ,..., Tx son independientes e igualmente
distribuidas, con función de distribución común dada por ia expresión ( 2)
para x=1, es decir:
z
F-j- t( t)-. 1- exp -- j 0 oc ( t) dt
Por tanto, la distribución de T^x) está dada por la convolución de T^ , Tz
,..., Tx. Esta distribución es la generalización de la distribución Gamma(x,a)
para ei caso de tasa de ocurrencia variable y segunda condic^ón de
experimentación.
La correspondiente generalización de la distribución de Poisson está
dada por F X( x-- i)= i- F T
( t) para x= i,2,... .
(x)
t
Por otra parte, ei número de sucesos que ocurren en dos intervaios de
t ^ empo disjunios, (t$ , cb^ y(t^ , td^ con t^ _>tb, no son dos variables aleatorias
independientes en este modelo. Ello es debido a+que el número de sucesos
que ocurren en el intervalo de tiempo (c^ , td] depende de la función a{c) en
dicho intervalo, la cual a su vez depende del instante en que se produjo el
último suceso anterior a t^ y por tanto de! numero de sucesos que han
ocurrido en el intervalo (ta , tb) al menos para valores de ta y tb próximos a t^.
Por tanto, este modelo no satis#ace las hipótesis b ni d.
^l c:,l ^ ^^ c^t `E K ^l I/ \( I^)^E ^ (>t L \ti UI^ ( klfil ^. It ^ ^f ti (>k f'^>Ititi^ ^ ^ 1 ^ ^ ^^1^1 \
h ^^
Este es un método general de eliminar la hipótesis d: hacer depender a
a(c) del número de sucesos previamente ocurridos, o de los instantes en que
ocurrieron estos sucesos previos.
5. DISTRIBUCION DE POISSON COMPUESTA
5.1. Composición con una variab/e aleatoria cua/quiera
Sea x^ el número de sucesos de un determinado tipo que se observan en
un intervalo de tiempo (O,c) y sea P(c;k) la probabilidad de ocurra que xt=k.
Considérese una variable aleatoria Yt cuya distribución condicionada por el
suceso Xt=k es conocida.
En tal caso, la distribución marginal de Y^ puede calcularse usando el
teorema de la probabilidad total con lo que se obtiene:
FYc(Y )_ ^^ P (t;k ) FY /{x -^ }( y /k )
-0
c
c
donde aparece la función de distribución marginal de Y^ y la función de
distribución de Y^ condicionada por el suceso { x^=k ). Esta misma ecuación es
satisfecha también por las funciones de densidad o de probabilidad y por las
funciones características de Yc y de Yc /{ Xc=k }.
Si xt tiene distribución de Poisson de parámetro ^., se tiene que P(t;k)
está dado por la expresión ( ^) por lo que resulta:
^, r ^ ^ti
FY(Y)= E c k1 FY /(x =k^CY/k)
c
c
k=^
c
que se conoce con el nombre de distribución de Poisson compuesta o
generalizada.
5.2. Composición con una variab/e aleatoria que es suma de variables
aleatorias independientes e ^dénticamente distribuidas (iid) con
distribución independiente de xr
Frecuentemente la variable aleatoria Y^ está definida por:
x,
Yc= ^ Z;
i=1
donde (Z1,Z2,...,Zx^) son variables aleatorias iid, con distribución independiente de la variable aleatoria x^. En tal caso, la distribución de Y^
condicionada a x^=k está dada por la convolución de z l,Z2,...,zk y, por tanto,
Ilamando cpZ(u) a la función característica de Z;, la función característica de
Yc será:
°°
^Yc(u)r ^ p(c'k)^^z(u)^
k- d
k
E tiT ^E>ItiT I( ^ E tiE'^ti(>l \
Además, teniendo en cuenta las propiedades de la esperanza condicionada y
Ilamando µZ y a Z a la media y a la varianza de z;, respectivamente, se tiene
que E(Y^) = E(X^) µZ y v^(Y^) = E(Xi) aZ+ Var(X^) µZ, habida cuenta de que
Y^ condicianada a x^ es la suma de x^ variables aleatorias iid.
Si x^ tiene distribución de Poisson de parámetro ^. las fórmulas pasan
a ser cpY(u)=cxP{^,[^PZ(u)- 1)).
c
EtY^)=^µZ Y Var(Y^)=7^[aZ+ µ2^, tanto
en el caso de que la tasa da ocurrencia de sucesos sea constante como en el
de que sea variable.
5.3. Eliminación de /a hipótesis c
Cuando la variable aleatoria Yi está dada por:
x^
Yt= ^ Z;
i-1
donde (Z1,z^,...,ZX^) son variables aleatorias iid, pueden darse dos casos:
1.-
Las variables aleatorias Z^,^2,...,ZXt son cantinuas.
2.- Las variables aleatorias Z1,Z2,...,zXt son discretas.
Aunque el primer caso tiene gran interés en la practica, no es útil en
el contexto de este trabajo. lJn ejemplo típico de su uso se encuentra en las
compañias de seguros que durante un cierto período de tiempo (O,t^, reciben
x^ reclamacivnes de dañvs, cada uno de los cuales tiene un costo Z;, que bajo
ciertas condiciones pueden supvnerse iid e independientes de x^.
Sin embargo, el segundo caso permite eliminar la hipótesis c de la
introducción, admitiéndase, por tanto, que la probabilidad de que coincidan
dos o más sucesos en el mismo instante sea mayor que cero. Bajo este punto
de vista, la variable aleatoria Z; cuenta el número de sucesos que coinciden
en el i-ésimo instante en el que se produce una ocurrencia de xt.
6. ELIMINACION DE LA HIPO^TESIS d.
No es dificil construir algún mvdefo en el que se elimine exclusivamente la hipótesis d. Para ello, es necesario tener presente que las
hipótesis a, b y c se refieren a la distribución marginal del número de
sucesos que ocurren en un intervalo de tiempo dado, rnientras que la
hipótesis d se refiere a la distribución conjunta del número de sucesos que
ocurren en dos intervalos de tiempo dados y disjuntos.
-^l (^l \ ^^ ( ^ E \1 E2 1l ll 1( It)tií ^ [)t 1 •1ti I)Itil Rllil ( I(1`.E ^ ()E I'^ ^ ltitita\ 1 ^ ^ ^,ti1^t ^
EI siguiente modelo satisface las hipótesis a, b y c pero na ta d. Sea:
Frob(X^.^= 1/(W=0})=ao(t )
Prob(X^.^= 1/(W- i })=at(t )
con:
, si [ t] cs par
, a ( t)` 0
a( t)= 2 a At , si [ t] cs par
2 a At , si [ t] ^s impar
1
0
0
, si [ t] ^s irnpar '
donde X t,et es la variable aleatoria que cuenta el número de sucesos que
ocurren en el intervalo (c,t+ec] que puede tomar valor o ó 1 cuando et e s
pequeño, W es una variable aleatoria tal que Prob(W=0)=Prob(w=1)=1/2 cuyo
valor se sortea en el instante t= 0 y se rnantiene constante para t> 0 y[t^ e s
el valor entero de t. Además se supone que la hipótesis d se satisface
condícinada a w=0 y también condicionada a w= i.(Es decir, condicionado a
W=0 ó a w=1 se cumplen las hipótesis a, c y d pero no la b) .
En tal caso, el teorema 4e la probabilídad total conduce a:
1
Prob(Xt,^= 1)= i Prob^ (X^,^= 1/(W=i }) Prob(W=i)=
,=0
--2a Ot 1 +0= a0t
2
tanto si [t] es par como si es impar, por lo que las hipótesis a, b y c se
satisfacen rr^argina/mente a w, es decir cuando es desconocido el valor de
W. Sin embargo, no se satisface la hipótesis d marginalmente a W, ya que:
Prob(X^+1,ec^ i/(X^.d[= 1 })= 0
debido a que los sucesos {X t+i ,ot= i} y{X tset= i} son incornpatibles por
verificarse la hipótesis d condicionada a w, es decir cuando es conocido el
valor de W, ya que:
Prob(X^+l,et= 1,Xt.^= 1} )_
1
-- ^ Prob(X^+t,et^ 1,Xt.^=1/(W=i})Prob(W=i)=
^=0
_(2a Ot )(0 At ) 1+( OAc )( 2a Ot ) 1- = 4
2
2
tanto si [c] es par como si es impar.
Además, la probabilidad de que e^ e! i^tervalo de tiempo (O,c] ocurran x
sucesos se c.alcula usando los resultados de! apartado 3.1, obteniéndose:
1
P(t;x)= ^ P(t;x/{W = i}) Prab(W- i)=
i^
i -^t(^) [^1(t)J
){^
1 -^p(^) -[^p(t
- X' ._._ _ + 2 ^
-- 2 c
x=0,1,2,__
s^endo :
c
^. ; ( t ) = j^ oc ; ( t ) dt , con i = 0 , 1
Este modelo admite una generalización inrnediata si se permite
sortear el valor de la variable aleatoria w cada cierto número, previamente
>I^ 1 !( ^ E ^F' > `^C)i ^l
dado, de unidades de tiempo. Asimisma, pueden encontrarse otras
generalizacianes abandonando ia dieotomia de w.
7. COMBINACION DE LOS MODELOS ANA^IZADOS.
En los apartados anteriores se han mastrado modelos que tienen un
origen similar al del modelo que conduce a las distribuciones de Poisson y
Gamma, per0 en los cuales se han eliminado una o más de ias hipátesis de
éste últim©. COncretamente, en el apartado 3 se analiza un modelo que no
satisface ia hipótesis b, en el 4 uno que no satisface b ni d, en el 5 se
elimina la hipótesis c y en el 6 la d. Llamamos a estos casos (b), (b,d}, (c) y
(+^ )
De una manera similar, es posible combinar las técnicas de todos
estos apartados para encontrar modelos que no satisfagan el conjunto de
hipótesis (b,c}, (c,d) ó{b,c,d). Sín embargo, la hípátesis a no puede ser
ignorada en ningún caso.
BIB LIt7G 1"iAFIA
ASC H E R, H. y F E I NGOLD, H. (1984} . Repairab/e Systems Reliabílity:
Modsl/ing, Inference, Misconceptíons and Their Causes. Dekker.
BARLOW, R.E. y PROSCHAN, F. {1975). Statistical Theory of Reliabílity and
Life Testing^. Hoit, Reinhart and Winston.
BARTOSZYNSKI, R., BROWN, B.W., Mc BRIDE, C.M. y THOMPSON, J.R. (1981).
Some Nonparametric Techniques for Estimating the Intensity Function
of a Cancer Related Nonstationary Poisson Process. The Annais of
Statistics, 9, 1050-^ 060.
BILLINGSLEY, P. (1968). Convergence of Probability Measures. Wiley.
BREMAUD, P. (1984}. Introduction aux Probabilifés. Springer Verlag.
CASTILLO,E. (1978). lntroduccidn a/a Estadística Aplicada. E. Castillo.
COX, D.R. (^i 962). Renewal Theory. Wiley.
COX, D.R. e ISHAM, V. (1980}. Point Processes. Chapman & Ha11.
COX, D.R. y LEWIS, P.A.W. {1966).
Events. Methuen.
The Statistical Ana/ysis of Series of
CROW, L.I-I. (1974). Relíability Analysis for Complex, Repairable Systems.
Reliability and Biometry, eds. Proschan, F. y Serfling, R.J. SIAM, pags
379-41 (J .
FELLER, W. (1968}. An introduction to Probability Theory and Its
Applicati©ns. Wiley.
GAIL, M.H. , SANTNER, T.J. y BROWN, C.C. (1980). An analysis of Comparative
Carcinogenesis Experiments Based vn Multiple Times to Tumor.
Biometrics, 36, 255-266.
^l.t,l ti•^ti (;E^E R^^t II•1^( I(^tiE:^ [:)E l.->ti [)I^f R1f31 ( Ic^tiE^ C)f P()I^^(tti 1 t, ^tit*^-^
HAIGHT, F.A. (1967). Handbook of the Poisson Distribution. Wiley.
HECKMAN, J.J. y SINGER, B. (1985). Social Science Duration Analysis.
Longitudina! Analysis of Labour Market Data, eds. Heckman, J.J. y
Singer, B. Cambridge University Press. pags. 39-110.
JOHNSON, N. L. y KOTZ, S. (1969) . Distributions in Scatistics: Discrete
Distributions. Wiley.
JOHNSON, N.L. y KOTZ, S. (1970). Distributions in Statistics: Continuous
Univariate Distributions-l,-2. Wiley.
KARR, A.F. (1986). Point Processes and Their Statistical Inferenc^e. Dekker.
LEWIS, P.A.W. ed. (1972). Stochastic Point Processes. Wiley.
MOOD, A.M. , GRAYBILL, F.A. and BOES, D.C. (1976). Introduction to the
Theory of Statistics. McGraw-Hill.
PARZEN, E. (1972). Procesos estocásticos. Paraninfo.
SNYDER, D.L. (1975). Random Point Processes. Wiley.
TUMA, N.B. y HANNAN, M.T. (1984). Sociat Dynamics: Modals and Methods.
Academic Press.
f tiF^ ^^ [)l^TI^ ^ t tiF' ^`l ^ l ^
SOME GENERALIZATIONS OF THE POISSON AND
GAMMA DISTRI BUTIC)NS
SUMMARY
The starting pornt of the paper is one of the metf^ods used to
generate Poisson and yamma distributions. This meth©d assumes four hypotheses governing the way in which the events
of interest happen in time. Tvvo random variables are defined:
the number of events counted in a given time intervai and the
t^me needed to observe a given number of events. The probability dístributions of these randUm variables are known as Poisson
and garr^ma respectively.
The paper ^s devoted to analyzing the models found when one
or more of the four hypotheses are suppressed and to obtaining
the corresponding probability distributions for the two random
variables under consideration. These distributions can be considered as generalizations of the Po^sson and gamma distributions. The work proceeds by using a unifying methodological
scheme, wh^ch emphasizes the most important aspects o# the
hypotheses. In addition, some potential applications are mentio ned.
Key worcls.^ Point processes, Poisson pr-ocesses, renewal processes, distrik^utions, hazard rate, time between failures.
A MS Clasifiea tior^.^ 6 0 E 0 5, 6 0 G 5 5, 6 2 N 9 9.
Descargar