ESTADISTICA ESPAÑ^LR Vol. 35. Núm. 134, 1993, págs. 629 a 644 Análisis Bayesiano de Datos de Supervivencia Gamma Utilizando Muestreo de Gibbs JOSE D. BERMUDEZ (*) Y EDUARDO BEAMONTE (*#) Departamento de Estadística e Investigación Operativa (*^ y Departamento de Economía Aplicada (**) de la Universitat de Valéncia. España . RESUMEN En este trabajo se presenta un análisis bayesiano de datos Gamrna progresivamente censurados por la derecha. Como información inicial se utiliza una distribución impropia con el objetivo de estudiar únicamente la información proporcionada por los datos. La distribución final resulta anal íticamente intratable por lo que se estudia mediante simulación. Para ello se obtiene una muestra de la distribución final utilizando un esquema de muestreo de Gibbs. La muestra bivariante así obtenida se utiliza para calcular por Monte-Carlo diversas características de las distribuciones final y predictiva, entre ellas tos momentos. Dos bancos de datos simulados, generados utilizando distribuciones Gamma, permiten comprobar el funcionarniento de los estimadores propuestos. Palabras clave: Datos censurados; Método de Monte-Carlo; Muestreo de Gibbs; Predicción; Simulación. Clasificación AMS: 62F 15; 62N05; 62E25. 1. INTRODUCCION Sea {t^,...,t^} una muestra aleatoria a partir de un modelo Gamma de parámetros a y ^3 (a > 0, ^3 > 0), Ei:^U { ^,fROI^>r^f n # ^ti^>hr^^+^^1 A (^ t`x ^^^ 1 exp{-^i t}, si t> 0. f{t^a, (^) =^ ^`( cx) La distribución final, por el teorema de Bayes, resulta ser: n(a, RIt1, -^-, tn) °^ n (a, R^ [r(a^1-n Rn"` exp {-^3 S 1+ a S2}, si a> 0 y^i > 0, (1) siendo n (rx, R} la distribución inicial, y S^ y S2 los estadísticos sufcien#es: n S, = ^ t;, i--1 n S2 = ^ log{t;). i=1 No parece que exista ninguna distribución inicial, n(a, ^3}, que permita obtener de forma analítica la constante de proporcionalidad implícita en la expresión {1 }, por io que se hace necesario emplear algún método de integración numérica. EI mismo inconveniente se presenta al intentar calcular los momentos de la distribución final, las distribuciones marginales, la distribucián predictiva, etc. Esta situación se complica considerablemente si se desea utilizar !a distribución Gamma para modelizar un problema de supervivencia, pues será habitual encontrar datos progresivamente censurados por la derecha. Sin pérdida de generaíidad podemos suponer que {t^,..., tr} son los tiempos de supervivencia correspondientes a los datos no censurados, mientras que {Tr♦ ^,...,Tn} son los tiempos de censura correspondientes a ios datos censurados; esto es, del tiempo de supervivencia correspondiente al dato i-ésimo, t;, sólo se sabe que es mayor que T;, para todo i= r+1,...,n. Así, la distribución final resulta ser: ^ ^a^ ^^t^, ..., tr, Tr+ 1, ..., Tn) ^ ,n (oc, ^i) ^r.(oc)l-n Rna ^,xp {-^3 S^^ + a S^^} n +^ 11 ^ t^` -1 exp {--^i t} dt, (2) donde S^^ y S2^ son, respectivamente, la suma de los r tiempos de supervivencia correspondientes a los datos no c^ensurados y la suma de sus logaritmos. La evaluación en cualquier punto (oc^, ^30) de la expresión (2) es realmente costosa, pues exige calcular por métodos numéricos n-r integrales Gamma-incompleta. Por tanto, la obtención de la constante de proporcionalidad puede resultar demasiado laboriosa y mucho más el cálculo de cualquier característica de la distribución final, como por ejemplo, los primeros momentos. ANAI E^il^y E^3F^YF.`-^IANC) OE^_ f.)^TO.`^ [^E_ SUPEFZVIVE^.NC.;IA C^AMML^ U^TILIIAN[-JC:) MUE:.S+F^E ^^ ^.,^ ^",IE^fs.`:^, ^7.^1 EI objetivo primordial en un análisis de supervivencia cansiste en predecir e1 tiempo de supervivencia de un nuevo individuo. Para ello es preciso obtener la distribución predictiva, cuya densidad viene dada por: f(t^t1, ... , tr^ Tr +- ^, ..,, T^) +m +^ ^ ^ _.Y_oc ó ó r(a) ^ ^ ^exP {--R t} n (a, ^3^t^, -• -, tr^ Tr + ^, ..., T^) da d¢. Luego es necesario evaluar una integral múltiple en cada punto, t, en el que se quiera calcular la densidad predictiva. Los problemas numéricos aquí expuestos no son privativos del modelo Garnma, de hecho aparecen con enorrne frecuencia al aplicar el paradigma bayesiano. Por ello, en !os ^ ltimos años se ha realizado un considerable esfuerzo en la búsqueda de métodos que permitan resolver dichos problemas. Cabe destacar la idea de utilizar un remuestreo de la distribución final para calcular por MonteCar1o cualquiera de sus características (Smith y Gelfand, 1992). En el apartado 2 se discute brevemente cómo obtener una muestra de la distribución final, comentando el muestreo de Gibbs como un caso part+cular, y cómo utilizarla. En el apartado 3 se emplea el muestreo de Gibbs para estudiar la distribución final (2). Este procedimiento se aplica, en el apar#ado 4, a unos datos simulados procedentes de distribuciones Gamma de parárnetros a=^3 = 4 y a = 625, ^3 = 25. Por último, el apartado 5 recoge algunos comentarios finales. 2. MUESTREO DE LA DISTRIBUCION FINAL EI trabajo de Gelfand y Smith (1990), posteriormente desarrollado en Smith y Gelfand (1992), ha potenciado la aplicación de la metodología bayesiana estudiando la distribución final a través de una muestra aleatoria generada a partir de dicha distribucián, en lugar de basar el estudio en la función de densidad final. Una vez obtenida una muestra aleatoria {8^,...,9N} de tamaño N, suficientemente grande, a partir de la distribución final ^{^ ( Datos), es ^^osible calcular cualquiera de sus características. Así por ejemplo, el vector de medias y la matriz de covarianzas muestrales son la evaluación por Monte-Carlo de los correspondientes momentos de la distribución final. Si el vector 8 se considera particionado en das subvectores, 6=(^, w), la distribución marginal de cualquiera de ellos puede aproximarse mediante métodos de estimación de densidades, a partir de ios correspondientes subvectores de la muestra {9; _{^;, w;); i= 1,..., N}. Alternativamente, si la distribución final 632 ESTA[31STlCA ESf'A^f+JC)l A condicionada ^(^ ^ w, Datos) es numéricamente tratable, es aconsejable (Gelfand y Smith, 1990} obtener la distribucián final marginal de cp como: N n {^^IDatos) = ^ ^ n (c^ ^ c,^;, Datos). ^1 ; ^ ^ Similarmente, la distribución predictiva se obtiene calculando: ^ N f {x^Datos) ^ N ^ f (x19;), i^1 donde f(x I 8) es el modelo de los datos con los que se ha obtenido la distribucíón fnal. La ventaja de este proceder en e! análisis de la distribución final radica en que, con frecuencía, es posible obtener una muestra aleatoria {e;} a partir de n(e ( Datos} sin necesidad de calcular ni tan siquiera la constante de proporcionalidad. Así por ejemplo, los métodos de generación de variables aleatorias basados en el algoritmo de aceptación-rechazo (ver, por ejemplo, Devroye, 1986; pág. 4í1), sóio necesitan el núcleo de la distribución fina^, aunque sí requieren la especificación de una función importante, g(8}, suficientemente parecida a la distribución final y saber caicular alguna buena cota superior del cociente n(8 ^ Datos} / g(8), a ser posible su rnáximo. Incluso el cálculo de esa cota se puede evitar utilizando el método SIR, una especie de bootstrap ponderado propuesto por Rubin (1988), can el que se obtiene una muestra que aproximadamente proviene de la distribucián final. Como alternativa a esos métodos directos de generacián de varíables aleatorias se han propuesto métodos iterativos, basados en cadenas de Markov, que tampoco requieren optimizar nínguna función (Metrópolis et al., 1953; Hastings, 1970; Geman y Geman, 1984; Tanner y Vvong, 1987; Gelfand y Smith, 1990). Básicamente, tados esos métodos consisten en construir una función de transición que defina una cadena de Markov irreducible y para fa que la distribución final sea estacionaria. Así, a partir de un valor iniciai 8^°^ cuaiquiera, se genera una realización de esa cadena de Markov, {9t'^}. Una vez la cadena es estacionaria, digamos en la etapa m, !os demás valores {8^'}; i> m} constituyen una muestra, no aleataría, de la distribución final. Esa muestra ya permite estudiar las características de la distribución final utilizando técnicas de estimación en cadenas de Markov (Hastings, 1970; Geweke, 1992}. Si, a pesar de ello, se desea construir una muestra aleatoría de tamaño N, pueden observarse N realizaciones de la cadena de Markvv partiendo de valores iniciales elegidos independientes (Gelfand y Smith, ANAI._ISIS E^AYESI^NO UE UATOS C)E SUP"EF^VtVEhtCIA G^AMWIA UTIL ^IAN[^)E_) MUE^^TRE(^) C)E C:rIE^H^^á ^i^^ 1990) o incorporar a la muestra únicamente una de cada m etapas, con m suficientemente grande para que 9^'^^^^ y 8^'+m^ puedan considerarse independientes (Geman y Geman, 19&4}. El muestreo de Gibbs (Geman y Geman, 1984; Gelfand y Smith, 1990; Casella y George, 1992; Stephens y Smith, 1992} es, sin duda, el método iterativo que más se ha utilizado en la obtención de muestras de la distribución final. Consiste en lo siguiente: Sea 8=(8,, ..., ek)' e1 vector paramétrico y sean n(e,1e2, ..., ek), ^c (e2, le,, 83, ..., 8k), ..., n(8k^8^, ..., 9k _^) las distribuciones condicionales completas obtenidas a partir de la distribución final n(8}. Partiendo de un punto inicial 9'0' =(8^°', ..., 9^°^)' se genera 81'^ a partir de ^(8^ ^ 8^°^, ..., 8^0^}, 9^^^ a partir de n(62 ^ 6^'^, 8^0>, , 8^°^), y asi hasta 8^'', generado a partir de n(8K ^ 8^^}, , 8^'^ ^), con lo que se obtiene 8^' ^_(9^' ^, .. ., 8^'')'. Bajo condiciones muy generales, la sucesián {8^'^} así construida es una reaiización de una cadena de Markov con la distribución final como distribucián estacionaria (Gelfand y Smith, 1990}. Este proceso exige que sea fácil muestrear a partir de las distribuciones condicionales completas, pero eso suele ser trivial (utilizando métodos de aceptación-rechazo, por ejemplo) si el vector 6 se descampone de forma que todas esas distribuciones condicionales sean univariantes. Por otra parte, no es necesario visitar cada condicional en el orden natural arriba utilizado, el resultado es válido cualquiera que sea et orden con tai de que cada condicional sea visitada con una frecuencia infinita (Geman y Geman, 1984). Por ello, el algoritmo D,A. propuesto por Tanner y Wong { 1987) en su versión Monte-Cario, esto es cuando sólo se dispone de 1as distribuciones condicionales compietas y se calculan las demás candicionales por Monte-Carlo, no es más que un caso particular de muestreo de Gibbs pero con un esquema de visitas a las condicionales distinto (Gelfand y Smith, 1990). Hasta ahora no existen resultados teóricos, de fácil utilización en aplicaciones concretas, sobre cuándo se puede considerar estacionaria la cadena de Markov. En especial, sigue siendo un tema de investigación atractivo la búsqueda de métodos que sugieran autorrráticamente el número m de etapas iniciales de fa cadena que deben ser desechadas, e incluso si es más eficiente utilizar una o varias cadenas independientes para monitorizar esa convergencia; ver, por ejemplo, Gelman y Rubin (1992b), Smith y Roberts (1993) y referencias allí citadas. 634 3. E `^tAf)ISTtI"A E 5^^4NC71 A MUESTREO DE GIBBS EN EL ANALISIS DE DATOS GAMMA En ausencía de datos censurados, la distribución final sobre los parámetros de un modelo Gamma víene dada por la expresión (1 }. Si se utiliza como inicial la distribucic5n impropia ^ (^^ ^^ °C OCi' R-1 ^ la dístribución final es propia si n> 1 y viene dada por: n Ca^ RIt1, ..., tn) °^ Er( ^^-n ^n a - 1 exp {--^i S ^ + a S2}, (3) donde S^ y S2 están definidos en el apartado 1. Las dis#ribuciones condicionales completas, necesarias para aplicar el muestreo de Gibbs, se calculan fácilmente a partir de (3) y resultan ser: ^c (a^^i, t1, . .. , t„) ^ CT(a)]w" -^- exp {a ( S2 + n log ^i)}, si a > 0, a (4) ^(Rla, t^, ..., tr,} -- Ga (Rln a^ S1>^ (5} Puede utilizarse el algoritmo XG (para a> 1) y el teorema de Stuart (para a< 1) (ver, por ejemplo, Devroye, 1986; págs. 407 y 420, respectivamente), para obtener una muestra de la distribución (5). Más difícil resulta obtener una muestra de (4). Una forma suficientemente rápida de hacerlo, consiste en utilizar un algorítmo de aceptación-rechazo basado en una función importante t de Student con 4 grados de libertad, y parámetros de localización y escala dados por los momentos de la aproximación normal asintótica a la distribucián (4). Para aplicar ei muestreo de Gibbs, sáfo es necesario partir de un valor inicial at°^, generar R{'^ a partir de (5) tomando a= a^°^, generar a^^^ a partir de (4) tomando R=^i^' }, y así sucesivamente. En presencia de datos censurados puede considerarse como vector paramétrico completo el formado por !os parámetros del modelo, a y(3, y los datos censurados no observados, tr+1,...,tn; esto es, 6=(a, ^3, tr+1,...,tn)'. Utilizando como distribución iniciai r, ^ ^a! ^^ tr + 1 ^ ..., tn^ = TL (a, ^^ ^ ^ ^tila^ ^}+ i=r+1 con ac (oc, (3) ^ a^1 ^3-1 y^(t; ^ a, R) = Ga (t; ( oc, ^^}, i= r+ 1,...,n, !a distribución final es: 7t (Cx, ^3, tr+^,...,t^ ^ t1,..., tr^ Tr+1,.... Tn} °` ANAl.1SIS BAYf^SIANC^ UE DATOS DE SUPERVIVENt`,IA GAMMA UTIL.11_AN[:^C) MUE^IREU [JE C^;IFiE3`.^ __ .. __ ._ ___. _._ ._. __ __ _ _ . _ _. « r ^-- (a^l-n ^{na- ^3rj _ -^ exp {-(3 S^ +(a -- 1) S2}, si a > 0, (3 > 0, t; > T;, para i= = r+^,.,.,n. Esta distribución coincide con (3) pero ahora S^ y S2 ya no son estadísticos pues son función de los par^metros tr+^, ...,tn. Sin embargo, las distribuciones condicionales completas de a y^i coinciden con (4) y(5) respectivamente, mientras que la distribución condicional completa para cada t;, i= r+ 1,..., n, es de la forma : 7L (t; ^ a, R, t;, . .. , ^i - 1 ^ ti + 1, , .. , ^n+ Tr + 1 ^ . . ., Tn^ _ -- n(t; j a., ^i, T;) a t°` -^ exp {-^3 t;} - Ga (t; I oc, ^3), si t; > T;. (6) Es fáci! obtener una muestra de la distribución ( 6); basta con obtener un valor Ga (a, ^3), utilizando el mismo algoritmo que para generar de (5), y aceptarlo si y sólo si es mayor que T;. Así pues, el muestreo de Gibbs se puede obtener partiendo de un punto inicial (a^°^, R^°^) , generando {tr°^ ^, ..., t^°^} a partir de (6), ^i^1^ a partir de ( 5) con ^c ^ ato^, tr + 1- tc°^ tc°^ - t^°^ r+1^•••^ tnn>ac1 ^ a partir de (4} con ^3 =^ic' ^> t r+ 1r+ 1+•••^ t-tc0^ n r n^ y así sucesivamente. Una vez obtenida una muestra de la distribucián final, {(at'^, ^3{'^); i= 1, .. ., N}, los momentos muestrales son una solución Monte-Carlo a los momentos de 1a distribución final, así: N 1 N N E(a) ^ -- ^ ac^^, E(a2> ^ -1 ^ (a{'^)2, E(a ^) ^ -^_ ^ a^'^ E(R I ac`^, Si^^), N^=^ N^-^ N^=1 (7) siendo S^'^ = t1 +...+ tr + tr^+ ^+. .. + t;,^^, i- 1, ..., N. Los momentos de ^3, aprovechando que (4) es numéricamente tratable, se pueden obtener como: 1 N c^^ 1 c^^ N n ac'^ E(R) ^-^__ ^E(RIa ,S1)=- ^ ^^ ^ N;i^ N;^^ S1 N N (8a) . E(^z^ ^_1 ^ E(R2 ^ ac^^, 51^^ ^ 1 ^ n a c'^ (n a c'^ _- 1). N;^^ N ; ^ ^ S{'^ Sc'^ ^ ^ (8b) De igual forma, la distribución fina! marginal de R se obtiene como: n (^^ t.,. 1^ ^tr^ c^^ ^ N^Ga(^Inac^^,s,), T r+1,...,Tn } .^ N I ^ (9) 63E^ E. ;^ T A[.) ^ 51 ^ C:A E SPANC)l.A mientras que la distribución predictiva resuita: f(t^t1^ ••^tr^Tr+1,.., ^- n} c^^ ^ 1_ N c^^ N ^Ga(t^oc ^ R ) ,-^ (10) Cuaiquier otra característica deseada podría obtenerse de forma similar. Así por ejemplo, la media de la predictiva y ia esperanza de su iogaritmo serían: _... E(t) ^ _1 ^".___a^'^ N ; ^ ^ ^{^y' N . (11a) . E (log(t)) = ___ ^ {w(a''^) - !og(R^^'))• N;-^ (11 b) A partir de estas dos esperanzas se puede obtener la mejor aproximación Gamma, según la divergencia de Kuiiback-Leibler, a la distribución predictiva. Un problema práctico a resolver es ia eiección del punto inicial (a^°^, ^3^°^). Este punto no debe estar muy aiejado de !os valores centrales de la distribución final pues, aunque el muestreo de Gibbs tiene garantizada ia convergencia con independencia del punto iniciai, ésta puede ser muy lenta si dicho punto está situado en ias coias de la distribución final. Si el porcentaje de censura no es muy elevado, una posible elección de (a^°j, (3^°^) es la solución a! sistema: co> m^ = °^^o^ , log(m2) = ^{oc^°^) - iog(a^0^), R ( ^ 2) siendo m^ y m2 las rnedias aritmética y geométrica de los datos no censurados. De esta forma (at°^, ^i^°^) coincide con los parámetros de ta distribución Gamma que minimiza la distancia de Kuilback-Leibler a ia distribución empírica de los datos no censurados. Hay que señalar que al resolver (12) sólo buscarnos un punto iniciai para el muestreo de Gibbs, por lo que sólo necesitamos una primera aproximación a ia solución exacta. Por supuesto, si el porcentaje de censura es elevado el punto (a^°^, ^3t°^) obtenido a partir de { 12) puede estar demasiado alejado del centro de la distribución final. En efecto, pues ia muestra constituida por los datos censurados es una muestra sesgada que tiende a proporcionar valores de supervivencia menores. En ese caso sería aconsejable utilizar estimadores de las medias aritmética y geométrica de la distribución de supervivencia distintos de m^ y m2. ^^^ ^NALISI`^ E3AYF^SIANQ [^E^^ UATUS C)E SUF'ERVIVE^NCIA GAMMA I..JTIh17AN[;1U MUE `,1kE (^^^- ^^>E (^,lE3f^^^^, 4. EJEMPLOS NUMERICOS EI análisis propuesto en el apartado anterior lo hemos aplicado a dos bancos de datos generados a partir de distribuciones Gamma, utilizando un mecanismo de censura progresiva por la derecha que proporciona aproximadamente un 90 por 100 de datos no censurados. EI primero de ellos, de parámetros a= R= 4, consiste en 86 tiempos no censurados con media aritmética 0,944 y media geométrica 0,85, y los 14 tiempos de censura recogidos en la tabla 1. TABLA 1 Tiempos de censura del banco de datos 1 0, 541 0,003 0,311 0, 553 0, 021 1,211 1,127 0,426 0,436 0, 262 0,139 0, 563 1, 366 0,404 Como punto de partida para el muestreo de Gibbs utilizamos (a^°}, ^i^°^) =(5, 5}, valores calculados por el procedimiento comentado en el apartado anterior, redondeados al entero más próximo. Tras realizar 20.000 pasos en la cadena de Markov (69 segundos en una estación SUN-SPARC} observamos que, como era de esperar, las funciones autocorrelograma y autocorrelograrna parcial correspondientes a las series de alfas y betas correspondían perfectamente a un proceso AR (1), con un coeficiente de autocorrelación del orden de 0.90 en ambos casos. Preferimos no utilizar esa ú nica realización de la cadena de Markov y, siguiendo las indicaciones de Gelman y Rubin ( 1992a), construimos en paralelo diez realizaciones con el mismo punto de partida (a{°^, ^i^°^) =(5,5). Monitorizamos la evolución de las cadenas de Markov para observar cuándo podían considerarse estacionarias representando, en cada paso, el cociente a/^3 y^3. En la figura 1 se recoge la evolución de ^i mediante el máximo, el mínimo y la media de los diez valores ^i observados en las cadenas de Markov. La evolución de aJ^3 proporciona una gráfica similar aunque mostrando menor fluctuación. E1 estudio definitivo de la distribución final y de la distribución predictiva lo reaiizamos con los 1.600 puntos obtenidos desechando ios 50 primeros y, posteriormente, registrando uno de cada 50 de cada cadena de Markov. Asi, utilizando (7), (8), (11) y fórmulas similares, obtuvimos las caracteristicas de las distribuciones final y predictiva dadas en la tabla 2. E ^1AU^`^TIC;.A E SF'ANC)LA 9T loo ^o i^a zoo 300 2^a Figura 1. Evolución de los valores ^i observados en las diez cadenas de Markov det banco de datos 1. Se representa el mínimo, media y m^ximo de esos die^ valores en cada iteración. Los momentos de los logaritmos de a y^i pueden utiliZarse para aproximar la distribución final de [log{a}, log(^i)] mediante una distribución Normal bivariante. Similarmente, ias dos marginales de oc y R pueden aproximarse mediante sendas distribuciones log-narmales. En la figura 2 se muestra el histograma de los 1.600 valores de a, sobre el que se ha dibujado la aproximación log-normal. La figura 3 recoge la distribucián marginal de R, obtenida mediante la expresión (9), y su aproximación !og-normal. TABLA 2 Principales caracteristicas de las distribuciones final y predictiva distribución final media varian^a correlacien predictiva a a log{a} log((3) t fog(t) 4,937 0,501 5,085 0,608 1,586 0,024 1,615 0,024 0,974 0,199 -0,135 0,233 0,949 0,949 Por último, en la figura 4 se muestra la distribución predictiva obtenida mediante la expresión t 10} y su mejor aproximación Gamma, según la divergencia logarítmica de Kullback-Leibler, cuyos parámetros son 4,779 y 4,907. ANAI I^^1^-; EiAYES ^ ANC) L.^E t7ATC)S t:)E SUPERVIVEN^;1A rAMMA ^.1T^^^Z^1r^^)c) MuE^STRE (^ (^t c^^E3E^:^ _ _ _ _ C39 10 Figura 2. Histograma de los valores a observados en el análisis del banco de datos 1 y, en trazo discontinuo, su aproximación log-normal. Figura 3. Distribución marginal de ^3 en el análisis del banco de datos 1 y, en trazo discontinuo, su aproxirnacián log-normal. e^o E :^raD^:^r ^c1a € s^awot A 1 . 2T 3.5 Figura 4. 4 Distribución predictiva en el análisis del banco de datos 1 y, en trazo discontinuo, su aproximacibn gamma. EI segundo banco de datos analizado, obtenido a partir de una distribución Gamma de parámetros a= 625 y j3 = 25, consiste en 92 tiempos no censurados, con media aritmética 25,026 y media geométrica 25,009, y los 8 tiempos de censura recagidos en la tabla 3. TAB LA 3 Tiempas de censura del banco de datos 2 7, 920 3, 388 4,91$ 6,495 13, 956 11,476 24,078 18,146 Utilizamos como punto de partida de las diez cadenas de Markov el par ^a^°^, R^°^) ={546, 22), obtenido del mismo modo que en el primer ejemplo, y estudiamos la evolución de las mismas, observando que se convertían en estacionarias con bastante más lentitud y que necesitábamos un mayor tamaño muestral para mejorar la solución Monte-Cario. Asi pues, realizamos el estudio definitivo de la distribución final y de la distribución predictiva con los 10.000 puntos obtenidos desechando !os 1.000 primeros y, posteriormente, registrando uno de cada 50 de cada cadena de Markov, obteniendo las características que se recogen en la tabla 4. ANAL I51^; E3AYF^S^ANC7 UE^ C^ATOS (^E^^ SUPE^.RVIVEN(^ IA GAMMA tJTILIZANUt) MUE`^TF^E C>> 1,^^ ^^i^hE^,`^, 6^1 TABLA 4 Principales caracteristicas de las dist^ibuciones ^nal y predictiva predictiva distribucián final media varianza correlación cx R ios(a) io9(R) t iog(t) 717,231 11.314,939 28,656 18,079 6,564 0,022 3,34^ 0,022 25,030 0,902 3,219 0,001 0,9997 0,9997 En las figuras 5 y 6 se representan el histograma de los valores a y la distribución marginal de ^3 y, en trazo discontinuo, las aproximaciones log-norrnales obtenidas con los mornentos de los logaritmos de a y^i de la tabla 4. 5. DISCUSION Y COMENTARIOS FINALES Es de destacar la rapidez con la que se obtiene la distnibución predictiva. En todos los bancos de datos analizados obtuvimos ésta con un menor tamaño muestral del finalmente considerado. De hecho, en el primer ejemplo aquí comentado, con tan sólo 500 puntos -lo que supone 15 segundos de cálculo- observamos un dibujo de la densidad predictiva indistinguible del de la figura 4(las diferencias se encontraban en la cuarta cifra decimal de fas ordenadas). Por el contrario, las distribuciones marginales de a y a parecen bastante más sensibies a la evolución de las cadenas de Markov: requieren un mayor número de pasos en cada cadena (hasta conseguir que sean estacionarias) y un mayor tamaño muestral (para rnejorar la solución Monte-Car1o). De cualquier forma, el volumen de cálculo exigido por este procedimiento parece ser asequible para su utilización rutinaria. En este trabajo hemos utilizado siempre una distribución inicial impropia, con intención de no incórporar información inicial. Si se desea utilizar una distribución inicial informativa n(a, R) es fácil transformar la muestra aleatoria, obtenida por el método propuesto en el apartado 3, a otra muestra aleatoria que provenga de la nueva distribución final. Para ello se puede utilizar el método de aceptación-rechazo, empleando la distribución final aqui considerada como función importante. Asi, sea C el máximo de la función h(a, ^3) = a^i ^{oc, j3), y sea U un número aleatorio en el intervalo (0, 1). EI punto (a;, ^3;), i-ésimo punto de la muestra aleatoria construida en el apartado 3, se aceptará como un punto de la nueva muestra aleatoria si y sólo si: U ^ ^ h (a^^ R^)• C 64 2 E:STA[^I^^TIC;A E SF'ANC:)l.A 0.0035 0.003 0.0025 0.002 0.0015 o.ao^ 0.0005 400 600 800 1000 12`00 1400 Figura 5. Histograrna de los valores a observados en el análisis del banco de datos 2 y, en trazo discontinuo, su aproximación tog-normai. 20 Figura 6. 30 5a 60 Distribución marginal de ^i en el análisis del banco de datos 2 y, en trazo discontinuo, su aproximación log-normal. ANAI ISI^ E3AYE SIANC? DE [_)AiC)S [^E SUPE:.RVlVENCIA C^AMMA UTlIiZANDC^ Ml.1F:^>TREO DE: C^IE3BS E^4,3 Por último, señalar que los resultados presentados en el apartado anterior son consistentes con los que hemos observado al analizar otros bancos de datos, también generados a partir de distribuciones Gamma pero con distintos valores paramétricos. Los autores agradecen los comentarios de dos evaluadores anónimos a una versión anterior de este trabajo. BIBLIOGRAFIA CASELLA, G. and GEORGE, E. I. {1992). «Explaining the Gibbs sampler». The Amer. Statistician, 46, pp. 167-174. DEVROYE, L. (1986). Non-Uniform Random Variate Generatian. New York: Springer-Verlag. GELFAND, A. E. and SMITH, A. F. M. (1990). «Sarnpling-based approach to calculating marginal densities». J. Amer. Statist. Assoc., 85, pp. 398-409. GELMAN, A. and RuBIN, D. B. (1992a). «A single series from the Gibbs sampler provides a false sense of security». In Bayesian Statistics 4(J. M. Bernardo, J. O. Berger, A. P. Dawid and A. F. M. Smith, eds.), pp. 625-631. Oxford: Oxford University Press. GELMAN, A. and RuBIN, D. B. (1992b). «Inference from iterative simulation (with discussion)». Statistical Science, 7, pp. 457-511. GEMAN, S. and GEMAN, D. (1984). «Stochastic relaxatian, Gibbs distributions, and the Bayesian restoration of images». l. E. E. E. Transactions on Pattern Analysis and Machine Intelligence, 6, pp. 721-741. GEWEKE, J. (1992). «Evaluating the accuracy of sampling-based approaches to the calculation of posterior moments». In Bayesian Statistics 4(J. M. Bernardo, J. O. Berger, A. .P. David and A. F. M. Smith, eds.), pp. 169-193. Oxford: Oxford University Press. HASTINGS, W. K. (1970). «Monte-Carlo sampling methods using Markov chains and their applications» . Biometrika, 57, pp. 97-109. METROPOLIS, N., ROSENBLUTH, A. W., ROSENBLUTH, M. N., TELLER, A. H. and TELLER, E. {1953). «Equations of state calcuiations by fast comput^ng machines». J. Chem. Phys., 21, pp. 1087-1092. RuBIN, D. B. (1988). «Using the SIR algorithm to simulate posterior distributions (with discussion)». In Bayesian Statistics 3(J. M. Bernardo, M. H. DeGroot, D. V. Lindley and A. F. M. Smith eds.), pp. 395-402. Oxford: Oxford University Press. 6^14 ^^ srAE>isT ^c^,^ F s^^^tvc>i ^ SN^iITH, A. F. M. and G^LFAND, A. E. (1992). «Bayesian statistics without tears: a sampli^ng-resampiing perspective». The Amer. Statistician, 46, pp. 84-88. SMtTH, A. F. %1A. ánd ROBERTS, G. O. (1993). «Bayesian computation via de Gibbs sampler and related Markov chain Monte Carlo methods». J. Roy. Statist. Sac. B, 55, PP. 3-23. STEPHENS, D. and SMiTH, A. F. M. (1992). «Sampling-resampling techniques for the computati©n of posterior densities in norrnal means problems». Test, 1, pp. 1-18. TANNER, M. A. and WaNG, W. H. (1987). «The calculation of posterior distributions by data augmentation». J. Amer. Statist. Assoc., 82, pp. 528-550. BAYESIAN ANALYSIS OF GAMMA SURVIVAL DATA THROUGH GIBBS SAMPLER SUMMARY This paper deals with the Bayesian analysis of Gamma data progressively censored on the right. An improper prior distribution is used, but the resuits are easily extended to any other prior. The posterior distribution is studied through Gibbs sampler. A bivariate sample from the posterior is obtained and used to compute, by Monte-Carlo methods, some characteristics of the posterior and predictive distributions. The paper ends with the analysis of two simulated data sets, originated from two different Gamrna distributions. Key words: Censored data; Gibbs sampler; Monte-Carlo method; Prediction; Simulation. Classification AMS: 62F 15; 62N05; 62E25.