una prueba para exponencialidad basada en la razón de dos

Anuncio
COLEGIO DE POSTGRADUADOS
INSTITUCIÓN DE ENSEÑANZA E INVESTIGACIÓN
EN CIENCIAS AGRÍCOLAS
INSTITUTO DE SOCIOECONOMÍA, ESTADÍSTICA
E INFORMÁTICA
PROGRAMA EN ESTADÍSTICA
UNA PRUEBA PARA EXPONENCIALIDAD BASADA
EN LA RAZÓN DE DOS ESTIMADORES
MARÍA DIÓDORA KANTÚN CHIM
T E S I S
PRESENTADA COMO REQUISITO PARCIAL PARA
OBTENER EL GRADO DE:
M A E S T R A EN C I E N C I A S
MONTECILLO, TEXCOCO, EDO. DE MÉXICO
2004
La presente tesis titulada: UNA PRUEBA PARA EXPONENCIALIDAD
BASADA EN LA RAZON DE DOS ESTIMADORES, realizada por la
alumna: MARÍA DIÓDORA KANTÚN CHIM, bajo la dirección del
Consejo Particular indicado, ha sido aprobada por el mismo y aceptada
como requisito parcial para obtener el grado de:
MAESTRA EN CIENCIAS
PROGRAMA EN ESTADÍSTICA
CONSEJO PARTICULAR
CONSEJERO
Dr. José A. Villaseñor Alva
ASESOR
Dr. Humberto Vaquera Huerta
ASESOR
Dr. Carlos M. Becerril Pérez
MONTECILLO, TEXCOCO, EDO. DE MÉXICO; MARZO DE 2004.
AGRADECIMIENTOS
Ante todo a Dios, por su gran amor.
Al Consejo Nacional de Ciencia y Tecnología, por el apoyo financiero otorgado para este grado
profesional.
A la Universidad Autónoma de Yucatán por permitirme continuar con mi formación académica.
Al Colegio de Postgraduados, en particular al Programa de Estadística, por darme la
oportunidad de continuar y crecer académicamente.
A mi consejo particular:
Dr. José A. Villaseñor Alva, por su paciencia, valiosa dirección y apoyo que proporcionó en todo
momento para el logro de este trabajo y en mi formación académica.
Dr. Humberto Vaquera Huerta y Dr. Carlos M. Becerril Pérez, por su valioso apoyo, acertadas
sugerencias y comentarios en este trabajo.
A cada uno de los profesores que han contribuido en esta formación en las distintas áreas, por su
paciencia para compartir sus conocimientos a lo largo de esta meta.
A todo el personal administrativo por su amabilidad y apoyo que siempre han brindado.
A todos mis compañeros y amigos que me acompañaron a alcanzar el mismo objetivo, por cada
ayuda proporcionada en los tropiezos que tuvimos, Miroslava, Cecilia, Rocío, Eduardo, Omar,
Víctor, Osval, Faustino y Castulo, gracias.
DEDICATORIAS
A mis padres y hermanos:
Por ser la principal fuente de fortaleza para alcanzar las metas anheladas, por su comprensión y
apoyo, a cada uno de ustedes por el gran amor y cariño que les tengo.
Al Dr. Luis A. Rodríguez Carvajal:
Por su confianza, apoyo, consejos y ánimos que de manera incondicional siempre me ha
brindado, a quien aprecio y admiro.
A mi prima:
Teresita de J. Villegas Chím
, por haber sido una persona muy especial.
Con todo cariño
Diódora
CONTENIDO
RESUMEN..........................................................................................................................................i
ABSTRACT.......................................................................................................................................ii
NOTACIÓN...................................................................................................................................... iii
1.
INTRODUCCIÓN ......................................................................................................................1
1.1
Revisión sobre pruebas de exponencialidad ............................................................ 2
1.2
Objetivos .................................................................................................................. 3
2.
CONCEPTOS DE PRUEBA DE BONDAD DE AJUSTE .............................................................4
3.
DISTRIBUCIÓN EXPONENCIAL...............................................................................................6
4.
3.1
Aspectos relevantes de la distribución exponencial ............................................... 6
3.2
Distribuciones alternativas a la distribución exponencial ..................................... 8
PRUEBA DE BONDAD DE AJUSTE BASADA EN LA RAZÓN DE DOS ESTIMADORES ......11
4.1
Una característica de la distribución exponencial ................................................. 11
4.2
La estadística R de la razón del rango y dos veces el semirango .......................... 11
4.2.1 Funciones de densidad y distribución de R.................................................... 12
4.2.2 Comportamiento de la función de densidad de R .......................................... 15
4.2.3 Cuantiles de la función de densidad de R ...................................................... 18
4.2.4 La prueba de bondad de ajuste R ................................................................... 21
4.3
Tamaño de la prueba R .......................................................................................... 21
4.4
5.
6.
Potencia de la prueba R.......................................................................................... 23
ESTUDIO COMPARATIVO DE LA POTENCIA DE LA PRUEBA R........................................26
5.1
Descripción de las pruebas a comparar ................................................................. 26
5.2
Tamaños de las pruebas en comparación............................................................... 29
5.3
Resultados de la comparación de pruebas por medio de su potencia .................... 30
DISTRIBUCIÓN ASINTÓTICA DE LA ESTADÍSTICA R.....................................................36
6.1
Estimación de los cuantiles de la distribución asintótica de R por simulación ..... 40
6.2
Distribución asintótica de la estadística R ............................................................ 43
7.
CONCLUSIONES Y RECOMEDACIONES ...........................................................................44
8.
BIBLIOGRAFÍA....................................................................................................................45
ANEXOS ........................................................................................................................................47
ANEXO A . Tablas y cuadros............................................................................................ 48
ANEXO B . Programas en el paquete S-plus 2000 ........................................................... 52
ANEXO C . Desarrollo analítico de funciones .................................................................. 63
RESUMEN
En el análisis estadístico de la duración de vida, la distribución exponencial es importante como
un modelo de referencia en las áreas de análisis de supervivencia y teoría de confiabilidad. Varias
de las pruebas que han sido propuestas para exponencialidad son basadas en la estimación del
parámetro de escala. En el presente documento se propone una prueba basada en la razón del
rango y semirango muestrales, la estadística de prueba es desarrollada y analizada. De los
estudios de las pruebas para exponencialidad realizadas por D’Agostino & Stephens (1984),
Spurrier(1984) y Ascher(1990), se deduce que las pruebas de Cox & Oakes y la de Hollander &
Proschan resultan ser de las más potentes. Otra prueba de interés es la de Wong & Wong la cual
es basada en las estadísticas extremas al igual que la prueba propuesta. Con el propósito de
comprar la prueba propuesta contra las pruebas mencionadas anteriormente respecto a sus
potencias, se realizó un estudio de simulación Monte Carlo considerando las hipótesis
alternativas Gamma, Weibull, Pareto Generalizada, Lognormal y Beta. Los resultados muestran
que cuando la alternativa es la distribución Gamma, Weibull ó Pareto Generalizada la potencia de
la prueba propuesta es en general tan alta como las pruebas de Cox & Oakes y la de Hollander &
Proschan. Cuando los tamaños de muestra son grandes, se calculan los cuantiles para la
distribución asintótica de la estadística propuesta vía simulación Monte Carlo.
Palabras claves: prueba de exponencialidad, prueba estadística, distribución de vida.
i
ABSTRACT
In the statistical analysis of the duration of life, the exponential distribution is important as a
model of reference in the areas of the analysis of survival and theory of reliability. Several of the
proposed tests for exponentiality
are based on the estimation of the scale parameter. In the
present paper a test based in the ratio of the rank and the semirank is proposed, the statistic of this
test is developed and analyzed. Of the studies about test for exponentiality executed for
D’Agostino & Stephens (1984), Spurrier(1984) y Ascher(1990) is deduced that the test of Cox &
Oakes and Hollander & Proschan are the most powerfull. Another test of interest has been
proposed by Wong & Wong which is based on the extreme statistics as the proposed test. In order
to compare the proposed test against the test before mentioned with respect to their power, a
Monte Carlo simulation study is performed, where the considered alternative hypotesis son
Gamma, Weibull, Pareto Generalizada, Lognormal y Beta. The results show that when the
alternative is either Gamma, Weibull or Generalized Pareto, the power of the proposed test in
general is as high as the tests of Cox & Oakes and Hollander & Proschan. When the sample sizes
are large, the quantiles of the asymptotic distribution of the proposed test have been calculed via
Monte Carlo simulation.
Key words: exponentiality test, statistical test, life distribution
ii
NOTACIÓN
n
tamaño de muestra
X 1 , X 2 ,..., X n
variables aleatorias básicas
Y1 , Y2 ,..., Yn
estadísticas de orden de una muestra aleatoria X 1 , X 2 ,..., X n
i.i.d
independientes e idénticamente distribuidas
Y1
mínimo ( X 1 , X 2 ,..., X n )
Yn
máximo( X 1 , X 2 ,..., X n )
Y1*
Y1 normalizada
Yn*
Yn normalizada
m.a
muestra aleatoria
v.a´s
variables aleatorias
α*
tamaño de prueba
α
ALFA (Parámetro de la distribución definida en el texto)
β
BETA (Parámetro de la distribución definida en el texto)
R
estadística
RE
estadística R estandarizada
f
función de densidad
F
función de distribución
f R(r)
función de densidad de R
FR(r)
función de distribución de R
FR ( rA )
función de distribución asintótica de R
h(x)
función de riesgo
F (x )
1-F(x) función de supervivencia ó función de confiabilidad
A
Y1 − Yn
Y1 + Yn
iii
1.
INTRODUCCIÓN
El estudio del análisis estadístico de la duración de vida de un artículo tiene una larga historia
y está estrechamente relacionado con la distribución exponencial; además es aplicada en una
amplia variedad de procesos estadísticos. Existen eventos en los cuales la distribución
exponencial aparece de manera natural como el modelo apropiado, además, está relacionada
con algunas distribuciones bien conocidas que tienen aplicaciones estadísticas, como lo son las
distribuciones Gamma y Weibull. El tiempo de vida puede ser representado por una variable
con distribución exponencial considerando una asociación teórica relativamente simple,
Jonson & Kotz (1994).
La distribución exponencial tiene una importante relación con pruebas de tiempo de vida,
como lo es en el área de estadística médica, tiempo de vida en artículos industriales, etc. En la
teoría de confiabilidad la distribución exponencial es básica y es especial en el área de análisis
de supervivencia, ya que las funciones de supervivencia pueden ser clasificadas en relación a
la distribución exponencial.
La distribución exponencial es empleada para modelar eventos de tiempo de vida de un
artículo, en las que tienen la misma probabilidad de vida no importando el tiempo de vida que
tenga en el presente. Un ejemplo clásico es la vida de un foco, que sin importar el tiempo que
ha durado, la probabilidad de falla en el presente es la misma que en el tiempo inicial del
mismo.
Se puede observar que : U ~U(0,1) ⇔ x= -lnU ~exp (1)
donde U(0,1) es la distribución uniforme en (0,1) y exp(1) la distribución exponencial
estándar.
La distribución uniforme U(0,1) es de gran importancia para generar números aleatorios; esto
tiene mucho sentido en el campo de la simulación con diversos objetivos, entre los cuales se
pueden mencionar la investigación de la distribución de estadísticas en pruebas de hipótesis y
la integración numérica.
1
1.1
Revisión sobre pruebas de exponencialidad
A partir de 1960, se han desarrollado pruebas de bondad de ajuste para la distribución
exponencial con uno ó dos parámetros; otras han sido desarrolladas para casos de datos
completos, para datos censurados ó bien para ambos casos; además, unas pruebas han
considerando distribuciones establecidas en la hipótesis alternativa.
D’Agostino
&
Stephens
(1984)
presentaron
algunas
de
las
primeras
pruebas
de
exponencialidad, entre ellas están: la prueba de kolmogorov, otras basadas en al función de
distribución empírica, las cuales son pruebas clásicas que pueden ser empleadas en la mayoría
de las distribuciones; sin embargo, en general resultan ser muy laboriosas.
Spurrier (1984) presenta una revisión de varias pruebas de bondad de ajuste para la
distribución exponencial, entre ellas están: la estadística de Gini, introducida por Gail y
Gastwirth (1978b), algunas pruebas consideradas por Bickel & Doksum (1969) y la prueba
“New-Better-than-Used” de Hollander & Proschan (1972). Esta última prueba, presenta
procesos para pruebas de bondad de ajuste para la distribución exponencial para una y dos
colas, dependiendo de la alternativa establecida, además estas pruebas son designadas como de
alta potencia contra alternativas de distribuciones con función de riesgo monótona.
Ascher (1990) realiza un estudio de comparación de pruebas selectas para exponencialidad, la
comparación fue realizada mediante la potencia de las pruebas. Ascher en su estudio consideró
una variedad de pruebas entre las que se encuentran: la prueba de Skewness and kurtosis
KUSK; la prueba de Hollander and Proschan “New better than used”; la prueba de Gini G,
introducido por Gail y Gastwirth; la prueba de Lorenz L(p); la prueba de KolmogorovSmirnov KSL; la prueba de Cox y Oakes Score Cox la prueba del cociente extremo de Wong
y Wong , y otras no mencionadas. El estudio de Ascher concluye con respecto a las pruebas
estudiadas que cuando no se conoce nada acerca de la distribución alternativa (forma de la
función de riesgo de la distribución) la prueba de Cox y Oakes resulta ser de las más potente.
Esta prueba también rechaza exponencialidad para alternativas con distribuciones muy cercana
2
a la forma exponencial, de manera general en este
estudio se obtuvo evidencias que esta
prueba es la que presenta mayor potencia ante las demás pruebas en estudio.
Si se tiene sospecha de que la distribución tiene función de riesgo monótona, existen pruebas
especializadas de una cola que pueden ser más apropiadas. Mientras que el uso de pruebas de
dos colas puede ser más apropiado para función de riesgo no monótona.
Para que una prueba de bondad de ajuste alcance una buena potencia, comúnmente se
consideran las características de la distribución en estudio. Las pruebas de exponencialidad no
han sido la excepción y se han propuesto varias pruebas tomando en cuenta este punto, sin
embargo, las pruebas encontradas no han sido prácticas en su cálculo; es de interés, analizar
otras características de la distribución, que permita proporcionar una estadística práctica para
una prueba de bondad de ajuste.
1.2
Objetivos
Proponer una estadística de prueba para bondad de ajuste que posea buena potencia para la
distribución exponencial.
Realizar un estudio comparativo de la prueba propuesta contra las de Wong & Wong, Cox &
Oakes y la de Holander & Proschan.
3
2.
CONCEPTOS DE PRUEBA DE BONDAD DE AJUSTE
Cuando se tiene una muestra aleatoria (m.a.) X 1 , X 2 ,..., X n de un fenómeno y se piensa que
puede ser modelada por una función de densidad f, una pregunta crucial es: ¿realmente f es un
buen modelo para las observaciones dadas?
Una respuesta a esta pregunta se puede dar empleando técnicas de pruebas de bondad de
ajuste. Estas pueden ser de dos tipos:
i)
Técnica informal: involucra puntos y gráficos de los datos del fenómeno; consiste
en ver el comportamiento y deducir de manera intuitiva si los datos son modelados
por la función f propuesta.
ii)
Técnica formal ó rigurosa: consiste en emplear una estadística para probar la
hipótesis de que los datos del fenómeno son modelados por la función de
densidad f .
La primera técnica resulta ser en ocasiones ambigua, ya que depende mucho del criterio del
investigador. En este caso no se conoce la probabilidad de cometer algún tipo de error.
Si se desea ser formal es recomendable emplear la segunda técnica ya que proporciona mayor
certeza para hacer conclusiones, además, permite fijar la probabilidad deseada de algún tipo de
error sobre el modelo planteado para el fenómeno.
La segunda técnica de bondad de ajuste se pueden presentar en dos tipos de pruebas:
•
Bondad de ajuste para una hipótesis completamente especificada
Sean X 1 , X 2 ,..., X n variables
aleatorias
i.i.d.
(independientes,
e
idénticamente
distribuidas) con distribución F desconocida. Una prueba completamente especificada
es presentada al proponer una distribución Fo con parámetros conocidos, de tal forma
que la hipótesis a probar es:
H o : F = Fo
•
vs. H A : F ≠ Fo
Bondad de ajuste para una hipótesis no especificada
Sean X 1 , X 2 ,..., X n variables aleatorias i.i.d. con una distribución F desconocida. Una
4
prueba no especificada se presenta cuando la prueba es:
Ho : F ∈F
vs. H A : F ∉ F
donde F es una familia de distribuciones en la cual, cada elemento está bien
caracterizado por sus parámetros particulares.
Tipos de error en pruebas de hipótesis: Cuando es empleada alguna estadística de prueba para
bondad de ajuste existe la posibilidad de cometer algún error, estos pueden ser de los
siguientes tipos:
a)
Rechazar la hipótesis nula cuando en realidad es verdadera (Error tipo I), cuya
probabilidad es representada por:
P(error tipo I) = α *
b)
No rechazar la hipótesis nula cuando en realidad es falsa (Error tipo II), cuya
probabilidad es representada por:
P(error tipo II) = β *
Tamaño de una prueba: Una prueba φ(X) es de tamaño α* si satisface:
P(Error Tipo I usando la prueba φ(X) )≤ α *
esto es, la máxima probabilidad de cometer el error de tipo I no es mayor que α *
Función de potencia: Se dice que Pφ (θ): Ω→[0,1] es la función potencia de la prueba φ
cuando:
Pφ (θ)=P(rechazar la hipótesis nula Ho usando φ θ )
donde θ es el parámetro de la distribución.
5
3.
DISTRIBUCIÓN EXPONENCIAL
Definición: Una variable aleatoria, (v.a) X tiene una distribución exponencial si ésta tiene una
función de densidad de la forma:
1 −
f X (x ) = e
â
=0
x −θ
x ≥ θ ≥ 0, β > 0
â
(3.1)
de otro modo
donde θ y β son constantes, θ es el parámetro conocido como el origen de la distribución y β
el parámetro de escala. Esta función de densidad es un caso particular de la función de
densidad Gamma, sin embargo, es de considerable importancia para aplicaciones en
confiabilidad.
Con frecuencia es razonable emplear la distribución exponencial con el parámetro de origen
θ=0, así la distribución se reduce a:
x
1 −
f X (x ) = e â
â
=0
x ≥ 0, β > 0
(3.2)
de otro modo
función con la cual se trabajará en esta investigación.
3.1
Aspectos relevantes de la distribución exponencial
Hollander & Wolfe (1999) presentan temas relacionados con pruebas de vida que involucran a
la distribución exponencial.
Supóngase que X es una v.a no negativa, así X puede denotar el tiempo en que ocurre el final
del evento, tal como lo es el fallo de un componente o bien la muerte de un individuo.
Definición: Sea la función de distribución:
F ( x) = P ( X ≤ x)
F ( x) = 0
para x < 0
(3.1.1)
F(x) es llamada función de distribución de vida y
F ( x) = 1 − F ( x)
(3.1.2)
la función de supervivencaia ó función de confiabilidad.
6
Definición: Sea f la función de densidad de F con soporte en [0,∞), la función de riesgo es
definida por:
h (x ) =
f ( x)
1 − F (x )
x ≥ 0, F(x)<1
(3.1.3)
Sea la variable aleatoria X que representa el tiempo de fallo de algún sistema físico, entonces
h(x)dx denota la probabilidad de ocurrencia de fallo en el intervalo (x, x+dx] dado que el
sistema no ha fallado hasta el tiempo x. Las distribuciones con función de riesgo monótona
son de gran importancia como modelos de duración en la teoría de confiabilidad. Estas
comprenden distribuciones con función de riesgo creciente y
función de riesgo decreciente,
para los cuales se tienen h’(x)≥0 y h’(x)≤ 0 respectivamente y con estricta desigualdad en
algunos intervalos abiertos. Una clase de distribución entre ambas familias es la exponencial
tal que h’(x)= 0, surge de manera natural en estudio de la hipótesis:
x
Ho : f ( x; â ) =
1 −â
e
â
x ≥ 0, â > 0
(3.1.4)
con parámetro en el origen y parámetro de escala desconocido â .
Otra interpretación común es que el producto h ( x )δx es la probabilidad de que un artículo
(unidad, persona, partícula) activo en la edad x pueda fallar en el intervalo (x, x + δx ) donde δx
es pequeño. La función de riesgo creciente corresponde al deterioro de la unidad conforme el
tiempo aumenta; La función de riesgo decreciente corresponde al beneficio de la unidad
conforme el
tiempo aumenta. Ahora, una función de riesgo constante corresponde a un
modelo en el cual la función de riesgo crece o decrece con el tiempo es decir es independiente
al tiempo.
La hipótesis en este caso es:
Ho : h( x) = â ,
para alguna â > 0 y toda x > 0
(3.1.5)
La hipótesis nula afirma que la función de riesgo â es constante, es decir la función de riesgo
no depende de la edad o tiempo x. La hipótesis nula especifica que F es una distribución
exponencial, pero no especifica con qué parámetro â .
Una caracterización de la distribución exponencial es que F es una distribución exponencial si
y sólo si la función de riesgo es una constante. Así, Ho de 3.1.5 puede ser reescrita como:
7
x
−

1 − e â
Ho : F ( x ) = 
0

â > 0 y x ≥ 0 con â no especificado
si x < 0
(3.1.6)
Considérese la hipótesis de interés como:
Ho: P(X ≥ x + yX ≥ x)=P(X ≥ y) para todo x≥0, y≥0
(3.1.7)
En este caso, la hipótesis Ho asegura que la probabilidad de supervivencia en un tiempo
adicional “y” dado que la unidad ha sobrevivido hasta el tiempo “x” es igual a la probabilidad
que una nueva unidad pueda sobrevivir el período “y” desde su período inicial de vida. Es
decir, un artículo usado tiene la misma probabilidad de falla que un artículo nuevo o bien esto
equivale a que la función de riego de falla no depende del tiempo, esto es equivalente a tener
la distribución exponencial.
Usando la función de supervivencia, 3.1.7 puede ser escrita como:
1 − P( x + y )
= 1 − P( X ≤ y )
1 − P (x )
F ( x + y)
= F ( y)
F (x )
de tal forma que la hipótesis Ho dada en 3.1.6 es equivalente a:
F ( x + y)
= F ( y)
F ( x)
∀ x, y ≥ 0
(3.1.8.A)
Ho : F ( x + y ) = F ( y) F ( x )
∀ x, y ≥ 0
(3.1.8.B)
Ho :
ó
3.2
Distribuciones alternativas a la distribución exponencial
Hollander & Wolfe, (1999) presentan pruebas para algunas distribuciones establecidas en la
hipótesis alternativa. A continuación se presentarán las alternativas establecidas que han sido
objeto de estudio para el desarrollo de pruebas de bondad de ajuste para la distribución
exponencial por diversos autores.
Supuestos para cada prueba
S1.
Las variables aleatorias
(v.a’s) X 1 , X 2 ,..., X n son i.i.d de una función de distribución
continua F.
S2.
F es una función de distribución
8
•
Alternativas FRC y FRD
Una distribución de vida F es de la clase de función de riesgo creciente (FRC) si la función de
riesgo es no decreciente. De manera equivalente una función de distribución de vida F es de la
clase de función de riesgo decreciente (FRD) si la función de riesgo es no creciente. La clase
FRC es usada como modelo desfavorable al envejecimiento ó deterioro de la unidad; la FRD
es usada como modelo favorable al envejecimiento ó deterioro de la unidad.
Si la función de riesgo h(x) existe, se dice que h(x) es de la clase FRC si :
h ( x ) ≤ h( y )
para toda x ≤ y
(3.2.1A)
de manera similar, se dice que h(x) es de la clase FRD si :
h ( x ) ≥ h( y )
para toda x ≤ y
(3.2.1B)
Las hipótesis alternativas HA en este caso son:
HA1: F es FRC
(y no exponencial)
HA2: F es FRD
(y no exponencial)
HA3: F es FRC o FRD
(y no exponencial)
Ejemplos de la clase FRC son la distribución Weibull con parámetro de forma α>1 con
cualquier parámetro de escala y la distribución Gamma con parámetro de forma α>1, con
cualquier parámetro de escala.
Ejemplos de la clase FRD son la distribución Weibull con parámetro de forma α<1 con
cualquier parámetro de escala y la distribución Gamma con parámetro de forma α<1, con
cualquier parámetro de escala.
Cuando α=1 la distribución Weibull y Gamma se reducen a la distribución exponencial.
Para ilustrar el comportamiento de una función de riesgo es considerada la distribución
Weibull(α,β), en la Gráfica 3.2.1 se ha fijado β=1 y se observa una clase de FRC cuando
α=1.5, la clase FRD cuando α=0.8 y una distribución exponencial cuando α=1.
9
Función de Riesgo
α
β
Gráfica 3.2.1. Función de riesgo para la distribución Weibull(α,β) con β=1 y α=0.8,1.0 y 1.5.
•
Alternativas NBU y NWU
Una función de distribución es de la clase nuevo mejor que el usado NBU “New Better Than
Used” si:
Ho : F ( x + y ) ≤ F ( y ) F ( x)
∀ x, y ≥ 0
(3.2.2A)
Una distribución es de la clase nuevo peor que el usado NWU “New Worse Than Used” si :
Ho : F ( x + y ) ≥ F ( y ) F ( x)
∀ x, y ≥ 0
(3.2.2B)
Las alternativas de Ho de interés en este caso son :
HA1: F es NBU
(y no exponencial)
HA2: F es NWU
(y no exponencial)
HA3: F es NBU o NWU
( y no exponencial)
Las distribuciones de la clase FRC y las de FRD forman subconjuntos de las distribuciones
NBU y NWU respectivamente.
10
4. PRUEBA DE BONDAD DE AJUSTE BASADA EN LA RAZÓN DE
DOS ESTIMADORES
4.1
Una característica de la distribución exponencial
Algunos estudios sobre los estimadores basados en muestras de una población exponencial
han sido asociados con las estadísticas de orden.
Lloyd (1952) describió un método para
obtener los mejores estimadores lineales insesgados para los parámetros, él empleó las
estadísticas de orden.
Siguiendo un estudio de la distribución exponencial con las estadísticas de orden y
considerando una m.a. X 1 , X 2 ..., X n de la distribución exponencial, se tiene que:
E(Xi) = â =µ
(4.1.1)
Var(Xi)= â 2 = σ2 ⇔ σ = â
(4.1.2)
son características particulares de la distribución exponencial.
Sean:
Y1 = mínimo ( X 1 , X 2 ,..., X n ) y Yn = máximo( X 1 , X 2 ,..., X n )
Sean los estimadores de σ y µ funciones de las estadísticas de orden Y1 y Yn , definidas
respectivamente como:
σˆ = Yn − Y1
µ
ˆ=
4.2
Y1 + Yn
2
rango
semirango
(4.1.3)
(4.1.4)
La estadística R de la razón del rango y dos veces el semirango
El propósito de esta sección es estudiar la función de distribución de la estadística R como una
estadística de prueba de bondad de ajuste para la distribución exponencial.
Considerando la razón del rango entre dos veces el semirango se tiene:
11
σ
R= ˆ
2µˆ
R =
Yn − Y1
Yn + Y1
(4.2.1)
Y1
Y − Y1
Yn
además : R = n
=
Y
Yn + Y1
1+ 1
Yn
1−
La hipótesis a probar es :
Ho: La m.a X 1 , X 2 ,..., X n , proviene de una distribución exponencial.
HA: La m.a X 1 , X 2 ,..., X n , no proviene de una distribución exponencial.
Nótese que la hipótesis Ho es no especificada, ya que β es desconocida.
La prueba que se propone es:
Rechazar Ho si R< r1 o R>r2
Si se desea tener una prueba de tamaño α * entonces es necesario encontrar los valores de r1 y
r2 tales que cumplan:
á * = P ( R < r1 o R > r2 Ho )
= 1 − P( r1 < R < r2 Ho )
⇒ P (r1 < R < r2 Ho ) = 1 − á *
Una manera de seleccionar a los valores de r1 y r2 es :
P ( R < r1 Ho) = P ( R > r2 Ho ) =
4.2.1
á*
2
Funciones de densidad y distribución de R
Para lo anterior es necesario conocer la distribución de la estadística R bajo Ho.
Nótese que la distribución de R no depende del parámetro de escala β.
A continuación se procede a obtener la densidad de la estadística de R bajo Ho.
La función de distribución conjunta de las estadísticas de orden Y1 y Yn es:
12
f Y1 ,Yn ( y1 , y n ) =
n!
{F ( y n ) − F ( y 1 )}n− 2 f ( y n ) f ( y1 )
( n − 2 )!
0 < y n < y1 < 1
donde y1 y y n son el mínimo y máximo de la m.a. de la distribución exponencial
f X (x ) =
1
e
â
−x
â
FX ( x ) = 1 − e
−x
â
con x ≥0 y β>0,
− yn
 −ây1

f Y1 ,Yn ( y1 , y 2 ) = n (n − 1)e − e â 


− ( y1 + yn )
n −2
â
e
I ( 0 , ∞ ) ( y1 ) I ( 0 ,∞ ) ( y n )
â2
Empleando el método de Jacobianos:
T:
se tiene,
y n − y1
y n + y1
w = y1 + y n
w
(1 + r )
2
w
y1 = (1 − r )
2
r=
yn =
− w (1+ r )
 − w2(1â− r )

f R ,W ( r , w) = n (n − 1)e
−e 2â 


n− 2
−
w
â
e w
I ( 0 ,1) ( r ) I ( 0 ,∞ ) ( w)
â2 2
donde la función de densidad de R es:
n − 2
(
− 1) n − 2 −k

f R ( r ) = 2 n( n − 1)∑ 
k  [r ( n − 2 − 2k ) + n]2
k =0 
n− 2
(4.2.2)
y la función de distribución de la estadística R bajo Ho es:
r
n −2
(− 1)n− 2− k dq
2
FR (r ) = ∫ 2n( n − 1) ∑  n −
k  [q (n − 2 − 2 k ) + n]2
k =0 
0
 n − 2  (− 1)n −2 − k r
FR (r ) = 2( n − 1) ∑ 

k  r (n − 2 − 2k ) + n
k =0 
n −2
(4.2.3)
el desarrollo para obtener las funciones de densidad y de distribución para la estadística R, así
como comprobar que la función es una función de densidad es presentado en el Anexo C
13
Para analizar la función de distribución de la estadística R se procede a evaluar FR(r) en los valores de r =0.1, 0.2, 0.3, ......0.9, este proceso es
realizado por el Programa 1 en el paquete S-Plus 2000, (Anexo B), los resultados se presentan en la Tabla 4.2.1
FUNCIÓN DE DISTRIBUCIÓN FR(r)
PARA DISTINTOS TAMAÑOS DE MUESTRA n Y r = 0.1, 0.2, 0.3, 0.4,...,0.9.
Tabla 4.2.1
n/r
0.1
2 1.000000e-001
3 8.898776e-003
4 7.518797e-004
5 6.168666e-005
6 4.965835e-006
7 3.944870e-007
8 3.103266e-008
9 2.422896e-009
10 1.880421e-010
15 2.137179e-015
20 -2.582989e-013
25 2.356672e-011
30 -3.539001e-009
35 -9.346726e-010
40 -1.692504e-006
45 1.597919e-005
50 1.952348e-001
55 7.859322e-001
60 -1.322460e+001
65 2.465608e+003
70 -1.101074e+005
75 -2.682089e+006
80 1.408453e+008
85 -1.990331e+008
90 7.342771e+011
95 2.747572e+012
100 7.246248e+014
0.2
0.3
2.000000e-001 3.000000e-001
3.571429e-002 8.080808e-002
6.060606e-003 2.071611e-002
9.990010e-004 5.161865e-003
1.616031e-004 1.262626e-003
2.579979e-005 3.048624e-004
4.079019e-006 7.290455e-005
6.400922e-007 1.730555e-005
9.985017e-008 4.083746e-006
8.662260e-012 2.819499e-009
3.686904e-012 -5.853651e-013
2.598415e-011 -5.053158e-012
1.361378e-010 -3.984465e-010
-6.779581e-008 4.063144e-008
2.838125e-007 -8.595085e-006
-1.697061e-006 2.371434e-005
3.882285e-001 5.785738e-001
1.372773e+000 2.074276e+000
-2.076924e+001 -4.282923e+001
5.008576e+003 7.487008e+003
-2.209934e+005 -3.269820e+005
-5.331597e+006 -8.164397e+006
2.755877e+008 4.147585e+008
-9.356707e+008 -2.133589e+009
1.474003e+012 2.207755e+012
5.545682e+012 8.390246e+012
1.450962e+015 2.180478e+015
0.4
4.000000e-001
1.447964e-001
5.000000e-002
1.679749e-002
5.542445e-003
1.805687e-003
5.827506e-004
1.867046e-004
5.947110e-005
1.841305e-007
5.388886e-010
-6.996643e-011
-2.098914e-009
-3.558412e-009
4.142802e-006
1.349614e-005
7.736742e-001
2.580957e+000
-4.237316e+001
1.047224e+004
-4.398021e+005
-1.136089e+007
5.534634e+008
-3.696107e+009
2.943996e+012
1.137292e+013
2.911551e+015
0.5
5.000000e-001
2.285714e-001
1.000000e-001
4.262404e-002
1.785714e-002
7.389927e-003
3.030303e-003
1.233796e-003
4.995005e-004
5.134694e-006
4.992012e-008
2.850333e-010
6.847944e-009
1.024429e-007
-4.751250e-006
3.066517e-004
9.634063e-001
3.374183e+000
-5.245855e+001
1.352453e+004
-5.555253e+005
-1.454259e+007
6.982429e+008
-5.393042e+009
3.677755e+012
1.403127e+013
3.651838e+015
14
0.6
0.7
6.000000e-001 7.000000e-001
3.333333e-001 4.606345e-001
1.780220e-001 2.931624e-001
9.281895e-002 1.826938e-001
4.761905e-002 1.122142e-001
2.414796e-002 6.819847e-002
1.213893e-002 4.111445e-002
6.060606e-003 2.462927e-002
3.009361e-003 1.467831e-002
8.599931e-005 1.047656e-003
2.327479e-006 7.096529e-005
6.117745e-008 4.666508e-006
-2.210597e-009 3.111972e-007
2.557386e-007 -5.670686e-008
-4.335043e-006 4.459286e-006
-1.546927e-004 -1.116339e-004
1.150514e+000 1.335069e+000
3.756896e+000 3.477279e+000
-6.269552e+001 -6.398526e+001
1.646930e+004 1.951147e+004
-6.633549e+005 -7.936354e+005
-1.799086e+007 -2.109785e+007
8.194924e+008 9.517056e+008
-7.953500e+009 -1.072578e+010
4.414389e+012 5.157043e+012
1.696194e+013 2.011753e+013
4.386371e+015 5.114973e+015
0.8
8.000000e-001
6.124402e-001
4.571429e-001
3.355899e-001
2.434545e-001
1.750518e-001
1.250000e-001
8.876598e-002
6.274966e-002
1.056997e-002
1.696614e-003
2.648337e-004
4.058433e-005
5.860183e-006
-5.927284e-006
-3.526192e-004
1.515621e+000
4.160281e+000
-7.145295e+001
2.267749e+004
-8.966706e+005
-2.480094e+007
1.096661e+009
-1.394661e+010
5.888872e+012
2.316401e+013
5.872893e+015
0.9
9.000000e-001
7.912088e-001
6.855799e-001
5.880941e-001
5.006868e-001
4.237723e-001
3.569780e-001
2.995384e-001
2.505162e-001
9.893507e-002
3.759896e-002
1.395803e-002
5.100409e-003
1.842832e-003
6.568011e-004
7.061346e-004
1.707603e+000
4.291263e+000
-9.245470e+001
2.624695e+004
-1.033585e+006
-2.929298e+007
1.247093e+009
-1.834265e+010
6.626812e+012
2.545871e+013
6.626015e+015
Para los valores negativos que aparecen en el Cuadro 4.2.1 con factor de base 10-X donde
x≥004 son valores que se consideran como cero. En este cuadro se observa que para n>45, se
tiene que FR(r)>1 ó FR(r)<0, para algunos valores de r como por ejemplo: para n=50
FR(0.7)=1.335069 y para n=60 FR(0.1)= -13.22460, lo cual es una violación a las propiedades
de una función de distribución.
Observando la función de distribución de R (4.2.3) es :
n −2 n − 2

 (− 1)n −2 − k r
FR (r ) = 2( n − 1) ∑ 

k  r (n − 2 − 2k ) + n
k =0 
Esta ecuación es una función determinada por una sumatoria con términos de signos
alternados, cada término de la sumatoria involucra elementos factoriales, es posible que el
redondeo de cada término realizado por el paquete S-Plus 2000, dentro del Programa 1
acumule el error en la sumatoria. Esto puede ser la causa por la que el resultado de FR(r) sea
una violación a la función de distribución para tamaño de muestra
n>45 y para algunos
valores de r, además se observa que el error crece conforme n se hace más grande.
Desafortunadamente, esta observación hace limitar el uso de la distribución de la estadística R
como una estadística de prueba para tamaños de muestra n≤ 45.
4.2.2
Comportamiento de la función de densidad de R
Para analizar el comportamiento de f R(r) donde 0<r<1 se consideran distintos tamaños de
muestra y distintos valores de r . Los resultados (Cuadro 4.2.2 Anexo A) son generados por el
Programa 2 en el paquete S-Plus 2000 (Anexo B) y representadas por las Gráficas 4.2.1 a la
4.2.3 que presentan el comportamiento de f R(r) para los tamaños de muestra n=5, 20, y 40
respectivamente.
15
5
4
3
2
VALORES DE fr
1
0
0.0
0.2
0.4
0.6
0.8
1.0
VALORES DE r
15
10
5
0
VALORES DE fr
20
25
Gráfica 4.2.1 Función de densidad de fr para n=5
0.0
0.2
0.4
0.6
0.8
1.0
VALORES DE r
Gráfica 4.2.2 Función de densidad de fr para n=20
16
30
20
VALORES DE fr
10
0
0.0
0.2
0.4
0.6
0.8
1.0
VALORES DE r
Gráfica 4.2.3 Función de densidad de fr para n=40
Como puede observarse de las Gráficas 4.2.1 a la 4.2.3, para tamaños de muestra n≤40 el
comportamiento de la función de densidad tiende a concentrarse a 1 por la izquierda cuando el
tamaño de la muestra n crece.
Para conocer el comportamiento de la esperanza de f R(r), se realiza un proceso de simulación
mediante el Programa 3 en el paquete S-Plus (Anexo B), este proceso permite obtener las
esperazas estimadas para distintos tamaños de muestra y es realizado por el algoritmo
siguiente:
Algoritmo 1 (estimación de la esperanza de R E(r))
1. Se genera por simulación, n variables aleatorias con distribución exponencial estándar.
2. Se calcula la estadística r =
y n − y1
.
y n + y1
3. Se repite el paso 1 y 2, 10,000 veces.
4. Del paso 1 al 3 se obtienen ri valores donde i=1,2,...,10,000. Se calcula la media muestral
de las ri , sea esta E(ri).
5. La esperanza de f R(ri) para el tamaño de muestra n es E(ri).
17
Los resultados del algoritmo 1 son presentadas en la Tabla 4.2.2 proporcionando las
esperanzas estimadas de la función de densidad de f R para los tamaño de muestra con n=2, 3,
4, 5(5), 70(10), 100. Se observa que las esperanzas se concentran de 0.5 (aproximadamente)
hasta 1 y que para tamaños de muestra n>8 la esperanza es mayor que 0.90; así, la
característica de f R es de una tendencia muy rápida a uno, como se observa en las Gráficas
4.2.1 a la 4.2.3.
Tabla 4.2.2
Esperanza de f R (r) para distintos
tamaños de muestra n
n
2
3
4
5
10
15
20
25
30
35
40
45
50
55
60
65
70
80
90
100
E(r)
0.4941782
0.6827144
0.7713899
0.8269147
0.9282465
0.9575107
0.9704701
0.9778357
0.9822608
0.9854829
0.9874997
0.9893939
0.9903946
0.9916453
0.9924355
0.9932098
0.9939398
0.9946929
0.9953780
0.9959417
Es importante recordar que las esperanzas de f R obtenidas en la Tabla 4.2.2 para los distintos
tamaños de muestra es para cualquier distribución exponencial, ya que f R no depende del
parámetro β.
4.2.3
Cuantiles de la función de densidad de R
Para realizar la prueba de hipótesis:
Ho: La m.a. X 1 , X 2 ,..., X n , proviene de una distribución exponencial.
HA: La m.a. X 1 , X 2 ,..., X n , no proviene de una distribución exponencial.
el proceso que se propone es:
18
rechazar Ho si R< r1 o R>r2 , donde los valores r1 y r2 son tales que:
á*
P ( R < r1 Ho) = P ( R > r2 Ho ) =
(4.2.4)
2
donde α* es el tamaño de la prueba designada.
Para este proceso es necesario conocer los cuantiles de f R para hallar los valores de r1 y r2
que cumplan la condición (4.2.4) del proceso.
Para obtener los cuantiles mencionados se procede, considerando la función de distribución de
R (4.2.3). Encontrar el cuantil r para un tamaño de prueba α* implica la siguiente condición:
 n − 2  (− 1)n − 2 − k r
2( n − 1) ∑ 

=á*
k  r ( n − 2 − 2 k ) + n
k=0 
n− 2
(4.2.5)
Una solución para encontrar el cuantil r que cumpla (4.2.5), es realizada de manera numérica
con un error de delta=0.0001. Para diferentes valores α* los cuantiles son obtenidos por medio
del Programa 4 en el paquete S-Plus 2000 mediante el siguiente algoritmo:
Algoritmo 2 (estimación de los cuantiles de R)
1.- Se consideran valores para α* y un tamaño de muestra n.
2.- Se proporcionan los valores iniciales como r1 =0, r2 =1 , r =
r1 + r2
y delta=0.0001.
2
3.- Se evalúa r en FR (r ) .
4.- Obtener dif = á * − FR (r ) .
5.- Si delta<dif, continuar con los pasos 6 o 7, en caso contrario, continuar con el paso 9.
6.- Si α* – FR(r)> 0 y dif > delta, hacer r1 = r, y r =
r1 + r2
.
2
7.- Si α* – FR(r) <0 y dif < delta, hacer r2 = r, y r =
r1 + r2
.
2
8.- Repetir los pasos 3 al 7 las veces necesarias.
9.- El valor aproximado del cuantil tal que FR(r) es aproximadamente α* con error de
delta=0.0001 es r.
19
Observaciones:
1. delta es el error de aproximación al tamaño de la prueba α*
2. n es el parámetro del cual depende la función de distribución FR(r).
En los resultados obtenidos se han considerado los tamaños de la prueba de α*= 0.005,
0.0125, 0.025, 0.05, 0.95, 0.975, 0.9875, 0.995 y para tamaños de muestra n=1,2,...,45. Los
resultados son presentados en la Tabla 4.2.3. El motivo por el que se presenta hasta n=45 es la
mencionada en la sección 4.2.1 relacionado con la violación de la definición de la función de
distribución de FR(r) para tamaños demuestra n>45.
Tabla 4.2.3
CUANTILES ESTIMADOS DE R CON ERROR delta=0.0001 PARA DIFERENTES α*
n/ α *
0.005
0.0125
0.025
0.05
0.95
0.975
0.9875
2 0.005004883 0.01245117 0.02490234 0.05004883 0.9499512 0.9750977 0.9875488
3 0.075195312 0.11816406 0.16748047 0.23632812 0.9774170 0.9887695 0.9943848
4 0.187500000 0.25390625 0.31933594 0.39990234 0.9860840 0.9931030 0.9965820
5 0.296875000 0.37304688 0.44042969 0.51904297 0.9901733 0.9951477 0.9975891
6 0.390625000 0.46679688 0.53222656 0.60546875 0.9925232 0.9963074 0.9981689
7 0.470703125 0.54296875 0.60351562 0.66894531 0.9940186 0.9970398 0.9985352
8 0.535156250 0.60253906 0.65820312 0.71704102 0.9950562 0.9975586 0.9987793
9 0.585937500 0.65039062 0.70117188 0.75439453 0.9958038 0.9979248 0.9989777
10 0.630859375 0.68945312 0.73583984 0.78393555 0.9963684 0.9982147 0.9991150
11 0.667968750 0.72167969 0.76416016 0.80786133 0.9968109 0.9984283 0.9992218
12 0.699218750 0.74902344 0.78759766 0.82739258 0.9971619 0.9985962 0.9993057
13 0.724609375 0.77148438 0.80737305 0.84387207 0.9974518 0.9987488 0.9993744
14 0.748046875 0.79101562 0.82421875 0.85766602 0.9976959 0.9988632 0.9994354
15 0.767578125 0.80761719 0.83837891 0.86938477 0.9978943 0.9989624 0.9994812
16 0.784179688 0.82226562 0.85083008 0.87963867 0.9980621 0.9990463 0.9995270
17 0.798828125 0.83447266 0.86157227 0.88842773 0.9982147 0.9991150 0.9995651
18 0.812500000 0.84570312 0.87109375 0.89624023 0.9983368 0.9991837 0.9995956
19 0.824218750 0.85546875 0.87939453 0.90307617 0.9984512 0.9992371 0.9996185
20 0.834960938 0.86474609 0.88696289 0.90905762 0.9985504 0.9992867 0.9996452
21 0.844726562 0.87255859 0.89355469 0.91455078 0.9986420 0.9993286 0.9996643
22 0.853515625 0.87939453 0.89965820 0.91937256 0.9987183 0.9993668 0.9996872
23 0.860351562 0.88623047 0.90502930 0.92370605 0.9987869 0.9994049 0.9997025
24 0.868164062 0.89208984 0.90991211 0.92773438 0.9988556 0.9994354 0.9997177
25 0.874023438 0.89721680 0.91442871 0.93133545 0.9989128 0.9994621 0.9997330
26 0.879882812 0.90209961 0.91845703 0.93469238 0.9989624 0.9994888 0.9997482
27 0.885742188 0.90673828 0.92224121 0.93768311 0.9990120 0.9995117 0.9997597
28 0.890625000 0.91064453 0.92578125 0.94042969 0.9990578 0.9995346 0.9997673
29 0.895507812 0.91455078 0.92895508 0.94299316 0.9990959 0.9995537 0.9997787
30 0.899414062 0.91796875 0.93188477 0.94537354 0.9991341 0.9995728 0.9997883
31 0.903320312 0.92138672 0.93457031 0.94757080 0.9991703 0.9995918 0.9997978
32 0.907226562 0.92431641 0.93713379 0.94964600 0.9992027 0.9996071 0.9998055
33 0.910644531 0.92724609 0.93945312 0.95153809 0.9992332 0.9996223 0.9998131
34 0.914062500 0.92993164 0.94165039 0.95330811 0.9992599 0.9996357 0.9998188
35 0.916992188 0.93237305 0.94372559 0.95495605 0.9992867 0.9996490 0.9998245
36 0.919921875 0.93457031 0.94567871 0.95654297 0.9993114 0.9996605 0.9998322
37 0.922363281 0.93676758 0.94750977 0.95800781 0.9993343 0.9996719 0.9998360
38 0.924804688 0.93896484 0.94921875 0.95935059 0.9993553 0.9996834 0.9998436
39 0.927246094 0.94091797 0.95080566 0.96063232 0.9993763 0.9996929 0.9998474
40 0.929687500 0.94262695 0.95239258 0.96185303 0.9993973 0.9997025 0.9998512
41 0.931640625 0.94433594 0.95385742 0.96301270 0.9994125 0.9997120 0.9998569
42 0.934082031 0.94604492 0.95520020 0.96411133 0.9994316 0.9997196 0.9998608
43 0.935546875 0.94775391 0.95654297 0.96514893 0.9994488 0.9997272 0.9998646
44 0.937500000 0.94894409 0.95777893 0.96612549 0.9994621 0.9997349 0.9998684
45 0.939453125 0.94995117 0.95877075 0.96710205 0.9994812 0.9997412 0.9998723
20
.
0.995
0.9949951
0.9978027
0.9986572
0.9990234
0.9992676
0.9994202
0.9995117
0.9995880
0.9996490
0.9996948
0.9997253
0.9997559
0.9997711
0.9997940
0.9998093
0.9998245
0.9998398
0.9998474
0.9998589
0.9998665
0.9998741
0.9998817
0.9998894
0.9998932
0.9999008
0.9999046
0.9999084
0.9999123
0.9999161
0.9999199
0.9999237
0.9999237
0.9999275
0.9999313
0.9999332
0.9999352
0.9999371
0.9999390
0.9999409
0.9999428
0.9999447
0.9999466
0.9999475
0.9999456
4.2.4
La prueba de bondad de ajuste R
Los datos son una muestra aleatoria de tamaño n, con alguna función de distribución
desconocida y denotada por F(x).
Supuestos:
1.- La muestra X 1 , X 2 ,..., X n , es aleatoria.
2.- La escala de medición es al menos de intervalo.
Proceso de la prueba R:
1. Dada la m.a. X 1 , X 2 ,..., X n , calcular la estadística de prueba:
r=
y n − y1
y n + y1
2. Rechazar Ho si r ≤ rá * / 2 ó r ≥ r1−( á * / 2 ) de otro modo no rechazar Ho,
donde rá*/ 2 y r1− (á */ 2 ) son valores críticos de la Tabla 4.2.3 que satisfacen
P{r ≤ rá* / 2 } =
á*
= P{r ≥ r1−( á* / 2 ) }
2
Característica de la prueba:
1.- Es una prueba no paramétrica.
2.- No requiere la estimación del parámetros de escala para su realización.
4.3
Tamaño de la prueba R
En una prueba de bondad de ajuste es importante que la prueba preserve su tamaño, para
verificarlo se estima la probabilidad de rechazar la hipótesis nula cuando las muestras
pertenecen a la distribución exponencial. Esto es, se procede a generar una m.a con
distribución exponencial considerando tamaños de muestra n=10,20,30 y 40, esta se somete a
la prueba R para tamaños de la prueba α*=0.01, 0.025, 0.05, 0.1, el proceso es realizado con
1000 réplicas. Este proceso es realizado por el Programa 5 en el paquete S-Plus (Anexo B)
mediante el siguiente algoritmo:
21
Algoritmo 3 (tamaño de la prueba R)
1.- Se establece el tamaño de la prueba α* y el tamaño de muestra n.
2.- Se generan muestras aleatorias de tamaño n de la distribución exponencial estándar.
3.- Se calcula R.
4.- Si r calculada ≤ rα * / 2 ó r calculada ≥ r1− (α *) / 2 la muestra toma el valor de 1.
Si rα * / 2 ≤ r calculada ≤ r1− (α *) / 2 la muestra toma el valor de 0.
5.- Se repite 1000 veces del paso 2 al 4.
6.- Se suman los valores que tomaron las muestras en el paso 4 y se divide entre 1000,
el resultado que se obtiene es una estimación de la probabilidad de error tipo I para el
tamaño de muestra n y α* dados.
Los resultados obtenidos para el tamaño estimado de la prueba son representados en la Gráfica
4.3.1 (datos del Cuadro 4.3.1 Anexo A).
En la Gráfica 4.3.1 se observa que las probabilidades de error tipo I que se presentan son muy
cercanos a los tamaños de las pruebas establecidos en los tamaños muestra presentados. Sin
perder generalidad, esta gráfica es válida para la distribución exponencial con cualquier valor
de parámetro.
Probabilidad de Error
Tipo I
TAMAÑO ESTIMADO DE LA PRUEBA R
0.12
0.1
10
0.08
20
0.06
30
0.04
40
0.02
0
0.01
0.025
0.05
0.1
Tamaño de la Prueba
Gráfica 4.3.1. Tamaños estimados de la prueba R para n=10,20,30 y 40 y α* =0.01,0.025,0.05
y 0.1 cuando la muestra proviene de una distribución exponencial.
22
4.4
Potencia de la prueba R
La potencia solo es posible obtenerla cuando la hipótesis alternativa es establecida. Con el
propósito de conocer el comportamiento de la prueba R, se establecen diferentes distribuciones
a la exponencial como la hipótesis alternativa. Las distribuciones que se establecerán en la
hipótesis alternativa para este análisis son: Gamma, Weibull y Pareto Generalizada.
Función de densidad Gamma:
 x
x á −1 exp − 
 â  , á > 0, â > 0, x ≥ 0 .
f ( x; á , â ) =
Γ( á )â á
Función de densidad Weibull:
f ( x; á , â ) =
 xá 
á á −1
,
x exp  −
â
 â 
á > 0, â > 0, x ≥ 0 .
Si en cualquiera de estas dos funciones se consideraá =1 se tiene la función de densidad
exponencial con parámetro â .
Función de distribución Pareto Generalizada:
1
−
 á x á

F ( x; á , â ) = 1 −  1 −
á ≠ 0, â > 0 x > 0
â 

− x
 á = 0, â > 0
F ( x; á , â ) = 1 − exp 
 â 
x > 0 cuando á ≤ 0 y 0 < x < â / á cuando á > 0 . Suárez (2000).
En cada una de las distribuciones anteriores, á es el parámetro de forma y â es el parámetro
de escala.
Para obtener los resultados para un análisis de la potencia de la prueba de R se procede a
generar una m.a con alguna distribución establecida en la hipótesis alternativa considerando
tamaños de muestra n=10, 20, 30 y 40, ésta se somete a la prueba R para el tamaño de prueba
α*=0.05. Este proceso es realizado por el Programa 6 en el paquete S-Plus (Anexo B)
23
mediante el algoritmo 3 con la modificación en el paso dos en el que se generan variables
aleatorias con la distribución establecida en la hipótesis alternativa.
Las potencias aproximadas que se obtienen de la prueba R cuando es considerada como
hipótesis alternativa la distribución Gamma es representada por la Gráfica 4.4.1 (Cuadro 4.4.1
Anexo A); cuando la hipótesis alternativa establecida es la distribución Weibull los resultados
son presentados en la Gráfica 4.4.2 (Cuadro 4.4.2 Anexo A) y cuando la hipótesis alternativa
establecida es la distribución Pareo Generalizada se presenta en la Gráfica 4.4.3 (Cuadro 4.4.3
Anexo A)
En las Gráficas 4.4.1 y 4.4.2 se observa que cuando á = 1 la probabilidad de error tipo I es
aproximadamente igual al tamaño de la prueba á * = 0.05 establecida, es decir, la prueba
detecta una distribución exponencial con un error aproximado de á * = 0.05 en este punto.
POTENCIA ESTIMADA DE LA PRUEBA R
CUANDO LA H.A. ES GAMMA
Potencia Estimada
1.2
1
10
0.8
20
0.6
30
0.4
40
0.2
0
0.1 0.2 0.3 0.4 0.5 0.8
1
1.5
2
5
8
Parámetro Alfa
Gráfica 4.4.1 Potencias estimadas de la prueba R cuando la hipótesis alternativa es
la distribución Gamma(α,1) con á * = 0.05 y n=10, 20, 30 y 40.
24
POTENCIA ESTIMADA DE LA PRUEBA R
CUANDO LA H.A. ES WEIBULL
Potencia Estimada
1.2
1
10
0.8
20
0.6
30
0.4
40
0.2
0
0.1 0.2 0.3 0.4 0.5 0.8
1
1.5
2
5
8
Parámetro Alfa
Gráfica 4.4.2 Potencia estimada de la prueba R cuando la hipótesis alternativa es una distribución
Weibull(α,1) con α*= 0.05 y n=10, 20, 30 y 40.
En la Gráfica 4.4.3 se observar que, cuando α tiende a cero la prueba detecta una distribución
exponencial con una probabilidad de error tipo I aproximadamente igual al tamaño de la
prueba á * = 0.05 establecida.
POTENCIA ESTIMADA DE LA PRUEBA R
CUANDO LA H.A. ES PARETO GENERALIZADA
Potencia Estimada
1.2
1
10
0.8
20
0.6
30
0.4
40
0.2
6
4
8
0.
2
3
0.
1
.0
.5
-0
-0
-1
-3
-5
-1
0
0
Parámetro Alfa
Gráfica 4.4.3 Potencia estimada de la prueba R cuando la hipótesis alternativa es la distribución Pareto
Generalizada con tamaño de la prueba á * = 0.05 y para n=10,20,30 y 40.
En las Gráficas 4.4.1, 4.4.2 y 4.4.3 se observa que cuando el tamaño de la prueba crece la
potencia crece, lo que indica que la prueba R es una prueba consistente.
25
5. ESTUDIO COMPARATIVO DE LA POTENCIA DE LA PRUEBA R
5.1
Descripción de las pruebas a comparar
De los resultados obtenidos por el estudio de Ascher en 1990, se determinó que las pruebas de
bondad de ajuste para la distribución exponencial con mayor potencia es la prueba de Cox &
Oakes (1984). Además, se ha considerado la estadística de Hollander & Proschan (1972) como
la prueba más usada para la bondad de ajuste de la distribución exponencial además de ser una
de las pruebas más potentes. Otra prueba relacionada también con las estadísticas extremas, es
la prueba de Wong & Wong (1979). A continuación se presentan los procedimientos de estas
pruebas que se han considerado las más relevantes para realizar un estudio de comparación
mediante sus potencias contra la estadística de prueba R propuesta.
La hipótesis de interés a probar es:
Ho: F es una distribución exponencial
A.
Prueba de Hollander & Proschan: Hollander & Wolfe (1999)
Sean Y1 , Y2 ,..., Yn las estadísticas de orden de la muestra aleatoria X 1 , X 2 ,..., X n
La estadística de prueba es: T =
∑ψ(Y , Y
i > j >k
i
j
+ Yk )
1

ψ( a, b ) = 1 / 2
0

donde:
si a > b
si a = b
si a < b
obsérvese que la sumatoria en T es sobre todas las n(n-1)(n-2)/6 triples ordenadas (i,j,k) con
i>j>k. En la tabla A.35 de Hollander & Wolfe (1999) Anexo A, los valores críticos
aproximados que satisfacen P{T ≤ t á * } = á * , son proporcionados para diferentes tamaño de
muestra n ≤ 50 y diferentes α*, estos valores críticos han sido calculados vía simulación
Monte Carlo.
i)
Prueba de una cola contra alternativas NBU
Para probar:
Ho: F es exponencial vs. HA1: F es NBU (y no exponencial)
26
Para el tamaño de prueba α* establecida:
Rechazar Ho si T ≤ t á * de otro modo no se rechaza Ho.
donde la constante t á * satisface P{T ≤ t á * } = á * .
ii)
Prueba de una cola contra alternativas NWU
Para probar:
Ho: F es exponencial vs. HA2: F es NWU (y no exponencial)
Para el tamaño de prueba α* establecida:
Se rechaza Ho si T ≥ t á * , de otro modo no rechazar Ho
donde la constante t á * satisface P{T ≥ t á* } = á * .
iii)
Prueba de dos colas contra alternativas NBU y NWU
Para probar:
Ho: F es exponencial vs. HA3: F es NBU ó NWU (y no exponencial)
Para el tamaño de prueba α* establecida:
Rechazar Ho si T ≤ t á 1* o T ≥ t á 2* , de otro modo no rechazar Ho
{
}
{
}
donde las constantes t á 1* y t á 2 * satisfacen P T ≤ t á 1* = á 1 * , P T ≥ t á 2 * = á 2 *
y α 1 *+α 2 *=α*.
Para tamaños de muestra grande es empleada la estadística:
T* =
T − E(T )
=
[var(T )]1/ 2
 n( n − 1)( n − 2) 
T −

8


2
 2
 7   1 
(n − 3)( n − 4) + ( n − 3)
 +  
 n( n − 1)( n − 2) 
 432   48   
 2592
3
la cual tiene una distribución normal estándar Hollander & Wolfe (1999).
27
1
2
B.
Estadística de Cox & Oakes (1984):
Sean X 1 , X 2 ,... X n una m.a. y sean:
2

 n
 1  

2
 ∑ xi log  x x i   
1 n 
1 

 

Vkk =  n + ∑ xi log xi  −  i =1
2

x i =1 
x 
x n




−1
y
n
∑ xi log xi
i =1
x
U k 0 = n + ∑ log x i −
la estadística de prueba es: Cox = U ko (Vkk )1 / 2
donde la estadística Cox tiene una distribución aproximadamente normal estándar.
Para probar:
Ho: F es exponencial vs. H.A.: F no es una exponencial
Para el tamaño de prueba α*.
Cox ≥ Z1 -(á * / 2 )
Se rechaza Ho si Cox ≤ Z á * / 2 ó
, de otro modo no rechazar Ho.
Las constantes Zα * /2 y Z 1-(á * /2) satisfacen P{T ≤ t á* /2 } = á * /2 , P{T ≥ t 1-(áá 2 ) } = 1 − (á * /2) , los
valores de Zα * /2 y Z1- (á * /2) son obtenidos de la distribución normal estándar.
C.
Estadística de Wong & Wong (1979):
Sean Y1 , Y2 ,..., Yn , las estadísticas de orden de la muestra aleatoria X 1 , X 2 ,..., X n
La estadística de prueba propuesta por Wong & Wong es:
Q=
Yn
Y1
Para probar:
Ho: F es exponencial vs. HA: F no es una exponencial
Para el tamaño de prueba α*
Rechazar Ho si Q ≥ q , de otro modo no se rechaza Ho
donde la constante q satisface P{Q ≥ q} = á * .
Los valores críticos aproximados q son dados por los autores Wong & Wong, Tabla Q (Anexo
A), los autores presentan en su artículo cuantiles para n≤20, ya que en este estudio se requiere
también de los cuantiles para n≥20 se ha generado la Tabla Q por el Programa 7 en el paquete
S-Plus 2000 (Anexo B).
28
5.2
Tamaños de las pruebas en comparación
En esta sección se analizará el tamaño para las pruebas: R propuesta, Q (prueba de Wong y
Wong), Cox (prueba de Cox y Oakes) y HP (prueba de Hollander y Proschan).
Para este análisis se procede a generar una muestra aleatoria con distribución exponencial para
considerando tamaños de muestra n=10, 20, 30 y 40, esta se somete a las pruebas R, Q, Cox, y
HP para el tamaño de prueba α*=0.05, con 1000 réplicas. Este proceso es realizado por el
Programa 8 en el paquete S-Plus 2000 (Anexo B) mediante el siguiente algoritmo:
Algoritmo 4 ( tamaño de las pruebas)
1.- Se establece el tamaño de la prueba α* y el tamaño de muestra n.
2.- Se genera una muestras aleatoria de tamaño n de la distribución exponencial estándar.
3.- Se calculan las estadísticas R, Q, Cox, y HP.
4.- a) Si r calculada ≤ rá*/ 2 ó r calculada ≥ r1− (á* / 2 ) la muestra MRi (i=1,2...1000) toma el
valor de 1, de otro modo MRi toma el valor de cero.
b) Si q calculada ≥ q1− á* la muestra MQi toma el valor de 1, de otro modo MQi toma el
valor de cero.
c) Si Cox calculada ≤ Z á* / 2 ó Cox calculada ≥ Z1−( á* / 2 ) la muestra MCi toma el valor de 1,
de otro modo MCi toma el valor de cero.
d) Si t calculada ≤ t á * / 2 ó t calculada ≥ t1−( á*/ 2 ) la muestra MHPi toma el valor de 1, de
otro modo MHPi toma el valor de cero.
5.- Se repite i=1,2,...,1000 veces del paso 2 al 4.
6.- Se consideran los valores MR=suma de las MRi; MQ=suma de las MQi; MC=suma de las
MCi y MHP= suma de las MHPi.
7.- El tamaño de la prueba R es MR/1000.
El tamaño de la prueba Q es MQ/1000.
El tamaño de la prueba Cox es MC/1000.
El tamaño de la prueba HP es MHP/1000.
29
En la Gráfica 5.2.1 (datos del Cuadro 5.2.1, Anexo A) se presentan las probabilidades de error
tipo I estimadas para cada una de las pruebas en comparación. En esta Gráfica se observa que
la prueba de HP es la que conserva mejor el tamaño de la prueba de α*=0.05, sin embargo, se
puede ver de manera general que existe un buen comportamiento a partir del tamaño de
muestra n=20 en todas las pruebas, es decir las potencias de las pruebas conservan
aproximadamente el tamaño de la prueba establecida.
Probabilidad de Error
Tipo I
TAMAÑO ESTIMADO PARA LAS PRUEBAS
R, Q, COX Y HP
0.08
0.07
0.06
0.05
0.04
0.03
R
Q
COX
HP
0.02
0.01
0
10
20
30
40
Tamaño de muestra
Gráfica 5.2.1. Tamaño estimadas de las pruebas R , Q, Cox y HP con α*=0.05 y n= 10,20,30
y 20, cuando la muestra proviene de una distribución exponencial estándar.
5.3
Resultados de la comparación de pruebas por medio de su potencia
Para analizar la comparación entre la potencia de la prueba R contra las potencia de las
pruebas mencionadas en la sección anterior, se procede con el algoritmo 4 realizado por el
programa 8 en el paquete S-Plus 2000 (Anexo B), con la modificación en el paso dos, en la
que se generan variables aleatorias con la distribución: Gamma, Weibull, ó Pareto
Generalizada. El proceso es realizado para el tamaño de muestra n=20 â =1, diferentes
parámetros de forma α y tamaño de la prueba α*=0.05, estas especificaciones se han
proporcionado para cualquier caso de la distribución como alternativa. Los resultados son
presentados en el Cuadro 5.3.1
30
Cuadro 5.3.1 Comparación de las potencias de las pruebas R, Q, Cox y HP cuando la
hipótesis alternativa es Gamma, Weibull o Pareto Generalizada.
Potencias estimadas de las pruebas R, Q, Cox, y HP cuando la hipótesis alternativa es
Gamma(α, β=1) con n=20 y α*=0.05 (1000 repeticiones).
PRUEBAS/α
R
Q
COX
HP
0.2
0.5
0.7
0.8
1.0
1.5
2.0
4.0
8.0
0.995
0.997
1.00
0.997
0.447
0.592
0.716
0.569
0.162
0.255
0.261
0.210
0.104
0.148
0.135
0.127
0.054
0.056
0.053
0.051
0.185
0.001
0.235
0.181
0.440
0.000
0.583
0.466
0.949
0.000
0.995
0.981
1.000
0.000
1.000
1.000
Potencias estimadas de las pruebas R, Q, Cox, y HP cuando la hipótesis alternativa es
Weibull(α,β=1) con n=20 y α*=0.05 (1000 repeticiones).
0.2
PRUEBAS/α
R
Q
COX
HP
1.000
1.000
1.000
1.000
0.5
0.7
0.8
0.700
0.818
0.965
0.896
0.225
0.358
0.553
0.459
0.116
0.186
0.239
0.197
1.0
0.051
0.063
0.043
0.051
1.2
1.5
0.107
0.014
0.156
0.125
0.393
0.002
0.586
0.484
2.0
0.788
0.000
0.970
0.935
4.0
1.000
0.000
1.000
1.000
8.0
1.000
0.000
1.000
1.000
Potencias estimadas de las pruebas R, Q, Cox, y HP cuando la hipótesis alternativa es Pareto
Generalizada (α, β=1) con n=20 y α*=0.05 (1000 repeticiones).
Pruebas/α
R
Q
COX
HP
1
En
-5.0
-3.0
-1.0
-0.3
-0.1
-0.01
0.01
0.3
1.0
3.0
5.0
0.995
0.998
1.000
0.999
0.964
0.988
1.000
0.979
0.278
0.428
0.798
0.532
0.069
0.115
0.190
0.106
0.047
0.059
0.062
0.067
0.046
0.050
0.052
0.056
0.049
0.051
0.053
0.056
0.103
0.035
0.122
0.100
0.323
0.018
0.598
0.685
0.684
0.001
0.963
0.997
0.789
0.003
0.992
1.000
el
Cuadro
5.3.1
se
observa que existe evidencia que cuando se tiene a la
distribución Gamma o Weibull como hipótesis alternativa, la prueba de Cox es la que
tiene mayor potencia por lo general. Cuando se tiene a la distribución Pareto
Generalizada las pruebas de Cox y HP son las que tiene potencias igualmente altas.
2
Cuando la distribución alternativa es Gamma (con β fija) y parámetros α≤0.2 ó 4≤α,
las pruebas R, Cox y HP presentan potencias muy altas y cuando la hipótesis es una
distribución Weibull con (β fija) y parámetros α≤0.5 ó 2≤α, las pruebas R, Cox y HP
presentan potencias altas.
3
Cuando se tiene la distribución Gamma o Weibull como hipótesis alternativa la prueba
Q carece de potencia cuando el parámetro α>1; cuando se tiene a la Pareto
Generalizada como hipótesis alternativa, esta prueba presenta evidencias de potencias
muy bajas cuando α>0.
31
Nota:
1
Las pruebas de Cox y HP han sido desarrolladas específicamente para hipótesis
considerando alternativas con característica de función de riesgo monótonas,
por lo que supuestamente debería tener gran ventaja sobre la prueba R
propuesta.
2
Se puede observar que la prueba R, es bastante aceptable, además, se comporta
de manera similar a las de Cox y HP, en el sentido de como α va variando, caso
contrario a la prueba Q.
Las distribuciones Gamma y Weibull tienen función de riesgo monótonas y se suponen
favorables a las pruebas HP y Cox, ya que estas son basadas en esta característica. Además las
distribuciones Gamma, Weibull y Pareto Generalizada contienen a la distribución exponencial
como caso particular. Con la finalidad de analizar el comportamiento de las pruebas cuando
las distribuciones no tienen función de riesgo monótonas se considerarán las distribuciones:
Lognormal y Beta.
Función de densidad Lognormal:
 (log e x − µ) 2 
1
f ( x; µ, σ) =
exp −
 x > 0, - ∞ < ì < ∞, ó > 0
2σ 2
x 2πσ


donde: µ es parámetro de escala y σ es parámetro de forma.
Función de densidad Beta:
f ( x; á , â ) =
1
x á −1 (1 − x) â −1 ,
B( á , â )
0 < x < 1, á > 0, â > 0
donde á y â son parámetros de forma.
Para analizar el comportamiento cuando se tiene la distribución Lognormal como hipótesis
alternativa, se fija primero el parámetro µ y se toman diferentes valores para el parámetros σ;
posteriormente se fija el parámetro σ y se toman diversos valores para el parámetro µ. Los
resultados son presentados en el Cuadro 5.3.2.
32
Cuadro 5.3.2 Comparación de las potencias de las pruebas R, Q, Cox y HP cuando la
hipótesis alternativa es Lognormal (µ,σ).
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es la
distribución Lognormal(µ=0, σ) con n=20 y α*=0.05 (1000 repeticiones).
0.1
0.6
0.8
1
1.5
2
5
Pruebas/σ
R
Q
Cox
HP
1
0
1
1
0.903
0
0.895
0.881
0.399
0
0.348
0.284
0.094
0
0.097
0.068
0.022
0.068
0.546
0.306
0.384
0.572
0.946
0.806
1.00
1.00
1.00
1.00
10
1
1
1
1
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es la
distribución Lognormal(µ, σ=0.5) con n=20 y α*=0.05 (1000 repeticiones).
Pruebas/α
R
Q
Cox
HP
-10
0.992
0
0.991
0.989
-5
0.991
0
0.984
0.985
-2
0.996
0
0.986
0.986
-1
0.992
0
0.994
0.995
0
1
0.990
0.984
0
0
0.987
0.985
0.983
0.988
2
0.993
0
0.985
0.99
5
0.992
0
0.989
0.984
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es la
distribución Lognormal(µ, σ=1) con n=20 y α*=0.05 (1000 repeticiones).
-10 -5
-2
-1
0
1
2
5
Pruebas/µ
R
Q
Cox
HP
0.111
0
0.096
0.070
0.087
0
0.090
0.061
0.109
0
0.098
0.043
0.078
0
0.091
0.065
0.094
0
0.097
0.068
0.085
0
0.082
0.059
0.087
0
0.081
0.057
0.083
0
0.080
0.054
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es la
distribución Lognormal(µ, σ=2) con n=20 y α*=0.05 (1000 repeticiones).
-10 -5
-2
-1
0
1
2
5
Pruebas/µ
R
Q
Cox
HP
1
0.334
0.524
0.925
0.778
0.341
0.556
0.931
0.810
0.358
0.541
0.937
0.802
0.356
0.546
0.915
0.784
0.340
0.536
0.927
0.786
0.326
0.528
0.927
0.793
0.345
0.548
0.906
0.792
0.331
0.514
0.931
0.785
10
0.992
0
0.991
0.988
10
0.103
0
0.078
0.049
10
0.366
0.549
0.929
0.806
En el cuadro 5.3.2 se observa que cuando se tiene la distribución Lognormal con
parámetro µ=0 y el parámetro σ<1, como hipótesis alternativa las potencias de las
pruebas R, Cox y HP son iguales, mientras que cuando µ=0 y σ>1 la que tiene mayor
potencia es la pruebas de Cox; la prueba R resulta ser de menor potencia.
2
Hay evidencias que las pruebas tienen potencias altas cuando µ=0 y σ≤0.6 ó µ=0 y
2<σ.
3
Cuando la hipótesis alternativa es la distribución Lognormal con parámetro
diferentes µ
σ=0.5 y
las potencias de las pruebas R, Cox y HP son muy altas. Cuando la
hipótesis alternativa es la distribución Lognormal con parámetro σ=1 y diferentes µ las
potencias de las pruebas R, Cox y HP son muy bajas.
33
4
Cuando la hipótesis alternativa es la distribución Lognormal con parámetro σ=2 y
diferentes µ existe evidencias que la prueba de Cox es la de mayor potencia, mientras
que la prueba R es la mas baja.
5
La prueba Q en general no presenta buena potencia en comparación de las pruebas R,
Cox y HP.
Considerando
la
distribución
Beta
como
hipótesis
alternativa,
para
observar
el
comportamiento de las potencia de la pruebas se fija primero el parámetro â y se toman
diferentes valores para el parámetros á , posteriormente se fija el parámetro á y se consideran
diversos valores para el parámetro â . Los resultados son presentados en el Cuadro 5.3.3
Cuadro 5.3.3 Comparación de las potencias de las pruebas R, Q, Cox y HP cuando la
hipótesis alternativa es una distribución Beta (α,β).
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es
Beta(α,β=1) con n=20 y α*=0.05 (1000 repeticiones).
0.1
1
1
1
1
Pruebas/α
R
Q
Cox
HP
0.5
0.287
0.372
0.259
0.121
0.8
0.128
0.041
0.212
0.271
1
0.318
0.017
0.579
0.650
1.5
0.779
0.000
0.983
0.986
2
0.932
0
1
1
5
1
0
1
1
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es
Beta(α,β=2) con n=20 y α*=0.05 (1000 repeticiones).
Pruebas/α
R
Q
Cox
HP
0.1
1
1
1
1
0.5
0.8
0.375
0.505
0.484
0.326
0.092
0.087
0.086
0.083
1
0.141
0.018
0.256
0.232
1.5
2
0.580
0.001
0.863
0.821
0.859
0
0.997
0.995
Potencias estimadas de las pruebas R, Q, Cox y HP cuando la hipótesis alternativa es
Beta(α=1,β) con n=20 y α*=0.05 (1000 repeticiones).
0.1
0.5
0.8
1
1.5
2
Pruebas/β
R
Q
Cox
HP
1
0.876
0.002
0.999
1
0.562
0.008
0.901
0.976
0.387
0.011
0.709
0.825
0.287
0.005
0.564
0.640
0.225
0.022
0.374
0.371
0.158
0.017
0.268
0.249
5
1
0
1
1
5
0.083
0.040
0.100
0.093
En el cuadro 5.3.3 se observa que cuando se tiene como hipótesis alternativa la
distribución Beta con parámetro β=1 y α<0.5 las potencias de las pruebas R, Cox y HP
son por lo general iguales; cuando β=1 y α>0.8 las pruebas Cox y HP presentan las
potencias más altas; ocurre lo mismo cuando β=2 y α<0.8
34
2
Cuando se tiene como hipótesis alternativa la distribución Beta con parámetro α=1 y
β>5 todas las pruebas dan evidencias de potencias muy bajas.
3
La prueba Q muestra evidencias de no ser confiable, ya que en algunas
especificaciones de parámetros ésta proporciona potencias muy bajas mientras que las
otras pruebas proporcionan potencias altas.
De las observaciones hechas del cuadro 5.3.3 no existen evidencias para que de manera
general se pueda concluir si las pruebas son de alta potencia o no.
35
6.
DISTRIBUCIÓN ASINTÓTICA DE LA ESTADÍSTICA R
En el capítulo cuatro se desarrollo un estudio de la estadística R la cual resultó adecuada para
una prueba con muestra de tamaño pequeño.
Con el objetivo de establecer una prueba para muestras de tamaño grande, en este capítulo se
analizará y desarrollará la distribución asintótica de la estadística R. Para ello, primero se
establecerán simbologías y teoremas importantes relacionados con las estadísticas de orden Y1
y Yn de una muestra aleatoria.
Se define el ínfimo de la función de distribución F(x) como:
α( F ) = inf{ x : F ( x) > 0}
y puede ser -∞ o finito.
Se define el supremo de la función de distribución F(x) como:
ω( F ) = sup{ x : F ( x) < 1}
y puede ser +∞ o finito.
Teorema 1 Galambos (1987): Supóngase que para una k finita :
ω( F )
∫ (1 − F ( y ))dy < +∞
k
Para α(F) <t<ω(F) defínase:
ω (F )
R(t ) = (1 − F (t )) −1
∫ (1 − F ( y ))dy
t
supóngase que para todo número real x cuando t → ω( F )
lim
1 − F (t + xR(t ))
= e−x
1 − F (t )
Entonces existen sucesiones an y b n >0 tales que cuando n → +∞ ,
lim P(Yn < a n + bn x ) = H 3 , 0 ( x)
donde: H 3 , 0 = exp( −e − x )
- ∞ < x < +∞ .
y las constantes de normalización pueden ser seleccionadas como:
36
a n = inf  x : 1 − F ( x ) ≤

1

n
(6.1)
bn = R( an )
y
(6.2)
Teorema 2 Galambos (1987): Sea α( F ) finita. Supóngase que la función de distribución
1
F * (tx)
F * ( x ) = F  α( F ) −  , x<0 satisface: lim t → -∞ *
= x −γ
x
F (t )

entonces existen sucesiones cn
y d n >0 tales que, cuando n → +∞ ,
lim P(Y1 < cn + d n x ) = L2 ,γ ( x)
1 − exp( − x γ )
donde: L2 ,γ ( x) = 
0
si x > 0
si x ≤ 0
y las constantes de normalización cn y d n pueden ser seleccionadas como:
cn = α( F )
y
(6.3)
d n = sup  x : F ( x ) ≤

1
 − α( F )
n
(6.4)
Teorema 3 Galambos, (1987): Sean X 1 , X 2 ,.... X n variables aleatorias i.i.d con función de
distribución F(x). Supóngase que F(x) es tal que existen sucesiones a n , c n , bn > 0 y d n > 0
para las cuales cuando n → +∞ ,
lim F n ( an + bn x ) = H ( x)
y
lim[ 1 − F (c n + d n x)] n = 1 − L( x)
existen y son no-degenerados. Entonces, cuando n → +∞
lim P(Y1 < cn + d n x, Yn < a n + bn y ) = L( x) H ( y)
En otras palabras, si las distribuciones asintóticas de Y1
y Yn existen y son apropiadamente
normalizadas, entonces Y1 y Yn son asintóticamente independientes.
37
Ahora, sean X 1 , X 2 ,..., X n variables aleatorias i.i.d de la distribución exponencial, para
encontrar las función de densidad asintótica de la estadística R, se emplearán las distribuciones
asintóticas normalizadas de las estadísticas de orden Y1 y Yn .
a)
Distribución Asintótica Normalizada de la Estadística de Orden Yn. Empleando el
Teorema 1 y considerando la
distribución exponencial de interés se procede al siguiente
análisis:
ω( F ) = sup{ x : F ( x) < 1} = sup{ x : 1 − e
ω( F )
∫
(1 − F ( x )) dx =
+∞ − x
β
∫e
k
dx = − βe
−
x
β
k
x
β
< 1} = +∞
+∞
k

−
 = βe β < +∞
 k
 − βt
∫t (1 − F ( y ))dy =  e

ω (F )
R(t ) = (1 − F (t )) −1
−
−1
t

−
 βe β = β


−
t → ω( F ) lim
t + xβ
β
1 − F (t + xR(t ))
1 − F ( t + xR( t ))
e
= t → +∞ lim
= t → +∞ lim
t
−
1 − F (t )
1 − F (t )
β
e
= e −x
por el Teorema 1 se afirma que la distribución asintótica normalizada Yn* , de la estadística de
orden Yn es una distribución Gumbel, es decir:
FY * ( x) = exp( −e − x )
n
- ∞ < x < +∞
y por el mismo Teorema 1 por las ecuaciones (6.1) y (6.2) se deduce que las constantes de
normalización son:
bn = R( an ) = β
1 − F (a n ) =
b)
1
n
⇔ e
a
− n
β
=
1
n
⇔
y,
1
a n = − β log   = β log n
n
Distribución Asintótica Normalizada de la Estadística de Orden Y1. Empleando el
Teorema 2 y considerando que la distribución de interés es la distribución exponencial se tiene
que:
α( F ) = inf{ x : F ( x) > 0} = inf{ x : 1 − e
38
−
x
β
> 0} = 0
1
1
1
F ( x) = F α( F ) −  = F  −  = 1 − e xβ
x

 x
*
analizando:
1
F * (tx)
1 − e txβ
t → −∞ lim *
= t → −∞ lim
1
F (t)
tβ
1− e
1
/por regla de L’ Hópital/ = t → −∞ lim
βt 2 e txβ
βxt e
2
1
tβ
1 1
1
1  − 
= lim t → −∞ e t  xβ β  = x −1
x
por el Teorema 2 se tiene que la distribución asintótica normalizada Y1* de la estadística de
orden Y1 es la distribución exponencial:
1 − e − x
FY * ( x) = 
1
0
si x > 0
si x ≤ 0
y por el mismo Teorema 2 por las ecuaciones (6.3) y (6,4), las constantes de normalización
son:
c n = α( F ) = 0 y
F (d n ) =
1− e
d
− n
β
1
− α( F )
n
=
1
n

⇔ log  1 −

d
1
=− n
n
β
 1
 n 
d n = −β log 1 −  = β log 

 n
 n −1 
⇔
Así, las estadísticas asintóticas normalizadas de Yn y Y1 son respectivamente:
Yn =
Yn − an Yn − β log n
=
bn
β
(6.5)
Y1 =
Y1 − c n
=
dn
(6.6)
*
y
*
Y1
.
 n 
β log 

 n −1
De (6.5) y (6.6) se tiene que:
Yn = β(Yn * + log n)
n  *
Y1 = β log 
Y1 .
 n −1
y
39
Para encontrar la distribución asintótica de la estadística de R se procede a definir R en función
*
*
de Yn y Y1 .
 n  *
Yn + Y1 = β(Yn * + log n) + β log 
Y1
 n − 1


 n  *
= βYn * + log 
Y1 + log n
 n −1


*
 n  *
Yn − Y1 = β(Yn + log n) − β log 
Y1
 n −1


 n  *
= βYn * − log 
Y1 + log n 
 n − 1


*
*
la estadística R en función de Yn y Y1 es:
 n  *
*
Yn + log 
Y + log n
n −1  1

R=
 n  *
Yn * − log 
Y1 + log n
 n −1
(6.7)
donde : Y1* tiene distribución exponencial
Yn* tiene distribución gumbel
*
*
y por el Teorema 3, Yn y Y1 son asintóticamente independientes.
6.1
Estimación de los cuantiles de la distribución asintótica de R por
simulación
Recuérdese que las esperanzas de las funciones de densidad de R dependen del tamaño de
muestra. En la sección 4.2.2 se encontró por medio de simulación, que estas esperanzas son de
aproximadamente 0.5 a 1, por esto se decide estandarizar las funciones de densidad para
centrarlas en 1 por medio de una constante de estandarización, la constante de estandarización
propuesta es:
CR =
E (Yn + Y1 )
,
E (Yn − Y1 )
40
para encontrar esta constante se procede a calcular E(Y1 ) y E(Yn ):
x
1 −
f X (x ) = e β
β
FX ( x) = 1 − e
−
x
β
con x ≥0, β >0
f Y1 ( y1 ) = n{1 − F ( y1 )}
n −1
 − yβ1 
f Y1 ( y1 ) = n e 


∞
∞
n −1
ny1
f Y1n ( y n ) = nF n −1 ( y n ) f ( y n )
f ( y1 )
y
ny
1 − β1 n − β 1
e = e
β
β
∞
y
− n 


f Yn ( y n ) = n1 − e β 


n −1
y
1 − βn
e
β
ny1
−
n −
n
E (Y1 ) = ∫ y1 f ( y1 ) = ∫ y1 e β = ∫ y1 e β dy1
β
β0
0
0
2
− y1
n
ya que f ( y1 ) =   y1 e β es una densidad Γ(2,β/n) se tiene que:
 β
E (Y1 ) =
n
nβ 2 β
=
n 2β n
y

− n 

E (Yn ) = ∫ y n f ( y n ) = ∫ y n n1 − e β ) 


0
0
∞
∞
n −1
yn
y
∞

− n 
1 −β
n

e dy n = ∫ y n 1 − e β 
β
β 0 

n −1
−
e
yn
β
dy n
y
y 
− n ( n −1− k ) − n
−  n ( n −1− k ) + n 
n ∞ n −1  n − 1
n ∞ n −1  n − 1
β 
n −1− k
β
β
n −1 −k
= ∫ y n ∑ 
( −1)
e
e dy n = ∫ y n ∑ 
 (−1)
e β
dy1
β 0 k =0  k 
β 0 k=0  k 
y
y
 n− k 

β 
∞
− yn 
n n −1  n − 1
n −1− k
= ∑ 
( −1)
y
e
∫0 n 
β k=0  k 
2
−yn
 n− k 
ya que f ( y n ) = 
 yn e
 β 
E (Yn ) =
n− k
β
es una densidad Γ[2,β/(n-k)] se tiene que:
n −1 n − 1

 ( −1) n −1− k
β 2 n n −1  n − 1 (−1) n −1 −k


=
n
β


∑
∑

2
β k = 0  k  (n − k ) 2
k=0  k
 (n − k )
 n −1  n − 1 ( −1) n −1− k 1 

E(yn -y1 ) = E(yn ) - E(y1 ) = β n∑ 
− 
2
k
n
k
=
0

 (n − k )

 n −1  n − 1 ( −1) n −1− k 1 

E(yn + yn )= E(yn )+ E(y1 ) = β n∑ 
+ 
2
k
n
k
=
0

 (n − k )

41
La constante de estandarización propuesta es:
 n − 1 ( −1) n −1− k 1
n ∑ 

−
E ( y n + y1 )
(n − k )2 n
k =0  k

CR =
= n −1
E ( y n − y1 )
 n − 1 ( −1) n −1− k 1
n∑ 

+
2
n
k =0  k
 (n − k )
n −1
(6.1.1)
de tal forma que la estadística R estandarizada es:
 n  *
Yn * + log 
Y1 + log n
n −1

RE = CR
*
 n  *
Yn − log 
Y1 + log n
 n −1
(6.1.2)
Los cuantiles estimados de la distribución asintótica de R estandarizada son calculados por
medio de simulación mediante el siguiente algoritmo.
Algoritmo5: (cuantiles estimados para la distribución asintótica R estandarizada )
1.- Generar una variable aleatoria exponencial y otra Gumbel
2.- Se calcula la estadística RE
3.- Se repiten 10,000 veces los pasos 1 y 2 para un tamaño de muestra fijado n> 45
4.- Se considera la función de distribución empírica que resulte de los 10,000 valores de RE, la
cual es considerada como una estimación de la distribución R.
5.- Con base en el paso 4 se estiman los cuantiles deseados.
Considerando la prueba de dos colas, se proporcionan los cuantiles estimados para tamaños de
la prueba α*=0.001, 0.0125, 0.025, 0.95, 0.975, 0.9875, y 0.995, el resultado ha sido obtenido
por el algoritmo 5 realizado por el programa 9 en el paquete S-Plus 2000 (Anexo B). Se
considera para la distribución asintótica los cuantiles correspondientes al tamaño de muestra
n=50, ya que la varianza de la distribución asintótica para tamaños de muestra mayores a 50
crece muy lentamente y no tienen mucha relevancia (esto puede observarse en la Tabla 6.1.1A
Anexo A).
Los cuantiles aproximados correspondientes para tamaños de muestra n>45 correspondientes a
la distribución asintótica son proporcionados en la tabla 6.1.1
42
Tabla 6.1.1 Cuantiles aproximados de la distribución asintótica R estandarizada
50
Colas inferiores y superiores de diferentes α *
0.005
0.0125
0.025
0.05
0.95
0.975
0.9875
0.9630911 0.9714149 0.9774180 0.9830523 1.018277 1.020019 1.021737
Para tamaños de muestra
0.995
1.023820
n>45, la hipótesis Ho: la m.a es una distribución exponencial, es
rechazada cuando la RE estandarizada es menor al cuantil de la cola inferior o mayor al cuantil
de la cola superior presentado en la tabla 6.1.1.
Obsérvese que la estadística de prueba considerada aquí es:
RE = CR
6.2
Yn − Y1
Yn + Y1
Distribución asintótica de la estadística R
Para encontrar la distribución asintótica de R de la estadística (6.7), se procede a realizar
transformaciones por el método de Jacobianos con el propósito de simplificar el procedimiento
*
*
son
+1
y
n
del álgebra y cálculo integral. Se toma en consideración el hecho de que Yn y Y1
asintóticamente independientes.
La distribución asintótica de R es:
FR ( rA ) =


2Γ


1
 n 
log 

 n −1 


+ 1


1
A
 log n  + 1 n
  n − 1 

 


n 

 n −1 
log 
 ( r +1) log n n−1  




 n 
∞
log
+
1




∫0 F1 u  n−1  du




1
donde F1 es la función de distribución Gamma con parámetros:
En el Anexo C se presenta el desarrollo analítico para la obtención de FR
43
 n 
log 

 n −1
A
7.
CONCLUSIONES Y RECOMEDACIONES
1. Ya que la función de densidad de la prueba basada en R es libre del parámetro de
escala de la distribución exponencial, no es necesario su estimación como ocurre en
otras pruebas.
2. La prueba propuesta es consistente con respecto al tamaño de la muestra, esto es,
cuando el tamaño de la muestra crece la potencia de esta prueba aumenta.
3. La potencia estimada de la prueba R es buena cuando los datos provienen de las
distribuciones Gamma, Weibull y Pareto Generalizada.
4. La prueba R es una prueba de bondad de ajuste la cual no considera características de
distribuciones alternativas. Los resultados comparativos obtenidos de esta prueba dan
evidencias de su robustez al compararla con las pruebas de Hollander & Proschan y la
de Cox & Oakes, las cuales han sido desarrolladas para las alternativas con función de
riesgo monótonas, por lo que deberían tener gran ventaja sobre la prueba R propuesta.
5. La prueba R es la más recomendable cuando el investigador desea realizar una prueba
rápida y sin mucho calculo, ya que las estadísticas de pruebas HP y Cox resultan muy
laboriosas; mientras que la estadística de prueba R se limita a considerar el mínimo y
máximo de una muestra aleatoria.
6. La distribución asintótica analítica de la estadística de R fue identificada.
7. Se presentaron evidencias de que la prueba Q de Wong & Wong no es recomendable
para probar exponencialidad.
8. Se encontró evidencias de que cuando la muestra proviene de una distribución Beta
con parámetro α=1 y β>5 las pruebas R, HP, y Cox
detectan una distribución
exponencial. Aunque de manera general las potencias de las pruebas no son confiables
ante las distribuciones Beta y Lognormal como alternativas. Es recomendable analizar
estas distribuciones como alternativas para las pruebas R, HP, y Cox.
44
8.
BIBLIOGRAFÍA
Ascher S. (1990). A Survey of Test for Exponentiality. Commun. Statist. Theory Meth., 19(5)
p.p. 1811-1825.
Bickel P., Doksum K. (1969). Test for Monotone Failure Rate Based on Normalized Spacings.
The Annals of Mathematical Statistics, Vol. 40, No. 4, pp. 1216-1235.
Cox D. & Oakes D. (1984). Analysis of Survival Data. Champan and Hall. First edition.
D’Agostino R. & Stephens M. (1984) Goodness-Of-Fit Techniques. Marcel Dekker.
Gail M. & Gastwirth J. (1978). A Scale-Free Goodness-of-Fit Test for the Exponential
Distribution Based on the Gini Statistic. Journal of Royal Statistical Society. Series B
(Methodological), Vol. 40 No. 3, pp. 350-357.
Galambos J. (1987) The asymptotic Theory of Extreme Order Statistics. Robert E. Krieger.
Second Edition.
Hollander M. & Proschan F. (1972). Testing Whether New is Better than Used. The Annals of
Methematical Statistics Vol. 13 No.4 1136-1146.
Hollander M. & Wolfe D, (1999). Nonparametric Statistical Methods, Wiley-Interscience.
Second Edition.
Johnson N., Kotz S. & Balakrishnan N. (1994). Continuous Univariate Distributions. John
Wiley & Sons Inc. Volume 1, Second Edition.
Krause A. & Olson M. The Basic of S and S- Pluss. Springer –Verlag. Second Edition.
Lloyd E. (1952). Least-Squares Estimation of Location and Scale Parameters Using Order
Statistics. Biometrika, Vol.39, No. 1/2 pp. 88-95.
45
Mood A., Graybill F. & Boes D. (1974) Introduction to the Theory of Statistical. McGrawHill. Third Edition.
Spurrier J. (1984). An Overview of test for exponentiality. Commun. Statistic.- Theor. Meth.,
13(13), 1635-1654 .
Suárez J. (2000) Una prueba de bondad de ajuste para la distribución Pareto Generalizada.
Tésis de Maestría. Colegio de Postgraduados.
S-Plus 2000 Programer’s guide. (1999); Math Soft; Seeattle, Wh. United States.
S-Plus 2000 User’s guide. (1999) ; Math Soft; Seeattle, Wh. United States.
S-Plus 2000 Guide to Statistics, Vol. 2 guide. (1999) ; Math Soft; Seeattle, Wh. United States.
Wong P. & Wong S. (1979). An Extremal Quotient Test
Metrika Volume 26, pp. 1-4.
46
for Exponential Distribution .
ANEXOS
47
ANEXO A
Tablas y cuadros
Tabla 4.2.2 f R evaluada en distintos valores de r para distintos tamaños de muestra n
r/n
0.001
0.010
0.025
0.050
0.075
0.100
0.125
0.150
0.175
0.200
0.225
0.250
0.275
0.300
0.325
0.375
0.350
0.400
0.425
0.450
0.475
0.500
0.525
0.550
0.575
0.600
0.625
0.650
0.675
0.700
0.725
0.750
0.775
0.800
0.810
0.825
0.835
0.845
0.850
0.865
0.875
0.900
0.910
0.925
0.935
0.950
0.965
0.975
0.990
n=5
2.457600e-009
2.457747e-006
3.841440e-005
3.076614e-004
1.040309e-003
2.472417e-003
4.845344e-003
8.407610e-003
1.341687e-002
2.014199e-002
2.886528e-002
3.988494e-002
5.351765e-002
7.010150e-002
8.999917e-002
1.413317e-001
1.136015e-001
1.736492e-001
2.110557e-001
2.541001e-001
3.033855e-001
3.595768e-001
4.234091e-001
4.956980e-001
5.773512e-001
6.693816e-001
7.729238e-001
8.892522e-001
1.019803e+000
1.166199e+000
1.330282e+000
1.514148e+000
1.720193e+000
1.951160e+000
2.051218e+000
2.210212e+000
2.322496e+000
2.440111e+000
2.501002e+000
2.692446e+000
2.827770e+000
3.195464e+000
3.355266e+000
3.609880e+000
3.790218e+000
4.077846e+000
4.387634e+000
4.607451e+000
4.958736e+000
n=20
2.217861e-012
-1.123103e-011
2.406061e-012
-4.179955e-012
6.812120e-012
2.432330e-011
-6.961758e-012
-1.400361e-011
-9.510205e-012
-9.637100e-012
8.313107e-012
2.087143e-011
1.594065e-011
1.443419e-010
5.427264e-010
7.868298e-009
2.153913e-009
2.693887e-008
8.621407e-008
2.606013e-007
7.494509e-007
2.062291e-006
5.458654e-006
1.396097e-005
3.463949e-005
8.367857e-005
1.974508e-004
4.564655e-004
1.036765e-003
2.319721e-003
5.126240e-003
1.121722e-002
2.436846e-002
5.270031e-002
7.170361e-002
1.137937e-001
1.548684e-001
2.108747e-001
2.461329e-001
3.919533e-001
5.353301e-001
1.176184e+000
1.618058e+000
2.625857e+000
3.642969e+000
6.003630e+000
1.001853e+001
1.421609e+001
2.441648e+001
48
n=40
-1.508279e-005
-3.004841e-006
-2.050183e-005
2.605650e-006
-1.982732e-006
-1.196274e-005
-4.779161e-006
4.239427e-006
-1.295052e-005
2.975085e-005
-4.759025e-006
-1.491447e-005
-2.011902e-006
-1.185452e-005
-7.949238e-006
-2.240525e-005
-1.081643e-005
-1.422075e-005
3.087296e-006
-2.920782e-006
2.466906e-005
2.926277e-006
-1.771325e-006
2.492535e-006
-6.878613e-006
3.661941e-005
-8.616010e-006
5.557646e-006
-1.088183e-005
4.206498e-006
1.015446e-005
-1.590170e-005
2.111231e-005
4.799966e-005
9.290457e-005
3.227775e-004
5.878650e-004
1.143837e-003
1.610067e-003
4.243254e-003
8.232499e-003
4.437585e-002
8.806389e-002
2.502063e-001
5.088895e-001
1.514816e+000
4.694311e+000
1.027515e+001
3.533623e+001
n=53
1.972196531
2.144367816
1.968946907
1.721719227
1.649640436
1.857161283
1.836728697
1.539467754
1.698504370
1.539769793
1.486762749
1.457642181
1.572657180
1.422813058
1.376614184
1.033073194
1.289773191
1.138367886
1.121702176
1.163847785
1.224958352
1.040154828
1.050840459
0.989545580
0.838509068
0.641181966
0.761567445
0.842814858
0.652341470
0.613421954
0.645621870
0.470397081
0.430093973
0.232778246
0.384094650
0.441776829
0.324706264
0.091692243
0.126690270
0.247419392
0.145785256
0.001476622
0.184012209
0.190291538
0.318401763
0.499369101
2.165648028
6.390494412
35.093453869
Tabla Q. Cuantiles superiores para la prueba de
Wong & Wong
n/α
0.01
2
199.0128
3
447.5403
4
729.2175
5 1035.7666
6 1362.3047
7 1705.3223
8 2062.3779
9 2432.2510
10 2813.1104
11 3203.7354
12 3603.5156
13 4011.8408
14 4427.4902
15 4849.8535
16 5279.5410
17 5715.3320
18 6157.2266
19 6604.0039
20 7056.8848
21 7513.4277
22 7976.0742
23 8442.3828
24 8913.5742
25 9388.4277
26 9868.1641
27 10350.3418
28 10837.4023
29 11325.6836
30 11821.2891
31 12316.8945
32 12817.3828
33 13320.3125
34 13825.6836
35 14335.9375
36 14848.6328
37 15361.3281
38 15878.9062
39 16401.3672
40 16923.8281
0.025
79.00238
177.49786
289.17313
410.72845
540.19928
676.26953
817.94739
964.66064
1115.64636
1270.67566
1429.29077
1591.18652
1756.13403
1923.82812
2094.26880
2267.15088
2442.32178
2619.62891
2799.07227
2980.49927
3163.75732
3348.99902
3535.76660
3724.36523
3914.18457
4105.83496
4299.01123
4493.40820
4689.33105
4886.47461
5084.83887
5284.42383
5485.22949
5687.25586
5890.50293
6094.66553
6300.04883
6506.34766
6713.86719
0.05
39.00051
87.49008
142.49325
202.37923
266.18004
333.23288
403.07999
475.36850
549.81232
626.22070
704.42200
784.22546
865.55481
948.25745
1032.25708
1117.47742
1203.88031
1291.35132
1379.85229
1469.30695
1559.71527
1651.00098
1743.16406
1836.09009
1929.77905
2024.30725
2119.52209
2215.42358
2312.01172
2409.21021
2507.01904
2605.51453
2704.62036
2804.26025
2904.35791
3005.14221
3106.38428
3208.16040
3310.39429
49
0.1
19.00017
42.47665
69.13424
98.17600
129.12512
161.66449
195.56522
230.65567
266.80946
303.90739
341.88271
380.64003
420.14122
460.31952
501.12724
542.53578
584.49745
626.99318
669.99435
713.46283
757.38907
801.75400
846.51947
891.68549
937.25204
983.16193
1029.43420
1076.03073
1122.97058
1170.23468
1217.80396
1265.64026
1313.80081
1362.22839
1410.92300
1459.88464
1509.09424
1558.57086
1608.29544
T A B L E A.35. Selected Critical Values for the Null Distribution of the Hollander-Proschan
T Statistic: n =4(1)20(5)50
For given and α*, the lower-tail entry is t1 (α*,n) satisfying P0 {T≤t1 (α*, n)}≅ α* and the up per-tail entry is t2(α*, n) satisfying P0{T≥t2 (α*,
n)}≅ α*. (Tail probabilities were computed via Monte Carlo estimation. A parenthetical value adjacent to an upper (lower) critical point x
gives the estimated probability P0 {T ≥x}(P0 {T≤x}). Parenthetical values are included for those estimated tail probabilities that were not within
.002 of the nominal α*.)
Lower - Tail
α*
n
.01
.025
.05
.075
.10
4
0(.067)
1 (.103)
5
0(.018)
1 (.028)
2 (.040)
3 (.072)
4
6
2
5 (.028)
7
8 (.061)
9 (.086)
7
7
11
14 (.045)
16 (.072)
18 (.105)
8
15
21
25
28
30
9
27
34
40
44
47
10
42
52
60
65
69
11
63
76
86
92
97
12
89
105
117
125
131
13
122
141
157
167
174
14
162
185
204
215
223
15
209
236
259
272
282
16
266
298
323
338
350
17
330
368
397
415
429
18
405
446
480
502
518
19
490
538
577
601
619
20
594
642
685
713
732
25
1250
1351
1427
1472
1507
30
2320
2463
2574
2651
2704
35
3850
4064
4215
4316
4394
40
5947
6214
6434
6593
6700
45
8665
9040
9341
9543
9686
50
12170
12661
13020
13255
13439
(continued)
T A B L E A.35. (continued)
Upper - Tail
α*
n
.01
.025
.05
.075
.10
4
5
10(.177)
6
20(.053)
19(.167)
7
35
34(.047)
33(103)
8
55
54
53
52.(.083)
52(.083)
9
81
80(.019)
78
77
76
10
114
112
110
109(.067)
107(107)
11
155
152(.028)
150(.046)
148(.070)
146
12
205
201
198(.047)
195
193
13
264
260
255
252(.072)
249
14
334
328
322
318
315
15
415
408
401
396
392
16
508
499
491
484
480
17
613
603
593
586
580
18
732
720
709
700
693
19
866
852
838
828
820
20
1015
998
982
970
961
25
2018
1986
1956
1934
1918
30
3521
3461
3411
3375
3349
35
5625
5546
5464
5403
5359
40
8418
8301
8189
8113
8049
45
12012
11864
11709
11600
11502
50
16519
16310
16085
15937
15823
Adapted from M. Hollander and F. Proschan, Testing whether new is better than used, Annals of Mathematical Statistics 43
(1972): 1136-1146, with permission of the authors, the editor of The Annals of Mathematical Statistics, and the Institute of
Mathematical Statistics.
50
Cuadro 4. 3.1 Tamaños de la prueba estimada para n=10, 20, 30 y 40, y α*=0.01, 0.025, 0.05, 0.1
(1000 repeticiones)
0.01
0.011
0.005
0.003
0.006
n/α*
10
20
30
40
0.025
0.021
0.019
0.020
0.029
0.05
0.052
0.052
0.044
0.061
0.1
0.097
0.093
0.091
0.101
Cuadro 4.4.1 Potencias estimadas de la prueba R cuando la hipótesis alternativa es Gamma(α,β=1) para
n=10,20,30 y 40, α*=0.05 (1000 repeticiones).
n/α* 0.1 0.2
1 0.950
10
1 0.994
20
30
40
1
1
1.000
1.000
0.3
0.769
0.4
0.550
0.5
0.359
0.8
0.082
1.0
0.04
1.5
0.102
2.0
0.254
5.0
0.870
8.0
0.977
0.907
0.726
0.484
0.101
0.048
0.158
0.452
0.985
1.00
0.972
0.991
0.823
0.856
0.549
0.603
0.103
0.098
0.058
0.054
0.27
0.303
0.547
0.635
0.996
1.00
1.00
1.00
Cuadro 4.4.2 Potencias estimadas de la prueba R cuando la hipótesis alternativa es Weibull(α,β=1) para
n=10,20,30 y 40, α*=0.05 (1000 repeticiones).
n/α*
10
0.1
0.2
1.000 0.996
0.3
0.4
0.5
0.8
0.943
1.0
1.5
5.0
8.0
0.806
0.566
0.120
0.217
0.562
0.997
1.000
20
30
1.000
1.000
1.000 0.996 0.933
1.000 1.000 0.974
0.735
0.802
0.111 0.0490 0.363
0.134 0.040 0.465
0.776
0.879
1.000
1.000
1.000
1.000
40
1.000
1.000
0.844
0.135 0.0440 0.538
0.888
1.000
1.000
1.000 0.988
0.050
2.0
Cuadro 4.4.3 Potencias estimadas de la prueba R cuando la hipótesis alternativa es Pareto Generalizada(β=1,α*)
para n=10,20,30 y 40, α*=0.05 (1000 repeticiones).
n/α*
10
20
30
40
n/α*
10
20
30
40
-10.
1
1
1
1
.3
0.086
0.106
0.129
0.109
-6
-5
-4
-3
-2
-1
-.8
-.5
-.3
-.01
0.994 0.961 0.923 0.815 0.580 0.213 0.161 0.077 0.052 0.052
1.000 0.997 0.991 0.941 0.768 0.291 0.182 0.078 0.053 0.057
1.000 1.000 1.000 0.984 0.858 0.328 0.211 0.100 0.050 0.041
1.000 1.000 0.999 0.993 0.906 0.403 0.244 0.110 0.058 0.048
.5
.8
1
2
3
4
5
6
10
0.112 0.181 0.217 0.461 0.592 0.676 0.718 0.755 0.848
0.149 0.262 0.323 0.528 0.667 0.697 0.781 0.815 0.903
0.179 0.299 0.350 0.559 0.690 0.770 0.805 0.825 0.897
0.187 0.296 0.393 0.624 0.715 0.798 0.812 0.852 0.904
.01
0.037
0.050
0.051
0.061
Cuadro 5.2.1 Tamaños estimadas de las prueba R, Q, Cox y HP para n=10,20,30 y 40 con α*=0.05,
cuando la muestra aletoria es una distribución exponencial (1000 repeticiones).
n/PRUEBA
10
20
30
40
R
0.068
0.044
0.048
0.047
Q
0.056
0.054
0.054
0.047
Cox
0.056
0.042
0.057
0.049
HP
0.049
0.043
0.050
0.046
Tabla 6.1.1A Cuantiles de la distribución asintótica de R generada por simulación para distintos tamaños de
muestra n≥50 y distintas α* (1000 repeticiones).
n/α
α * 0.005
50 0.9630911
80 0.9739354
100 0.9796966
200 0.9909272
300 0.9946939
500 0.9968893
0.0125
0.9714149
0.9785372
0.9834684
0.9926922
0.9955719
0.9974155
0.025
0.9774180
0.9827605
0.9862996
0.9938479
0.9962438
0.9978704
0.05
0.9830523
0.9860349
0.9890088
0.9949959
0.9969528
0.9983221
51
0.95
1.018277
1.005328
1.004016
1.001789
1.001113
1.000640
0.975
1.020019
1.006440
1.004840
1.002120
1.001332
1.000767
0.9875
1.021737
1.007418
1.005654
1.002397
1.001533
1.000852
0.995
1.023820
1.008369
1.006586
1.002707
1.001762
1.001005
ANEXO B
Programas en el paquete S-plus 2000
Programa 1 Genera el cálculo de la distribución FR (r)
# Este programa realiza los cálculos de la distribución FR (r) para tamaños de
# muestra n=2,3,4,.....100 y r=0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9
rs<-c(0.1,0.2,0.3,0.4,0.5,0.6,0.7,0.8,0.9) #valores de r
m<-100
# tamaños de muestra n=2,3.....100
ynr<-matrix(0,m,length(rs))
# Matriz que contendrá los resultados
ynr1<-c(1:100)
j<-1
while (j<=length(rs))
{
r<-rs[j]
n<-2
while (n<=m)
{
k<-c(0:n-2)
suma<-sum( choose(n-2,k)*((-1)^(n-2-k))*(1/(r*(n-2-2*k)+n))
)
Fr<-2*(n-1)*r*suma
ynr[n,j]<-Fr
n<-n+1
}
j<-j+1
}
n<-n-1
columnas<-c(rs)
filas<-c(ynr1)
dimnames(ynr)<-list(filas, columnas)
ynr
Programa 2. Genera el cálculo de la densidad de fR(r)y grafica la función
correspondiente al tamaño de muestra.
# Este programa hace los cálculos de la distribución R(r) con n=30
# proporciona la gráfica de la función de densiadad de f(r) con n=30
rs<-c(0.001, 0.01, 0.025, 0.050, 0.075, 0.10, 0.125, 0.15, 0.175, 0.20, 0.225,
0.25, 0.275, 0.30, 0.325, 0.375, 0.35, 0.40,0.425, 0.45, 0.475, 0.50,
0.525, 0.55, 0.575, 0.60, 0.625, 0.65, 0.675, 0.70, 0.725, 0.75, 0.775,
0.80, 0.810, 0.825, 0.835, 0.845, 0.850, 0.865, 0.875, 0.90, 0.910, 0.925,
0.935, 0.95, 0.965, 0.975, 0.990 ) # valores de r calculadas en f(r)
# El tamaño de muestra se puede cambiar.
m<-c(30)
# tamaño de muestra para el cálculo de los rs en fr y su gráfica
ynr<-matrix(0,length(rs),length(m))
# matriz que contendrá los resultados
j<-1
while(j<=length(rs))
{
r<-rs[j]
l<-1
while (l<=length(m))
{
n<-m[l]
k<-c(0:n-2)
suma<-sum( choose(n-2,k)*(-1)^(n-2-k)*(1/ ( (r*(n-2-2*k)+n)^2) ) )
fr<-2*n*(n-1)*suma
ynr[j,l]<-fr
52
l<-l+1
}
j<-j+1
}
m<-matplot(rs, ynr, type="ll", lty=c(1),main="FUNCION DE fr PARA n=30",xlab="VALORES
DE r", ylab="VALORES DE fr", col=1)
m
columnas<-c("fr")
filas<-c(rs)
dimnames(ynr)<-list(filas, columnas)
ynr
Programa 3
(ALGORITMO 1) Genera, mediante simulación la esperanza de la
estadística R para diversos tamaños de muestra n.
# Programa para generar la esperanza de R para varios tamaños de muestra
# Se consideran nr repeticiones.
m<-c(2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,30,35,40,
45,50,55,60,65,70,80,90) #Aquí se pueden cambiar tamaños de muestra n
nr<-1000
# No.de repeticiones para analizar la esperanza de f(r), se puede cambiar
matmedias<-matrix(0,length(m),2) # vector que tendra los resultados
l<-1
while (l<=length(m))
{
n<-m[l]
vecRl<-matrix(0,nr,1)
vecR2<-matrix(0,nr,1)
for (i in 1:nr)
{ g<-matrix(rexp(n,1),n,50)
vecRl[i]<-(max(g)-min(g))/(max(g)+ min(g))
}
media<-mean(vecRl)
matmedias[l,1]<-m[l]
matmedias[l,2]<-media
l<-l+1
}
columnas<-c("n","E(r)")
filas<-c(m)
dimnames(matmedias)<-list(filas, columnas)
matmedias
Programa 4.(ALGORITMO
2)Genera los cuantiles para la estadística de R
# Este programa hace los cálculos de cuantiles de F(r) para tamaño de muestra n
# y distintas tamaños de la prueba con error delta=.0001 se recomienda hasta n=45
alphas <- c(0.005, 0.0125, 0.025, 0.05, 0.995, 0.9875, 0.975, 0.950)
m<-c(2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,
29,30,31,32,33,34,35,36,37,38,39,40,41,42,43,44,45) # Tamaños de muestra
# Matrices que obtendrán los resultados finales
matalfa<-matrix(0,length(m),length(alphas))
matcuantilr<-matrix(0,length(m), length(alphas))
l<-1
while(l<=length(m))
{
n<-m[l]
j<-1
while(j<=length(alphas))
53
{
r1<-0
r2<-1
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
while(dif>=1e-005)
{
k<-c(0:n-2)
suma<-sum( choose(n-2,k)*((-1)^(n-2-k))*(1/(r*(n-2-2*k)+n)) )
Fr<-2*(n-1)*r*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=1e-005) r1<-r
if(alpha-Fr>0 & dif>=1e-005) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=1e-005) r2<-r
if(alpha-Fr<0 & dif>=1e-005) r<-(r2+r1)/2
}
matcuantilr[l,j]<-r
matalfa[l,j]<- Fr
j<-j+1
}
l<-l+1
}
columnas<-c(alphas)
filas<-c(m)
dimnames(matcuantilr)<-list(filas, columnas)
matcuantilr
Programa 5
#
#
#
#
(ALGORITMO 3) Genera cuantiles y el tamaño de la prueba R
Programa para generar la potencia de la prueba R, considerando distintos
tamaños de muestra y sometiéndolos a la prueba R para de diferentes tamaños de la
prueba.
Se consideran nr repeticiones
alphas<-c(0.01,0.025,.05,0.1) # tamaños de la prueba a la que se somete la prueba R
alph<-alphas
#Para la prueba R de dos colas
alphas1<-alphas/2
alphas2<-1-alphas/2
alphas<-c(alphas1,alphas2)
m<-c(10,20,30,40)
nr<-1000
#tamaños de muestra n a analizar, (dar n<46)
# Número de repeticiones para ver el tamaño de la prueba
# SECCION DONDE SE CALCULAN LAS CUANTILES DE LA ESTADÍSTICA DE R
matrizr<-matrix(0,length(m),length(alphas)) #matriz que contiene los cuantiles r
Tprueba<-matrix(0,length(m),length(alphas)/2) #matriz con el tamaño de la prueba
j<-1
while (j<=length(alphas))
{
l<-1
while (l<=length(m))
{
n<-m[l]
r1<-0
r2<-1
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
54
while(dif>=0.0001)
{
k<-c(0:n-2)
suma<-sum(choose(n-2,k)*((-1)^(n-2-k))*(1/(r*(n-2-2*k)+n)))
Fr<-2*(n-1)*r*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=0.0001) r1<-r
if(alpha-Fr>0 & dif>=0.0001) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=0.0001) r2<-r
if(alpha-Fr<0 & dif>=0.0001) r<-(r2+r1)/2
}
matrizr[l,j]<-r
l<-l+1
}
j<-j+1
}
# EMPIEZA A ANALIZARSE EL TAMAÑO DE LA PRUEBA
j<-1
while (j<=(length(alphas))/2)
{
l<-1
while (l<=length(m))
{
n<-m[l]
vecRlj<-matrix(0,nr,1)
for (i in 1:nr)
{ g<-matrix(rexp(n,1),n,1)
vecRlj[i]<-(max(g)-min(g))/(max(g)+ min(g))
}
# number of rejections
if(j==1 & l==1) vecRlj11<-vecRlj
if(j==1 & l==2) vecRlj12<-vecRlj
if(j==2 & l==1) vecRlj21<-vecRlj
if(j==2 & l==2) vecRlj22<-vecRlj
nrej1<-as.matrix(vecRlj[vecRlj<matrizr[l,j]])
nrej2<-as.matrix(vecRlj[vecRlj>matrizr[l,j+length(alphas)/2]])
# estimated power
powero<-(nrow(nrej1)+nrow(nrej2))/nr
nr
powero
Tprueba[l,j]<-powero
l<-l+1
}
j<-j+1
}
columnas<-c(alphas)
filas<-c(m)
dimnames(matrizr)<-list(filas, columnas)
matrizr
columnas<-c(alph)
filas<-c(m)
dimnames(Tprueba)<-list(filas, columnas)
Tprueba
Programa 6.
(ALGORITMO 3 MODIFICADO) Genera los cuantiles de 0.025 y 0.975 y
además proporciona la
potencia de la prueba R con alternativa de la
distribución Gamma con tamaño de la prueba de 0.05, y tamaños de muestra
n=10,20,30 y 40
# nr es el no. de repeticiones.
55
# ESTE PROGRAMA SOLAMENTE CONSIDERA ALFA=0.05 Y n=10,20,30,40.
alphas1<-c(0.05) # tamaño de la prueba a la que se someten la prueba R
m<-c(10,20,30,40)
#tamaños de muestra a analizar,
nr<-1000
# Número de repeticiones para ver el tamaño de la prueba
A2colas1R<-alphas1/2
A2colas2R<-1-alphas1/2
A2colasR<-c(A2colas1R,A2colas2R)
R2colasR<-matrix(0,length(m),length(A2colasR))
_____________________________________________________
# CALCULO DE CUANTILES DE LA ESTADÍSTICA DE PRUEBA R (PRUEBA DE 2 COLAS)
# ------------------------------------------------------------------alphas<-A2colasR
j<-1
while (j<=length(alphas))
{
l<-1
while (l<=length(m))
{
n<-m[l]
r1<-0
r2<-1
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
while(dif>=0.0001)
{
k<-c(0:n-2)
suma<-sum(choose(n-2,k)*((-1)^(n-2-k))*(1/(r*(n-2-2*k)+n)))
Fr<-2*(n-1)*r*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=0.0001) r1<-r
if(alpha-Fr>0 & dif>=0.0001) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=0.0001) r2<-r
if(alpha-Fr<0 & dif>=0.0001) r<-(r2+r1)/2
}
R2colasR[l,j]<-r
l<-l+1
}
j<-j+1
}
#_________________________________________________________________
# SECCION DONDE SE CALCULAN LAS POTENCIAS O TAMAÑOS DE LAS PRUEBAS
#_________________________________________________________________
# en la variable parámetros se cambian los parámetros de la hipótesis alternativa,
# en caso de tener dos parámetros se puede fijar uno e ir variando el otro.
# Se recomienda dar pocos parámetros por los cálculos que son muy tardados
parametros<-c(.1,.2,.3,.4,.5,.8, 1,1.5,2,5,8)
T2colasR<-matrix(0,length(m),length(parametros))
pbas<-c(1,2,3,4) # SE ESTAN PROPORCIONANDO 4 PRUEBAS EN ESTE PROGRAMA
l<-1
j<-1
while (l<=length(m))
{
n<-m[l]
ptro<-1
while (ptro<=length(parametros))
{
parametro<-parametros[ptro]
vecRlj<-matrix(0,nr,1)
for (i in 1:nr)
56
{
# AQUÍ SE GENERAN LAS VRIABLES ALEATORIAS
g<-matrix(rgamma(n,parametro,1),n,1) #AQUÍ SE GENERAN LAS V.A
#calculo de las estadístas
vecRlj[i]<-(max(g)-min(g))/(max(g)+min(g))
#Estadistica R
}
# numero de rechazos
rej2colas1R<-as.matrix(vecRlj[vecRlj<R2colasR[l,j]])
rej2colas2R<-as.matrix(vecRlj[vecRlj>R2colasR[l,j+length(alphas1)]])
t2colasR<-(nrow(rej2colas1R)+ nrow(rej2colas2R))/nr
# estimated power
T2colasR[l,ptro]<-t2colasR
ptro<-ptro+1
}
l<-l+1
}
columnas<-c(A2colasR)
filas<-c(m)
dimnames(R2colasR)<-list(filas, columnas)
R2colasR
columnas<-c(parametros)
filas<-c(m)
dimnames(T2colasR)<-list(filas, columnas)
T2colasR
Nota:
solamente se tiene que generar v.a. de la hip. Alternativa deseadas en la
línea correspondiente para obtener resultados de la potencia
a) para obtener las potencias de la prueba R con alternativas Weibull se
generan muestras aleatorias con distribución Weibull lo cual es directo en
este paquete de S-Pluss 2000
b) para obtener las potencias de la prueba R con alternativa Pareto
Generalizada se generan muestras aleatorias de pareto generalizada mediante
el método de inversión, esto es:
u<-matrix(runif(n,0,1),n,1)
g<-matrix(1-(1-u)**(parametro))*(1/(parametro))
PROGRAMA 7
# Este programa genera los cuantiles de la prueba de Wong y Wong
# para difenentes niveles de significancia alfa y para tamños de muestra
# y para diferentes tamaños de muestra
alphas1<-c(0.01, .025, .05, .1) # n.s. considerados
m<-c(2,3,4,5,6,7,8,9,10,11,12,13,14,15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,
31,32,33,34,35,36,37,38,39,40)
#tamaños de muestra a analizar,
nr<-1000 # Número de repeticiones para ver el tamaño de la prueba
A2colas1R<-alphas1/2
A2colas2R<-1-alphas1/2
A2colasR<-c(A2colas1R,A2colas2R)
A1colasupQ<-1-alphas1
A2colas1C<-alphas1/2
A2colas2C<-1-alphas1/2
A2colasC<-c(A2colas1C,A2colas2C)
R2colasR<-matrix(0,length(m),length(A2colasR))
R1colasupQ<-matrix(0,length(m),length(A1colasupQ))
R2colasHP<-matrix(0,length(m),length(A2colasR))
#________________________________________________
# SECCION DONDE SE CALCULA LA TABLA DE CUANTILES
# _______________________________________________
57
# INICIA EL CALCULO DE LA TABLA PARA LA PRUEBA Q DE WONG (PRUEBA COLA SUPERIOR)
# ------------------------------------------------------------------alphas<-A1colasupQ
Rcolas<-R1colasupQ
j<-1
while (j<=length(alphas))
{
l<-1
while (l<=length(m))
{
n<-m[l]
r1<-0
r2<-40000
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
while(dif>=0.000001)
{
k<-c(0:n-1)
suma<-sum(choose(n-1,k)*((-1)^k)*(1/(n+k*(r-1))) )
Fr<-n*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=0.000001) r1<-r
if(alpha-Fr>0 & dif>=0.000001) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=0.000001) r2<-r
if(alpha-Fr<0 & dif>=0.000001) r<-(r2+r1)/2
}
Rcolas[l,j]<-r
l<-l+1
}
j<-j+1
}
R1colasupQ<-Rcolas
R1colasupQ
columnas<-c(alphas1)
filas<-c(m)
dimnames(R1colasupQ)<-list(filas, columnas)
R1colasupQ
Programa 8 (ALGORITMO 4)genera tamaños o potencia de las pruebas R, Q,
Cox y HP, además proporciona los cuantiles para el tamaño de la prueba de
0.05 de las pruebas
# Este programa proporciona el tamaño de la prueba de R,Q,Cox y HP aproximadas las
# pruebas son sometidas al tamaño de la prueba=0.05, se consideran nr repeticiones.
# ESTE PROGRAMA SOLAMENTE CONSIDERA ALFA=0.05 Y n=10,20,30,40
# DEBIDO A QUE ALGUNOS CUANTILES DE PRUBAS NO SON CALCULADOS AQUI
alphas1<-c(0.05) # n.s. considerado a la que se someten las pruebas
m<-c(10, 20,30,40) #tamaños de muestra a analizar,
nr<-1000 # Número de repeticiones para ver el tamaño de la prueba
A2colas1R<-alphas1/2
A2colas2R<-1-alphas1/2
A2colasR<-c(A2colas1R,A2colas2R)
A1colasupQ<-1-alphas1
# ns para la prueba R
# ns para la prueba Q
R2colasR<-matrix(0,length(m),length(A2colasR))#matriz para val. Crit. P/prueba R
R1colasupQ<-matrix(0,length(m),length(A1colasupQ))#matriz para val. Crit. P/prueba Q
58
R2colasHP<-matrix(0,length(m),length(A2colasR)) # matriz para val. Crit. P/prueba HP
# ________________________________________________________________
# SECCION DONDE SE CALCULAN LAS TABLAS DE CUANTILES DE LAS PRUEBAS
# ________________________________________________________________
# INICIA EL CALCULO DE CUANTILES PARA LA PRUEBA R (PRUEBA DE 2 COLAS)
# ------------------------------------------------------------------alphas<-A2colasR
Rcolas<-R2colasR
j<-1
while (j<=length(alphas))
{
l<-1
while (l<=length(m))
{
n<-m[l]
r1<-0
r2<-1
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
while(dif>=0.0001)
{
k<-c(0:n-2)
suma<-sum(choose(n-2,k)*((-1)^(n-2-k))*(1/(r*(n-2-2*k)+n)))
Fr<-2*(n-1)*r*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=0.0001) r1<-r
if(alpha-Fr>0 & dif>=0.0001) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=0.0001) r2<-r
if(alpha-Fr<0 & dif>=0.0001) r<-(r2+r1)/2
}
Rcolas[l,j]<-r
l<-l+1
}
j<-j+1
}
R2colasR<-Rcolas
# valores criticos calculados para la prueba R
# INICIA EL CALCULO DE LA TABLA PARA LA PRUEBA Q DE WONG (PRUEBA COLA SUPERIOR)
# ------------------------------------------------------------------alphas<-A1colasupQ
Rcolas<-R1colasupQ
j<-1
while (j<=length(alphas))
{
l<-1
while (l<=length(m))
{
n<-m[l]
r1<-0
r2<-40000
r<-(r1+r2)/2
alpha<-alphas[j]
dif<-1
while(dif>=0.000001)
{
k<-c(0:n-1)
suma<-sum(choose(n-1,k)*((-1)^k)*(1/(n+k*(r-1))) )
Fr<-n*suma
dif<-abs(alpha-Fr)
if(alpha-Fr>0 & dif>=0.000001) r1<-r
59
if(alpha-Fr>0 & dif>=0.000001) r<-(r1+r2)/2
if(alpha-Fr<0 & dif>=0.000001) r2<-r
if(alpha-Fr<0 & dif>=0.000001) r<-(r2+r1)/2
}
Rcolas[l,j]<-r
l<-l+1
}
j<-j+1
}
R1colasupQ<-Rcolas
# valores criticos calculados para la prueba Q
# TABLA PARA LA PRUEBA HP (PRUEBA DE 2 COLAS)
# TABLA PARA LA PRUEBA DE HOLLANDER
(TOMADOS DEL AUTOR TABLA A.35 ANEXO A)
# ------------------------------------------------------------------HOLLAN<-c(52, 112, 642, 998, 2463, 3461, 6214, 8301)
R2colasHP<-matrix(HOLLAN, nrow=4, byrow=T)
columnas<-c(0.025, 0.975)
filas<-c(10,20,30,40)
dimnames(R2colasHP)<-list(filas, columnas)
R2colasHP
#_________________________________________________________________
# SECCION DONDE SE CALCULAN LAS POTENCIAS O TAMAÑOS DE LAS PRUEBAS
#_________________________________________________________________
parametros<-c(.8, 1,1.2)
# AQUÍ SE CAMBIAN LOS PARÁMETROS DE LA DSITRIBUCIÓN
T2colasR<-matrix(0,length(m),length(parametros))
TcolasupQ<-matrix(0,length(m),length(parametros))
T2colasC<-matrix(0,length(m),length(parametros))
T2colasHP<-matrix(0,length(m),length(parametros))
pbas<-c(1,2,3,4)
l<-1
j<-1
while (l<=length(m))
{
n<-m[l]
ptro<-1
while (ptro<=length(parametros))
{
parametro<-parametros[ptro]
vecRlj<-matrix(0,nr,1)
vecQlj<-matrix(0,nr,1)
vecClj<-matrix(0,nr,1)
vecHPlj<-matrix(0,nr,1)
for (i in 1:nr)
{ g<-matrix(rweibull(n,parametro),n,1)
#CALCULO DE LAS ESTADÍSTICAS
vecRlj[i]<-(max(g)-min(g))/(max(g)+min(g)) #R
vecQlj[i]<- max(g)/min(g)
#Q
#COX
VKK<-n+(1/mean(g))*sum(g*(log(g/mean(g)))^2)(1/(n*(mean(g))^2))
*(sum( g*log(g/mean(g))) )^2
UK0<-n+sum(log(g))-(1/mean(g))*sum(g*log(g))
vecClj[i]<-UK0/(VKK^(.5))
Nsup<-qnorm(1-alphas1/2, mean=0, sd=1)
#HOLLANDER
ord<-order(g)
K<-1
TH<-0
while (K<=length(g)-2)
{
J<-K+1
60
while (J<=length(g)-1)
{
I<-J+1
while (I<=length(g))
{
if(g[ord[I]]>g[ord[J]]+g[ord[K]]){TH<-TH+length(g)-I+1
I<-length(g)}
if(g[ord[I]]==g[ord[J]]+g[ord[K]]){TH<-TH+0.5}
I<-I+1
}
J<-J+1
}
K<-K+1
}
TH
vecHPlj[i]<-TH
}
pba<-1
while (pba<=length(pbas))
{ # numero de rechazos
if(pba==1){rej2colas1R<-as.matrix(vecRlj[vecRlj<R2colasR[l,j]])
rej2colas2R<as.matrix(vecRlj[vecRlj>R2colasR[l,j+length(alphas1)]])
t2colasR<-(nrow(rej2colas1R)+ nrow(rej2colas2R))/nr}
if(pba==2){rejcolasupQ<-as.matrix(vecQlj[vecQlj>R1colasupQ[l,j]])
tcolasupQ<-nrow(rejcolasupQ)/nr}
if(pba==3){rej2colasC<-as.matrix(vecClj[abs(vecClj)>=qnorm(1alphas1/2, mean=0, sd=1)])
t2colasC<-nrow(rej2colasC)/nr}
if(pba==4){rej2colas1HP<-as.matrix(vecHPlj[vecHPlj<R2colasHP[l,j]])
rej2colas2HP<as.matrix(vecHPlj[vecHPlj>R2colasHP[l,j+length(alphas1)]])
t2colasHP<-(nrow(rej2colas1HP)+ nrow(rej2colas2HP))/nr}
# estimated power
if (pba==1) {T2colasR[l,ptro]<-t2colasR}
if (pba==2) {TcolasupQ[l,ptro]<-tcolasupQ}
if (pba==3) {T2colasC[l,ptro]<-t2colasC}
if (pba==4) {T2colasHP[l,ptro]<-t2colasHP}
pba<-pba+1
}
ptro<-ptro+1
}
l<-l+1
}
columnas<-c(parametros)
filas<-c(10,20,30,40)
dimnames(T2colasR)<-list(filas, columnas)
dimnames(TcolasupQ)<-list(filas, columnas)
dimnames(T2colasC)<-list(filas, columnas)
dimnames(T2colasHP)<-list(filas, columnas)
# POTENCIAS
T2colasR #
TcolasupQ #
T2colasC #
T2colasHP #
DE LAS PRUEBAS
POTENCIAS DE LA
POTENCIAS DE LA
POTENCIAS DE LA
POTENCIAS DE LA
PRUEBA
PRUEBA
PRUEBA
PRUEBA
R
Q
Cox
HOLLANDER
# VALORES CRITICOS DE LAS PRUEBAS EMPLEADAS
dimnames(R2colasR)<-list(m, A2colasR)
dimnames(R1colasupQ)<-list(m,A1colasupQ)
R2colasR
R1colasupQ
61
Nsup
R2colasHP
Programa 9
(ALGORITMO 5) Este programa hace los cálculos de cuantiles de R
(estandarizada) por el método de simulación para distintos tamaños de muestra.
alphas <- c(.005, 0.0125, 0.025, 0.05, ,0.95, 0.975, 0.9875, 0.995)
m<-c(50,80,100,200,300,500)
# Tamaños de muestra
nr<-10000 # Número de replicas para ver el tamaño de la prueba
# Matrices que obtendrán los resultados finales
matcuantilREst<-matrix(0,length(m), length(alphas))
ms<-1
while(ms<=length(m))
{
n<-m[ms]
vecRlj<-matrix(0,nr,1)
for (i in 1:nr)
{ ynA<-rexp(1,1)
u<-runif(1, min=0, max=1)
y1A<-log( (log (u^(-1) ))^(-1) )
r1<-(ynA-y1A*log(n/(n-1))+log(n))
r2<-(ynA+y1A*log(n/(n-1))+log(n))
Rasint<-r1/r2
k<-c(0:n-1)
Cn<-sum( choose(n,k)*((-1)^(n-k-1))*(1/(n-k))
Cninv<-(Cn+(1/n))/(Cn-(1/n))
RasintEst<-Cninv*Rasint
vecRlj[i]<-RasintEst
}
cuantilesREst<-quantile(vecRlj, c(alphas))
matcuantilREst[ms,]<-cuantilesREst
ms<-ms+1
}
columnas<-c(alphas)
filas<-c(m)
dimnames(matcuantilREst)<-list(filas, columnas)
matcuantilREst
62
)
ANEXO C
Desarrollo analítico de funciones
Desarrollo para obtener la función de densidad de la estadística R
La función de distribución conjunta de las estadísticas de orden Y1 y Yn cuando la hipótesis
nula es una función exponencial es:
f Y1 ,Yn ( y1 , y n ) =
n!
{F ( y n ) − F ( y1 )}n− 2 f ( y n ) f ( y1 )
( n − 2)!
0 < y n < y1 < 1
donde y1 y y n son el mínimo y máximo de la m.a. de la distribución exponencial
1
f X (x ) = e
â
−x
â
FX ( x ) = 1 − e
−yn
− y1


â
f Y1 ,Yn ( y1 , y 2 ) = n( n − 1) 1 − e − 1 + e â 


− yn
 −ây1

= n (n − 1)e − e â 


n− 2
e
n− 2
e
−x
â
− yn
â
e
donde x ≥0 y β>0,
− y1
â
â2
I ( 0 ,∞ ) ( y1 ) I ( 0 , ∞ ) ( y n )
− ( y1 + yn )
â
â2
I ( 0 , ∞ ) ( y1 ) I ( 0 ,∞ ) ( y n )
Por el método de Jacobianos se tiene:
T:
y n − y1
y n + y1
w = y1 + y n
w
(1 + r )
2
w
y1 = (1 − r )
2
r=
J T −1
w
= 2
w
−
2
Note que:
yn =
1+ r
2 = w(1 − r ) + w(1 + r ) = ( w + w) = w
1− r
4
4
4
2
2
por otro lado:
y n > y1 ⇔ y n − y1 > 0
x i ∈ (0, ∞) ⇒ y1 + y n > 0
w>0
y − y1
r= n
>0
y n + y1
y n < y n + y1
y n − y1 < y n
⇒ y n − y1 < y n + y1
y − y1
⇒r= n
<1
y n + y1
por lo tanto 0<w y 0<r<1 así:
63
− w (1+ r )
 − w2(1â− r )

f R ,W ( r , w) = n (n − 1)e
−e 2â 


n− 2
−
w
â
e w
I ( 0 ,1) ( r ) I ( 0 ,∞ ) ( w)
â2 2
Obsérvese que:
w(1 +r )
−
 − w (21−â r )

− e 2â 
e


n −2
=e
−
w (1+ r )( n − 2 )
  1+ r 
2â
 wrâ

e − 1


n− 2
=e
−
w (1+ r )(n −2 )
2â
 n − 2

e
∑
k 
k=0 
n− 2
wrk
â
(− 1)n− 2− k
rk 
( n− 2) − 
− w  
n − 2
n − 2 −k
2â 
â 
= ∑ 
(− 1)
e   
k 
k =0 
n− 2
Así, la función de densidad de R es obtenida por:
n( n − 1) n − 2  n − 2 

(− 1)n − 2 − k e − wc wdw
∫0 2 â 2 ∑
k 
k=0 
∞
f R (r) =
1 + r 
rk 1
( n − 2) − +
donde c = 
â â
 2â 
f R (r) =
∞
n( n − 1) n −2  n − 2 
n− 2− k
−wc


(
−
1
)
∑
∫0 e wdw ,
2 â 2 k =0  k 
obsérvese que f(w) = c 2 we −cw es una densidad Γ(2,1/ c)
f R (r) =
n( n − 1) n −2  n − 2  (− 1)n − 2 − k
∑ 
2 â 2 k =0  k  c 2
1
((1 + r )( n − 2) − 2 rk + 2) 2 = 1 2 (n − 2 + rn − 2 r − 2rk + 2 )2
2
4â
4â
1
=
[n + rn − 2 r − 2rk ]2 = 1 2 [r ( n − 2 − 2k ) + n]2
2
4â
4â
c2 =
Sustituyendo c se obtiene la función de densidad de R
n − 2
(
− 1) n − 2 −k

f R ( r ) = 2 n( n − 1)∑ 
k  [r ( n − 2 − 2k ) + n]2
k =0 
n− 2
Obsérvese que la función de densidad de la estadística de R es una función libre del parámetro
β, además, depende del tamaño de muestra n.
64
Comprobando que fR(r) es una función de densidad
1
1
n −2
n −2
 n − 2
(− 1) n−2− k
n −2
dr
n −2 − k




2
n
(
n
−
1
)
dr
=
2
n
(
n
−
1
)
(
−
1
)
∑
∑
∫0
 k  [r (n − 2 − 2k ) + n ]2
 k 
∫
2
k =0 
k =0 


0 [r ( n − 2 − 2 k ) + n]
Haciendo un cambio de variable: v = r(n-2-2k)+ n
dv = (n-2-2k)dr
dv/(n-2-2k)=dr
1
∫
0
n− 2− k
n − 2  ( −1)

f R ( r ) dr = 2n (n − 1)∑  k 
 n − 2 − 2k
k=0 
n− 2
∫
2 ( n − k −1)
n
r=0 ⇒v=n
r = 1 ⇒ v = n-2-2k + n
=2(n-k-1)
n− 2− k
n− 2
dv
n − 2  ( −1)

= − 2 n( n − 1)∑ 
k  n − 2 − 2k
v2
k =0 
1

 v
2 ( n − k −1)
n

( −1)
1
1
= −2n (n − 1)∑  n −k 2 
− 

 n − 2 − 2 k  2(n − k − 1) n 
k =0 
n− 2
n− 2− k
n −2
 n − 2  (−1) n − 2 − k  n − 2n + 2k + 2 

= −2 n( n − 1)∑ 


k =0  k
 n − 2 − 2k  2 n( n − k − 1) 
n− 2 n − 2

 (−1) n − 2 − k
= −( n − 1)∑ 

k =0  k
 n − 2 − 2k
n −2 n − 2

 ( −1) n − 2 − k
 − n + 2 + 2k 
=
(
n
−
1
)


∑
 n − k −1 



k =0  k
 n − k −1
n− 2
n −2
( n − 2)! (−1) n −2 − k
( n − 1)! (−1) n −2 − k
(n − 1)!( −1) n −1− k
= ( n − 1)∑
=∑
= −∑
(n − 1 − k )! k!
(n − 1 − k )! k!
k = 0 (n − 2 − k )! k!( n − k − 1)
k=0
k =0
n− 2
 n −2 (n − 1)! (−1) n −1 −k
( n − 1)! (−1) (n −1) −( n −1)
(n − 1)!( −1) ( n −1 )− (n −1) 
= −∑
+
−
[( n − 1) − ( n − 1)]! (n − 1)! [(n − 1) − (n − 1) ]!( n − 1)!
 k =0 (n − 1 − k )! k!
 n −1 (n − 1)!( −1) n −1− k ( n − 1)!   n −1  n − 1
(n − 1)!
= −∑
−
= ∑ 
( −1) n −1− k −
 = −[0 − 1] = 1

( n − 1)!   k = 0  k 
(n − 1)!
 k =0 (n − 1 − k )! k!
n
n k
n
n− k


(
1
)
(
−
1
)
=
 ( −1) n − k =(1 − 1) n = 0
∑
∑
k 
k =0  
k=0  k 
n
Obsérvese que :
Obtención de función de distribución de la estadística R
r
n −2
 n − 2
(− 1)n− 2− k dq

FR (r ) = ∫ 2n( n − 1) ∑ 
k  [q (n − 2 − 2 k ) + n]2
k =0 
0
n −2 n − 2
r


dq
= 2 n( n − 1) ∑ 
(− 1)n − 2 −k ∫
0
k 
[q( n − 2 − 2 k ) + n]2
k =0 
65




 n − 2  (− 1)n − 2 − k
1

(− 1)n− 2− k 
= −2n (n − 1)∑ 
k  n − 2 − 2k
k =0 
 q (n − 2 − 2k ) + n
n− 2


0

r
n− 2
(− 1) n− 2−k (− 1) n− 2−k 
1
1
= −2n (n − 1)∑  n −k 2 
− 

 n − 2 − 2k
k=0 
 r ( n − 2 − 2k ) + n n 
n −2
 n − 2  (− 1)n − 2 − k

(− 1)n− 2 − k  n − r ( n − 2 − 2 k ) − n 
= −2 n( n − 1) ∑ 
k  n − 2 − 2k
k =0 
 [r ( n − 2 − 2 k ) + n]n 
 n − 2  (− 1)n − 2 − k

(− 1)n − 2− k  − r ( n − 2 − 2k ) 
= −2(n − 1)∑ 
k  n − 2 − 2k
k=0 
 [r ( n − 2 − 2 k ) + n] 
n− 2
n −2
(− 1)n− 2− k r .
FR (r ) = 2( n − 1) ∑  n − 2 
k  r ( n − 2 − 2k ) + n
k =0 
Desarrollo analítico de la distribución asintótica de la estadística R
 n  *
*
Yn + log 
Y + log n
n −1  1

R=
 n  *
Yn * − log 
Y1 + log n
 n −1
Dada la distribución exponencial de interés se tiene que :
a n = β log n
bn = β
Yn − an
Y1 − cn
*
*
Yn =
Y1 =
donde:
cn = 0
bn
dn
d n = β log ( nn−1 )
β − parámetro de la exponencia l
*
1
Y es una distribución exponencial y
*
n
Y es una distribución Gumbel
Por el teorema 3 Y1* y Yn* son asintóticamente independientes, esto es:
fY
*
*
1 ,Y n
{
( y * , yn* ) = exp − y* − y*n − e − y
1
1
*
n
}
por el método de Jacobianos:
T:
y1 = d n y1* + c n
y1 − cn
dn
y
− an
y *n = n
bn
T −1 : y *1 =
y n = bn y *n + an
con soportes:
0 < y1
y
J T −1 =
1
dn
0
- ∞ < yn < ∞
66
0
1
bn
=
1
d n bn
por el método de Jacobianos:
y
T : z1 = n
T −1 : y1 = ( z 2 − z1 )d n
bn
y
y
z2 = 1 + n
y n = z 1bn
d n bn
{
f Z1,Z 2 ( z1 , z2 ) = n exp − z 2 − ne− z1
R=
obsérvese que:
}
J T −1 =
dn
- dn
0
bn
con soportes: − ∞ < z1 < ∞
= d n bn
y
− ∞ < z2 < ∞
y n − y1 z 1bn − ( z 2 − z 1 ) d n (bn + d n ) z1 − d n z 2
=
=
y n + y1 z1 bn + ( z 2 − z 1 ) d n (bn − d n ) z1 + d n z 2
Por lo que, realizando la transformación:
T:
w1 + w2
2bn
 b + dn
 b + dn
1 
 w1 +  n
z 2 =  n
−
dn 
 2bn d n
 2bn d n
T −1 : z1 =
w 1 = (bn + d n ) z 1 − d n z 2
w 2 = (bn − d n ) z1 + d n z 2
J T −1
1
2bn
=
bn + d n
1
−
2bn d n
dn
1
2bn
b +d
b +d
1
1
= n 2 n − n 2n +
=
bn + d n
( 2bn ) d n (2bn ) d n 2bn d n
2bn d n
2bn d n
{
fW1 ,W2 ( w1 , w 2 ) = n exp − d1w1 − d 2 w 2 − ne −d 3 ( w1+w2 )
} 2b1d
n
con soportes

w2

− ∞ < w1 < ∞
y
=
n
{
n
e −d1w1 −d2w2 exp − ne−d 3 ( w1 + w2 )
2bn d n
}
− ∞ < w2 < ∞
 n 
− β
bn + d n
d n − bn
1
1
1
n −1

donde : d 1 =
−
=
=
=
−
2bn d n
dn
2bn d n
 n  2 β 2 β log  n 
2
2 β log 



 n −1
 n −1
 n 
β log 
+β
b + dn
1
1
1
1
 n −1 
d2 = n
=
=
+
d3 =
=
2bn d n
 n  2 β 2 β log n 
2bn 2β
2
2 β log 



 n −1 
 n − 1
0
∞
 w1



(
)
P( R ≤ r ) = P R
≤ r  = ∫ P w1 > w2 r W 2 = w2 f W 2 ( w2 ) dw2 + ∫ P (w1 ≤ w2 r W2 = w2 ) f W 2 ( w2 ) dw2
w

2
 −∞
0
β log 
 ∞ n

−d 1w1 − d 2 w2
−d 3 ( w1 + w2 )
P
(
w
>
w
r
W
=
w
)
f
(
w
)
dw
=
e
exp
−
ne
dw

dw2
1
2
2
2
W
2
2
1
∫
2
∫ w∫r 2bn d n

−∞
−∞ 
2
0

ne − d 2 w2  ∞ −d 1w1 − d 2 w2
− d 3 ( w1 + w2 )
= ∫
e
exp
−
ne
dw
∫
1 dw2

−∞ 2bn d n 
w
r
 2
0
{
0
{
}
67
}










1
1
 1

 1

−
−
w
−
+
w2


1 
 2β


n
2β
n
1
0

−
( w1 +w 2 ) 
 ∞  2 β log n −1    2 β log n −1  
ne − d 2 w2
 
2β
= ∫
exp − ne
 e
dw1 dw2
 n  w∫2 r
2

 
−∞

2β log 


 n −1  


− w2
w1


1
 n 
1
∞
−
(
w
+
w
)
2
β
log



−
(
w
+
w
)


1
2
1
2
ne
e

 
2β
 n −1 
= ∫
e
exp − ne 2 β
∫ e
dw1 dw2
n


2

 
− ∞ 2β log


 w2 r

 n −1 
− d 2 w2
0
 n 
2 β log

 n −1 
por cambio de variable:
x =e
−
1
2β
1
( w1 + w2 )
dx = −
1 − 2 β ( w1 + w2 )
e
dw1
2β
w2
xe 2 β = e
− w2
 n 
2 β log 

 n −1 
−
w1
2β
−1
− w2
e − ( w2 r2 +βw2 )

 n 
 n 
log


2
β
log




ne
e
 n −1 
 n −1 
= ∫
e
exp {− nx}dx dw2
 ∫ x
 n   −∞
−∞

β log



n
−
1


−1
( w 2 r + w2 )
 − 2β

 n 
0
log 


log( nn−1 ) + 3
ne −kw2 e
 n −1 
= ∫
exp {− nx}dxdw2 con k =
 ∫ x
2β log( n n−1 )
 n   −∞
−∞

β log 


 n −1  
( w 2 r + w2 )
1
−
 2β

 n 
0
log 

e

n
− kw2
n
−
1


=
e
x
exp
{
−
nx
}
dx

dw2
∫
 n  −∫∞
−∞


β log 



 n −1 


 1

Γ  n  + 1
( w r + w2 )
0
 log n −1 

− 2

ne −kw2



2β
= ∫
F
(
e
)
 1
dw2
1
+1
 n 


−∞
 n 

log 
β log 


 n −1 
n
−
1

 n
1
+1
 n 
log 

donde F1 es la función de distribución Gamma con parámetros:
y n
 n −1 


 1

Γ  n  + 1
w ( r +1 )
 log  n −1   0
− 2


− kw2
2β
=
)dw2
1
∫ e F1 (e
0
− d 2 w2


 n  log  n −1 
n
 n −1 
n
−∞
β log
68
(I)
Realizando cambio de variable:
1
1
u = e −kw2 du = − e − kw2 dw2
− w2 = log u
k
k


 1

2Γ  n  + 1 
 

 log n −1   ∞   log n1 (r + 1) logu  



 du
=
F1 exp  n − 1
1
∫


 n 
 n  1

log


 log 
 + 3 
 log n  + 3  n  n −1 

n
−
1



 
  n − 1 


 



 1

2Γ  n  + 1 
 log (nn−11 )( r +1) 
log


  n −1   ∞  log n  +3 


=
F1 u  n −1  du
1
∫
 n  1


 log n  + 3  n log n −1 


  n − 1 
 
 
(II)
( )
∞ w2 r


n
−d 1w1 − d 2 w2
− d 3 ( w1 + w2 )
P
(
w
<
w
r
W
=
w
)
f
(
w
)
dw
=
e
exp
−
ne
dw

dw2
1
2
2
2
W
2
2
1
∫0
∫0  −∫∞ 2bn d n
2


(el proceso es similar al realizado para el término anterior con la diferencia de analizar los
∞
{
}
límites del integrando)
w2 r −d 1w1 −d 2 w2

exp − ne − d 3 ( w1 + w2 ) dw1 dw2
 ∫e
 −∞











1
1
 1 −
 w − 1 +
w
−


1 
2



n
n
2β


2β


1
∞

−
( w1 + w2 ) 
 w2r  2 β log n −1    2 β log  n −1  
ne − d 2 w2
 
2β
=∫
exp − ne
∫ e
dw1 dw2
n


2

 
0

2 β log 
 −∞

 n −1 


∞
{
ne −d 2 w2
=∫
2bn d n
0
}
−w2
 n 
2 β log 

 n −1 
w1
w r 1

 n 
1
2
−
(
w
+
w
)
2
β
log



−
( w1 + w2 ) 
1
2


ne
e


 n −1 
=∫
e 2β
e
exp − ne 2 β
dw1 dw2


∫
n 

 
0
2β 2 log
 −∞


n
−
1


∞
− d 2 w2
por cambio de variable (I):
− w2
=
∞
∫
0
ne
− d 2 w2
 n 
2 β log 

 n −1 
e
 n 
β log

 n −1
−1
− w2
 ∞

 n 
 n 
log
2
β
log






 n −1 
 n −1 
e
exp{− nx}dxdw2
 ∫x
− ( w2 r + w2 )

 2β

69
−1


∞ log  n 


log( nn−1 ) + 3
ne
n
−
1


=∫
exp {− nx}dx dw2 con k =
 ∫x
 n   − ( w2r + w2 )
2β log( nn−1 )
0

β log

2β

 n −1 




 1

 1

Γ  n  + 1
Γ  n  + 1
(w r + w2 ) 
∞
 log  n −1 

 log  n −1 

− 2
ne −kw 2




2β


=∫
F
(
e
)
dw
=
 1
 2
1
1
n
+
1



 n 
 n 
0 β log
log



n  log  n −1 
 n −1 

 n − 1 n
β log
n
 n −1
∞
− kw2
∞
∫e
−kw2
−
F1 ( e
w2 (r +1)
2β
)dw2
0
por cambio de variable II:


 1

2Γ  n  + 1
 

 log n −1   1   log n1 ( r + 1) logu 


 du
=
F1 exp n − 1
1
∫

n


 n  0

 + 3 
 log 
 log n  + 3 n log  n −1 

n
−
1


  n − 1 

 
 




 1

n1
2Γ  n  + 1
 log( n −1 )(r +1) 
log

  n −1   1  log n  +3 


=
F1 u  n −1  du
1
∫
 n  0


 log n  + 3 n log  n −1 


  n − 1 

 

( )
Así:
∞
 w
 0
P ( R ≤ r ) = P R 1 ≤ r  = ∫ P (w1 > w 2 r W 2 = w2 ) f W (w 2 )dw2 + ∫ P (w1 ≤ w2 r W 2 = w 2 ) f W ( w2 ) dw2
 w2
 −∞
0




 1

 1

log
(
)
(
r
+
1
)
2Γ  n  + 1 
2 Γ  n  + 1 


 log( )( r +1) 
log
log




n


  n −1   ∞  log  +3 
  n −1   1  log n  +3 








 n −1 
=
F1 u
F1 u  n −1  du
du +
1
∫
1
∫
n
1


n
0


  n   log n−1
  n   log n −1




log
+
3
n


log
+
3
n

  n − 1 
  n − 1 
 


 


2
2
n1
n −1



P( R ≤ r ) =


2Γ


1
 n 
log

 n −1 
 log n  + 3  n
  n − 1 
 


n1
n− 1





+ 1


1
log  n 
 n −1 



 log ( nn−11 )( r +1 ) 
∞
 log  nn−1  + 3 
∫0 F1 u   du




70



Descargar