Documento 5208637

Anuncio
Máster Oficial en Estadı́stica Aplicada.
Trabajo fin de Máster
Procesos de Renovación en tiempo discreto:
Aplicación del caso tipo fase en fiabilidad
Autor: Vı́ctor Montañés Cobo
Granada, 19 de Septiembre de 2012
Índice general
1. Procesos de renovación en tiempo discreto
1.1. Algunos conceptos básicos de procesos estocásticos . . . . . . . . .
1.2. Procesos de renovación en tiempo discreto: Introducción y definición
1.3. Ecuación de renovación . . . . . . . . . . . . . . . . . . . . . . . . .
1.4. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . . . . . .
1.5. Teoremas lı́mite de renovación . . . . . . . . . . . . . . . . . . . . .
1.6. Procesos de renovación retardados discretos . . . . . . . . . . . . .
1.6.1. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . .
1.6.2. Procesos de renovación estacionarios: PRE . . . . . . . . . .
1.7. Proceso de Renovación Alternado . . . . . . . . . . . . . . . . . . .
1.7.1. Definiciones. Fiabilidad y disponibilidad . . . . . . . . . . .
1.7.2. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
5
5
7
9
13
16
18
20
21
23
23
26
2. Proceso de Renovación Tipo Fase discreto
2.1. Las distribuciones tipo fase: Definición y propiedades
2.1.1. Definiciones . . . . . . . . . . . . . . . . . . .
2.1.2. Propiedades . . . . . . . . . . . . . . . . . . .
2.2. Procesos de Renovación Tipo Fase . . . . . . . . . . .
2.2.1. Procesos de Renovación Tipo Fase Continuos .
2.2.2. Procesos de Renovación Tipo Fase Discretos .
2.3. Procesos de renovación alternados tipo fase discretos
.
.
.
.
.
.
.
28
29
29
31
33
34
35
38
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3. Sistemas de fiabilidad discretos
39
3.1. Sistema no reparable: Proceso de renovación ordinario . . . . . . . . . 39
3.2. Sistema reparable: Proceso de renovación alternado . . . . . . . . . . 43
1
Introducción
El análisis estadı́stico de tiempos de vida tiene un área de trabajo teórico y aplicado muy amplio. Dependiendo del campo donde se realice el estudio, se hablará de
tiempo de vida, tiempo de supervivencia o tiempo de fallo. Matemáticamente, una
variable tiempo de vida es una variable no negativa de probabilidad. El análisis de
los tiempos de vida se utiliza bajo distintos nombres en disciplinas como Biomedicina, Demografı́a o Ingenierı́a. La aplicación de esta memoria se realizará en el campo
de la fiabilidad.
La finalidad de un estudio de fiabilidad es modelizar el comportamiento de un
sistema y obtener las principales medidas de funcionamiento asociadas al mismo:
tiempo hasta el siguiente fallo, probabilidad de fallo en un instante, riesgo de fallo,
disponibilidad, fiabilidad, etc. Estos tiempos pueden verse afectados a su vez por
factores endógenos o exógenos que intervengan en el comportamiento del tiempo de
vida.
Cuando se desea realizar un análisis de tiempos de vida es habitual realizarlo
desde un punto de vista estático, donde las técnicas utilizadas son bien conocidas;
no paramétricas como el estimador Kaplan-Meier (1958), semiparamétricas como
el modelo de Cox, etc. Pero cada dı́a es más frecuente la incorporación de nuevos
modelos que analizan el comportamiento de un sistema desde un punto de vista
dinámico. Por lo tanto, la incorporación de procesos estocásticos surge de una manera natural, ya que en este campo se analiza la evolución aleatoria del sistema en
el tiempo.
En este trabajo se van a considerar los procesos de renovación y van a ser aplicados en el campo de la fiabilidad. Los procesos de renovación son muy útiles en
el análisis de modelos probabilı́sticos aplicados en distintos campos como inventarios, teorı́a de colas y fiabilidad entre otros. Muchos procesos estocásticos, como
los de renovación, son regenerativos, es decir, se regeneran de un tiempo a otro de
tal forma que el comportamiento del proceso después de una regeneración es una
réplica probabilı́stica del comportamiento del proceso comenzando desde principio.
El tiempo entre dos épocas de regeneración se denomina ciclo y la sucesión de ciclos
de regeneración se denomina en nuestro caso proceso de renovación. Un especial
2
interés de la teorı́a de la renovación es que todo el desarrollo se plantea para distribuciones de probabilidad generales. Grandes resultados como el teorema llave de
renovación hacen que el comportamiento lı́mite de un proceso de renovación en el
cual se impone una estructura de costos/beneficio se pueda estudiar en términos del
comportamiento del proceso durante un ciclo de regeneración. Estos modelos son de
gran aplicación.
Cuando se desea modelizar un sistema de fiabilidad, es habitual considerar que
los tiempos de vida involucrados siguen distribuciones continuas. En la práctica, los
sistemas no siempre pueden ser monitorizados de forma continua, sino que en muchos casos sólo pueden observarse en ciertos periodos de tiempo. En estos casos, el
estado del sistema se determina cuando se procede su observación. Por otro lado, en
muchas ocasiones se producen inspecciones en tiempos determinados para analizar el
comportamiento del sistema o en muchas ocasiones es la propia estructura del sistema la que tiene un comportamiento discreto en el tiempo. Ası́, los sistemas digitales
en el campo de la electrónica funcionan de forma discreta o en sistemas de control en
este mismo campo. Pero hay que significar que si bien la literatura es extensa para
el estudio de los procesos de renovación en tiempo continuo, esto no es ası́ cuando
se desea estudiar un proceso de renovación en tiempo discreto. En este trabajo se
desarrolla la teorı́a de renovación en el caso discreto, centrándonos principalmente
en los distintos resultados. Analizamos los procesos de renovación, de renovación retardados, de renovación alternados y el proceso de renovación estacionario, siempre
en el caso discreto.
Pero como es bien sabido, cuando se consideran distribuciones generales en el
desarrollo de cualquier modelo, los resultados obtenidos son en muchas ocasiones
complejos y muy difı́ciles de interpretar y aplicar. Para dar un primer paso en la
resolución de este problema hemos introducido el proceso de renovación tipo fase discreto. Las distribuciones tipo fase fueron introducidas por Neuts y descritas
en detalle en Neuts (1981). Estas distribuciones tienen una estructura algebraico
matricial que heredan los modelos donde son consideradas, en este caso los procesos de renovación. Un propiedad importante de estas distribuciones tipo fase es que
cualquier distribución discreta de probabilidad con soporte finito es tipo fase (Neuts,
1975). Resultado extendido por Shi y otros (1996) al caso general de soporte infinito,
pero en este caso considerando las distribuciones tipo fase infinitas (distribuciones
con igual estructura matricial que las tipo fase). Por ello, al introducir esta clase
de distribuciones obtenemos los resultados de un proceso de renovación para distribuciones generales en forma algebraico matricial, más asequible de implementar
computacionalmente y de aplicar.
El trabajo se ha dividido en tres capı́tulos. Un primer capı́tulo donde se desarrollan los procesos de renovación en tiempo discreto. Un segundo capı́tulo donde se
introducen las distribuciones tipo fase analizando el proceso de renovación tipo fase
y finalmente, en el tercer capı́tulo, se presentan dos ejemplos de fiabilidad analizados
mediante procesos de renovación tipo fase discreto.
Capı́tulo 1
Procesos de renovación en tiempo
discreto
En este primer capı́tulo de la memoria se va a realizar una pequeña introducción
al concepto y algunas propiedades de los procesos estocásticos. Posteriormente nos
centraremos en el núcleo de este trabajo que son los procesos de renovación en tiempo
discreto.
1.1.
Algunos conceptos básicos de procesos estocásticos
Un proceso estocástico es un modelo probabilı́stico que permite representar sistemas que evolucionan de forma aleatoria en el tiempo. En estos sistemas, se ocupa
un estado en cada instante de tiempo, de forma que un proceso estocástico está formado por un conjunto de variables aleatorias que representan el estado del sistema
en cada instante. Algunos ejemplos de estos procesos pueden ser el número de llamada a un centro de atención al cliente, los fallos de una máquina, las llegadas de
clientes a la cola de un supermercado y el tiempo de espera de un usuario hasta ser
atendido.
Definición 1 (Proceso estocástico). Un proceso estocástico es una familia de
variables aleatorias (X(t))t∈T , con T ⊆ R, siendo X(t) el estado del proceso en el
instante t. Al conjunto donde toma valores la variable aleatoria X (t) se le denomina
espacio de estados y se representa por S. Por otro lado , a T se le conoce como
espacio paramétrico.
Definición 2 (Procesos continuos y discretos). Si el espacio paramétrico T es
un conjunto numerable, entonces el proceso estocástico se dice que ocurre en tiempo
discreto. En el caso contrario el proceso estocástico se dice que ocurre en tiempo
continuo.
5
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
En el caso especial en que el espacio de estados es discreto, generalmente N o un
subconjunto de N se dice que el proceso es una cadena.
Un proceso estocástico (X(t))t∈T sobre el espacio probabilı́stico (Ω, L, P ) está bien
definido cuando se conoce el espacio paramétrico T , el espacio de estados S y la familia de distribuciones finito dimensionales asociada. En ciertas ocasiones la familia
de distribuciones es de difı́cil manejo y en algunos casos puede ser caracterizada por
otros elementos de más sencilla aplicación.
A continuación describiremos algunos tipos de procesos. Como referencia consideraremos (X(t))t∈T con espacio de estados S y que toma valores reales.
Definición 3 (Incrementos independientes). Un proceso estocástico en tiempo
continuo se dice que tiene incrementos independientes, si para cuales quiera valores t0 < t1 < . . . < tn , {t0 , . . . , tn } ⊂ T se tiene que las variables aleatorias
X(t0 ), X(t1 ) − X(t0 ), . . . , X(tn ) − X(tn−1 ) son independientes.
Definición 4 (Incrementos estacionarios). Un proceso estocástico en tiempo
continuo tiene incrementos estacionarios si la distribución de X(t + h) − X(t) para
h > 0, no necesariamente independientes, depende solo del tamaño h del intervalo
y no del tiempo t.
Definición 5 (Proceso estacionario débil). Un proceso estocástico (X(t))t∈T tal
que E X (t)2 < ∞ es un proceso estacionario débil si para todo t ∈ T se verifica
que E [X(t)] es finita y la covarianza Cov [X(t), X(s)] = Cov [X(t + h), X(s + h)]
para cualquier r, s ∈ T y h ≥ 0
Definición 6 (Procesos estacionarios estrictos). Un proceso estocástico (X(t))t∈T
es un proceso estrictamente estacionario si las distribuciones conjuntas de los vectores aleatorios
(X(t1 + h), X(t2 + h), . . . , X(tn + h)) y (X(1 ), X(t2 ), . . . , X(tn ))
son iguales para todo h > 0 y para cualesquiera t1 , t2 , . . . , tn en T .
Definición 7 (Proceso de recuento). Un proceso estocástico en tiempo continuo
{N (t)}t≥0 , se dice de recuento, puntual o de conteo si N (t) representa el número de
veces que ocurre un suceso hasta el instante de tiempo t.
Un caso especialmente relevante de los procesos de recuento son los procesos de
renovación, a los que se dedicará principalmente este trabajo.
Los procesos de renovación son de gran utilidad en el análisis de modelos probabilı́sticos aplicados en distintos campos: modelos de inventarios y aplicaciones en
6
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
fiabilidad y colas, entre otros. Muchos procesos estocásticos son regenerativos, es
decir, se regeneran de un tiempo a otro de tal forma que el comportamiento del proceso después de una regeneración es una réplica probabilı́stica del comportamiento
del proceso comenzando desde el principio. El tiempo entre dos épocas de regeneración se denomina ciclo y la sucesión de ciclos de regeneración se denomina proceso
de renovación. El comportamiento lı́mite de un proceso estocástico regenerativo en
el cual se impone una estructura de costos/beneficio se puede estudiar en términos
del comportamiento del proceso durante un ciclo de regeneración. Estos modelos
son de gran aplicación. En este capı́tulo se definirán y desarrollarán los procesos de
renovación en tiempo discreto.
1.2.
Procesos de renovación en tiempo discreto:
Introducción y definición
Los procesos de renovación pueden definirse tanto en tiempo continuo como
discreto. Si bien las ideas y conceptos son similares al caso continuo, existen una
serie de restricciones especı́ficas que se irán presentando a lo largo del trabajo. A
lo largo de esta memoria nos referiremos por defecto al caso discreto cuando se
considere un proceso de renovación.
Son muchos los ejemplos donde los procesos de renovación son de aplicabilidad. Ası́,
revisiones técnicas de maquinaria diaria para analizar si existen fallos susceptibles
de reparación. El suceso renovable es que existan fallos. Como se realiza una única
revisión diaria, se considera el tiempo discreto.
A continuación desarrollaremos matemáticamente las expresiones de este tipo de
procesos.
Sea (Xn )n∈N una sucesión de variables aleatorias independientes idénticamente distribuidas no negativas (en sentido extenso)1 para n ≥ 1. Sea (Sn )n∈N la sucesión
asociada de sumas parciales dadas por
Sn := X0 + X1 + . . . + Xn
(1.1)
A la sucesión (Xn )n∈N se le denomina sucesión de tiempos entre llegadas, siendo
Xn el n-ésimo tiempo de espera.
A la sucesión (Sn )n∈N se le denomina sucesión de tiempos de llegada, siendo
Sn el tiempo de la n-ésima llegada.
Si para un determinado n ∈ N se tiene que Xn = ∞, entonces Sn = Sn+1 =
. . . = ∞. Ası́ tenemos que S0 ≤ S1 ≤ . . ., donde la igualdad se verifica únicamente
para Sn = ∞. La sucesión de tiempos de llegada puede ser interpretada de forma
1
En sentido extenso porque consideramos también el valor ∞
7
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
intuitiva como los instantes sucesivos en los que sucede un evento, siendo (Xn ) los
tiempos entre llegadas.
Definición 8 (Proceso de renovación en tiempo discreto). Una sucesión de
tiempos de llegada (Sn )n∈N para la cual los tiempos de espera (Xn )n∈N son independientes e idénticamente distribuidos, y dándose la condición inicial S0 = X0 = 0
se llama proceso de renovación en tiempo discreto o cadena de renovación. A los
valores Sn se les denomina tiempos de renovación.
En muchas ocasiones se denomina procesos de renovación en tiempo discreto al
proceso de recuento asociado. En este trabajo se notará como el proceso de recuento
del proceso de renovación. Se define el proceso de recuento de renovaciones en un
intervalo [1, n] como
N (n) := máx{k|Sk ≤ n}.
Por conveniencia se considera N (0) := 0. Una consecuencia inmediata de esta
definición de N (n) es que N (n) ≥ k si y sólo si Sk ≤ n de forma que se tiene la
igualdad
P (N (n) ≥ k) = P (Sk ≤ n)
(1.2)
para cualquier k ∈ N.
Con un ejemplo ilustraremos de forma clara lo establecido en esta igualdad. Si
nuestra unidad de tiempo es el minuto, y consideramos una situación a los 5 minutos,
dirı́amos que si en el instante n = 5 hay al menos k = 2 renovaciones (N (5) ≥ 2)
entonces el tiempo transcurrido hasta la segunda renovación será como máximo de 5
minutos (S2 ≤ 5). Esto se darı́a también en el sentido inverso, es decir, si el tiempo
transcurrido hasta la segunda renovación es inferior o igual a 5 minutos entonces en
el instante n = 5 se han producido al menos k = 2 renovaciones.
Definición 9 (Densidad y distribución de los tiempos de espera). A la
distribución común de la sucesión(Xn )n∈N se la conoce como distribución de los
tiempos de espera o entre llegadas del procesos de renovación y su función masa
de probabilidad se denota por f = (fn )n∈N siendo fn := P (X1 = n) con f0 := 0.
Relacionadas con esta expresión se considera:
F es la función de distribución acumulada del tiempo de espera, expresada
como F (n) := P (X1 ≤ n).
La probabilidad
de que la renovación ocurra en un tiempo finito viene dada por
P
¯
f := n≥0 fn ≤ 1 = P (X1 < ∞). El proceso se denomina recurrente si se da
la igualdad, es decir, la probabilidad de que la renovación ocurra es 1. En caso
contrario se dirá que el proceso de renovación es transitorio.
8
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Al valor común esperado para Xn , n ∈ N∗ se le nota µ := E(X1 ). Si este valor
es finito, se dice que el proceso de renovación es recurrente positivo. En caso
contrario se dice recurrente nulo o con recurrencia nula.
Debemos tener algunos aspectos en cuenta en los procesos de renovación. Al
estar tratando el tiempo como discreto y haber establecido f0 = P (X1 = 0) = 0, el
tiempo de espera entre dos renovaciones consecutivas será de al menos una unidad
de tiempo. Como consecuencia de ello, en un intervalo finito de longitud n podremos
tener como mucho n renovaciones.
La ocurrencia de una renovación en cada instante de tiempo se estudia a través de
la variable indicadora Zn que tome el valor 1 si hay renovación en dicho instante (o
lo que es lo mismo n = Sm ) y 0 en caso contrario, tal que se tiene
Zn =
n
X
1Sm =n .
m=0
Dado que S0 = 0 se considera que el tiempo 0 es un tiempo de renovación y por lo
tanto Z0 = 1. Por lo tanto inicialmente hay una renovación.
A continuación introduciremos tres procesos estocásticos que son de utilidad en
distintos campos como en el de la supervivencia o fiabilidad.
Un := n − SN (n) , n ∈ N, al que denominaremos tiempo de recurrencia hacia
atrás en el tiempo n, al que también se le conoce como tiempo de vida pasada.
Vn := SN (n)+1 − n, n ∈ N al que denominaremos tiempo de recurrencia hacia
adelante en el tiempo n o también llamado tiempo de vida residual.
Ln := SN (n)+1 − SN (n) = Un + Vn , n ∈ N denominado tiempo de vida total en
el tiempo n.
1.3.
Ecuación de renovación
Definidos los conceptos básicos y de este trabajo, a continuación estudiaremos
la ecuación de renovación y su solución en caso discreto.
La probabilidad de que una renovación ocurra exactamente en un instante n la
notaremos por un . De este modo un = P (Zn = 1) con u0 = 1. En el caso de un
proceso de renovación recurrente, la suma de estas probabilidades es infinita.
La probabilidad un puede expresarse en términos de convoluciones de la distribución f de tiempos de espera como se verá con posterioridad.
9
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Definición 10. Convolución en tiempo discreto Sean las funciones f, g : N →
R. La convolución en tiempo discreto de f y g es la función f ∗ g : N → R definida
por
n
X
f ∗ g(n) :=
f (n − k)g(k), n ∈ N.
k=0
Puede denotarse alternativamente como f ∗ g(n) o (f ∗ g)n .
Es importante recordar que si X e Y son dos variables aleatorias independientes que
toma valores enteros positivos, con f = (fn )n∈N y g = (gn )n∈N sus correspondientes
distribuciones, entonces f ∗ g = ((f ∗ g)n )n∈N es la distribución de X + Y .
Notar que en tiempo discreto, la convolución es conmutativa, asociativa y tiene como
elemento identidad δ : N → R definida por
1,
si k = 0
δ(k) :=
0, en otro caso
Definición 11. Convolución n-ésima Sea f : N → R, la convolución n-ésima de
f es la función f (n) : N → R definida de forma recursiva por
f (0) (k) := δ(k); f (1) (k) := f (k)
y
f (n) (k) := (f ∗ f ∗ . . . ∗ f )(k), n ≥ 2,
donde en este último caso la convolución se realiza n veces. Como consecuencia se
tiene que f (n+m) = f (n) ∗ f (m) para todo n, m ∈ N.
Retomando lo anterior, si X1 , . . . , Xn son variables aleatorias independientes
e idénticamente distribuidas tomando valores enteros positivos y con distribución
común f , entonces f (n) es la distribución de X1 + X2 + . . . + Xn . En el caso concreto
que tratamos de las cadenas de renovación, si f = (fn )n∈N es la distribución de
los tiempos de espera, entonces f (n) es la distribución de Sn . Esto quiere decir que
f (n) (k) es la probabilidad de que la (n + 1)-ésima ocurrencia de renovación tenga
lugar en el instante k,
f (n) (k) = P (Sn = k).
En base a esto, se puede obtener una expresión para la probabilidad de ocurrencia
de renovación en un instante concreto como convoluciones de f .
n
X
un = P (Zn = 1) = E(Zn ) =
P (Sm = n) =
m=0
n
X
fn(m)
m=0
y por tanto, resumiendo
un =
n
X
m=0
10
fn(m) .
(1.3)
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
A continuación profundizaremos en la relación existente entre las sucesiones
(fn )n∈N y (un )n∈N . Para cualquier n ∈ N∗ se tiene
n−1
X
un = P (Zn = 1) = P (S1 = n) +
= P (X1 = n) +
P (S1 = k)P (Zn = 1|S1 = k) =
k=1
n−1
X
P (X1 = k)P (Zn−k = 1) =
k=1
= fn +
n−1
X
fk un−k
k=1
Como u0 = 1 se tiene finalmente que
un =
n
X
fk un−k , n ∈ N∗ ,
k=1
o en notación de convoluciones como
un = (f ∗ u)n , n ∈ N∗ .
Otra herramienta habitual es el uso de la función generatriz o también llamada
en campos de ingenierı́a como transformada z. El uso de esta función permite pasar
de convoluciones a productos ordinarios. Como las sucesiones (fn )n∈N y (un )n∈N
son cantidades asociadas a los procesos de renovación, denotamos sus funciones
generatrices como:
Φ(s) :=
∞
X
n
fn s , U (s) :=
n=0
∞
X
un sn .
n=0
Ambas series son convergentes al menos para |s| < 1, mientras que Φ(s) también
lo es para s = 1. Notar que en el caso de Φ(s) la sumatoria puede realizarse desde
n = 1 dado que f0 = 0.
Proposición 1. Las funciones generatrices de (fn )n∈N y (un )n∈N están relacionadas
mediante
1
U (s) − 1
Φ(s) =
; U (s) =
(1.4)
U (s)
1 − Φ(s)
P
Teorema 1. Un proceso de renovación es transitorio, si y solo si, ū := ∞
n=0 un <
∞. Si se da esta situación, la probabilidad de que una renovación ocurra en algún
momento viene dada por f¯ = (ū − 1)/ū.
11
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Notar que la probabilidad de que se produzca una renovación en el instante n
verifica la ecuación
un = δ(n) + (f ∗ u)n , n ∈ N
(1.5)
donde δ(0) = 1 y δ(n) = 0 para n ∈ N∗ . Esta ecuación es un caso especial de la
ecuación de renovación en tiempo discreto y tiene la siguiente forma:
gn = bn +
n
X
fk gn−k , n ∈ N
k=0
donde b = (bn )n∈N es una sucesión conocida y g = (gn )n∈N es una sucesión
desconocida. Esta ecuación tiene una solución única como se indica en el siguiente
teorema.
Teorema 2. Ecuación de renovación en tiempo discreto Sea b = (bn )n∈N es
una
P sucesión conocida y g = (gn )n∈N es una sucesión desconocida. Si bn ≥ 0, n ∈ N
y ∞
n=0 bn < ∞, entonces la ecuación de renovación en tiempo discreto
gn = bn +
n
X
fk gn−k , n ∈ N,
k=0
tiene una única solución que viene dada por
gn = (u ∗ b)n , n ∈ N
Hay algunos procesos estocásticos relacionados con las cadenas de renovación
cuyo estudio es importante para el entendimiento del comportamiento asintótico de
las cadenas de renovación. Definiremos el proceso de recuento de renovaciones en un
intervalo [1, n] por
N (n) := máx k|Sk ≤ n =
n
X
Zk =
k=1
n
X
1[0,n] (Sk ) =
k=1
n
X
1{Sk ≤n}
k=1
Por conveniencia se considera N (0) := 0. Esta definición de N (n) muestra que
N (n) ≥ k sı́ y sólo sı́ Sk ≤ n de forma que se tiene la igualdad
P (N (n) ≥ k) = P (Sk ≤ n)
para cualquier k ∈ N.
Con un ejemplo ilustraremos de forma clara lo establecido en esta igualdad. Si
nuestra unidad de tiempo es el minuto, y consideramos la situación a los 5 minutos
dirı́amos que si en el instante n = 5 hay al menos k = 2 renovaciones (N (5) ≥ 2)
entonces el tiempo transcurrido hasta la segunda renovación será como máximo de 5
12
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
minutos (S2 ≤ 5). Esto se darı́a también en el sentido inverso, es decir, si el tiempo
transcurrido hasta la segunda renovación es inferior o igual a 5 minutos entonces en
el instante n = 5 se han producido al menos k = 2 renovaciones.
Una función de especial importancia en la teorı́a de la renovación es la función
de renovación. Su comportamiento será estudiado posteriormente a través de su
ecuación de renovación.
Definición 12 (Función de renovación). Se define la función de renovación
Ψ(n), n ∈ N como el número esperado de renovaciones hasta el tiempo n. Esta
función se puede expresar como
Ψ(n) := E[N (n) + 1] =
n
X
P (Sk ≤ n) =
k=0
n X
n
X
(k)
fl , n ∈ N
k=0 l=0
Con esta definición, al tenerse que N (0) = 0 entonces Ψ(0) = 1, es decir, que
el número esperado de renovaciones al inicio es 1, ya que se considera que el proceso se inicia con una renovación. No obstante, algunos autores definen esta función
sin tener en consideración la renovación que sucede en el instante inicial, por lo
cual consideran como función Ψ(n) := E[N (n)]. En lo sucesivo, consideraremos
Ψ(n) := E[N (n) + 1] en este trabajo.
La función de renovación puede expresarse en términos de la probabilidad de ocurrencia de renovación en un instante concreto (un ), quedando de la forma
!
n
n
X
X
Ψ(n) := E[N (n) + 1] = E
Zk =
uk , n ∈ N.
(1.6)
k=0
1.4.
k=0
Interpretación gráfica
Los conceptos descritos anteriormente pueden resultar más comprensibles acompañados de un gráfico en el que se representen diferentes conceptos. Para ello, consideremos la siguiente representación.
13
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Sobre este gráfico describiremos los diferentes conceptos. En primer lugar, se representa en el eje de abscisas el tiempo, mientras que en el eje de ordenadas se indica
el número de renovaciones experimentadas por el proceso. Tanto el tiempo como las
renovaciones toman valores discretos. El proceso comienza en el tiempo t = 0 y con
un número de renovaciones igual a 1, ya que se considera que el proceso se inicia en
una renovación.
Los elementos Xi representan el tiempo transcurrido entre la renovación (i)ésima y la la renovación i + 1-ésima. Por ejemplo, X2 es una variables aleatoria
que representarı́a el tiempo transcurrido entre la segunda renovación y la tercera.
El número de renovaciones experimentadas por el proceso hasta un instante n
viene dado por N (n).
Los elementos Si también son variables aleatorias generadas por la sumatoria
de los elementos Xi . De forma práctica representan el tiempo total transcurrido
hasta la renovación i-ésima. Por ejemplo, S2 serı́a el tiempo transcurrido desde
el inicio del proceso hasta la segunda renovación y viene dado por el tiempo
transcurrido entre el inicio (primera renovación) y la segunda renovación X1
14
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
más el tiempo transcurrido entre la segunda y la tercera, X2 . Por lo tanto
Si =
i
X
Xi
k=1
o de forma recursiva
Si = Si−1 + Xi .
Supongamos que nos encontramos en el instante n, habiéndose producido N (n)
renovaciones hasta ese instante. Tomando como referencia este instante podemos dividir el tiempo transcurrido entre las renovaciones N (n) y N (n) + 1
desde dos puntos de vista. Un , representado en color verde, serı́a el tiempo
transcurrido desde la última renovación y es conocido como tiempo de vida
pasada. Si se tratara de un sistema en el que al fallar una componente se sustituye automáticamente por otra, esta cantidad representarı́a el tiempo que
lleva funcionando la actual componente sin fallar.
De otro lado se encontrarı́a su complementario Vn , representado en color azul,
que serı́a el tiempo restante hasta la siguiente renovación o tiempo de vida
residual. En el ejemplo anterior serı́a el tiempo que le queda a la componente
para fallar. Tanto Un como Vn son variables aleatorias, de forma que se puede
modelar tanto el tiempo de funcionamiento como el tiempo restante hasta que
se produzca el fallo.
Imaginemos una empresa que se dedica a la fabricación de varios artı́culos. Supongamos que una de las máquinas ejecuta un procedimiento concreto necesario para
la fabricación de todos los artı́culos. El fallo de esta máquina pararı́a la producción por completo. Para la empresa resulta de vital importancia conocer el tiempo
de funcionamiento esperado de esta máquina para proceder a una revisión previa
o redistribuir el resto de tareas. Esta idea sirve tanto para justificar la necesidad
de conocimiento sobre estos tiempos y también para introducir la siguiente sección
sobre el comportamiento de las renovaciones a largo plazo.
Supongamos que un técnico revisa cada hora el correcto funcionamiento de una componente concreta de la máquina. Si esta falla, procederı́a a su reparación automática
(un tiempo despreciable en comparación con el intervalo de revisión). Cada una de
estas reparaciones supondrı́a una renovación.
En los sistemas empleados en ingenierı́a, podrı́amos considerar también un sistema
redundante con componentes en reserva pasiva, es decir, componentes que no pueden fallar mientras no se encuentren operativas. La renovación en este caso serı́a la
activación de la componente de reserva.
15
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
1.5.
Teoremas lı́mite de renovación
En esta sección analizaremos el comportamiento asintótico de los procesos de
renovación. Este análisis permite la obtención de resultados útiles para la aplicación
práctica. Por conveniencia se considerará que 1/∞ = 0.
Lema 1.
1. Para un proceso de renovación se tiene que lı́mn→∞ Sn = ∞ casi seguramente.
2. Para un proceso de renovación recurrente se tiene que lı́mn→∞ N (n) = ∞ casi
seguramente.
Los siguientes dos teoremas analizan el comportamiento asintótico del número
de renovaciones de un proceso de recuento (N (n))n∈N .
Teorema 3 (Ley fuerte de los grandes números para N (n)). Para un proceso
de renovación recurrente (Sn )n∈N se tiene que
1
N (n)
= c.s.
n→∞
n
µ
lı́m
Teorema 4 (Teorema central del lı́mite para N (n)). Consideremos un proceso de renovación positivo recurrente (Sn )n∈N con µ = E(X1 ) < ∞ y 0 < σ 2 :=
V ar(X1 ) < ∞. Entonces
N (n) − n/µ
p
−→ N (0, 1),
nσ 2 /µ3
en distribución cuando n → ∞.
La demostración se realiza siguiendo los razonamientos de Feller(1993) y Karlin
& Taylor (1975). Los resultados asintóticos estándar en los procesos de renovación se
basan en el comportamiento asintótico de la función de renovación. A continuación
enunciaremos 3 importantes teoremas relativos a la función de renovación.
Teorema 5 (Teorema elemental de renovación). Para un proceso de renovación
recurrente (Sn )n∈N se tiene
E [N (n) + 1]
1
Ψ(n)
= lı́m
= .
n→∞
n→∞
n
n
µ
lı́m
La demostración se realiza en base al teorema de Wald y verificando dos desigualdades que dan como consecuencia la igualdad indicada en el teorema.
El comportamiento asintótico de ciertas magnitudes de los procesos de renovación
está estrechamente relacionado con el concepto de periodicidad.
16
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Definición 13. Una distribución g = (gn )n∈N sobre N se dice periódica si existe un
entero d > 1 tal que gn 6= 0 solo cuando n = d, 2d, . . .. Al mayor valor de d que
satisface lo anterior se le llama periodo de g. Si d = 1, se dice que la distribución g
es aperiódica.
Definición 14. Un proceso de renovación (Sn )n∈N se dice que es periódico de periodo
d, d ∈ N∗ , d > 1 si la distribución de su tiempo de espera f = (fn )n∈N es periódica
de periodo d. Si f es aperiódica, entonces el proceso renovación se dice aperiódica.
Teorema 6 (Teorema de renovación).
Un proceso de renovación recurrente aperiódico (Sn )n∈N verifica
lı́m un =
n→∞
1
µ
Un proceso de renovación periódico recurrente (Sn )n∈N de periodo d > 1 verifica
d
lı́m und =
n→∞
µ
y uk = 0 para todo valor de k que no sea múltiplo de d. Esto implica que no
hay renovaciones en los instantes que no son múltiplos del periodo.
Notar que dada la finitud de las sumas de un , desde el teorema de renovación es
inmediato probar el resultado de Blackwell que para cualquier h > 0 se tiene que
lı́m [Ψ (n + h) − Ψ (n)] =
n→ı́nf ty
h
.
µ
Teorema 7 (Teorema llave de renovación). Consideremos un proceso de renovación recurrente (Sn )n∈N y una sucesión real (bn )n∈N .
P
Si el proceso es aperiódico y ∞
n=0 |bn | < ∞, entonces
lı́m
n→∞
n
X
∞
bk un−k =
k=0
1X
bn
µ n=0
Si el proceso es periódico de periodo
P d > 1 y si para un determinado l entero
positivo, 0 ≤ l < d se tiene que ∞
n=0 |bl+nd | < ∞, entonces
lı́m
n→∞
l+nd
X
∞
bk ul+nd−k
k=0
17
dX
=
bl+nd
µ n=0
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Es importante resaltar que la solución de la ecuación de renovación en tiempo
discreto fue obtenida con anterioridad como g = b ∗ u. En consecuencia, el teorema
llave de renovación describe el comportamiento asintótico de esta solución g tanto
en el caso periódico como en el aperiódico.
En el caso en que b0 = 1 y bn = 0, n ≥ 1, la convergencia del caso aperiódico
coincide con la establecida en el teorema de renovación. De esta forma, el teorema
llave de renovación y el teorema de renovación son equivalentes en el caso aperiódico
y esta misma observación también es cierta en el caso periódico.
1.6.
Procesos de renovación retardados discretos
Los procesos de renovación retardados discretos son empleadas para modelizar
fenómenos similares a los que se aplican las cadenas de renovación ordinarias, pero
con la diferencia de que no se considera el origen como momento de ocurrencia de la
primera renovación, es decir, S0 = X0 > 0. Este retardo será representado por S0 y
no será igual a 0, ya que en este caso tendrı́amos un proceso de renovación clásico.
Definición 15 (Proceso de renovación retardado). Una sucesión de tiempos de
llegada (Sn )n∈N para la cual sus tiempos de espera (Xn )n∈N∗ forman una distribución
independiente e idénticamente distribuida, y siendo X0 independiente de (Xn )n∈N∗
se denomina proceso de renovación retardado y todos los valores Sn son llamados
tiempos de renovación.
El proceso (Sn − S0 )n∈N es un proceso de renovación ordinario llamado proceso
de renovación asociado. Además, es inmediato comprobar que (Sn )n∈N es un proceso
de renovación (ordinario) si y sólo si S0 = 0 casi seguramente. Al igual que hicimos
con los procesos de renovación ordinarios, estableceremos una notación análoga para
este tipo de fenómenos. Por comodidad, nos referiremos a los procesos de renovación
retardados en tiempo discreto por el acrónimo PRR.
La distribución b = (bn )n∈N de S0 será nombrada como distribución inicial (o
distribución retardada) del PRR, definiéndose bn := P (S0 = n). Su correspondiente
función generatriz será denotada por B(s).
La probabilidad
que una renovación ocurra en el instante n del PRR se estaPde
∞
blece como vn := k=0 P (Sk = n). Su correspondiente función generatriz es V (s).
Por un representaremos la probabilidad de ocurrencia de una renovación en el
tiempo n para la cadena de renovación ordinaria asociada, siendo U (s) la función
generatriz.
Como hemos hecho con anterioridad, denotaremos por f = (fn )n∈N , con f0 := 0,
la distribución común de los tiempos de espera (Xn )n∈N∗ en la cadena de renovación
18
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
retardada. La función de distribución asociada a estos tiempos de espera es F . Como
Xn := Sn − Sn−1 = (Sn − S0 ) − (Sn−1 − S0 ) la distribución de los tiempos de espera
será la misma para el PRR retardado que para el proceso de renovación ordinaria
asociado a él.
Un PRR se dice aperiódico si el proceso de renovación asociado es aperiódico. De
forma análoga, se dirá que es periódico de periodo d > 1 si el proceso de renovación
asociado es periódica con dicho periodo d. De forma similar se razona para los
conceptos de recurrencia y transitoriedad.
De forma recurrente se obtiene (vn )n∈N y su función generatriz de probabilidades
que notamos V (s) al igual que se hizo en el caso ordinario.
En efecto, se tiene que
vn = P (S0 = n) +
n−1
X
P (S0 = k)
n−k
X
P (Sr − S0 = n − k) = bn +
r=1
k=0
n−1
X
bk un−k
k=0
En consecuencia se tiene
n
X
vn =
bk un−k , es decir, vn = (b ∗ u)n , n ∈ N,
k=0
siendo b(n) la distribución del tiempo hasta la primera renovación. Multiplicando
esta ecuación por sn y sumando en n se llega a
V (s) = B(s)U (s) =
B(s)
.
1 − Φ(s)
(1.7)
Como ya se analizó en el caso ordinario, estudiaremos el comportamiento asintótico de esta probabilidad de ocurrencia de las renovaciones.
Teorema 8 (Teorema de renovación para PRR). Consideremos un PRR recurrente (Sn )n∈N con distribución inicial b = (bn )n∈N .
1. Si el proceso es aperiódico
∞
lı́m vn =
n→∞
1X
bn
µ n=0
2. Si el proceso es periódico de periodo d > 1 entonces para cualquier entero
positivo l, 0 ≤ l < d
∞
dX
bl+nd
lı́m vl+nd =
n→∞
µ n=0
P
Hay que resaltar que ∞
n=0 bn = P (S0 < ∞) < 1, lo que significa que (bn )n∈N es
una distribución impropia. Ası́, el lı́mite de la expresión aperiódica tiene como lı́mite
1/µ siendo (bn )n∈N una distribución propia. Lo mismo sucede en el caso periódico.
19
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
1.6.1.
Interpretación gráfica
Como ya hemos hecho con los procesos de renovación ordinarios discretos, analizaremos los elementos esenciales de este tipo de procesos basándonos en la representación gráfica de un proceso genérico. Se representa en el eje de abscisas el
tiempo, mientras que en el eje de ordenadas se indica el número de renovaciones
experimentadas por el proceso.
El primer dato reseñable es que no se da la condición de que S0 = 0. Esto se debe
a que cuando comienza a observarse el proceso, éste ya se encuentra funcionando,
desconociéndose cuánto tiempo lleva en funcionamiento. Por lo tanto S0 será el
tiempo en que el sistema se renueva por primera vez desde que comenzó a observarse.
Como consecuencia de esto, el resto de magnitudes se ven desplazadas en el gráfico
respecto a una cadena de renovación ordinaria. De hecho, si consideramos como
punto de origen S0 y la primera renovación, tendrı́amos justamente una cadena de
renovación ordinaria. Este desplazamiento hace que se precise una redefinición de
los conceptos principales.
Los elementos Xi representan el tiempo transcurrido entre la renovación iésima y la la renovación (i + 1)-ésima. Por ejemplo, X2 serı́a una variables
aleatoria que representarı́a el tiempo transcurrido entre la segunda renovación
y la tercera.
20
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
El número de renovaciones experimentadas por el proceso hasta un instante n
viene dado por N (n) + 1.
Los elementos Si son variables aleatorias generadas por la sumatoria de los elementos Xi . Denominamos por X0 al tiempo transcurrido desde el inicio de la
observación del proceso y la primera renovación. De forma práctica representan el tiempo total transcurrido hasta la renovación i + 1-ésima. Por ejemplo,
S2 serı́a el tiempo transcurrido desde el inicio del proceso hasta la tercera renovación y vendrı́a dado por el tiempo transcurrido entre el inicio y la primera
renovación X0 más el tiempo transcurrido entre la primera renovación y la
tercera, X1 + X2 . Por lo tanto
Si =
i
X
Xi
k=1
o de forma recursiva
Si = Si−1 + Xi .
Si nos situamos en el mismo ejemplo de los procesos de renovación ordinarios en
el que una empresa que se dedica a la fabricación de varios artı́culos, el tiempo
S0 podrı́a ser, por ejemplo, el tiempo transcurrido hasta que la empresa decide
aplicar técnicas de fiabilidad. También podrı́a ser el tiempo que el fabricante tiene
la máquina en funcionamiento en sus tests antes de vendérsela a la empresa.
1.6.2.
Procesos de renovación estacionarios: PRE
El objetivo de este apartado es analizar un caso particular de PRR con unas
ciertas propiedades invariantes en el tiempo. La pregunta que nos planteamos es,
qué clase de PRR tiene vn constante respecto n. Consideremos (Sn )n∈N un PRR tal
que P (S0 < ∞) = 1, es decir, (bn )n∈N sigue una distribución propia. Supongamos
que vn = ∆ para todo n ∈ N. Como consecuencia, la función generatriz de V (s)
viene dada por
∞
X
∆
V (s) =
∆sn =
1−s
n=0
usando la ecuación 1.7 se obtiene
B(s) =
∞
X
n=0
bn s n = ∆
∆
(1 − Φ(s))
1−s
∞
X
!
sn
n=0
1−
∞
X
n=1
21
!
f n sn
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Desde la expresión anterior se tiene que
b0 = ∆
bn = ∆ 1 −
Si ahora tenemos en cuenta que
obtiene que
n
X
!
fk
= ∆P (X1 > n), n ∈ N∗
k=1
P∞
n=0 bn
= 1 y utilizando
P∞
n=0
P (X1 > n) = µ se
∆ = 1/µ
siempre que el PRR sea positiva recurrente. Ası́, se demuestra que si un PRR
recurrente positivo satisface vn = ∆ para todo n ∈ N, entonces ∆ = 1/µ y
bn = P (X1 > n)/µ.
Ahora, comenzando con un PRR recurrente positivo (Sn )n∈N tal que bn = P (X1 >
n)/µ para todo n ∈ N, queremos probar que vn = 1/µ para todo n ∈ N. Para
0 ≤ s < 1 la función generatriz de la primera ocurrencia de una renovación es
∞
∞
∞
1X X
1X
n
P (X1 > n)s =
P (X1 = k)sn
B(s) =
µ n=0
µ n=0 k=n+1
!
∞
∞ k−1
∞
X
X
1 1
1 XX n
k
s fk =
s fk
fk −
=
µ k=1 n=0
µ 1 − s k=1
k=1
=
1 1 − Φ(s)
µ 1−s
Si aplicamos la ecuación 1.7 entonces se obtiene
∞
X1
1 1
V (s) =
=
sn
µ 1 − s n=0 µ
por lo que vn = 1/µ para todo n ∈ N. La siguiente proposición resume el análisis
anterior.
Proposición 2. Sea (Sn )n∈N un PRR recurrente positivo con tiempos de espera
(Xn )n∈N y µ := E(X1 ) < ∞. Entonces, P (S0 = n) := P (X1 > n)/µ es la única
elección para la distribución inicial del PRR tal que vn es constante para todo n ∈ N.
Además, el valor de esta constante común es 1/µ.
El PRR con vn = 1/µ para todo n ∈ N se llama proceso de renovación estacionario y su distribución inicial está definida por P (S0 = n) := P (X1 > n)/µ para
todo n ∈ N. Esta distribución recibe el nombre de distribución estacionaria del PRR
(Sn )n∈N .
22
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Desde esta proposición puede verse que para un proceso de renovación ordinario
(Sn )n∈N y m un entero fijado, se tiene que la distribución lı́mite del tiempo de vida
pasada Um = m − SN (m) y del tiempo de vida residual Vm = SN (m)+1 − m coinciden
y son iguales a
lı́m P (Um = n) = P (X1 > n)/µ = lı́m P (Vm = n + 1).
m→∞
m→∞
En consecuencia, un proceso de renovación estacionario es un proceso de renovación ordinario que comenzó indefinidamente lejos en el pasado, tal que la distribución
(bn )n∈N de la primera renovación observada comenzando en el tiempo 0 es la misma
que la distribución lı́mite de los tiempos de vida pasada y residual del proceso de
renovación ordinario. Este fenómeno explica de forma intuitiva la propiedad de invarianza en el tiempo del proceso de renovación estacionario dada en la proposición.
1.7.
Proceso de Renovación Alternado
Los procesos de renovación alternados son un tipo particular dentro de los procesos de renovación que destacan por su importante utilidad en la teorı́a de fiabilidad
debido a su simplicidad y a su intuitiva interpretación.
1.7.1.
Definiciones. Fiabilidad y disponibilidad
Definición 16 (Proceso de Renovación Alternado). Sea (Xn )n∈N∗ una sucesión
de variables aleatorias idénticamente distribuidas con una distribución h = (hn )n∈N ,
h0 := 0. De forma análoga, se establece (Yn )n∈N∗ una sucesión de variables aleatorias idénticamente distribuidas con una distribución g = (gn )n∈N , con g0 := 0. Se
establece la suposición de que (Xn )n∈N∗ yP
(Yn )n∈N∗ son independientes entre ellas.
∗
Se define Vn := Xn + Yn , n ∈ N y Sn := ni=1 Vi , n ∈ N∗ con S0 := 0.
Entonces la sucesión (Sn )n∈N es conocida como proceso de renovación alternado
con distribución de tiempo de actividad h y distribución de tiempo de inactividad g.
Puede comprobarse que un proceso de renovación alternado (Sn )n∈N es un proceso
de renovación con tiempos de espera dados por Vn , n ∈ N∗ y distribución de tiempo
de espera f := h ∗ g.
Este modelo puede aplicarse en el campo de la fiabilidad. Sistemas reparables en
los que la reparación o sustitución del elemento que interrumpe el funcionamiento
no es inmediato. En este tipo de casos (Xn )n∈N∗ representarı́a el n-ésimo tiempo
de funcionamiento mientras que (Yn )n∈N∗ serı́a el n-ésimo tiempo de reparación del
sistema.
Definiremos unos conceptos propios de la teorı́a de fiabilidad para ver la importancia de estas cadenas de renovación.
23
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Definición 17 (Fiabilidad de un sistema). Se llama fiabilidad de un sistema
en el tiempo k ∈ N a la probabilidad de que el sistema haya funcionado sin fallo
durante el periodo [0, k].
Definición 18 (Disponibilidad de un sistema). Se llama disponibilidad de un
sistema en el tiempo k ∈ N a la probabilidad de que el sistema se encuentre operativo
en el tiempo k ∈ N.
En nuestro contexto definimos la fiabilidad en el tiempo k ∈ N como
X
R(k) = P (X1 > k) =
hk+m
m≥1
es decir, la probabilidad de que el primer fallo ocurra en un tiempo posterior a k.
La disponibilidad de un sistema se puede obtener como solución de una ecuación de
renovación. Para cualquier k ∈ N∗ se tiene que
A(k) =
X
P (Sn−1 ≤ k < Sn−1 + Xn ) =
n≥1
= P (X1 > k) +
X
P (Sn−1 ≤ k < Sn−1 + Xn ) =
n≥2
= R(k) +
X
k
X
P (Sn−1 ≤ k < Sn−1 + Xn , S1 = m) =
n≥2 m=1
= R(k) +
k X
X
P (Sn−2 ≤ k − m < Sn−2 + Xn−1 )P (S1 = m)
m=1 n≥2
= R(k) +
k
X
A(k − m)fm ,
m=1
obteniendo la ecuación de renovación asociada a la disponibilidad como
A(k) = R(k) + f ∗ A(k), k ∈ N
Esta igualdad queda probada para enteros positivos. No obstante, también se
satisface para k = 0 porque f0 := 0 y por construcción de este tipo de cadenas el
sistema se encuentra en funcionamiento al inicio, lo cual implica que A(0) = R(0) =
1.
La solución de esta ecuación de renovación es conocida obteniendo la probabilidad de que el sistema esté funcionando en el tiempo k en función de la fiabilidad.
De esta forma se tiene que
24
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
A(k) = u ∗ R(k), k ∈ N
siendo un la probabilidad de que una renovación ocurra justo en un tiempo n, que
en este caso representa la probabilidad de que el sistema comience a funcionar justo
después del periodo de reparación y sea el tiempo n.
Realizado el estudio anterior ahora queremos obtener el comportamiento lı́mite
de A(k), la disponibilidad en el tiempo k cuando k tiende a infinito, es decir la
disponibilidad estacionaria. De acuerdo con el teorema llave de renovación se tiene
que
∞
1X
R(m)
lı́m A(k) = lı́m u ∗ R(k) =
k→∞
k→∞
µ m=0
siendo µ = E(X1 + Y1 ), o lo que es lo mismo, el tiempo medio de espera para la
cadena de renovación (Sn )n∈N . Establecemos como notación
∞
X
R(m) =
∞
X
P (X1 > m) = E(X1 ).
m=0
m=0
Por lo tanto, la disponibilidad en régimen estacionario es igual a
lı́m A(k) =
k→∞
µX
µX + µY
donde se establece que µX := E(X1 ) es el tiempo medio de vida (actividad) y
µY := E(Y1 ) el tiempo medio de reparación (inactividad).
Es conveniente reseñar que los resultados relativos a la disponibilidad no necesitan que las sucesiones de variables aleatorias (Xn )n∈N∗ y (Yn )n∈N∗ sean independientes entre sı́, pero sı́ que (Xn +Yn )n∈N∗ sea una sucesión independiente e idénticamente
distribuida.
25
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
1.7.2.
Interpretación gráfica
Nuevamente describiremos los diferentes conceptos apoyándonos en el gráfico. Una
vez más, se representa en el eje de abscisas el tiempo, mientras que en el eje de
ordenadas se indica el número de renovaciones experimentadas por el proceso. Tanto
el tiempo como las renovaciones toman valores discretos. El proceso comienza en el
tiempo t = 0 y con un número de renovaciones igual a 1, ya que se considera que el
proceso se inicia con una renovación.
Cada renovación constará de dos fases, una de actividad y otra de inactividad.
A estas dos fases se les llamará ciclo. Una renovación constará de ambas fases
y el número de renovaciones experimentadas por el proceso hasta un instante
n vendrı́a dado por N (n).
Los elementos Xi representan el tiempo de funcionamiento (actividad) transcurrido entre la renovación (i)-ésima y la renovación i + 1-ésima. Por ejemplo,
X2 serı́a una variable aleatoria que representarı́a el tiempo de actividad transcurrido entre la segunda renovación y la tercera.
Los elementos Yi representan el tiempo de reparación (inactividad) transcurrido entre la renovación (i)-ésima y la renovación i + 1-ésima. Por ejemplo, Y2
serı́a una variable aleatoria que representarı́a el tiempo de inactividad transcurrido entre la segunda renovación y la tercera.
26
CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO
Los elementos Si también son variables aleatorias generadas por la sumatoria
de los elementos Xi e Yi . De forma práctica representan el tiempo total transcurrido hasta la renovación i-ésima. Por ejemplo, S2 serı́a la suma de tiempos
X1 + Y1 + X2 + Y2 . Por lo tanto
Si =
i
X
X i + Yi
k=1
o de forma recursiva
Si = Si−1 + Xi + Yi .
Volviendo al ejemplo de la empresa que fabrica varios productos y expuesta anteriormente, este tipo de proceso representarı́a el caso en que la averı́a de la máquina
no se solucionarı́a con el simple cambio automático de una pieza. Se tendrı́a un
tiempo de reparación formado por el tiempo de localización de la averı́a, el tiempo
de sustitución y el tiempo de reiniciación de la máquina, por ejemplo. Evidentemente, durante este tiempo de reparación la producción se parará y el conocimiento de
este tiempo puede ayudar a redistribuir las labores del personal de la empresa. El
tiempo de renovación estarı́a formado por un ciclo completo de funcionamiento y
reparación, es decir, desde que comienza a funcionar tras una renovación hasta que
comienza a funcionar tras una nueva renovación.
27
Capı́tulo 2
Proceso de Renovación Tipo Fase
discreto
Cuando se desea realizar un estudio en distintos campos como el de la fiabilidad donde los tiempos inmersos son generales, las expresiones que se obtienen son
muy complejas y difı́cilmente aplicables. En el caso continuo, históricamente la distribución exponencial ha sido considerada como la distribución estándar para la
modelización de tiempos de vida. Una generalización de la distribución exponencial
es la distribución tipo fase.
En muchas ocasiones hay sistemas donde por no poder ser observados de forma
continua deben ser inspeccionados en distintos tiempos puntuales. Por otro lado es
común en el campo de la fiabilidad la realización de inspecciones en tiempo discreto
o incluso hay muchos sistemas, como los sistemas digitales, cuyo funcionamiento
intrı́nseco tiene lugar en tiempo discreto. Es por ello por lo que es de importancia la
incorporación del análisis y estudio de sistemas de fiabilidad en tiempo discreto. Las
distribuciones tipo fase también juegan un papel importante en el campo discreto.
Las distribuciones tipo fase fueron introducidas por Neuts (1975) y estudiadas en
detalle en Neuts (1981). Este tipo de distribuciones surgieron como extensiones
naturales de la distribución exponencial y de Erlang tan consideradas en teorı́a de
colas. Estas distribuciones tipo fase (PH) han resultado muy útiles en la modelización
de sistemas estocásticos.
Las distribuciones tipo fase discretas verifican la siguiente importante propiedad.
Toda distribución de probabilidad discreta no negativa con soporte finito es tipo fase
(Neuts, 1975). Esta propiedad se extendió posteriormente para el caso de distribuciones con soporte infinito considerando las distribuciones tipo fase infinitas. Estas
distribuciones tienen una estructura algebraico-matricial lo cual permite que en un
análisis de un sistema de fiabilidad con distribuciones generales se consideren sus correspondientes representaciones tipo fase. Este hecho permite obtener los resultados
de una forma algorı́tmica facilitando la interpretación y aplicación de resultados.
28
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
En el campo de la fiabilidad las distribuciones tipo fase y los procesos de renovación tipo fase han sido muy considerados. Si atendemos a las aplicaciones y modelizaciones en tiempo discreto se tiene que Alfa y Castro (2002) modelizaron sistemas que
involucraban distribuciones discretas en general, determinando que cualquier distribución discreta está distribuida como tipo fase. Sistemas redundantes generales en
tiempo discreto también han sido estudiados considerando las distribuciones tipo fase. Ruiz-Castro y otros (2008) modelizaron un sistema en reserva pasiva sin pérdida
de unidades cuando un fallo total ocurre o con pérdidas si no hay reemplazamiento
(Ruiz-Castro y otros 2009a). Los sistemas con unidades en reserva pasiva también
han sido descritos, tanto en el caso de reemplazamiento instantáneo (Ruiz-Castro y
otros, 2009b) como en el caso de pérdida de unidades (Ruiz-Castro and FernándezCalvillo, 2012). Recientemente Ruiz-Castro and Quan-Lin (2011) consideraron las
distribuciones tipo fase discretas en el estudio de los sistemas k-out-of-n : G.
2.1.
Las distribuciones tipo fase: Definición y propiedades
En esta sección se va a hacer una breve presentación de las distribuciones tipo
fase tanto desde un punto de vista continuo como discreto. Todos los resultados
pueden verse en detalle en Neuts (1981).
2.1.1.
Definiciones
Las distribuciones tipo fase están ı́ntimamente ligadas a los procesos de Markov.
Recordemos que en un proceso de Markov, conocido el presente, pasado y futuro
son independientes.
En estos procesos llamaremos estado transitorio a aquel estado donde la probabilidad de volver a él es menor que uno. Por contra, los estados absorbentes son
aquellos que una vez alcanzados, el proceso permanece indefinidamente en dicho
estado, o lo que es lo mismo, la probabilidad de pasar a cualquier otro estado es
cero.
Una distribución tipo-fase (Phase-type) se define como la distribución del tiempo
hasta la absorción en un proceso de Markov finito con estados transitorios y una
clase absorbente. Estas distribuciones se han revelado como una herramienta útil en
la construcciones de modelos estocásticos para el estudio de la fiabilidad de sistemas
en las últimas tres décadas.
Las fases de estas distribuciones pueden interpretarse por ejemplo como diferentes estados intermedios de degradación cuando el tiempo de vida de las componentes
29
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
de un sistema sigue distribuciones tipo-fase, o bien, de una forma más intuitiva para
designar las etapas de reparación y control cuando los tiempos de reparación siguen
distribuciones tipo-fase. A continuación definiremos formalmente en qué consisten
dichas distribuciones.
Definición 19. Una distribución H(·) definida en [0, ∞) es una distribución tipofase (PH) con representación (α, T ), si es la distribución del tiempo hasta la absorción en un proceso de Markov sobre los estados {1, . . . , m, m + 1}, donde los estados
{1, . . . , m} son transitorios y el estado m + 1 es absorbente. El generador del proceso
se expresa mediante bloques matriciales como sigue,
T T0
,
0 0
La matriz T es de orden m y no singular, con elementos diagonales negativos, siendo
no negativos fuera de la misma conteniendo las transiciones entre los estados transitorios. Se define la distribución inicial mediante el vector α de orden m (inicialmente
se encuentra en un estado transitorio). Se satisface la condición −T e = T 0 ≥ 0 siendo e un vector columna con elementos 1 de la dimensión adecuada. La función de
distribución tipo fase se denota como H(·) y viene dada por
H(x) = 1 − α exp(T x)e, x ≥ 0
Se dice entonces que H(·) sigue una distribución P H(α, T )
Ahora procederemos a la definición en el caso discreto, que es el que centra este
trabajo.
Definición 20. Una distribución {pk } tomando valores sobre el conjunto de los
enteros no negativos sigue una distribución tipo fase discreta (P Hd ) si y solo si
existe una cadena de Markov finita con n + 1 estados cuya matriz de probabilidades
de transición P viene dada de la forma
S S0
0 1
y con vector de probabilidades iniciales (β, βn+1 ) (βn+1 es la probabilidad de que
inicialmente el proceso comience en la absorción), donde β es un vector fila. La
matriz S es subestocástica y verifica que Se + S 0 = e, siendo (I − S) un matriz
no singular, siendo I la matriz identidad de orden adecuado. La función masa de
probabilidad del tiempo hasta la absorción viene dada por
p0 = βn+1
pk = βS k−1 S 0 , k ≥ 1
Se dice que pk sigue una P Hd (β, S).
30
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
Finalmente, cuando se trabaja matricialmente con distribuciones tipo fase, es
habitual considerar la suma y el producto de Kronecker que definimos a continuación.
Si A es una matriz de dimensión m × n y B es una una matriz de orden p × q,
entonces el producto de Kronecker A ⊗ B es la matriz bloque mp × nq dada por


a11 B · · · a1n B

..  .
..
A ⊗ B =  ...
.
. 
am1 B · · · amn B
Desarrollándola tenemos

a11 b11 a11 b12
 a11 b21 a11 b22

 ..
..
 .
.

 a11 bp1 a11 bp2
 .
..
 .
.
 .
A⊗B = .
..
 ..
.

a b
 m1 11 am1 b12
a b
 m1 21 am1 b22
 ..
..
 .
.
am1 bp1 am1 bp2
···
···
..
.
a11 b1q
a11 b2q
..
.
···
...
···
···
···
a1n b11
a1n b21
..
.
a1n b12
a1n b22
..
.
a11 bpq · · · · · · a1n bp1 a1n bp2
..
..
..
...
.
.
.
..
..
..
...
.
.
.
· · · am1 b1q · · · · · · amn b11 amn b12
· · · am1 b2q · · · · · · amn b21 amn b22
..
..
..
...
.
.
.
· · · am1 bpq · · · · · · amn bp1 amn bp2

a1n b1q
a1n b2q 

.. 
...
. 

· · · a1n bpq 
.. 

. 
.
.. 
. 

· · · amn b1q 

· · · amn b2q 

.. 
...
. 
· · · amn bpq
···
...
La suma de Kronecker de dos matrices cuadradas C y D de órdenes p y q, respectivamente, se define por
C ⊕ D = C ⊗ Iq + Ip ⊗ D.
donde Ik denota la matriz identidad de orden k.
2.1.2.
Propiedades
En el monográfico de Neuts (1981) sobre las distribuciones tipo fase se detallan
algunas de sus propiedades. No obstante, otros autores han ahondado en las propiedades de estas distribuciones. Una vez definidas las operaciones suma y producto de
Kronecker, enumeraremos algunas de estas propiedades de clausura que aparecen en
el libro de Neuts. En primer lugar se realizará para el caso discreto y posteriormente
para el caso continuo.
Suma de dos variables independientes tipo fase. Consideremos dos variables aleatorias discretas de tipo fase con representaciones (α, T ) y (β, S)
respectivamente. La variable aleatoria Z = X + Y sigue entonces una distribución tipo fase con representación (γ, L) dada por:
T T 0β
L=
0 S
31
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
y γ = (α, αm+1 β), γm+k+1 = αm+1 βk+1 .
Mixtura finita de distribuciones tipo fase. Dada una variable aleatoria
X
Pik con distribución tipo fase con representación (αi , Ti ) y sea Z = Ii Xi con
i=1 Ii = 1 y P (Ii = 1) = pi , entonces la variable aleatoria Z tiene distribución tipo fase con representación (γ, L), siendo estos elementos


T1 0 · · · 0
 0 T2 · · · 0 


L =  ..
.. . .
.. 
 .
.
.
. 
0 0 · · · Tk
y γ = (p1 α1 , p2 α2 , . . . , pk αk )
Estadı́sticos de orden. Sean dos variables aleatorias discretas X e Y con
distribuciones tipo fase y representaciones (αx , Tx ) y (αy , Ty ) respectivamente,
se tiene que las distribuciones del máximo y el mı́nimo son tipo fase.
U = mı́n(X, Y ) tiene representación (γ, L) cuyos elementos vienen dados por
L = Tx ⊗ Ty y γ = αx ⊗ αy .
V = máx(X, Y ) tiene representación (γ, L) cuyos elementos vienen dados por


Tx ⊗ Ty Tx ⊗ Ty0 Tx0 ⊗ Ty

0
Tx
0
L=
0
0
Ty
y γ = (αx ⊗ αy , αx αy,m+1 , αx,k+1 αy ) siendo k la dimensión de Tx y m la dimensión de Ty .
A estas tres propiedades hay que añadir otra que aparece en Assaf y Levikson
(1982), denominada de sistemas coherentes. Esta propiedad indica que el tiempo
de vida de un sistema coherente con unidades finitas independientes que siguen
distribuciones PH, sigue una distribución PH. Es decir, la clase de las distribuciones
PH es cerrada para la formación de sistemas coherentes.
A principios de la década de los 90 se establecieron dos propiedades de caracterización gracias a los trabajos de Maier y O’Cinneide (1992). De acuerdo con estas
caracterizaciones podemos indicar que
Una distribución PH es PH si y solo si
1. tiene una función densidad de probabilidad continua en la recta real positiva, con una posible masa en 0,
32
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
2. su transformada de Laplace-Stieljes es racional,
3. su transformada de Laplace-Stieljes tiene un polo único de parte real
maximal.
Las funciones de distribución PH constituyen la clase de distribuciones más
pequeña definida en los reales positivos que:
1. contiene el punto masa en 0 y todas las distribuciones exponenciales,
2. es cerrada para la mezcla finita y la convolución,
3. es cerrada para la mezcla infinita
X
G(·) =
(1 − p)pn F ∗n (·), 0 ≤ p ≤ 1
n>0
A estas propiedades de caracterización se añaden las propiedades de aproximación
probadas por Asmussen en 2003. De acuerdo con ellas, la familia de distribuciones
PH es débilmente densa, en el sentido de las distribuciones, en la familia de distribuciones de la recta real positiva. Para realizar la aproximación a distribuciones
generales destacan por su importancia varias familias:
1. La mezcla finita de Erlang con el mismo parámetro de intensidad.
2. Las distribuciones serie-paralelo (distribuciones exponenciales en serie y/o paralelo).
3. Las distribuciones matriz-exponenciales.
Finalmente presentar la dos importantes propiedades de las distribuciones tipo
fase discretas probadas por Neuts (1975) y Shi y otros (1996) respectivamente.
Teorema 9. Cualquier distribución de probabilidad discreta no negativa con soporte
finito es tipo fase.
Este resultado lo generalizó posteriormente Shi y otros (1996) como sigue.
Teorema 10. Cualquier distribución de probabilidad discreta no negativa con soporte finito o infinito es tipo fase o tipo fase infinito respectivamente.
2.2.
Procesos de Renovación Tipo Fase
En esta sección se va a analizar en primer lugar el caso continuo para posteriormente detenernos en el caso discreto.
33
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
2.2.1.
Procesos de Renovación Tipo Fase Continuos
Antes de entrar a definir los procesos de renovación tipo fase se precisan señalar
una serie de conceptos relativos a la reducibilidad.
Definición 21. Decimos que una representación (α, T ) es irreducible si y solo si la
matriz generadora Q∗ es irreducible.
Lema 2. Cada componente de ν(t) = α exp(T t, t ≥ 0) es estrictamente positiva
para todo t < 0 o igual a 0 para todo t ≥ 0. En el último caso, se dice que la matriz
Q∗ es reducible.
Teorema 11. Si la matriz Q∗ es reducible, entonces se pueden borrar filas y columnas de la misma correspondientes al subconjunto de ı́ndices {1, 2, . . . , m} para
obtener una representación irreducible de F (·), cuya representación será (α1 , T1 ).
Dada una representación tipo fase de una distribución PH con representación
(α, T ), es posible añadir un estado instantáneo a la cadena de Markov irreducible
con generador Q∗ = T + T 0 α, de tal forma que la probabilidad elemental de que
se produzca al menos una visita a ese estado en el intervalo (t, t + dt), suponiendo
que la cadena está en el estado i en el instante t, viene dada por Ti0 dt. Eligiendo
como estado de retorno uno de los estados del conjunto {1, 2, . . . , m} de acuerdo
con el vector α puede verse que las sucesivas visitas al estado instantáneo forman
un proceso de renovación con distribución subyacente F (·) = P H(α, T ). Con esta
información, redefiniremos los procesos de recuento. Ası́ pues, sea N (t) el número de
renovaciones de un proceso en el intervalo (0, t], entonces {N (t), t ≥ 0} es el proceso
de recuento del proceso de renovación tipo-fase. El generador Q∗ se denotará por
{J(t), t ≥ 0} y se introducen las matrices P (n, t) = {Pij (n, t)} para n ≥ 0 dadas
por
Pij (n, t) = P [N (t) = n, J(t) = j|N (0) = 0, J(0) = i]
para t ≥ 0, n ≥ 0, 1 ≤ i ≤ m, 1 ≤ j ≤ m. Aplicando sobre ellas las ecuaciones de
Chapman-Kolmogorov (adelantada y atrasada) se puede demostrar que las matrices
P (n, t), t ≥ 0, n ≥ 0 satisfacen las ecuaciones diferenciales
P 0 (0, t) = T P (0, t) = P (0, t)T
0
P (n, t) = T P (n, t) + (1 − αm+1 )
n
X
v−1
αm+1
T 0 αP (n − ν, t)
ν=1
= P (n, t)T + (1 − αm+1 )
n
X
ν−1
P (n − ν, t)T 0 α
αm+1
ν=1
con la condición inicial P (n, 0) = δ0n I, para n ≥ 0, siendo δ la δ de Kronecker.
34
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
2.2.2.
Procesos de Renovación Tipo Fase Discretos
En el capı́tulo anterior se ha analizado detalladamente los principales resultados
de los procesos de renovación discretos. En esta sección estudiaremos el caso en el que
los tiempos entre renovaciones son tipo fase. Esto va a permitir expresar de forma
algorı́tmica matricial resultados de gran complejidad para distribuciones generales.
Esto permitirá una más asequible implementación computacional y aplicación.
Supongamos que tenemos un proceso de renovación N (t) en tiempo discreto con
tiempos entre renovaciones representados por Xi . Estas variables Xi , por ser una
cadena de renovación son independientes e idénticamente distribuidas.
Por definición, tenemos que un proceso de renovación es tipo fase si el tiempo
entre renovaciones es tipo fase. Supongamos entonces que los tiempos Xi siguen una
distribución de tipo fase. El tiempo entre dos renovaciones viene dado por el primer
instante en que el sistema pasa por el estado absorbente de la cadena de Markov
asociada a la distribución tipo fase.
Se considera la distribución del tiempo entre renovaciones, Xi , tipo fase con
representación (α, T ) (se considera que αn+1 = 0). Como es conocido la matriz T
es subestocástica, de dimensión n y verifica que T e + T 0 = e, siendo (I − T ) una
matriz no singular. La densidad del tiempo hasta la absorción viene dada por
p0 = αn+1
pk = αT k−1 T 0 , k ≥ 1
Se dice que pk sigue una P Hd (α, T ).
A pesar de encontrarnos en el caso discreto de las distribuciones tipo fase, notaremos a la matriz por T en lugar de S para evitar confundir con la suma de tiempos
de renovación, denotados por la misma letra.
Distribución del tiempo de renovaciones
¿Cómo podemos conocer las principales magnitudes relativas a los tiempos de
llegada dados por Sn := X1 + . . . + Xn ?. La distribución de los tiempos de llegada
Sn = X1 +. . .+Xn , donde cada uno de los n términos Xi es tipo fase, es también tipo
fase de acuerdo con las propiedades descritas en apartados anteriores. Su distribución
de Sn se expresa en general en forma de convolución de la función masa probabilidad
del tiempo entre renovaciones que notamos por f .
Ası́, se tiene que para cualquier Xi distribuida tipo fase
(n)
fm
= P (Sn = m)
35
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
Con la notación del proceso de renovación general se tiene que fm := P (X1 = m)
con f0 := 0. En el caso concreto de considerar distribuciones tipo fase se tiene que
f (m) = pm = αT m−1 T 0 , m ∈ N+
(2.1)
con p0 = 0.
Conocida la función masa de probabilidad del tiempo entre renovaciones, se
obtiene la función de supervivencia que es igual a
P (Xi > n) = αT n e
y su función de distribución viene dada por
F (n) = P (X ≤ n) = 1 − αT n e
(2.2)
es la función de distribución acumulada del tiempo de funcionamiento.
Si se considera S2 = X1 + X2 , la distribución se obtiene como convolución de
las distribuciones de X1
P Hd (α, T ) y X2
P Hd (α, T ) de órdenes m. Esto darı́a
como resultado una distribución tipo fase con representación (γ2 , L2 ) siendo
γ = (α, 0),
y una matriz L2 con la estructura
L2 =
T T 0α
0 T
Claramente este resultado se puede generalizar para la obtención de la distribución de Sn que notamos por f (n) . Dicha distribución es tipo fase con representación
(γn , Tn ), siendo
γn = (α, 0),
y Ln




Ln = 


T T 0α 0
0 T T 0α
..
..
..
.
.
.
0 0
0
0 0
0
···
···
..
.
···
···
0
0
..
.






0
T α 
T
Probabilidad de ocurrencia de una renovación
La probabilidad dePocurrencia de una renovación en un instante concreto, m,
(n)
viene dada por uk = kn=0 fk . Dado que la distribución de f (n) es tipo fase con
representación (γn , Ln ) se tiene que
36
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
uk =
k
X
(n)
fk
n=0
=
k
X
L0n .
γn L(k−1)
n
n=0
Por otro lado un posee una relación directa con la función masa de probabilidad
del tiempo entre renovaciones, de forma que puede calcularse de forma recursiva
según la expresión
n
X
un =
fk un−k , con u0 = 1
k=1
Número esperado de renovaciones hasta un determinado tiempo
Para un variable aleatoria discreta de tipo fase, la función generatriz viene dada
por la expresión
Φ(s) = αm+1 + sα(I − sT )−1 T 0
La función generatriz correspondiente a un se obtiene a través de la relación existente
entre ambas funciones para cualquier cadena de renovación, y por tanto se obtiene
como
1
U (s) =
1 − Φ(s)
La matriz (I −T )−1 tiene un significado probabilı́stico, representando el elemento
(i, j) tiempo de permanencia en un estado j antes de la absorción condicionado a
que se comienza en el estado i.
Resultados lı́mite
Dado que la distribución del tiempo entre renovaciones es tipo fase con representación (α, T ) entonces el tiempo medio es conocido e igual a
µ = α (I − T )−2 T 0
El tiempo medio entre renovaciones juega un importante papel en los teoremas
lı́mite estudiado en el capı́tulo 2. Desde el teorema elemental de renovación se tiene
que
Ψ(n)
1
1
= =
limx→∞
n
µ
α (I − T )−2 T 0
Esta cantidad coincide con el lı́mite de las probabilidad de ocurrencia en un instante
concreto cuando la cadena es aperiódica.
37
CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO
2.3.
Procesos de renovación alternados tipo fase
discretos
En esta sección vamos a considerar un proceso de renovación alternado discreto
donde los tiempos implicados son tipo fase. Siguiendo la notación dada en el capı́tulo
anterior nos centraremos en el tipo fase y en el cálculo algebraico matricial de la
fiabilidad y disponibilidad.
Consideremos un sistema donde el tiempo de operatividad es tipo fase con representación (α, T ) y con tiempo de reparación también tipo fase con representación
(β, S). En este caso el tiempo entre renovaciones, si se considera cada una de ellas
como los tiempos consecutivos de comienzo de operatividad, son tipo fase con representación (γ, L) siendo γ = (α, 0) y la matriz L como sigue
T T 0β
L=
0 S
En este contexto la función de fiabilidad viene dada por
R(k) = αT k e.
Por otro lado es conocido que para el cálculo de la disponibilidad se tiene la
ecuación de renovación A(k) = R(k) + f ∗ A(k), k ∈ N. La solución viene dada por
A(k) = u ∗ R(k), k ∈ N. Quedando en nuestro caso que
A(k) =
k
X
m=1
R(k − m)um =
k
X
m=1
38
αT
k−m
e
m
X
k=0
γLm−1
L0k .
k
Capı́tulo 3
Sistemas de fiabilidad discretos
Consideremos un sistema simple con una única componente que se revisa en
intervalos de tiempo al no poder monitorizarse en tiempo continuo o cuyo funcionamiento intrı́nseco es discreto. En cada revisión se determina su estado. Veremos
dos casos diferentes, con reparación y sin reparación, o lo que es lo mismo, un proceso ordinario y otro alternado. Los resultados de esta memoria se han programada
computacionalmente con Matlab para distribuciones tipo fase de cualquier orden.
3.1.
Sistema no reparable: Proceso de renovación
ordinario
Consideramos una unidad que está operativa y que cuando se detecta el fallo, la
componente es sustituida por otra idéntica de manera instantánea. Representaremos
por Xn el tiempo que la componente se encuentra funcionando desde la última
sustitución, considerando que sigue una distribución tipo fase con representación
(α, T ). Sobre este sistema deseamos conocer:
La probabilidad de ocurrencia de un fallo en el instante k.
El número medio esperado de fallos en un instante k.
El tiempo medio de fallo
Emplearemos los resultados matriciales del capı́tulo previo para aplicación de distribuciones tipo fase sobre procesos de renovación ordinarios. Como ejemplo práctico
consideraremos un proceso con representación (α, T ) con α = (1 0) y
0,3 0,65
T =
0 0,85
Con el programa MATLAB (acrónimo de MATrix LABoratory), un software
muy potente para el cálculo matricial, adaptaremos las fórmulas a las estructuras
39
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
del programa para poder obtener los resultados. Como se dijo anteriormente, la
programación se ha realizado de manera general, para distribuciones tipo fase de
cualquier orden. El primer paso no es otro que el de definir los valores de la distribución tipo fase.
alpha=[1,0];
T=[0.3,0.65;0,0.85];
T0=ones(2,1)-T*ones(2,1);
Una vez definidas, calcularemos en primer lugar el tiempo medio hasta el fallo.
% Matriz crea la matriz identidad
I=eye(longT);
%Tiempo medio de funcionamiento. Inv calcula la matriz inversa
mu1=alpha*inv(I-T)^2*T0;
% Muestra por pantalla
mu1
El resultado obtenido es 7,6190, que es el tiempo medio de operatividad de la
componente antes de romperse. Como consecuencia, el lı́mite de la probabilidad de
ocurrencia en un instante concreto cuando el proceso es aperiódico viene dado por
0,1312, como veremos posteriormente en la tabla resultante. Ası́ se tiene que
lı́m un =
n→∞
1
= 0, 1312.
µ
El siguiente paso consiste en calcular el número medio de fallos en un tiempo k y
la probabilidad de fallo en el tiempo k. Como este último concepto precisa del cálculo
de la convolución matricial, crearemos una función que realice dicho procedimiento.
function [out1,out2]=conv_tipo_fase(n,alpha,T)
%Este programa hace la convolución n veces de una distribución tipo fase
%consigo misma
T0=ones(length(T),1)-T*ones(length(T),1);
gamma_n=[alpha,zeros(1,length(T))];
L_n=[T,T0*alpha;zeros(length(T)),T];
L_n0=ones(length(L_n),1)-L_n*ones(length(L_n),1);
if n>2
for i=3:n
gamma_n=[gamma_n,zeros(1,length(T))];
L_n=[L_n,L_n0*alpha;zeros(length(T),length(L_n)),T];
40
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
L_n0=ones(length(L_n),1)-L_n*ones(length(L_n),1);
end
end
%Parámetros de salida. Representación de la distrib. tipo fase
out1=gamma_n;
out2=L_n;
A continuación se calculan las probabilidades. La función utiliza la previa y tiene
tres parámetros de entrada: el valor k, el vector α y la matriz T .
function out=u_k(k,alpha,T)
%Esta función calcula la probabilidad de romperse la unidad (renovación) en
%el tiempo k
T0=ones(length(T),1)-T*ones(length(T),1);
suma=alpha*T^(k-1)*T0;
if k>=2
for n=2:k
[salida1,salida2]=conv_tipo_fase(n,alpha,T);
L_n0=ones(length(salida2),1)-salida2*ones(length(salida2),1);
% Acumula los valores
suma=suma+salida1*salida2^(k-1)*L_n0;
end
end
% Parámetro de salida. Probabilidad de fallo
out=suma;
Por último, definimos la función Ψ(k), que tendrá los mismos parámetros de entrada
function out=Psi(n,alpha,T)
%Esta función calcula la función de renovación
% (número esperado de renovaciones (fallos) hasta el tiempo n)
suma=u_k(1,alpha,T);
if n>=2
for k=2:n
suma=suma+u_k(k,alpha,T);
end
end
% Parámetro de salida. Número esperado de renovaciones
out=suma;
41
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
Una vez disponemos de todos los elementos precisos, evaluaremos las funciones en diversos instantes de tiempo. Para ello, generaremos un bucle que evalúe las funciones
en los números naturales que le indiquemos.
% Creamos un vector de 50 filas y 3 columnas.
resultados=zeros(50,3);
i=1;
while i<=50
%Probabilidad de ocurrencia de una renovación en un instante k
prob=u_k(i,alpha,T);
% Número medio de fallos
numedio=Psi(i,alpha,T);
% Se insertan junto con el tiempo en la matriz resultado
resultados(i,:)=[i prob numedio];
i=i+1;
end
% Mostramos el resultado
resultados
Una vez realizados los cálculos se obtiene una tabla de valores. Siendo la primera
columna el tiempo, la segunda columna la probabilidad de ocurrencia de un fallo en
el iempo k, uk y la tercera columna la función de renovación, número esperado de
renovaciones hasta el tiempo k, Ψk .
resultados =
1.0000
2.0000
3.0000
4.0000
5.0000
6.0000
7.0000
8.0000
9.0000
10.0000
11.0000
12.0000
13.0000
14.0000
15.0000
16.0000
0.0500
0.1150
0.1280
0.1306
0.1311
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.1312
0.0500
0.1650
0.2930
0.4236
0.5547
0.6859
0.8172
0.9484
1.0797
1.2109
1.3422
1.4734
1.6047
1.7359
1.8672
1.9984
42
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
17.0000
18.0000
19.0000
20.0000
...
0.1312
0.1312
0.1312
0.1312
2.1297
2.2609
2.3922
2.5234
Por ejemplo, podrı́amos decir que cuando el proceso lleva 15 unidades de tiempo en
funcionamiento, se espera que se hayan producido 1,8672 fallos. La probabilidad de
fallo en ese preciso momento es de 0,1312.
Como se puede observar se verifica que
Ψ(n)
1
= = 0, 1312.
n→∞
n
µ
lı́m un = lı́m
n→∞
3.2.
Sistema reparable: Proceso de renovación alternado
Basándonos en el ejemplo anterior, supongamos en esta ocasión que cuando falla
la componente no es sustituida, sino que pasa al canal de reparación, quedando
la pieza una vez reparada en las mismas condiciones como cuando era nueva. Es
decir, la reparación es tan buena como nueva. Por tanto, no existen componentes en
reserva pasiva. Representaremos por Yn el tiempo que la componente se encuentra
en reparación desde que se produjo el último fallo, considerando que sigue una
distribución tipo fase con representación (β, S).
Por lo tanto, el ciclo del tiempo del proceso de renovación está formado por
ambas componentes, es decir, abarca un tiempo de funcionamiento y un tiempo de
reparación. Si llamamos Vn := Xn + Yn a este tiempo, tenemos que esta distribución
es de tipo fase, como se ha demostrado en el capı́tulo anterior. Representaremos a
esta distribución como (γ, L).
Si nos centramos en los ciclos y lo que queremos conocer es la probabilidad de
que el tiempo de un ciclo (tiempo desde que comienza a estar operativa hasta que
comienza de nuevo tras reparación, V = X + Y ) sea mayor que una cierta cantidad
de tiempo, la expresión obtenida serı́a
R(k) = P (V > k) = γLk e
Por su parte, la probabilidad de que un ciclo dure un tiempo k viene dado por
pk = γLk−1 L0
43
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
siendo p0 = 0.
Basándonos en las medidas anteriores, si lo que queremos conocer es la probabilidad de que el sistema se encuentre disponible recurrirı́amos a la ecuación de
renovación cuya solución es conocida,
A(k) = R(k) +
k
X
A(k − m)pm ,
m=1
con solución igual a A(k) = u ∗ R(k), k ∈ N. Ahora estamos interesados en conocer:
La fiabilidad del sistema.
La disponibilidad del sistema.
El tiempo medio de reparación.
De forma análoga al caso anterior, definiremos en primer lugar los datos del
problema. Consideraremos que el tiempo de reparación sigue una distribución tipo
fase con representación (β, S), siendo β = (1 0) y
0,02 0,01
S=
0,01 0,015
En notación de MATLAB queda escrito como
beta=[1,0];
S=[0.02,0.01;0.01,0.015];
longS=length(S);
S0=ones(2,1)-S*ones(2,1);
La distribución de Vn se puede calcular de forma sencilla mediante las instrucciones
%Distribución del tiempo entre renovaciones
gamma=[alpha,zeros(1,longS)];
L=[T,T0*beta;zeros(longT),S];
L0=ones(longT+longS,1)-L*ones(longT+longS,1);
Se obtienen de esta forma los siguiente vectores y matrices
L =
0.3000
0
0
0
0.6500
0.8500
0
0
0.0500
0.1500
0.0200
0.0100
0
0
0.0100
0.0150
44
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
gamma = 1
0
0
0
L0 =
0
0
0.9700
0.9750
Ahora calcularemos el tiempo medio de reparación, que se calcula de forma
sencilla de igual forma que en el caso del tiempo de medio de fallo en el caso ordinario.
%Tiempo medio de reparación
mu2=beta*inv(eye(longS)-S)^2*S0;
mu2
El tiempo medio de reparación derivado del proceso es 1,0309. Por otro lado se ha
calculado el tiempo medio entre dos renovaciones del proceso alternado siendo igual
a γ (I − L)2 L0 = 8, 6499 y por lo tanto el lı́mite de la probabilidad de que termine
una reparación en un instante concreto cuando la cadena es aperiódica viene dado
por
1
lı́m un = = 0, 1156.
n→∞
µ
Definimos ahora las funciones de fiabilidad y disponibilidad. La función de fiabilidad
tiene como parámetros de entrada el tiempo y los valores α y T asociados a la
representación tipo fase del tiempo de operatividad.
function out=fiabilidad(k,alpha,T)
% Esta función calcula la fiabilidad en el tiempo k
out=alpha*T^k*ones(length(T),1);
La disponibilidad es calculada desde la solución de la ecuación de renovación, considerando un y la función de fiabilidad, expresándose de forma matricial. Esta función
necesita como parámetro de entrada el tiempo, además de los vectores y matrices
asociados a las representaciones tipo fase del tiempo de reparación y el tiempo de
fallo.
function out=disponibilidad(k,alpha,T,beta,S)
%Esta función calcula la disponibilidad de un sistema de fiabilidad
%mediante un proceso alternado en el tiempo k
gamma=[alpha,zeros(1,length(beta))];
45
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
T0=ones(length(T),1)-T*ones(length(T),1);
S0=ones(length(S),1)-S*ones(length(S),1);
aux=T0*beta;
P=[T,aux;S0*alpha,S];
suma=0;
kk=gamma*P^k;
for i=1:length(T)
suma=suma+kk(i);
end
out=suma;
Una vez definidas las funciones y los vectores y matrices asociados al proceso, ejecutaremos los cálculos desde k = 1, 2, 3, . . . , 100. Para tiempos elevados como el
elegido, el coste computacional es cada vez mayor.
resultados=zeros(100,3)
%Probabilidad de ocurrencia de una renovación en un instante k
i=1;
while i<=100
fia=fiabilidad(i,alpha,T);
disp=disponibilidad(i,alpha,T,beta,S);
resultados(i,:)=[i fia disp];
i=i+1;
end
%Mostramos los resultados
resultados
%Elaboramos el gráfico de la fiabilidad
plot(resultados(:,1),resultados(:,2))
title(’Fiabilidad’)
%Elaboramos el gráfico de la disponibilidad
plot(resultados(:,1),resultados(:,3))
title(’Disponibilidad’)
De estos cálculos se obtienen los siguientes datos donde la primera columna es el
tiempo, la segunda es la fiabilidad y la tercera la disponibilidad en los correspondientes tiempos.
resultados =
0,0000
1,0000
1,0000 1,0000
0,9500
0,9500
46
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
2,0000
3,0000
4,0000
5,0000
6,0000
7,0000
8,0000
9,0000
10,0000
11,0000
12,0000
13,0000
14,0000
15,0000
16,0000
17,0000
18,0000
19,0000
20,0000
...
25,0000
30,0000
40,0000
50,0000
75,0000
100,0000
0,8375
0,7209
0,6154
0,5239
0,4456
0,3788
0,3220
0,2737
0,2327
0,1978
0,1681
0,1429
0,1215
0,1032
0,0878
0,0746
0,0634
0,0539
0,0458
...
0,0203
0,0090
0,0018
0,0003
0,0000
0,0000
0,8860
0,8775
0,8799
0,8809
0,8809
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
...
0,8808
0,8808
0,8808
0,8808
0,8808
0,8808
Por ejemplo, la probabilidad de que el sistema permanezca sin fallar durante 13
unidades de tiempo consecutivas serı́a 0,1429. La probabilidad de que se el sistema
se encuentren operativo en n = 3 es 0,8775, instante en que la disponibilidad alcanza su menor valor. Gráficamente podemos ver la evolución de ambas magnitudes.
47
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
La fiabilidad experimenta un decrecimiento continuado y con forma cuadrática
cóncava. La probabilidad de que el sistema funcione sin fallo durante 50 unidades de tiempo consecutivas es prácticamente nula.
48
CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS
Por su parte, la disponibilidad experimenta un descenso en los primeros instantes
de tiempo hasta alcanzar su mı́nimo en n = 3. A partir de ahı́ crece ligeramente
tendiendo a su lı́mite asintótico que es igual a
7,6190
µX
=
= 0,8808
µX + µY
7,6190 + 1,0309
.
49
Bibliografı́a
[1] Alfa, A.S. (2004) Markov chain representations of discrete distributions applied
to queuin models.Computers & Operations Researh, 31, 2365-2385.
[2] Asmussen, S. (2003) Applied Probability and queues. Springer-Verlag, New York.
[3] Assaf, D. & Levikson, B. (1982) Closure of phase-type distributions under operation arising in reliability theory. Annals of Probability, 10, 265-269.
[4] Barbu, V.L. & Limmios (2007) Semi-Markov Chains and Hidden Semi-Markov
Models toward Applications: Their use in Reliability and DNA analysis. Springer.
[5] Bellman, R. (1970) Introduction to matrix analysis. Mc-Graw Hill, New York.
[6] Fernández-Calvillo Villodre, G., Estudio de sistemas redundantes discretos en
fiabilidad. Tesis doctoral, Universidad de Granada (2009).
[7] Kaplan, E.L. & Meier (1958) Nonparametric estimation from incomplete observations. Journal of the American Statistical Association, 53, 457-481.
[8] Kulkarni, V.G. (1995) Modeling and Analysis of Stochastic Systems. Chapman
& Hall.
[9] Maier, R. & O’Cinneide, C.A. (1992) A closure characterization of phase-type
distribution. Journal of Aplied Probability, 92-103.
[10] Montoro-Cazorla, D. & Perez-Ocón, R. (2006) A deteriorating system with two
repair modes and sojourn times phase-type distributed. Reliability Engineering
and System safety, 91, 1-9.
[11] Neuts, M.F. & Meier, K.S.(1981) On the use of phase type distribution in
reliability modelling of systems with two components. OR Spektrum, 2, 227234 (1981).
[12] Neuts, M.F. (1979) A versatile Markovian point process. Journal of Applied
Probability, 16, 764-779.
50
BIBLIOGRAFÍA
[13] Neuts, M.F. (1975) Probability distributions of phase type. Liber. Amicorum
Frof. Emeritus H. Florin. Dept. Math. University of Louvain, Belgium, 173206.
[14] O’Cinneide, C.A. (1990) Characterization of phase-type distributions. Communications in Statistic-Stochastic Models, 6 (1), 1-57.
[15] Ross, S.M. (1983) Stochastic Processes. Wiley.
[16] Ruiz-Castro, J.E. & Fernández-Villodre, G. (20012) A complex discrete warm
standby system with loss of units.European Journal of Operational Research,
218, 456–469.
[17] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009a) A leveldependent general discrete system involving phase-type distributions.IIE Transactions, 41, 45–56.
[18] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009b) A MultiComponent General Discrete System Subject to Different Types of Failures
with Loss of Units.Discrete Event Dyn Syst, 19:31–65.
[19] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009c) Discrete
repairable systems with external and internal failures under phase-type distributions.IEEE Transactions on Reliability, 58, 1, 41-52.
[20] Ruiz-Castro, Pérez-Ocón, R. & J.E., Fernández-Villodre, G. (2008) Modelling a
reliability system governed by discrete phase-type distributions.Reliability Engineering and System Safety, 93, 11, 1650-1657.
[21] Ruiz-Castro, J.E. & Quan-Lin, L. (2011) Algorithm for a general discrete k-outof-n:G system subject to several types of failure with and indefinite number of
repairpersons.European Journal of Operational Research, 211, 1, 97-111.
[22] Ross, S.M (1983) Stochastic Processes. John Wiley & Sons.
[23] Segovia, M.C., Modelos de choque y desgaste: aproximación analı́tico-matricial.
Tesis doctoral, Universidad de Granada (2009).
[24] Shi, D.H., Guo, J. & Liu, L (1996) SPS-distributions and the rectangle iterative
algorithm. In: Chakravarty, S. Alfa, A.S. editores. Matrix-analytic methods in
stochastic models. New York: MArcel Dekker, 207-224.
[25] Taylor, H.M. & Karlin, S. (1994) An Introduction to Stochastic Modeling. Academic Press .
[26] Tijms, H.C. (2003) A First Course in Stochastic Models. Wiley.
51
Descargar