Máster Oficial en Estadı́stica Aplicada. Trabajo fin de Máster Procesos de Renovación en tiempo discreto: Aplicación del caso tipo fase en fiabilidad Autor: Vı́ctor Montañés Cobo Granada, 19 de Septiembre de 2012 Índice general 1. Procesos de renovación en tiempo discreto 1.1. Algunos conceptos básicos de procesos estocásticos . . . . . . . . . 1.2. Procesos de renovación en tiempo discreto: Introducción y definición 1.3. Ecuación de renovación . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . . . . . . 1.5. Teoremas lı́mite de renovación . . . . . . . . . . . . . . . . . . . . . 1.6. Procesos de renovación retardados discretos . . . . . . . . . . . . . 1.6.1. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . . 1.6.2. Procesos de renovación estacionarios: PRE . . . . . . . . . . 1.7. Proceso de Renovación Alternado . . . . . . . . . . . . . . . . . . . 1.7.1. Definiciones. Fiabilidad y disponibilidad . . . . . . . . . . . 1.7.2. Interpretación gráfica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5 5 7 9 13 16 18 20 21 23 23 26 2. Proceso de Renovación Tipo Fase discreto 2.1. Las distribuciones tipo fase: Definición y propiedades 2.1.1. Definiciones . . . . . . . . . . . . . . . . . . . 2.1.2. Propiedades . . . . . . . . . . . . . . . . . . . 2.2. Procesos de Renovación Tipo Fase . . . . . . . . . . . 2.2.1. Procesos de Renovación Tipo Fase Continuos . 2.2.2. Procesos de Renovación Tipo Fase Discretos . 2.3. Procesos de renovación alternados tipo fase discretos . . . . . . . 28 29 29 31 33 34 35 38 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Sistemas de fiabilidad discretos 39 3.1. Sistema no reparable: Proceso de renovación ordinario . . . . . . . . . 39 3.2. Sistema reparable: Proceso de renovación alternado . . . . . . . . . . 43 1 Introducción El análisis estadı́stico de tiempos de vida tiene un área de trabajo teórico y aplicado muy amplio. Dependiendo del campo donde se realice el estudio, se hablará de tiempo de vida, tiempo de supervivencia o tiempo de fallo. Matemáticamente, una variable tiempo de vida es una variable no negativa de probabilidad. El análisis de los tiempos de vida se utiliza bajo distintos nombres en disciplinas como Biomedicina, Demografı́a o Ingenierı́a. La aplicación de esta memoria se realizará en el campo de la fiabilidad. La finalidad de un estudio de fiabilidad es modelizar el comportamiento de un sistema y obtener las principales medidas de funcionamiento asociadas al mismo: tiempo hasta el siguiente fallo, probabilidad de fallo en un instante, riesgo de fallo, disponibilidad, fiabilidad, etc. Estos tiempos pueden verse afectados a su vez por factores endógenos o exógenos que intervengan en el comportamiento del tiempo de vida. Cuando se desea realizar un análisis de tiempos de vida es habitual realizarlo desde un punto de vista estático, donde las técnicas utilizadas son bien conocidas; no paramétricas como el estimador Kaplan-Meier (1958), semiparamétricas como el modelo de Cox, etc. Pero cada dı́a es más frecuente la incorporación de nuevos modelos que analizan el comportamiento de un sistema desde un punto de vista dinámico. Por lo tanto, la incorporación de procesos estocásticos surge de una manera natural, ya que en este campo se analiza la evolución aleatoria del sistema en el tiempo. En este trabajo se van a considerar los procesos de renovación y van a ser aplicados en el campo de la fiabilidad. Los procesos de renovación son muy útiles en el análisis de modelos probabilı́sticos aplicados en distintos campos como inventarios, teorı́a de colas y fiabilidad entre otros. Muchos procesos estocásticos, como los de renovación, son regenerativos, es decir, se regeneran de un tiempo a otro de tal forma que el comportamiento del proceso después de una regeneración es una réplica probabilı́stica del comportamiento del proceso comenzando desde principio. El tiempo entre dos épocas de regeneración se denomina ciclo y la sucesión de ciclos de regeneración se denomina en nuestro caso proceso de renovación. Un especial 2 interés de la teorı́a de la renovación es que todo el desarrollo se plantea para distribuciones de probabilidad generales. Grandes resultados como el teorema llave de renovación hacen que el comportamiento lı́mite de un proceso de renovación en el cual se impone una estructura de costos/beneficio se pueda estudiar en términos del comportamiento del proceso durante un ciclo de regeneración. Estos modelos son de gran aplicación. Cuando se desea modelizar un sistema de fiabilidad, es habitual considerar que los tiempos de vida involucrados siguen distribuciones continuas. En la práctica, los sistemas no siempre pueden ser monitorizados de forma continua, sino que en muchos casos sólo pueden observarse en ciertos periodos de tiempo. En estos casos, el estado del sistema se determina cuando se procede su observación. Por otro lado, en muchas ocasiones se producen inspecciones en tiempos determinados para analizar el comportamiento del sistema o en muchas ocasiones es la propia estructura del sistema la que tiene un comportamiento discreto en el tiempo. Ası́, los sistemas digitales en el campo de la electrónica funcionan de forma discreta o en sistemas de control en este mismo campo. Pero hay que significar que si bien la literatura es extensa para el estudio de los procesos de renovación en tiempo continuo, esto no es ası́ cuando se desea estudiar un proceso de renovación en tiempo discreto. En este trabajo se desarrolla la teorı́a de renovación en el caso discreto, centrándonos principalmente en los distintos resultados. Analizamos los procesos de renovación, de renovación retardados, de renovación alternados y el proceso de renovación estacionario, siempre en el caso discreto. Pero como es bien sabido, cuando se consideran distribuciones generales en el desarrollo de cualquier modelo, los resultados obtenidos son en muchas ocasiones complejos y muy difı́ciles de interpretar y aplicar. Para dar un primer paso en la resolución de este problema hemos introducido el proceso de renovación tipo fase discreto. Las distribuciones tipo fase fueron introducidas por Neuts y descritas en detalle en Neuts (1981). Estas distribuciones tienen una estructura algebraico matricial que heredan los modelos donde son consideradas, en este caso los procesos de renovación. Un propiedad importante de estas distribuciones tipo fase es que cualquier distribución discreta de probabilidad con soporte finito es tipo fase (Neuts, 1975). Resultado extendido por Shi y otros (1996) al caso general de soporte infinito, pero en este caso considerando las distribuciones tipo fase infinitas (distribuciones con igual estructura matricial que las tipo fase). Por ello, al introducir esta clase de distribuciones obtenemos los resultados de un proceso de renovación para distribuciones generales en forma algebraico matricial, más asequible de implementar computacionalmente y de aplicar. El trabajo se ha dividido en tres capı́tulos. Un primer capı́tulo donde se desarrollan los procesos de renovación en tiempo discreto. Un segundo capı́tulo donde se introducen las distribuciones tipo fase analizando el proceso de renovación tipo fase y finalmente, en el tercer capı́tulo, se presentan dos ejemplos de fiabilidad analizados mediante procesos de renovación tipo fase discreto. Capı́tulo 1 Procesos de renovación en tiempo discreto En este primer capı́tulo de la memoria se va a realizar una pequeña introducción al concepto y algunas propiedades de los procesos estocásticos. Posteriormente nos centraremos en el núcleo de este trabajo que son los procesos de renovación en tiempo discreto. 1.1. Algunos conceptos básicos de procesos estocásticos Un proceso estocástico es un modelo probabilı́stico que permite representar sistemas que evolucionan de forma aleatoria en el tiempo. En estos sistemas, se ocupa un estado en cada instante de tiempo, de forma que un proceso estocástico está formado por un conjunto de variables aleatorias que representan el estado del sistema en cada instante. Algunos ejemplos de estos procesos pueden ser el número de llamada a un centro de atención al cliente, los fallos de una máquina, las llegadas de clientes a la cola de un supermercado y el tiempo de espera de un usuario hasta ser atendido. Definición 1 (Proceso estocástico). Un proceso estocástico es una familia de variables aleatorias (X(t))t∈T , con T ⊆ R, siendo X(t) el estado del proceso en el instante t. Al conjunto donde toma valores la variable aleatoria X (t) se le denomina espacio de estados y se representa por S. Por otro lado , a T se le conoce como espacio paramétrico. Definición 2 (Procesos continuos y discretos). Si el espacio paramétrico T es un conjunto numerable, entonces el proceso estocástico se dice que ocurre en tiempo discreto. En el caso contrario el proceso estocástico se dice que ocurre en tiempo continuo. 5 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO En el caso especial en que el espacio de estados es discreto, generalmente N o un subconjunto de N se dice que el proceso es una cadena. Un proceso estocástico (X(t))t∈T sobre el espacio probabilı́stico (Ω, L, P ) está bien definido cuando se conoce el espacio paramétrico T , el espacio de estados S y la familia de distribuciones finito dimensionales asociada. En ciertas ocasiones la familia de distribuciones es de difı́cil manejo y en algunos casos puede ser caracterizada por otros elementos de más sencilla aplicación. A continuación describiremos algunos tipos de procesos. Como referencia consideraremos (X(t))t∈T con espacio de estados S y que toma valores reales. Definición 3 (Incrementos independientes). Un proceso estocástico en tiempo continuo se dice que tiene incrementos independientes, si para cuales quiera valores t0 < t1 < . . . < tn , {t0 , . . . , tn } ⊂ T se tiene que las variables aleatorias X(t0 ), X(t1 ) − X(t0 ), . . . , X(tn ) − X(tn−1 ) son independientes. Definición 4 (Incrementos estacionarios). Un proceso estocástico en tiempo continuo tiene incrementos estacionarios si la distribución de X(t + h) − X(t) para h > 0, no necesariamente independientes, depende solo del tamaño h del intervalo y no del tiempo t. Definición 5 (Proceso estacionario débil). Un proceso estocástico (X(t))t∈T tal que E X (t)2 < ∞ es un proceso estacionario débil si para todo t ∈ T se verifica que E [X(t)] es finita y la covarianza Cov [X(t), X(s)] = Cov [X(t + h), X(s + h)] para cualquier r, s ∈ T y h ≥ 0 Definición 6 (Procesos estacionarios estrictos). Un proceso estocástico (X(t))t∈T es un proceso estrictamente estacionario si las distribuciones conjuntas de los vectores aleatorios (X(t1 + h), X(t2 + h), . . . , X(tn + h)) y (X(1 ), X(t2 ), . . . , X(tn )) son iguales para todo h > 0 y para cualesquiera t1 , t2 , . . . , tn en T . Definición 7 (Proceso de recuento). Un proceso estocástico en tiempo continuo {N (t)}t≥0 , se dice de recuento, puntual o de conteo si N (t) representa el número de veces que ocurre un suceso hasta el instante de tiempo t. Un caso especialmente relevante de los procesos de recuento son los procesos de renovación, a los que se dedicará principalmente este trabajo. Los procesos de renovación son de gran utilidad en el análisis de modelos probabilı́sticos aplicados en distintos campos: modelos de inventarios y aplicaciones en 6 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO fiabilidad y colas, entre otros. Muchos procesos estocásticos son regenerativos, es decir, se regeneran de un tiempo a otro de tal forma que el comportamiento del proceso después de una regeneración es una réplica probabilı́stica del comportamiento del proceso comenzando desde el principio. El tiempo entre dos épocas de regeneración se denomina ciclo y la sucesión de ciclos de regeneración se denomina proceso de renovación. El comportamiento lı́mite de un proceso estocástico regenerativo en el cual se impone una estructura de costos/beneficio se puede estudiar en términos del comportamiento del proceso durante un ciclo de regeneración. Estos modelos son de gran aplicación. En este capı́tulo se definirán y desarrollarán los procesos de renovación en tiempo discreto. 1.2. Procesos de renovación en tiempo discreto: Introducción y definición Los procesos de renovación pueden definirse tanto en tiempo continuo como discreto. Si bien las ideas y conceptos son similares al caso continuo, existen una serie de restricciones especı́ficas que se irán presentando a lo largo del trabajo. A lo largo de esta memoria nos referiremos por defecto al caso discreto cuando se considere un proceso de renovación. Son muchos los ejemplos donde los procesos de renovación son de aplicabilidad. Ası́, revisiones técnicas de maquinaria diaria para analizar si existen fallos susceptibles de reparación. El suceso renovable es que existan fallos. Como se realiza una única revisión diaria, se considera el tiempo discreto. A continuación desarrollaremos matemáticamente las expresiones de este tipo de procesos. Sea (Xn )n∈N una sucesión de variables aleatorias independientes idénticamente distribuidas no negativas (en sentido extenso)1 para n ≥ 1. Sea (Sn )n∈N la sucesión asociada de sumas parciales dadas por Sn := X0 + X1 + . . . + Xn (1.1) A la sucesión (Xn )n∈N se le denomina sucesión de tiempos entre llegadas, siendo Xn el n-ésimo tiempo de espera. A la sucesión (Sn )n∈N se le denomina sucesión de tiempos de llegada, siendo Sn el tiempo de la n-ésima llegada. Si para un determinado n ∈ N se tiene que Xn = ∞, entonces Sn = Sn+1 = . . . = ∞. Ası́ tenemos que S0 ≤ S1 ≤ . . ., donde la igualdad se verifica únicamente para Sn = ∞. La sucesión de tiempos de llegada puede ser interpretada de forma 1 En sentido extenso porque consideramos también el valor ∞ 7 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO intuitiva como los instantes sucesivos en los que sucede un evento, siendo (Xn ) los tiempos entre llegadas. Definición 8 (Proceso de renovación en tiempo discreto). Una sucesión de tiempos de llegada (Sn )n∈N para la cual los tiempos de espera (Xn )n∈N son independientes e idénticamente distribuidos, y dándose la condición inicial S0 = X0 = 0 se llama proceso de renovación en tiempo discreto o cadena de renovación. A los valores Sn se les denomina tiempos de renovación. En muchas ocasiones se denomina procesos de renovación en tiempo discreto al proceso de recuento asociado. En este trabajo se notará como el proceso de recuento del proceso de renovación. Se define el proceso de recuento de renovaciones en un intervalo [1, n] como N (n) := máx{k|Sk ≤ n}. Por conveniencia se considera N (0) := 0. Una consecuencia inmediata de esta definición de N (n) es que N (n) ≥ k si y sólo si Sk ≤ n de forma que se tiene la igualdad P (N (n) ≥ k) = P (Sk ≤ n) (1.2) para cualquier k ∈ N. Con un ejemplo ilustraremos de forma clara lo establecido en esta igualdad. Si nuestra unidad de tiempo es el minuto, y consideramos una situación a los 5 minutos, dirı́amos que si en el instante n = 5 hay al menos k = 2 renovaciones (N (5) ≥ 2) entonces el tiempo transcurrido hasta la segunda renovación será como máximo de 5 minutos (S2 ≤ 5). Esto se darı́a también en el sentido inverso, es decir, si el tiempo transcurrido hasta la segunda renovación es inferior o igual a 5 minutos entonces en el instante n = 5 se han producido al menos k = 2 renovaciones. Definición 9 (Densidad y distribución de los tiempos de espera). A la distribución común de la sucesión(Xn )n∈N se la conoce como distribución de los tiempos de espera o entre llegadas del procesos de renovación y su función masa de probabilidad se denota por f = (fn )n∈N siendo fn := P (X1 = n) con f0 := 0. Relacionadas con esta expresión se considera: F es la función de distribución acumulada del tiempo de espera, expresada como F (n) := P (X1 ≤ n). La probabilidad de que la renovación ocurra en un tiempo finito viene dada por P ¯ f := n≥0 fn ≤ 1 = P (X1 < ∞). El proceso se denomina recurrente si se da la igualdad, es decir, la probabilidad de que la renovación ocurra es 1. En caso contrario se dirá que el proceso de renovación es transitorio. 8 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Al valor común esperado para Xn , n ∈ N∗ se le nota µ := E(X1 ). Si este valor es finito, se dice que el proceso de renovación es recurrente positivo. En caso contrario se dice recurrente nulo o con recurrencia nula. Debemos tener algunos aspectos en cuenta en los procesos de renovación. Al estar tratando el tiempo como discreto y haber establecido f0 = P (X1 = 0) = 0, el tiempo de espera entre dos renovaciones consecutivas será de al menos una unidad de tiempo. Como consecuencia de ello, en un intervalo finito de longitud n podremos tener como mucho n renovaciones. La ocurrencia de una renovación en cada instante de tiempo se estudia a través de la variable indicadora Zn que tome el valor 1 si hay renovación en dicho instante (o lo que es lo mismo n = Sm ) y 0 en caso contrario, tal que se tiene Zn = n X 1Sm =n . m=0 Dado que S0 = 0 se considera que el tiempo 0 es un tiempo de renovación y por lo tanto Z0 = 1. Por lo tanto inicialmente hay una renovación. A continuación introduciremos tres procesos estocásticos que son de utilidad en distintos campos como en el de la supervivencia o fiabilidad. Un := n − SN (n) , n ∈ N, al que denominaremos tiempo de recurrencia hacia atrás en el tiempo n, al que también se le conoce como tiempo de vida pasada. Vn := SN (n)+1 − n, n ∈ N al que denominaremos tiempo de recurrencia hacia adelante en el tiempo n o también llamado tiempo de vida residual. Ln := SN (n)+1 − SN (n) = Un + Vn , n ∈ N denominado tiempo de vida total en el tiempo n. 1.3. Ecuación de renovación Definidos los conceptos básicos y de este trabajo, a continuación estudiaremos la ecuación de renovación y su solución en caso discreto. La probabilidad de que una renovación ocurra exactamente en un instante n la notaremos por un . De este modo un = P (Zn = 1) con u0 = 1. En el caso de un proceso de renovación recurrente, la suma de estas probabilidades es infinita. La probabilidad un puede expresarse en términos de convoluciones de la distribución f de tiempos de espera como se verá con posterioridad. 9 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Definición 10. Convolución en tiempo discreto Sean las funciones f, g : N → R. La convolución en tiempo discreto de f y g es la función f ∗ g : N → R definida por n X f ∗ g(n) := f (n − k)g(k), n ∈ N. k=0 Puede denotarse alternativamente como f ∗ g(n) o (f ∗ g)n . Es importante recordar que si X e Y son dos variables aleatorias independientes que toma valores enteros positivos, con f = (fn )n∈N y g = (gn )n∈N sus correspondientes distribuciones, entonces f ∗ g = ((f ∗ g)n )n∈N es la distribución de X + Y . Notar que en tiempo discreto, la convolución es conmutativa, asociativa y tiene como elemento identidad δ : N → R definida por 1, si k = 0 δ(k) := 0, en otro caso Definición 11. Convolución n-ésima Sea f : N → R, la convolución n-ésima de f es la función f (n) : N → R definida de forma recursiva por f (0) (k) := δ(k); f (1) (k) := f (k) y f (n) (k) := (f ∗ f ∗ . . . ∗ f )(k), n ≥ 2, donde en este último caso la convolución se realiza n veces. Como consecuencia se tiene que f (n+m) = f (n) ∗ f (m) para todo n, m ∈ N. Retomando lo anterior, si X1 , . . . , Xn son variables aleatorias independientes e idénticamente distribuidas tomando valores enteros positivos y con distribución común f , entonces f (n) es la distribución de X1 + X2 + . . . + Xn . En el caso concreto que tratamos de las cadenas de renovación, si f = (fn )n∈N es la distribución de los tiempos de espera, entonces f (n) es la distribución de Sn . Esto quiere decir que f (n) (k) es la probabilidad de que la (n + 1)-ésima ocurrencia de renovación tenga lugar en el instante k, f (n) (k) = P (Sn = k). En base a esto, se puede obtener una expresión para la probabilidad de ocurrencia de renovación en un instante concreto como convoluciones de f . n X un = P (Zn = 1) = E(Zn ) = P (Sm = n) = m=0 n X fn(m) m=0 y por tanto, resumiendo un = n X m=0 10 fn(m) . (1.3) CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO A continuación profundizaremos en la relación existente entre las sucesiones (fn )n∈N y (un )n∈N . Para cualquier n ∈ N∗ se tiene n−1 X un = P (Zn = 1) = P (S1 = n) + = P (X1 = n) + P (S1 = k)P (Zn = 1|S1 = k) = k=1 n−1 X P (X1 = k)P (Zn−k = 1) = k=1 = fn + n−1 X fk un−k k=1 Como u0 = 1 se tiene finalmente que un = n X fk un−k , n ∈ N∗ , k=1 o en notación de convoluciones como un = (f ∗ u)n , n ∈ N∗ . Otra herramienta habitual es el uso de la función generatriz o también llamada en campos de ingenierı́a como transformada z. El uso de esta función permite pasar de convoluciones a productos ordinarios. Como las sucesiones (fn )n∈N y (un )n∈N son cantidades asociadas a los procesos de renovación, denotamos sus funciones generatrices como: Φ(s) := ∞ X n fn s , U (s) := n=0 ∞ X un sn . n=0 Ambas series son convergentes al menos para |s| < 1, mientras que Φ(s) también lo es para s = 1. Notar que en el caso de Φ(s) la sumatoria puede realizarse desde n = 1 dado que f0 = 0. Proposición 1. Las funciones generatrices de (fn )n∈N y (un )n∈N están relacionadas mediante 1 U (s) − 1 Φ(s) = ; U (s) = (1.4) U (s) 1 − Φ(s) P Teorema 1. Un proceso de renovación es transitorio, si y solo si, ū := ∞ n=0 un < ∞. Si se da esta situación, la probabilidad de que una renovación ocurra en algún momento viene dada por f¯ = (ū − 1)/ū. 11 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Notar que la probabilidad de que se produzca una renovación en el instante n verifica la ecuación un = δ(n) + (f ∗ u)n , n ∈ N (1.5) donde δ(0) = 1 y δ(n) = 0 para n ∈ N∗ . Esta ecuación es un caso especial de la ecuación de renovación en tiempo discreto y tiene la siguiente forma: gn = bn + n X fk gn−k , n ∈ N k=0 donde b = (bn )n∈N es una sucesión conocida y g = (gn )n∈N es una sucesión desconocida. Esta ecuación tiene una solución única como se indica en el siguiente teorema. Teorema 2. Ecuación de renovación en tiempo discreto Sea b = (bn )n∈N es una P sucesión conocida y g = (gn )n∈N es una sucesión desconocida. Si bn ≥ 0, n ∈ N y ∞ n=0 bn < ∞, entonces la ecuación de renovación en tiempo discreto gn = bn + n X fk gn−k , n ∈ N, k=0 tiene una única solución que viene dada por gn = (u ∗ b)n , n ∈ N Hay algunos procesos estocásticos relacionados con las cadenas de renovación cuyo estudio es importante para el entendimiento del comportamiento asintótico de las cadenas de renovación. Definiremos el proceso de recuento de renovaciones en un intervalo [1, n] por N (n) := máx k|Sk ≤ n = n X Zk = k=1 n X 1[0,n] (Sk ) = k=1 n X 1{Sk ≤n} k=1 Por conveniencia se considera N (0) := 0. Esta definición de N (n) muestra que N (n) ≥ k sı́ y sólo sı́ Sk ≤ n de forma que se tiene la igualdad P (N (n) ≥ k) = P (Sk ≤ n) para cualquier k ∈ N. Con un ejemplo ilustraremos de forma clara lo establecido en esta igualdad. Si nuestra unidad de tiempo es el minuto, y consideramos la situación a los 5 minutos dirı́amos que si en el instante n = 5 hay al menos k = 2 renovaciones (N (5) ≥ 2) entonces el tiempo transcurrido hasta la segunda renovación será como máximo de 5 12 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO minutos (S2 ≤ 5). Esto se darı́a también en el sentido inverso, es decir, si el tiempo transcurrido hasta la segunda renovación es inferior o igual a 5 minutos entonces en el instante n = 5 se han producido al menos k = 2 renovaciones. Una función de especial importancia en la teorı́a de la renovación es la función de renovación. Su comportamiento será estudiado posteriormente a través de su ecuación de renovación. Definición 12 (Función de renovación). Se define la función de renovación Ψ(n), n ∈ N como el número esperado de renovaciones hasta el tiempo n. Esta función se puede expresar como Ψ(n) := E[N (n) + 1] = n X P (Sk ≤ n) = k=0 n X n X (k) fl , n ∈ N k=0 l=0 Con esta definición, al tenerse que N (0) = 0 entonces Ψ(0) = 1, es decir, que el número esperado de renovaciones al inicio es 1, ya que se considera que el proceso se inicia con una renovación. No obstante, algunos autores definen esta función sin tener en consideración la renovación que sucede en el instante inicial, por lo cual consideran como función Ψ(n) := E[N (n)]. En lo sucesivo, consideraremos Ψ(n) := E[N (n) + 1] en este trabajo. La función de renovación puede expresarse en términos de la probabilidad de ocurrencia de renovación en un instante concreto (un ), quedando de la forma ! n n X X Ψ(n) := E[N (n) + 1] = E Zk = uk , n ∈ N. (1.6) k=0 1.4. k=0 Interpretación gráfica Los conceptos descritos anteriormente pueden resultar más comprensibles acompañados de un gráfico en el que se representen diferentes conceptos. Para ello, consideremos la siguiente representación. 13 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Sobre este gráfico describiremos los diferentes conceptos. En primer lugar, se representa en el eje de abscisas el tiempo, mientras que en el eje de ordenadas se indica el número de renovaciones experimentadas por el proceso. Tanto el tiempo como las renovaciones toman valores discretos. El proceso comienza en el tiempo t = 0 y con un número de renovaciones igual a 1, ya que se considera que el proceso se inicia en una renovación. Los elementos Xi representan el tiempo transcurrido entre la renovación (i)ésima y la la renovación i + 1-ésima. Por ejemplo, X2 es una variables aleatoria que representarı́a el tiempo transcurrido entre la segunda renovación y la tercera. El número de renovaciones experimentadas por el proceso hasta un instante n viene dado por N (n). Los elementos Si también son variables aleatorias generadas por la sumatoria de los elementos Xi . De forma práctica representan el tiempo total transcurrido hasta la renovación i-ésima. Por ejemplo, S2 serı́a el tiempo transcurrido desde el inicio del proceso hasta la segunda renovación y viene dado por el tiempo transcurrido entre el inicio (primera renovación) y la segunda renovación X1 14 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO más el tiempo transcurrido entre la segunda y la tercera, X2 . Por lo tanto Si = i X Xi k=1 o de forma recursiva Si = Si−1 + Xi . Supongamos que nos encontramos en el instante n, habiéndose producido N (n) renovaciones hasta ese instante. Tomando como referencia este instante podemos dividir el tiempo transcurrido entre las renovaciones N (n) y N (n) + 1 desde dos puntos de vista. Un , representado en color verde, serı́a el tiempo transcurrido desde la última renovación y es conocido como tiempo de vida pasada. Si se tratara de un sistema en el que al fallar una componente se sustituye automáticamente por otra, esta cantidad representarı́a el tiempo que lleva funcionando la actual componente sin fallar. De otro lado se encontrarı́a su complementario Vn , representado en color azul, que serı́a el tiempo restante hasta la siguiente renovación o tiempo de vida residual. En el ejemplo anterior serı́a el tiempo que le queda a la componente para fallar. Tanto Un como Vn son variables aleatorias, de forma que se puede modelar tanto el tiempo de funcionamiento como el tiempo restante hasta que se produzca el fallo. Imaginemos una empresa que se dedica a la fabricación de varios artı́culos. Supongamos que una de las máquinas ejecuta un procedimiento concreto necesario para la fabricación de todos los artı́culos. El fallo de esta máquina pararı́a la producción por completo. Para la empresa resulta de vital importancia conocer el tiempo de funcionamiento esperado de esta máquina para proceder a una revisión previa o redistribuir el resto de tareas. Esta idea sirve tanto para justificar la necesidad de conocimiento sobre estos tiempos y también para introducir la siguiente sección sobre el comportamiento de las renovaciones a largo plazo. Supongamos que un técnico revisa cada hora el correcto funcionamiento de una componente concreta de la máquina. Si esta falla, procederı́a a su reparación automática (un tiempo despreciable en comparación con el intervalo de revisión). Cada una de estas reparaciones supondrı́a una renovación. En los sistemas empleados en ingenierı́a, podrı́amos considerar también un sistema redundante con componentes en reserva pasiva, es decir, componentes que no pueden fallar mientras no se encuentren operativas. La renovación en este caso serı́a la activación de la componente de reserva. 15 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO 1.5. Teoremas lı́mite de renovación En esta sección analizaremos el comportamiento asintótico de los procesos de renovación. Este análisis permite la obtención de resultados útiles para la aplicación práctica. Por conveniencia se considerará que 1/∞ = 0. Lema 1. 1. Para un proceso de renovación se tiene que lı́mn→∞ Sn = ∞ casi seguramente. 2. Para un proceso de renovación recurrente se tiene que lı́mn→∞ N (n) = ∞ casi seguramente. Los siguientes dos teoremas analizan el comportamiento asintótico del número de renovaciones de un proceso de recuento (N (n))n∈N . Teorema 3 (Ley fuerte de los grandes números para N (n)). Para un proceso de renovación recurrente (Sn )n∈N se tiene que 1 N (n) = c.s. n→∞ n µ lı́m Teorema 4 (Teorema central del lı́mite para N (n)). Consideremos un proceso de renovación positivo recurrente (Sn )n∈N con µ = E(X1 ) < ∞ y 0 < σ 2 := V ar(X1 ) < ∞. Entonces N (n) − n/µ p −→ N (0, 1), nσ 2 /µ3 en distribución cuando n → ∞. La demostración se realiza siguiendo los razonamientos de Feller(1993) y Karlin & Taylor (1975). Los resultados asintóticos estándar en los procesos de renovación se basan en el comportamiento asintótico de la función de renovación. A continuación enunciaremos 3 importantes teoremas relativos a la función de renovación. Teorema 5 (Teorema elemental de renovación). Para un proceso de renovación recurrente (Sn )n∈N se tiene E [N (n) + 1] 1 Ψ(n) = lı́m = . n→∞ n→∞ n n µ lı́m La demostración se realiza en base al teorema de Wald y verificando dos desigualdades que dan como consecuencia la igualdad indicada en el teorema. El comportamiento asintótico de ciertas magnitudes de los procesos de renovación está estrechamente relacionado con el concepto de periodicidad. 16 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Definición 13. Una distribución g = (gn )n∈N sobre N se dice periódica si existe un entero d > 1 tal que gn 6= 0 solo cuando n = d, 2d, . . .. Al mayor valor de d que satisface lo anterior se le llama periodo de g. Si d = 1, se dice que la distribución g es aperiódica. Definición 14. Un proceso de renovación (Sn )n∈N se dice que es periódico de periodo d, d ∈ N∗ , d > 1 si la distribución de su tiempo de espera f = (fn )n∈N es periódica de periodo d. Si f es aperiódica, entonces el proceso renovación se dice aperiódica. Teorema 6 (Teorema de renovación). Un proceso de renovación recurrente aperiódico (Sn )n∈N verifica lı́m un = n→∞ 1 µ Un proceso de renovación periódico recurrente (Sn )n∈N de periodo d > 1 verifica d lı́m und = n→∞ µ y uk = 0 para todo valor de k que no sea múltiplo de d. Esto implica que no hay renovaciones en los instantes que no son múltiplos del periodo. Notar que dada la finitud de las sumas de un , desde el teorema de renovación es inmediato probar el resultado de Blackwell que para cualquier h > 0 se tiene que lı́m [Ψ (n + h) − Ψ (n)] = n→ı́nf ty h . µ Teorema 7 (Teorema llave de renovación). Consideremos un proceso de renovación recurrente (Sn )n∈N y una sucesión real (bn )n∈N . P Si el proceso es aperiódico y ∞ n=0 |bn | < ∞, entonces lı́m n→∞ n X ∞ bk un−k = k=0 1X bn µ n=0 Si el proceso es periódico de periodo P d > 1 y si para un determinado l entero positivo, 0 ≤ l < d se tiene que ∞ n=0 |bl+nd | < ∞, entonces lı́m n→∞ l+nd X ∞ bk ul+nd−k k=0 17 dX = bl+nd µ n=0 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Es importante resaltar que la solución de la ecuación de renovación en tiempo discreto fue obtenida con anterioridad como g = b ∗ u. En consecuencia, el teorema llave de renovación describe el comportamiento asintótico de esta solución g tanto en el caso periódico como en el aperiódico. En el caso en que b0 = 1 y bn = 0, n ≥ 1, la convergencia del caso aperiódico coincide con la establecida en el teorema de renovación. De esta forma, el teorema llave de renovación y el teorema de renovación son equivalentes en el caso aperiódico y esta misma observación también es cierta en el caso periódico. 1.6. Procesos de renovación retardados discretos Los procesos de renovación retardados discretos son empleadas para modelizar fenómenos similares a los que se aplican las cadenas de renovación ordinarias, pero con la diferencia de que no se considera el origen como momento de ocurrencia de la primera renovación, es decir, S0 = X0 > 0. Este retardo será representado por S0 y no será igual a 0, ya que en este caso tendrı́amos un proceso de renovación clásico. Definición 15 (Proceso de renovación retardado). Una sucesión de tiempos de llegada (Sn )n∈N para la cual sus tiempos de espera (Xn )n∈N∗ forman una distribución independiente e idénticamente distribuida, y siendo X0 independiente de (Xn )n∈N∗ se denomina proceso de renovación retardado y todos los valores Sn son llamados tiempos de renovación. El proceso (Sn − S0 )n∈N es un proceso de renovación ordinario llamado proceso de renovación asociado. Además, es inmediato comprobar que (Sn )n∈N es un proceso de renovación (ordinario) si y sólo si S0 = 0 casi seguramente. Al igual que hicimos con los procesos de renovación ordinarios, estableceremos una notación análoga para este tipo de fenómenos. Por comodidad, nos referiremos a los procesos de renovación retardados en tiempo discreto por el acrónimo PRR. La distribución b = (bn )n∈N de S0 será nombrada como distribución inicial (o distribución retardada) del PRR, definiéndose bn := P (S0 = n). Su correspondiente función generatriz será denotada por B(s). La probabilidad que una renovación ocurra en el instante n del PRR se estaPde ∞ blece como vn := k=0 P (Sk = n). Su correspondiente función generatriz es V (s). Por un representaremos la probabilidad de ocurrencia de una renovación en el tiempo n para la cadena de renovación ordinaria asociada, siendo U (s) la función generatriz. Como hemos hecho con anterioridad, denotaremos por f = (fn )n∈N , con f0 := 0, la distribución común de los tiempos de espera (Xn )n∈N∗ en la cadena de renovación 18 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO retardada. La función de distribución asociada a estos tiempos de espera es F . Como Xn := Sn − Sn−1 = (Sn − S0 ) − (Sn−1 − S0 ) la distribución de los tiempos de espera será la misma para el PRR retardado que para el proceso de renovación ordinaria asociado a él. Un PRR se dice aperiódico si el proceso de renovación asociado es aperiódico. De forma análoga, se dirá que es periódico de periodo d > 1 si el proceso de renovación asociado es periódica con dicho periodo d. De forma similar se razona para los conceptos de recurrencia y transitoriedad. De forma recurrente se obtiene (vn )n∈N y su función generatriz de probabilidades que notamos V (s) al igual que se hizo en el caso ordinario. En efecto, se tiene que vn = P (S0 = n) + n−1 X P (S0 = k) n−k X P (Sr − S0 = n − k) = bn + r=1 k=0 n−1 X bk un−k k=0 En consecuencia se tiene n X vn = bk un−k , es decir, vn = (b ∗ u)n , n ∈ N, k=0 siendo b(n) la distribución del tiempo hasta la primera renovación. Multiplicando esta ecuación por sn y sumando en n se llega a V (s) = B(s)U (s) = B(s) . 1 − Φ(s) (1.7) Como ya se analizó en el caso ordinario, estudiaremos el comportamiento asintótico de esta probabilidad de ocurrencia de las renovaciones. Teorema 8 (Teorema de renovación para PRR). Consideremos un PRR recurrente (Sn )n∈N con distribución inicial b = (bn )n∈N . 1. Si el proceso es aperiódico ∞ lı́m vn = n→∞ 1X bn µ n=0 2. Si el proceso es periódico de periodo d > 1 entonces para cualquier entero positivo l, 0 ≤ l < d ∞ dX bl+nd lı́m vl+nd = n→∞ µ n=0 P Hay que resaltar que ∞ n=0 bn = P (S0 < ∞) < 1, lo que significa que (bn )n∈N es una distribución impropia. Ası́, el lı́mite de la expresión aperiódica tiene como lı́mite 1/µ siendo (bn )n∈N una distribución propia. Lo mismo sucede en el caso periódico. 19 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO 1.6.1. Interpretación gráfica Como ya hemos hecho con los procesos de renovación ordinarios discretos, analizaremos los elementos esenciales de este tipo de procesos basándonos en la representación gráfica de un proceso genérico. Se representa en el eje de abscisas el tiempo, mientras que en el eje de ordenadas se indica el número de renovaciones experimentadas por el proceso. El primer dato reseñable es que no se da la condición de que S0 = 0. Esto se debe a que cuando comienza a observarse el proceso, éste ya se encuentra funcionando, desconociéndose cuánto tiempo lleva en funcionamiento. Por lo tanto S0 será el tiempo en que el sistema se renueva por primera vez desde que comenzó a observarse. Como consecuencia de esto, el resto de magnitudes se ven desplazadas en el gráfico respecto a una cadena de renovación ordinaria. De hecho, si consideramos como punto de origen S0 y la primera renovación, tendrı́amos justamente una cadena de renovación ordinaria. Este desplazamiento hace que se precise una redefinición de los conceptos principales. Los elementos Xi representan el tiempo transcurrido entre la renovación iésima y la la renovación (i + 1)-ésima. Por ejemplo, X2 serı́a una variables aleatoria que representarı́a el tiempo transcurrido entre la segunda renovación y la tercera. 20 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO El número de renovaciones experimentadas por el proceso hasta un instante n viene dado por N (n) + 1. Los elementos Si son variables aleatorias generadas por la sumatoria de los elementos Xi . Denominamos por X0 al tiempo transcurrido desde el inicio de la observación del proceso y la primera renovación. De forma práctica representan el tiempo total transcurrido hasta la renovación i + 1-ésima. Por ejemplo, S2 serı́a el tiempo transcurrido desde el inicio del proceso hasta la tercera renovación y vendrı́a dado por el tiempo transcurrido entre el inicio y la primera renovación X0 más el tiempo transcurrido entre la primera renovación y la tercera, X1 + X2 . Por lo tanto Si = i X Xi k=1 o de forma recursiva Si = Si−1 + Xi . Si nos situamos en el mismo ejemplo de los procesos de renovación ordinarios en el que una empresa que se dedica a la fabricación de varios artı́culos, el tiempo S0 podrı́a ser, por ejemplo, el tiempo transcurrido hasta que la empresa decide aplicar técnicas de fiabilidad. También podrı́a ser el tiempo que el fabricante tiene la máquina en funcionamiento en sus tests antes de vendérsela a la empresa. 1.6.2. Procesos de renovación estacionarios: PRE El objetivo de este apartado es analizar un caso particular de PRR con unas ciertas propiedades invariantes en el tiempo. La pregunta que nos planteamos es, qué clase de PRR tiene vn constante respecto n. Consideremos (Sn )n∈N un PRR tal que P (S0 < ∞) = 1, es decir, (bn )n∈N sigue una distribución propia. Supongamos que vn = ∆ para todo n ∈ N. Como consecuencia, la función generatriz de V (s) viene dada por ∞ X ∆ V (s) = ∆sn = 1−s n=0 usando la ecuación 1.7 se obtiene B(s) = ∞ X n=0 bn s n = ∆ ∆ (1 − Φ(s)) 1−s ∞ X ! sn n=0 1− ∞ X n=1 21 ! f n sn CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Desde la expresión anterior se tiene que b0 = ∆ bn = ∆ 1 − Si ahora tenemos en cuenta que obtiene que n X ! fk = ∆P (X1 > n), n ∈ N∗ k=1 P∞ n=0 bn = 1 y utilizando P∞ n=0 P (X1 > n) = µ se ∆ = 1/µ siempre que el PRR sea positiva recurrente. Ası́, se demuestra que si un PRR recurrente positivo satisface vn = ∆ para todo n ∈ N, entonces ∆ = 1/µ y bn = P (X1 > n)/µ. Ahora, comenzando con un PRR recurrente positivo (Sn )n∈N tal que bn = P (X1 > n)/µ para todo n ∈ N, queremos probar que vn = 1/µ para todo n ∈ N. Para 0 ≤ s < 1 la función generatriz de la primera ocurrencia de una renovación es ∞ ∞ ∞ 1X X 1X n P (X1 > n)s = P (X1 = k)sn B(s) = µ n=0 µ n=0 k=n+1 ! ∞ ∞ k−1 ∞ X X 1 1 1 XX n k s fk = s fk fk − = µ k=1 n=0 µ 1 − s k=1 k=1 = 1 1 − Φ(s) µ 1−s Si aplicamos la ecuación 1.7 entonces se obtiene ∞ X1 1 1 V (s) = = sn µ 1 − s n=0 µ por lo que vn = 1/µ para todo n ∈ N. La siguiente proposición resume el análisis anterior. Proposición 2. Sea (Sn )n∈N un PRR recurrente positivo con tiempos de espera (Xn )n∈N y µ := E(X1 ) < ∞. Entonces, P (S0 = n) := P (X1 > n)/µ es la única elección para la distribución inicial del PRR tal que vn es constante para todo n ∈ N. Además, el valor de esta constante común es 1/µ. El PRR con vn = 1/µ para todo n ∈ N se llama proceso de renovación estacionario y su distribución inicial está definida por P (S0 = n) := P (X1 > n)/µ para todo n ∈ N. Esta distribución recibe el nombre de distribución estacionaria del PRR (Sn )n∈N . 22 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Desde esta proposición puede verse que para un proceso de renovación ordinario (Sn )n∈N y m un entero fijado, se tiene que la distribución lı́mite del tiempo de vida pasada Um = m − SN (m) y del tiempo de vida residual Vm = SN (m)+1 − m coinciden y son iguales a lı́m P (Um = n) = P (X1 > n)/µ = lı́m P (Vm = n + 1). m→∞ m→∞ En consecuencia, un proceso de renovación estacionario es un proceso de renovación ordinario que comenzó indefinidamente lejos en el pasado, tal que la distribución (bn )n∈N de la primera renovación observada comenzando en el tiempo 0 es la misma que la distribución lı́mite de los tiempos de vida pasada y residual del proceso de renovación ordinario. Este fenómeno explica de forma intuitiva la propiedad de invarianza en el tiempo del proceso de renovación estacionario dada en la proposición. 1.7. Proceso de Renovación Alternado Los procesos de renovación alternados son un tipo particular dentro de los procesos de renovación que destacan por su importante utilidad en la teorı́a de fiabilidad debido a su simplicidad y a su intuitiva interpretación. 1.7.1. Definiciones. Fiabilidad y disponibilidad Definición 16 (Proceso de Renovación Alternado). Sea (Xn )n∈N∗ una sucesión de variables aleatorias idénticamente distribuidas con una distribución h = (hn )n∈N , h0 := 0. De forma análoga, se establece (Yn )n∈N∗ una sucesión de variables aleatorias idénticamente distribuidas con una distribución g = (gn )n∈N , con g0 := 0. Se establece la suposición de que (Xn )n∈N∗ yP (Yn )n∈N∗ son independientes entre ellas. ∗ Se define Vn := Xn + Yn , n ∈ N y Sn := ni=1 Vi , n ∈ N∗ con S0 := 0. Entonces la sucesión (Sn )n∈N es conocida como proceso de renovación alternado con distribución de tiempo de actividad h y distribución de tiempo de inactividad g. Puede comprobarse que un proceso de renovación alternado (Sn )n∈N es un proceso de renovación con tiempos de espera dados por Vn , n ∈ N∗ y distribución de tiempo de espera f := h ∗ g. Este modelo puede aplicarse en el campo de la fiabilidad. Sistemas reparables en los que la reparación o sustitución del elemento que interrumpe el funcionamiento no es inmediato. En este tipo de casos (Xn )n∈N∗ representarı́a el n-ésimo tiempo de funcionamiento mientras que (Yn )n∈N∗ serı́a el n-ésimo tiempo de reparación del sistema. Definiremos unos conceptos propios de la teorı́a de fiabilidad para ver la importancia de estas cadenas de renovación. 23 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Definición 17 (Fiabilidad de un sistema). Se llama fiabilidad de un sistema en el tiempo k ∈ N a la probabilidad de que el sistema haya funcionado sin fallo durante el periodo [0, k]. Definición 18 (Disponibilidad de un sistema). Se llama disponibilidad de un sistema en el tiempo k ∈ N a la probabilidad de que el sistema se encuentre operativo en el tiempo k ∈ N. En nuestro contexto definimos la fiabilidad en el tiempo k ∈ N como X R(k) = P (X1 > k) = hk+m m≥1 es decir, la probabilidad de que el primer fallo ocurra en un tiempo posterior a k. La disponibilidad de un sistema se puede obtener como solución de una ecuación de renovación. Para cualquier k ∈ N∗ se tiene que A(k) = X P (Sn−1 ≤ k < Sn−1 + Xn ) = n≥1 = P (X1 > k) + X P (Sn−1 ≤ k < Sn−1 + Xn ) = n≥2 = R(k) + X k X P (Sn−1 ≤ k < Sn−1 + Xn , S1 = m) = n≥2 m=1 = R(k) + k X X P (Sn−2 ≤ k − m < Sn−2 + Xn−1 )P (S1 = m) m=1 n≥2 = R(k) + k X A(k − m)fm , m=1 obteniendo la ecuación de renovación asociada a la disponibilidad como A(k) = R(k) + f ∗ A(k), k ∈ N Esta igualdad queda probada para enteros positivos. No obstante, también se satisface para k = 0 porque f0 := 0 y por construcción de este tipo de cadenas el sistema se encuentra en funcionamiento al inicio, lo cual implica que A(0) = R(0) = 1. La solución de esta ecuación de renovación es conocida obteniendo la probabilidad de que el sistema esté funcionando en el tiempo k en función de la fiabilidad. De esta forma se tiene que 24 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO A(k) = u ∗ R(k), k ∈ N siendo un la probabilidad de que una renovación ocurra justo en un tiempo n, que en este caso representa la probabilidad de que el sistema comience a funcionar justo después del periodo de reparación y sea el tiempo n. Realizado el estudio anterior ahora queremos obtener el comportamiento lı́mite de A(k), la disponibilidad en el tiempo k cuando k tiende a infinito, es decir la disponibilidad estacionaria. De acuerdo con el teorema llave de renovación se tiene que ∞ 1X R(m) lı́m A(k) = lı́m u ∗ R(k) = k→∞ k→∞ µ m=0 siendo µ = E(X1 + Y1 ), o lo que es lo mismo, el tiempo medio de espera para la cadena de renovación (Sn )n∈N . Establecemos como notación ∞ X R(m) = ∞ X P (X1 > m) = E(X1 ). m=0 m=0 Por lo tanto, la disponibilidad en régimen estacionario es igual a lı́m A(k) = k→∞ µX µX + µY donde se establece que µX := E(X1 ) es el tiempo medio de vida (actividad) y µY := E(Y1 ) el tiempo medio de reparación (inactividad). Es conveniente reseñar que los resultados relativos a la disponibilidad no necesitan que las sucesiones de variables aleatorias (Xn )n∈N∗ y (Yn )n∈N∗ sean independientes entre sı́, pero sı́ que (Xn +Yn )n∈N∗ sea una sucesión independiente e idénticamente distribuida. 25 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO 1.7.2. Interpretación gráfica Nuevamente describiremos los diferentes conceptos apoyándonos en el gráfico. Una vez más, se representa en el eje de abscisas el tiempo, mientras que en el eje de ordenadas se indica el número de renovaciones experimentadas por el proceso. Tanto el tiempo como las renovaciones toman valores discretos. El proceso comienza en el tiempo t = 0 y con un número de renovaciones igual a 1, ya que se considera que el proceso se inicia con una renovación. Cada renovación constará de dos fases, una de actividad y otra de inactividad. A estas dos fases se les llamará ciclo. Una renovación constará de ambas fases y el número de renovaciones experimentadas por el proceso hasta un instante n vendrı́a dado por N (n). Los elementos Xi representan el tiempo de funcionamiento (actividad) transcurrido entre la renovación (i)-ésima y la renovación i + 1-ésima. Por ejemplo, X2 serı́a una variable aleatoria que representarı́a el tiempo de actividad transcurrido entre la segunda renovación y la tercera. Los elementos Yi representan el tiempo de reparación (inactividad) transcurrido entre la renovación (i)-ésima y la renovación i + 1-ésima. Por ejemplo, Y2 serı́a una variable aleatoria que representarı́a el tiempo de inactividad transcurrido entre la segunda renovación y la tercera. 26 CAPÍTULO 1. PROCESOS DE RENOVACIÓN EN TIEMPO DISCRETO Los elementos Si también son variables aleatorias generadas por la sumatoria de los elementos Xi e Yi . De forma práctica representan el tiempo total transcurrido hasta la renovación i-ésima. Por ejemplo, S2 serı́a la suma de tiempos X1 + Y1 + X2 + Y2 . Por lo tanto Si = i X X i + Yi k=1 o de forma recursiva Si = Si−1 + Xi + Yi . Volviendo al ejemplo de la empresa que fabrica varios productos y expuesta anteriormente, este tipo de proceso representarı́a el caso en que la averı́a de la máquina no se solucionarı́a con el simple cambio automático de una pieza. Se tendrı́a un tiempo de reparación formado por el tiempo de localización de la averı́a, el tiempo de sustitución y el tiempo de reiniciación de la máquina, por ejemplo. Evidentemente, durante este tiempo de reparación la producción se parará y el conocimiento de este tiempo puede ayudar a redistribuir las labores del personal de la empresa. El tiempo de renovación estarı́a formado por un ciclo completo de funcionamiento y reparación, es decir, desde que comienza a funcionar tras una renovación hasta que comienza a funcionar tras una nueva renovación. 27 Capı́tulo 2 Proceso de Renovación Tipo Fase discreto Cuando se desea realizar un estudio en distintos campos como el de la fiabilidad donde los tiempos inmersos son generales, las expresiones que se obtienen son muy complejas y difı́cilmente aplicables. En el caso continuo, históricamente la distribución exponencial ha sido considerada como la distribución estándar para la modelización de tiempos de vida. Una generalización de la distribución exponencial es la distribución tipo fase. En muchas ocasiones hay sistemas donde por no poder ser observados de forma continua deben ser inspeccionados en distintos tiempos puntuales. Por otro lado es común en el campo de la fiabilidad la realización de inspecciones en tiempo discreto o incluso hay muchos sistemas, como los sistemas digitales, cuyo funcionamiento intrı́nseco tiene lugar en tiempo discreto. Es por ello por lo que es de importancia la incorporación del análisis y estudio de sistemas de fiabilidad en tiempo discreto. Las distribuciones tipo fase también juegan un papel importante en el campo discreto. Las distribuciones tipo fase fueron introducidas por Neuts (1975) y estudiadas en detalle en Neuts (1981). Este tipo de distribuciones surgieron como extensiones naturales de la distribución exponencial y de Erlang tan consideradas en teorı́a de colas. Estas distribuciones tipo fase (PH) han resultado muy útiles en la modelización de sistemas estocásticos. Las distribuciones tipo fase discretas verifican la siguiente importante propiedad. Toda distribución de probabilidad discreta no negativa con soporte finito es tipo fase (Neuts, 1975). Esta propiedad se extendió posteriormente para el caso de distribuciones con soporte infinito considerando las distribuciones tipo fase infinitas. Estas distribuciones tienen una estructura algebraico-matricial lo cual permite que en un análisis de un sistema de fiabilidad con distribuciones generales se consideren sus correspondientes representaciones tipo fase. Este hecho permite obtener los resultados de una forma algorı́tmica facilitando la interpretación y aplicación de resultados. 28 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO En el campo de la fiabilidad las distribuciones tipo fase y los procesos de renovación tipo fase han sido muy considerados. Si atendemos a las aplicaciones y modelizaciones en tiempo discreto se tiene que Alfa y Castro (2002) modelizaron sistemas que involucraban distribuciones discretas en general, determinando que cualquier distribución discreta está distribuida como tipo fase. Sistemas redundantes generales en tiempo discreto también han sido estudiados considerando las distribuciones tipo fase. Ruiz-Castro y otros (2008) modelizaron un sistema en reserva pasiva sin pérdida de unidades cuando un fallo total ocurre o con pérdidas si no hay reemplazamiento (Ruiz-Castro y otros 2009a). Los sistemas con unidades en reserva pasiva también han sido descritos, tanto en el caso de reemplazamiento instantáneo (Ruiz-Castro y otros, 2009b) como en el caso de pérdida de unidades (Ruiz-Castro and FernándezCalvillo, 2012). Recientemente Ruiz-Castro and Quan-Lin (2011) consideraron las distribuciones tipo fase discretas en el estudio de los sistemas k-out-of-n : G. 2.1. Las distribuciones tipo fase: Definición y propiedades En esta sección se va a hacer una breve presentación de las distribuciones tipo fase tanto desde un punto de vista continuo como discreto. Todos los resultados pueden verse en detalle en Neuts (1981). 2.1.1. Definiciones Las distribuciones tipo fase están ı́ntimamente ligadas a los procesos de Markov. Recordemos que en un proceso de Markov, conocido el presente, pasado y futuro son independientes. En estos procesos llamaremos estado transitorio a aquel estado donde la probabilidad de volver a él es menor que uno. Por contra, los estados absorbentes son aquellos que una vez alcanzados, el proceso permanece indefinidamente en dicho estado, o lo que es lo mismo, la probabilidad de pasar a cualquier otro estado es cero. Una distribución tipo-fase (Phase-type) se define como la distribución del tiempo hasta la absorción en un proceso de Markov finito con estados transitorios y una clase absorbente. Estas distribuciones se han revelado como una herramienta útil en la construcciones de modelos estocásticos para el estudio de la fiabilidad de sistemas en las últimas tres décadas. Las fases de estas distribuciones pueden interpretarse por ejemplo como diferentes estados intermedios de degradación cuando el tiempo de vida de las componentes 29 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO de un sistema sigue distribuciones tipo-fase, o bien, de una forma más intuitiva para designar las etapas de reparación y control cuando los tiempos de reparación siguen distribuciones tipo-fase. A continuación definiremos formalmente en qué consisten dichas distribuciones. Definición 19. Una distribución H(·) definida en [0, ∞) es una distribución tipofase (PH) con representación (α, T ), si es la distribución del tiempo hasta la absorción en un proceso de Markov sobre los estados {1, . . . , m, m + 1}, donde los estados {1, . . . , m} son transitorios y el estado m + 1 es absorbente. El generador del proceso se expresa mediante bloques matriciales como sigue, T T0 , 0 0 La matriz T es de orden m y no singular, con elementos diagonales negativos, siendo no negativos fuera de la misma conteniendo las transiciones entre los estados transitorios. Se define la distribución inicial mediante el vector α de orden m (inicialmente se encuentra en un estado transitorio). Se satisface la condición −T e = T 0 ≥ 0 siendo e un vector columna con elementos 1 de la dimensión adecuada. La función de distribución tipo fase se denota como H(·) y viene dada por H(x) = 1 − α exp(T x)e, x ≥ 0 Se dice entonces que H(·) sigue una distribución P H(α, T ) Ahora procederemos a la definición en el caso discreto, que es el que centra este trabajo. Definición 20. Una distribución {pk } tomando valores sobre el conjunto de los enteros no negativos sigue una distribución tipo fase discreta (P Hd ) si y solo si existe una cadena de Markov finita con n + 1 estados cuya matriz de probabilidades de transición P viene dada de la forma S S0 0 1 y con vector de probabilidades iniciales (β, βn+1 ) (βn+1 es la probabilidad de que inicialmente el proceso comience en la absorción), donde β es un vector fila. La matriz S es subestocástica y verifica que Se + S 0 = e, siendo (I − S) un matriz no singular, siendo I la matriz identidad de orden adecuado. La función masa de probabilidad del tiempo hasta la absorción viene dada por p0 = βn+1 pk = βS k−1 S 0 , k ≥ 1 Se dice que pk sigue una P Hd (β, S). 30 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO Finalmente, cuando se trabaja matricialmente con distribuciones tipo fase, es habitual considerar la suma y el producto de Kronecker que definimos a continuación. Si A es una matriz de dimensión m × n y B es una una matriz de orden p × q, entonces el producto de Kronecker A ⊗ B es la matriz bloque mp × nq dada por a11 B · · · a1n B .. . .. A ⊗ B = ... . . am1 B · · · amn B Desarrollándola tenemos a11 b11 a11 b12 a11 b21 a11 b22 .. .. . . a11 bp1 a11 bp2 . .. . . . A⊗B = . .. .. . a b m1 11 am1 b12 a b m1 21 am1 b22 .. .. . . am1 bp1 am1 bp2 ··· ··· .. . a11 b1q a11 b2q .. . ··· ... ··· ··· ··· a1n b11 a1n b21 .. . a1n b12 a1n b22 .. . a11 bpq · · · · · · a1n bp1 a1n bp2 .. .. .. ... . . . .. .. .. ... . . . · · · am1 b1q · · · · · · amn b11 amn b12 · · · am1 b2q · · · · · · amn b21 amn b22 .. .. .. ... . . . · · · am1 bpq · · · · · · amn bp1 amn bp2 a1n b1q a1n b2q .. ... . · · · a1n bpq .. . . .. . · · · amn b1q · · · amn b2q .. ... . · · · amn bpq ··· ... La suma de Kronecker de dos matrices cuadradas C y D de órdenes p y q, respectivamente, se define por C ⊕ D = C ⊗ Iq + Ip ⊗ D. donde Ik denota la matriz identidad de orden k. 2.1.2. Propiedades En el monográfico de Neuts (1981) sobre las distribuciones tipo fase se detallan algunas de sus propiedades. No obstante, otros autores han ahondado en las propiedades de estas distribuciones. Una vez definidas las operaciones suma y producto de Kronecker, enumeraremos algunas de estas propiedades de clausura que aparecen en el libro de Neuts. En primer lugar se realizará para el caso discreto y posteriormente para el caso continuo. Suma de dos variables independientes tipo fase. Consideremos dos variables aleatorias discretas de tipo fase con representaciones (α, T ) y (β, S) respectivamente. La variable aleatoria Z = X + Y sigue entonces una distribución tipo fase con representación (γ, L) dada por: T T 0β L= 0 S 31 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO y γ = (α, αm+1 β), γm+k+1 = αm+1 βk+1 . Mixtura finita de distribuciones tipo fase. Dada una variable aleatoria X Pik con distribución tipo fase con representación (αi , Ti ) y sea Z = Ii Xi con i=1 Ii = 1 y P (Ii = 1) = pi , entonces la variable aleatoria Z tiene distribución tipo fase con representación (γ, L), siendo estos elementos T1 0 · · · 0 0 T2 · · · 0 L = .. .. . . .. . . . . 0 0 · · · Tk y γ = (p1 α1 , p2 α2 , . . . , pk αk ) Estadı́sticos de orden. Sean dos variables aleatorias discretas X e Y con distribuciones tipo fase y representaciones (αx , Tx ) y (αy , Ty ) respectivamente, se tiene que las distribuciones del máximo y el mı́nimo son tipo fase. U = mı́n(X, Y ) tiene representación (γ, L) cuyos elementos vienen dados por L = Tx ⊗ Ty y γ = αx ⊗ αy . V = máx(X, Y ) tiene representación (γ, L) cuyos elementos vienen dados por Tx ⊗ Ty Tx ⊗ Ty0 Tx0 ⊗ Ty 0 Tx 0 L= 0 0 Ty y γ = (αx ⊗ αy , αx αy,m+1 , αx,k+1 αy ) siendo k la dimensión de Tx y m la dimensión de Ty . A estas tres propiedades hay que añadir otra que aparece en Assaf y Levikson (1982), denominada de sistemas coherentes. Esta propiedad indica que el tiempo de vida de un sistema coherente con unidades finitas independientes que siguen distribuciones PH, sigue una distribución PH. Es decir, la clase de las distribuciones PH es cerrada para la formación de sistemas coherentes. A principios de la década de los 90 se establecieron dos propiedades de caracterización gracias a los trabajos de Maier y O’Cinneide (1992). De acuerdo con estas caracterizaciones podemos indicar que Una distribución PH es PH si y solo si 1. tiene una función densidad de probabilidad continua en la recta real positiva, con una posible masa en 0, 32 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO 2. su transformada de Laplace-Stieljes es racional, 3. su transformada de Laplace-Stieljes tiene un polo único de parte real maximal. Las funciones de distribución PH constituyen la clase de distribuciones más pequeña definida en los reales positivos que: 1. contiene el punto masa en 0 y todas las distribuciones exponenciales, 2. es cerrada para la mezcla finita y la convolución, 3. es cerrada para la mezcla infinita X G(·) = (1 − p)pn F ∗n (·), 0 ≤ p ≤ 1 n>0 A estas propiedades de caracterización se añaden las propiedades de aproximación probadas por Asmussen en 2003. De acuerdo con ellas, la familia de distribuciones PH es débilmente densa, en el sentido de las distribuciones, en la familia de distribuciones de la recta real positiva. Para realizar la aproximación a distribuciones generales destacan por su importancia varias familias: 1. La mezcla finita de Erlang con el mismo parámetro de intensidad. 2. Las distribuciones serie-paralelo (distribuciones exponenciales en serie y/o paralelo). 3. Las distribuciones matriz-exponenciales. Finalmente presentar la dos importantes propiedades de las distribuciones tipo fase discretas probadas por Neuts (1975) y Shi y otros (1996) respectivamente. Teorema 9. Cualquier distribución de probabilidad discreta no negativa con soporte finito es tipo fase. Este resultado lo generalizó posteriormente Shi y otros (1996) como sigue. Teorema 10. Cualquier distribución de probabilidad discreta no negativa con soporte finito o infinito es tipo fase o tipo fase infinito respectivamente. 2.2. Procesos de Renovación Tipo Fase En esta sección se va a analizar en primer lugar el caso continuo para posteriormente detenernos en el caso discreto. 33 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO 2.2.1. Procesos de Renovación Tipo Fase Continuos Antes de entrar a definir los procesos de renovación tipo fase se precisan señalar una serie de conceptos relativos a la reducibilidad. Definición 21. Decimos que una representación (α, T ) es irreducible si y solo si la matriz generadora Q∗ es irreducible. Lema 2. Cada componente de ν(t) = α exp(T t, t ≥ 0) es estrictamente positiva para todo t < 0 o igual a 0 para todo t ≥ 0. En el último caso, se dice que la matriz Q∗ es reducible. Teorema 11. Si la matriz Q∗ es reducible, entonces se pueden borrar filas y columnas de la misma correspondientes al subconjunto de ı́ndices {1, 2, . . . , m} para obtener una representación irreducible de F (·), cuya representación será (α1 , T1 ). Dada una representación tipo fase de una distribución PH con representación (α, T ), es posible añadir un estado instantáneo a la cadena de Markov irreducible con generador Q∗ = T + T 0 α, de tal forma que la probabilidad elemental de que se produzca al menos una visita a ese estado en el intervalo (t, t + dt), suponiendo que la cadena está en el estado i en el instante t, viene dada por Ti0 dt. Eligiendo como estado de retorno uno de los estados del conjunto {1, 2, . . . , m} de acuerdo con el vector α puede verse que las sucesivas visitas al estado instantáneo forman un proceso de renovación con distribución subyacente F (·) = P H(α, T ). Con esta información, redefiniremos los procesos de recuento. Ası́ pues, sea N (t) el número de renovaciones de un proceso en el intervalo (0, t], entonces {N (t), t ≥ 0} es el proceso de recuento del proceso de renovación tipo-fase. El generador Q∗ se denotará por {J(t), t ≥ 0} y se introducen las matrices P (n, t) = {Pij (n, t)} para n ≥ 0 dadas por Pij (n, t) = P [N (t) = n, J(t) = j|N (0) = 0, J(0) = i] para t ≥ 0, n ≥ 0, 1 ≤ i ≤ m, 1 ≤ j ≤ m. Aplicando sobre ellas las ecuaciones de Chapman-Kolmogorov (adelantada y atrasada) se puede demostrar que las matrices P (n, t), t ≥ 0, n ≥ 0 satisfacen las ecuaciones diferenciales P 0 (0, t) = T P (0, t) = P (0, t)T 0 P (n, t) = T P (n, t) + (1 − αm+1 ) n X v−1 αm+1 T 0 αP (n − ν, t) ν=1 = P (n, t)T + (1 − αm+1 ) n X ν−1 P (n − ν, t)T 0 α αm+1 ν=1 con la condición inicial P (n, 0) = δ0n I, para n ≥ 0, siendo δ la δ de Kronecker. 34 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO 2.2.2. Procesos de Renovación Tipo Fase Discretos En el capı́tulo anterior se ha analizado detalladamente los principales resultados de los procesos de renovación discretos. En esta sección estudiaremos el caso en el que los tiempos entre renovaciones son tipo fase. Esto va a permitir expresar de forma algorı́tmica matricial resultados de gran complejidad para distribuciones generales. Esto permitirá una más asequible implementación computacional y aplicación. Supongamos que tenemos un proceso de renovación N (t) en tiempo discreto con tiempos entre renovaciones representados por Xi . Estas variables Xi , por ser una cadena de renovación son independientes e idénticamente distribuidas. Por definición, tenemos que un proceso de renovación es tipo fase si el tiempo entre renovaciones es tipo fase. Supongamos entonces que los tiempos Xi siguen una distribución de tipo fase. El tiempo entre dos renovaciones viene dado por el primer instante en que el sistema pasa por el estado absorbente de la cadena de Markov asociada a la distribución tipo fase. Se considera la distribución del tiempo entre renovaciones, Xi , tipo fase con representación (α, T ) (se considera que αn+1 = 0). Como es conocido la matriz T es subestocástica, de dimensión n y verifica que T e + T 0 = e, siendo (I − T ) una matriz no singular. La densidad del tiempo hasta la absorción viene dada por p0 = αn+1 pk = αT k−1 T 0 , k ≥ 1 Se dice que pk sigue una P Hd (α, T ). A pesar de encontrarnos en el caso discreto de las distribuciones tipo fase, notaremos a la matriz por T en lugar de S para evitar confundir con la suma de tiempos de renovación, denotados por la misma letra. Distribución del tiempo de renovaciones ¿Cómo podemos conocer las principales magnitudes relativas a los tiempos de llegada dados por Sn := X1 + . . . + Xn ?. La distribución de los tiempos de llegada Sn = X1 +. . .+Xn , donde cada uno de los n términos Xi es tipo fase, es también tipo fase de acuerdo con las propiedades descritas en apartados anteriores. Su distribución de Sn se expresa en general en forma de convolución de la función masa probabilidad del tiempo entre renovaciones que notamos por f . Ası́, se tiene que para cualquier Xi distribuida tipo fase (n) fm = P (Sn = m) 35 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO Con la notación del proceso de renovación general se tiene que fm := P (X1 = m) con f0 := 0. En el caso concreto de considerar distribuciones tipo fase se tiene que f (m) = pm = αT m−1 T 0 , m ∈ N+ (2.1) con p0 = 0. Conocida la función masa de probabilidad del tiempo entre renovaciones, se obtiene la función de supervivencia que es igual a P (Xi > n) = αT n e y su función de distribución viene dada por F (n) = P (X ≤ n) = 1 − αT n e (2.2) es la función de distribución acumulada del tiempo de funcionamiento. Si se considera S2 = X1 + X2 , la distribución se obtiene como convolución de las distribuciones de X1 P Hd (α, T ) y X2 P Hd (α, T ) de órdenes m. Esto darı́a como resultado una distribución tipo fase con representación (γ2 , L2 ) siendo γ = (α, 0), y una matriz L2 con la estructura L2 = T T 0α 0 T Claramente este resultado se puede generalizar para la obtención de la distribución de Sn que notamos por f (n) . Dicha distribución es tipo fase con representación (γn , Tn ), siendo γn = (α, 0), y Ln Ln = T T 0α 0 0 T T 0α .. .. .. . . . 0 0 0 0 0 0 ··· ··· .. . ··· ··· 0 0 .. . 0 T α T Probabilidad de ocurrencia de una renovación La probabilidad dePocurrencia de una renovación en un instante concreto, m, (n) viene dada por uk = kn=0 fk . Dado que la distribución de f (n) es tipo fase con representación (γn , Ln ) se tiene que 36 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO uk = k X (n) fk n=0 = k X L0n . γn L(k−1) n n=0 Por otro lado un posee una relación directa con la función masa de probabilidad del tiempo entre renovaciones, de forma que puede calcularse de forma recursiva según la expresión n X un = fk un−k , con u0 = 1 k=1 Número esperado de renovaciones hasta un determinado tiempo Para un variable aleatoria discreta de tipo fase, la función generatriz viene dada por la expresión Φ(s) = αm+1 + sα(I − sT )−1 T 0 La función generatriz correspondiente a un se obtiene a través de la relación existente entre ambas funciones para cualquier cadena de renovación, y por tanto se obtiene como 1 U (s) = 1 − Φ(s) La matriz (I −T )−1 tiene un significado probabilı́stico, representando el elemento (i, j) tiempo de permanencia en un estado j antes de la absorción condicionado a que se comienza en el estado i. Resultados lı́mite Dado que la distribución del tiempo entre renovaciones es tipo fase con representación (α, T ) entonces el tiempo medio es conocido e igual a µ = α (I − T )−2 T 0 El tiempo medio entre renovaciones juega un importante papel en los teoremas lı́mite estudiado en el capı́tulo 2. Desde el teorema elemental de renovación se tiene que Ψ(n) 1 1 = = limx→∞ n µ α (I − T )−2 T 0 Esta cantidad coincide con el lı́mite de las probabilidad de ocurrencia en un instante concreto cuando la cadena es aperiódica. 37 CAPÍTULO 2. PROCESO DE RENOVACIÓN TIPO FASE DISCRETO 2.3. Procesos de renovación alternados tipo fase discretos En esta sección vamos a considerar un proceso de renovación alternado discreto donde los tiempos implicados son tipo fase. Siguiendo la notación dada en el capı́tulo anterior nos centraremos en el tipo fase y en el cálculo algebraico matricial de la fiabilidad y disponibilidad. Consideremos un sistema donde el tiempo de operatividad es tipo fase con representación (α, T ) y con tiempo de reparación también tipo fase con representación (β, S). En este caso el tiempo entre renovaciones, si se considera cada una de ellas como los tiempos consecutivos de comienzo de operatividad, son tipo fase con representación (γ, L) siendo γ = (α, 0) y la matriz L como sigue T T 0β L= 0 S En este contexto la función de fiabilidad viene dada por R(k) = αT k e. Por otro lado es conocido que para el cálculo de la disponibilidad se tiene la ecuación de renovación A(k) = R(k) + f ∗ A(k), k ∈ N. La solución viene dada por A(k) = u ∗ R(k), k ∈ N. Quedando en nuestro caso que A(k) = k X m=1 R(k − m)um = k X m=1 38 αT k−m e m X k=0 γLm−1 L0k . k Capı́tulo 3 Sistemas de fiabilidad discretos Consideremos un sistema simple con una única componente que se revisa en intervalos de tiempo al no poder monitorizarse en tiempo continuo o cuyo funcionamiento intrı́nseco es discreto. En cada revisión se determina su estado. Veremos dos casos diferentes, con reparación y sin reparación, o lo que es lo mismo, un proceso ordinario y otro alternado. Los resultados de esta memoria se han programada computacionalmente con Matlab para distribuciones tipo fase de cualquier orden. 3.1. Sistema no reparable: Proceso de renovación ordinario Consideramos una unidad que está operativa y que cuando se detecta el fallo, la componente es sustituida por otra idéntica de manera instantánea. Representaremos por Xn el tiempo que la componente se encuentra funcionando desde la última sustitución, considerando que sigue una distribución tipo fase con representación (α, T ). Sobre este sistema deseamos conocer: La probabilidad de ocurrencia de un fallo en el instante k. El número medio esperado de fallos en un instante k. El tiempo medio de fallo Emplearemos los resultados matriciales del capı́tulo previo para aplicación de distribuciones tipo fase sobre procesos de renovación ordinarios. Como ejemplo práctico consideraremos un proceso con representación (α, T ) con α = (1 0) y 0,3 0,65 T = 0 0,85 Con el programa MATLAB (acrónimo de MATrix LABoratory), un software muy potente para el cálculo matricial, adaptaremos las fórmulas a las estructuras 39 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS del programa para poder obtener los resultados. Como se dijo anteriormente, la programación se ha realizado de manera general, para distribuciones tipo fase de cualquier orden. El primer paso no es otro que el de definir los valores de la distribución tipo fase. alpha=[1,0]; T=[0.3,0.65;0,0.85]; T0=ones(2,1)-T*ones(2,1); Una vez definidas, calcularemos en primer lugar el tiempo medio hasta el fallo. % Matriz crea la matriz identidad I=eye(longT); %Tiempo medio de funcionamiento. Inv calcula la matriz inversa mu1=alpha*inv(I-T)^2*T0; % Muestra por pantalla mu1 El resultado obtenido es 7,6190, que es el tiempo medio de operatividad de la componente antes de romperse. Como consecuencia, el lı́mite de la probabilidad de ocurrencia en un instante concreto cuando el proceso es aperiódico viene dado por 0,1312, como veremos posteriormente en la tabla resultante. Ası́ se tiene que lı́m un = n→∞ 1 = 0, 1312. µ El siguiente paso consiste en calcular el número medio de fallos en un tiempo k y la probabilidad de fallo en el tiempo k. Como este último concepto precisa del cálculo de la convolución matricial, crearemos una función que realice dicho procedimiento. function [out1,out2]=conv_tipo_fase(n,alpha,T) %Este programa hace la convolución n veces de una distribución tipo fase %consigo misma T0=ones(length(T),1)-T*ones(length(T),1); gamma_n=[alpha,zeros(1,length(T))]; L_n=[T,T0*alpha;zeros(length(T)),T]; L_n0=ones(length(L_n),1)-L_n*ones(length(L_n),1); if n>2 for i=3:n gamma_n=[gamma_n,zeros(1,length(T))]; L_n=[L_n,L_n0*alpha;zeros(length(T),length(L_n)),T]; 40 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS L_n0=ones(length(L_n),1)-L_n*ones(length(L_n),1); end end %Parámetros de salida. Representación de la distrib. tipo fase out1=gamma_n; out2=L_n; A continuación se calculan las probabilidades. La función utiliza la previa y tiene tres parámetros de entrada: el valor k, el vector α y la matriz T . function out=u_k(k,alpha,T) %Esta función calcula la probabilidad de romperse la unidad (renovación) en %el tiempo k T0=ones(length(T),1)-T*ones(length(T),1); suma=alpha*T^(k-1)*T0; if k>=2 for n=2:k [salida1,salida2]=conv_tipo_fase(n,alpha,T); L_n0=ones(length(salida2),1)-salida2*ones(length(salida2),1); % Acumula los valores suma=suma+salida1*salida2^(k-1)*L_n0; end end % Parámetro de salida. Probabilidad de fallo out=suma; Por último, definimos la función Ψ(k), que tendrá los mismos parámetros de entrada function out=Psi(n,alpha,T) %Esta función calcula la función de renovación % (número esperado de renovaciones (fallos) hasta el tiempo n) suma=u_k(1,alpha,T); if n>=2 for k=2:n suma=suma+u_k(k,alpha,T); end end % Parámetro de salida. Número esperado de renovaciones out=suma; 41 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS Una vez disponemos de todos los elementos precisos, evaluaremos las funciones en diversos instantes de tiempo. Para ello, generaremos un bucle que evalúe las funciones en los números naturales que le indiquemos. % Creamos un vector de 50 filas y 3 columnas. resultados=zeros(50,3); i=1; while i<=50 %Probabilidad de ocurrencia de una renovación en un instante k prob=u_k(i,alpha,T); % Número medio de fallos numedio=Psi(i,alpha,T); % Se insertan junto con el tiempo en la matriz resultado resultados(i,:)=[i prob numedio]; i=i+1; end % Mostramos el resultado resultados Una vez realizados los cálculos se obtiene una tabla de valores. Siendo la primera columna el tiempo, la segunda columna la probabilidad de ocurrencia de un fallo en el iempo k, uk y la tercera columna la función de renovación, número esperado de renovaciones hasta el tiempo k, Ψk . resultados = 1.0000 2.0000 3.0000 4.0000 5.0000 6.0000 7.0000 8.0000 9.0000 10.0000 11.0000 12.0000 13.0000 14.0000 15.0000 16.0000 0.0500 0.1150 0.1280 0.1306 0.1311 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.1312 0.0500 0.1650 0.2930 0.4236 0.5547 0.6859 0.8172 0.9484 1.0797 1.2109 1.3422 1.4734 1.6047 1.7359 1.8672 1.9984 42 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS 17.0000 18.0000 19.0000 20.0000 ... 0.1312 0.1312 0.1312 0.1312 2.1297 2.2609 2.3922 2.5234 Por ejemplo, podrı́amos decir que cuando el proceso lleva 15 unidades de tiempo en funcionamiento, se espera que se hayan producido 1,8672 fallos. La probabilidad de fallo en ese preciso momento es de 0,1312. Como se puede observar se verifica que Ψ(n) 1 = = 0, 1312. n→∞ n µ lı́m un = lı́m n→∞ 3.2. Sistema reparable: Proceso de renovación alternado Basándonos en el ejemplo anterior, supongamos en esta ocasión que cuando falla la componente no es sustituida, sino que pasa al canal de reparación, quedando la pieza una vez reparada en las mismas condiciones como cuando era nueva. Es decir, la reparación es tan buena como nueva. Por tanto, no existen componentes en reserva pasiva. Representaremos por Yn el tiempo que la componente se encuentra en reparación desde que se produjo el último fallo, considerando que sigue una distribución tipo fase con representación (β, S). Por lo tanto, el ciclo del tiempo del proceso de renovación está formado por ambas componentes, es decir, abarca un tiempo de funcionamiento y un tiempo de reparación. Si llamamos Vn := Xn + Yn a este tiempo, tenemos que esta distribución es de tipo fase, como se ha demostrado en el capı́tulo anterior. Representaremos a esta distribución como (γ, L). Si nos centramos en los ciclos y lo que queremos conocer es la probabilidad de que el tiempo de un ciclo (tiempo desde que comienza a estar operativa hasta que comienza de nuevo tras reparación, V = X + Y ) sea mayor que una cierta cantidad de tiempo, la expresión obtenida serı́a R(k) = P (V > k) = γLk e Por su parte, la probabilidad de que un ciclo dure un tiempo k viene dado por pk = γLk−1 L0 43 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS siendo p0 = 0. Basándonos en las medidas anteriores, si lo que queremos conocer es la probabilidad de que el sistema se encuentre disponible recurrirı́amos a la ecuación de renovación cuya solución es conocida, A(k) = R(k) + k X A(k − m)pm , m=1 con solución igual a A(k) = u ∗ R(k), k ∈ N. Ahora estamos interesados en conocer: La fiabilidad del sistema. La disponibilidad del sistema. El tiempo medio de reparación. De forma análoga al caso anterior, definiremos en primer lugar los datos del problema. Consideraremos que el tiempo de reparación sigue una distribución tipo fase con representación (β, S), siendo β = (1 0) y 0,02 0,01 S= 0,01 0,015 En notación de MATLAB queda escrito como beta=[1,0]; S=[0.02,0.01;0.01,0.015]; longS=length(S); S0=ones(2,1)-S*ones(2,1); La distribución de Vn se puede calcular de forma sencilla mediante las instrucciones %Distribución del tiempo entre renovaciones gamma=[alpha,zeros(1,longS)]; L=[T,T0*beta;zeros(longT),S]; L0=ones(longT+longS,1)-L*ones(longT+longS,1); Se obtienen de esta forma los siguiente vectores y matrices L = 0.3000 0 0 0 0.6500 0.8500 0 0 0.0500 0.1500 0.0200 0.0100 0 0 0.0100 0.0150 44 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS gamma = 1 0 0 0 L0 = 0 0 0.9700 0.9750 Ahora calcularemos el tiempo medio de reparación, que se calcula de forma sencilla de igual forma que en el caso del tiempo de medio de fallo en el caso ordinario. %Tiempo medio de reparación mu2=beta*inv(eye(longS)-S)^2*S0; mu2 El tiempo medio de reparación derivado del proceso es 1,0309. Por otro lado se ha calculado el tiempo medio entre dos renovaciones del proceso alternado siendo igual a γ (I − L)2 L0 = 8, 6499 y por lo tanto el lı́mite de la probabilidad de que termine una reparación en un instante concreto cuando la cadena es aperiódica viene dado por 1 lı́m un = = 0, 1156. n→∞ µ Definimos ahora las funciones de fiabilidad y disponibilidad. La función de fiabilidad tiene como parámetros de entrada el tiempo y los valores α y T asociados a la representación tipo fase del tiempo de operatividad. function out=fiabilidad(k,alpha,T) % Esta función calcula la fiabilidad en el tiempo k out=alpha*T^k*ones(length(T),1); La disponibilidad es calculada desde la solución de la ecuación de renovación, considerando un y la función de fiabilidad, expresándose de forma matricial. Esta función necesita como parámetro de entrada el tiempo, además de los vectores y matrices asociados a las representaciones tipo fase del tiempo de reparación y el tiempo de fallo. function out=disponibilidad(k,alpha,T,beta,S) %Esta función calcula la disponibilidad de un sistema de fiabilidad %mediante un proceso alternado en el tiempo k gamma=[alpha,zeros(1,length(beta))]; 45 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS T0=ones(length(T),1)-T*ones(length(T),1); S0=ones(length(S),1)-S*ones(length(S),1); aux=T0*beta; P=[T,aux;S0*alpha,S]; suma=0; kk=gamma*P^k; for i=1:length(T) suma=suma+kk(i); end out=suma; Una vez definidas las funciones y los vectores y matrices asociados al proceso, ejecutaremos los cálculos desde k = 1, 2, 3, . . . , 100. Para tiempos elevados como el elegido, el coste computacional es cada vez mayor. resultados=zeros(100,3) %Probabilidad de ocurrencia de una renovación en un instante k i=1; while i<=100 fia=fiabilidad(i,alpha,T); disp=disponibilidad(i,alpha,T,beta,S); resultados(i,:)=[i fia disp]; i=i+1; end %Mostramos los resultados resultados %Elaboramos el gráfico de la fiabilidad plot(resultados(:,1),resultados(:,2)) title(’Fiabilidad’) %Elaboramos el gráfico de la disponibilidad plot(resultados(:,1),resultados(:,3)) title(’Disponibilidad’) De estos cálculos se obtienen los siguientes datos donde la primera columna es el tiempo, la segunda es la fiabilidad y la tercera la disponibilidad en los correspondientes tiempos. resultados = 0,0000 1,0000 1,0000 1,0000 0,9500 0,9500 46 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS 2,0000 3,0000 4,0000 5,0000 6,0000 7,0000 8,0000 9,0000 10,0000 11,0000 12,0000 13,0000 14,0000 15,0000 16,0000 17,0000 18,0000 19,0000 20,0000 ... 25,0000 30,0000 40,0000 50,0000 75,0000 100,0000 0,8375 0,7209 0,6154 0,5239 0,4456 0,3788 0,3220 0,2737 0,2327 0,1978 0,1681 0,1429 0,1215 0,1032 0,0878 0,0746 0,0634 0,0539 0,0458 ... 0,0203 0,0090 0,0018 0,0003 0,0000 0,0000 0,8860 0,8775 0,8799 0,8809 0,8809 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 ... 0,8808 0,8808 0,8808 0,8808 0,8808 0,8808 Por ejemplo, la probabilidad de que el sistema permanezca sin fallar durante 13 unidades de tiempo consecutivas serı́a 0,1429. La probabilidad de que se el sistema se encuentren operativo en n = 3 es 0,8775, instante en que la disponibilidad alcanza su menor valor. Gráficamente podemos ver la evolución de ambas magnitudes. 47 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS La fiabilidad experimenta un decrecimiento continuado y con forma cuadrática cóncava. La probabilidad de que el sistema funcione sin fallo durante 50 unidades de tiempo consecutivas es prácticamente nula. 48 CAPÍTULO 3. SISTEMAS DE FIABILIDAD DISCRETOS Por su parte, la disponibilidad experimenta un descenso en los primeros instantes de tiempo hasta alcanzar su mı́nimo en n = 3. A partir de ahı́ crece ligeramente tendiendo a su lı́mite asintótico que es igual a 7,6190 µX = = 0,8808 µX + µY 7,6190 + 1,0309 . 49 Bibliografı́a [1] Alfa, A.S. (2004) Markov chain representations of discrete distributions applied to queuin models.Computers & Operations Researh, 31, 2365-2385. [2] Asmussen, S. (2003) Applied Probability and queues. Springer-Verlag, New York. [3] Assaf, D. & Levikson, B. (1982) Closure of phase-type distributions under operation arising in reliability theory. Annals of Probability, 10, 265-269. [4] Barbu, V.L. & Limmios (2007) Semi-Markov Chains and Hidden Semi-Markov Models toward Applications: Their use in Reliability and DNA analysis. Springer. [5] Bellman, R. (1970) Introduction to matrix analysis. Mc-Graw Hill, New York. [6] Fernández-Calvillo Villodre, G., Estudio de sistemas redundantes discretos en fiabilidad. Tesis doctoral, Universidad de Granada (2009). [7] Kaplan, E.L. & Meier (1958) Nonparametric estimation from incomplete observations. Journal of the American Statistical Association, 53, 457-481. [8] Kulkarni, V.G. (1995) Modeling and Analysis of Stochastic Systems. Chapman & Hall. [9] Maier, R. & O’Cinneide, C.A. (1992) A closure characterization of phase-type distribution. Journal of Aplied Probability, 92-103. [10] Montoro-Cazorla, D. & Perez-Ocón, R. (2006) A deteriorating system with two repair modes and sojourn times phase-type distributed. Reliability Engineering and System safety, 91, 1-9. [11] Neuts, M.F. & Meier, K.S.(1981) On the use of phase type distribution in reliability modelling of systems with two components. OR Spektrum, 2, 227234 (1981). [12] Neuts, M.F. (1979) A versatile Markovian point process. Journal of Applied Probability, 16, 764-779. 50 BIBLIOGRAFÍA [13] Neuts, M.F. (1975) Probability distributions of phase type. Liber. Amicorum Frof. Emeritus H. Florin. Dept. Math. University of Louvain, Belgium, 173206. [14] O’Cinneide, C.A. (1990) Characterization of phase-type distributions. Communications in Statistic-Stochastic Models, 6 (1), 1-57. [15] Ross, S.M. (1983) Stochastic Processes. Wiley. [16] Ruiz-Castro, J.E. & Fernández-Villodre, G. (20012) A complex discrete warm standby system with loss of units.European Journal of Operational Research, 218, 456–469. [17] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009a) A leveldependent general discrete system involving phase-type distributions.IIE Transactions, 41, 45–56. [18] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009b) A MultiComponent General Discrete System Subject to Different Types of Failures with Loss of Units.Discrete Event Dyn Syst, 19:31–65. [19] Ruiz-Castro, J.E., Fernández-Villodre, G. & Pérez-Ocón, R. (2009c) Discrete repairable systems with external and internal failures under phase-type distributions.IEEE Transactions on Reliability, 58, 1, 41-52. [20] Ruiz-Castro, Pérez-Ocón, R. & J.E., Fernández-Villodre, G. (2008) Modelling a reliability system governed by discrete phase-type distributions.Reliability Engineering and System Safety, 93, 11, 1650-1657. [21] Ruiz-Castro, J.E. & Quan-Lin, L. (2011) Algorithm for a general discrete k-outof-n:G system subject to several types of failure with and indefinite number of repairpersons.European Journal of Operational Research, 211, 1, 97-111. [22] Ross, S.M (1983) Stochastic Processes. John Wiley & Sons. [23] Segovia, M.C., Modelos de choque y desgaste: aproximación analı́tico-matricial. Tesis doctoral, Universidad de Granada (2009). [24] Shi, D.H., Guo, J. & Liu, L (1996) SPS-distributions and the rectangle iterative algorithm. In: Chakravarty, S. Alfa, A.S. editores. Matrix-analytic methods in stochastic models. New York: MArcel Dekker, 207-224. [25] Taylor, H.M. & Karlin, S. (1994) An Introduction to Stochastic Modeling. Academic Press . [26] Tijms, H.C. (2003) A First Course in Stochastic Models. Wiley. 51