Tasa de Fallo y Variables Aleatorias sin Memoria

Anuncio
Tasa de Fallo y
Variables Aleatorias sin Memoria
M.A. Fiol
Departament de Matemàtica Aplicada IV
Universitat Politècnica de Catalunya
email: [email protected]
webpage: www-ma4.upc.es/~fiol
Abstract
Derivando, obtenemos la correspondiente función de
densidad,
Se estudia la llamada tasa de fallo de una variable
aleatoria, discreta o continua, y su relación con el
concepto de variable aleatoria sin memoria.
fT |T >t0 (t) =
=
1
Tiempo de espera condicionado
2
Sea T una variable aleatoria (discreta o continua)
positiva (con función de distribución FT (t) = 0 para
todo t ≤ 0). Por ejemplo, supongamos que T representa el instante en el que falla un sistema o la
duración de una llamada telefónica que se han iniciado en t = 0 (caso continuo); o el número veces—
unidades de tiempo—que hay que lanzar una moneda
hasta que aparezca cara (caso discreto). Por ello, T
recibe normalmente el nombre de tiempo de espera
(“waiting time”) [2].
Suponiendo primero que dicha variable aleatoria es
continua, calculemos su función de densidad condicionada fT |T >t0 (t), a partir del cálculo de la correspondiente función de distribución (usando la fórmula
de la probabilidad condicionada1 ):
=
(t > t0 ).
(t > t0 ).
(3)
Tasa de fallo
β(t)∆t := P (t < T ≤ t + ∆t | T > t)
(4)
o, de forma equivalente,
P (T ≤ t + ∆t | T > t)
.
∆t→0
∆t
Si t ≤ t0 , el numerador anterior es cero y, por tanto,
FT |T >t0 (t) = 0. En caso contrario, t > t0 , se obtiene
FT |T >t0 (t) =
(2)
Volviendo al ejemplo del sistema que funciona desde
t = 0, supongamos que en un instante dado, digamos
t, se observa y resulta que está funcionando. Deseamos entonces tener una medida de la probabilidad
de que el sistema falle en un “pequeño” intervalo de
observación (t, t + ∆t]. Es decir, interesa conocer la
probabilidad condicionada P (t < T ≤ t + ∆t | T > t).
Esta medida nos la da la llamada tasa de fallo (condicionada) β(t) que, para ∆t ≈ 0, viene a representar
la “constante de proporcionalidad” que indica como
aumenta la probabilidad anterior en función de la duración de la observación ∆t. En otras palabras, si
∆t → 0,
P (T ≤ t, T > t0 )
.
FT |T >t0 (t) = P (T ≤ t | T > t0 ) =
P (T > t0 )
P (t0 < T ≤ t)
P (T > t0 )
FT (t) − FT (t0 )
1 − FT (t0 )
fT (t)
1 − FT (t0 )
f (t)
∞ T
t0 fT (t) dt
β(t) := lim
(5)
Nótese que, por definición, el cociente anterior no es
más que la función de densidad condicionada evaluada en t. Más precisamente, usando el teorema del
valor medio para integrales con ξ ∈ (t, t + ∆t),
(1)
t+∆t
1
fT |T >t (τ ) dτ
∆t→0 ∆t t
= lim fT |T >t (ξ) = fT |T >t (t+ ).
β(t) =
1
Recordar que, dados dos sucesos A, B con P (B) > 0, la
probabilidad de A condicionada a B se define como P (A|B) :=
P (A ∩ B)/P (B).
lim
∆t→0
1
(6)
parámetro λ. Recı́procamente, si T es exponencial
con parámetro λ, (8) permite inferir que la tasa de
fallo es constante β(t) = λ.
Además, para dicha variable aleatoria, (1) y (3) permiten calcular sus funciones de distribución y de densidad condicionadas que resultan ser:
Sin embargo, hay que hacer notar que, aunque β(t)
represente una “probabilidad por unidad de la variable”, no se trata de una función de probabilidad,
como se verá a continuación.
Para deducir como están relacionadas β(t) y la
función fT (t) (sin condicionar), podemos desarrollar
(5) o, a la vista de (6), usar directamente (2) y (3):
β(t) =
=
FT (t)
1 − FT (t)
f (t)
∞ T
.
t fT (τ ) dτ
e−λt0 − e−λt
e−λt0
= 1 − e−λ(t−t0 )
FT |T >t0 (t) =
(7)
(8)
fT |T >t0 (t) = λe
Integrando ambos miembros de (7) entre 0 y t, obte- Es decir,
nemos
t
0
de donde
β(τ ) dτ = − ln[1 − FT (t)],
1 − FT (t) = e−
t
0
(9)
β(τ ) dτ
t
0
β(τ ) dτ
fT (t) = FT (t) = β(t)e−
,
t
0
(10)
β(τ ) dτ
.
(11)
A partir de la igualdad (9), notar que, cuando t → ∞,
FT (∞) = 1 y, por tanto,
∞
0
(t > t0 ),
(t > t0 ).
FT |T >t0 (t) = FT (t − t0 ),
(14)
fT |T >t0 (t) = fT (t − t0 ).
(15)
Por tanto, la funciones de distribución y densidad
condicionadas resultar ser las correspondientes funciones originales desplazadas un valor t0 . Por ello,
se dice que la variable aleatoria exponencial no tiene
memoria. (La misma conclusión puede inferirse a
partir del hecho de que la probabilidad P (t < T ≤
t + dt|T > t)—o, equivalentemente, la tasa de fallo
β(t)—no depende de t).
Recı́procamente, se demuestra que si una variable
aleatoria T continua no negativa tiene una función
de distribución que cumple (14) para todo t0 ≥ 0,
entonces T es exponencial. En efecto, a partir de (6)
y (15) deducimos que, para todo t = t0 > 0, la tasa
de fallo de T es constante:
y, por tanto, las funciones de distribución y de densidad de T para t > 0 son, respectivamente,
FT (t) = 1 − e−
−λ(t−t0 )
β(τ ) dτ → ∞,
lo que indica que β(t) no es una función
de densidad, como comentábamos anteriormente.
Recı́procamente, a partir de una función β(t) no neβ(t) = fT |T >t (t) = fT (0+ ),
gativa cuya integral cumpla lo anterior, podemos considerar la variable aleatoria T con funciones de distribución y de densidad dadas por en (10) y (11), y, por tanto, T es exponencial de parámetro λ :=
fT (0+ ).
respectivamente [1].
Como resumen de esta sección, hemos demostrado el
siguiente resultado:
3
Variable aleatoria exponencial
Proposicion 3.1 Sea T una variable aleatoria conUn caso especialmente interesante es cuando la tasa
tinua y positiva. Entences las siguientes afirmaciones
de fallo es constante, digamos β(t) = λ; valor que
son equivalentes:
debe ser obviamente positivo λ > 0. En este caso,
(10) y (11) dan
(a) T tiene tasa de fallo constante β(t) = λ.
−λt
(t > 0),
(12)
FT (t) = 1 − e
−λt
(t > 0).
(13) (b) T es exponencial de parámetro λ.
f (t) = λe
T
(c) T no tiene memoria: fT |T >τ (t) = fT (t − τ ) para
todo τ ≥ 0.
que corresponden a las funciones de distribución y
de densidad de una variable aleatoria exponencial de
2
4
Variable aleatoria geométrica
Desarrollemos ahora el punto (c): De manera análoga
al caso continuo (Sección 3),
Conceptos y resultados similares a los anteriores
se pueden obtener para una variable aleatoria disPT |T >k0 (k) = P (T ≤ k | T ≥ k0 )
creta positiva, que sólo toma valores en los múltiplos
P (T ≤ k, T ≥ k0 )
=
de una unidad de tiempo; por ejemplo, para t =
P (T ≥ k0 )
1, 2, 3, . . .. Nos limitaremos aquı́ al caso más interesante de “ausencia de memoria”. Ası́, inspirándonos donde, si k < k0 , el numerador anterior es cero y
en los resultados de la proposición anterior, sea T PT |T ≥k0 (k) = 0, mientras que, si k ≥ k0 , obtenemos
una variable aleatoria discreta, con función de proq k−1
P (T = k)
babilidad PT (k) no nula en k = 1, 2, 3, . . . y “tasa de
= ∞
PT |T ≥k0 (k) =
fallo” constante. Es decir, para una cierta constante
P (T ≥ k0 )
p κ=k0 q κ−1
λ ∈ (0, 1), se cumple:
q k−1
= q k−k0 p
=
k0 −1 )/(1 − q)
(q
(a) P (T = k|X > k − 1) = P (T = k|T ≥ k) = λ.
= PT (k − k0 ).
Nos interesa entonces hallar
(b) El valor de PT (1) y la función de probabilidad Por tanto, al igual que con la exponencial, decimos
que la variable aleatoria geométrica no tiene memoPT (k) para k ≥ 1.
ria.
(c) La función de probabilidad condicionada
PT |T >k0 (k) en función de PT (k).
5
De la distribución geométrica a
Con respecto al punto (b), tenemos primero que, para
la exponencial y viceversa
k = 1, la condición (a) da PT (1) = P (T = 1|T ≥ 1) =
λ. Por otra parte, para k > 1,
La variable aleatoria exponencial puede razonarse a
partir de una variable aleatoria geométrica mediante
P (T = k)
λ = P (T = k|T ≥ k) =
el siguiente proceso al lı́mite. Sea T una variable
P (T ≥ k)
aleatoria geométrica con p := λ∆t, donde λ es una
P (T = k)
cierta constante positiva y ∆t representa una canti=
1 − P (T ≤ k − 1)
dad muy pequea, ∆t → 0. Supongamos también que
T toma valores en k∆t, k = 1, 2, 3, . . . con probabide donde se obtiene la ecuación de recurrencia
lidad
PT (k) = λ 1 −
k−1
PT (κ)
PT (k∆t) = pq k−1 = λ∆t(1 − λ∆t)k
κ=0
(k ≥ 1).
que, considerada para los valores k y k − 1, conduce Para obtener valores no triviales, debemos suponer
también que k → ∞ de manera que k∆t tiende a
a la igualdad
una cantidad finita, digamos t. Entonces,
PT (k) + λ
k−1
PT (κ) = λ = PT (k − 1) + λ
κ=0
k−2
PT (κ),
λt
1
PT (k∆t) → fT (t) := λ lim 1 −
k→∞
∆t
k
−λt
= λe
κ=0
Simplificando y aplicando
primera igualdad obtenida,
recurrentemente
la
que corresponde a la función de densidad de una variable aleatoria exponencial.
Siguiendo el camino inverso, podemos obtener una
variable aleatoria geométrica X a partir de una exponencial T de parámetro λ, considerando la función
de probabilidad
PT (k) = (1 − λ)PT (k − 1)
= (1 − λ)2 PT (k − 2)
= · · · = (1 − λ)k−1 PT (1)
= (1 − λ)k−1 λ
k
(k > 0).
Por tanto, T es una variable aleatoria geométrica con
parámetros p := λ y q := 1 − λ.
PX (k) := P (k − 1 < T ≤ k),
3
k = 1, 2, . . .
cuyo cálculo, usando (12), da
Inspirándonos en el caso continuo, “sumamos por
partes”2 con
PX (k) = FT (k) − FT (k − 1)
∆u =
k n − (k − 1)n
n n
= − ν=1 ν (−1)ν k n−ν ,
u = kn,
= e−λ(k−1) − e−λk
= e−λ(k−1) (1 − e−λ ).
∆v(k) =
q k−1 p
k
= −q + q k−1 ,
Por tanto, tal como preveı́amos, X es una variable
aleatoria geométrica con p := 1 − e−λ y q := e−λ .
v(k) = −q k ;
se obtiene la recurrencia
6
Momentos
S(n) =
Por definición, el momento mn;X de orden n ≥ 1
de una variable aleatoria exponencial X se calcula
mediante la integral
∞
n
I(n) := E(X ) =
n
x λe
0
−λx
dx.
Integrando por partes con
du = nxn−1
v = −e−λx
∞
−xn e−λx
=
n
I(n − 1)
λ
0
∞
n
(−1)
∞
n ν
ν=1
=
k n−ν q k−1
k=0
1
p
+n
0
xn−1 e−λx dx
S(3) =
(n ≥ 1).
Por tanto, la media, varianza y desviación tı́pica de
X son ahora:
m1;X
n!
= I(n) = n .
λ
= E(X) =
1
,
λ
2
σX
= m2;X − m21;X =
σX
=
1
.
λ
σX
1
= E(X) = ,
p
q
= m2;X − m21;X = 2 ,
p
√
q
.
=
p
2
2
σX
En el caso discreto la suma por partes se basa en la siguiente igualdad (similar a la fórmula de la derivada de un
producto)
1
,
λ2
∆uv(k)
:=
u(k)v(k) − u(k − 1)v(k − 1)
=
u(k)v(k) − u(k)v(k − 1)
+ u(k)v(k − 1) − u(k − 1)v(k − 1)
En el caso discreto, con X una variable aleatoria
= u(k)∆v(k) + v(k − 1)∆u(k)
geométrica con parámetros p, q, se obtienen resultados análogos. Ası́, siguiendo la analogı́a con el caso de donde, cuando sumamos entre los valores k = a y k = b, se
continuo, podemos hallar primero una fórmula de re- obtiene
b
b
currencia para la suma (momento mn de orden n)
b
S(n) := E(X n ) =
∞
u(k)∆v(k) = [u(k)v(k)]a−1 −
a
k n pq k−1
k=1
4
n
n
S(n − 1) −
S(n − 2) + · · · ± 1 .
1
2
1
,
p
1 2
q+1
1
[2S(2) − 1] =
−1 =
,
p
p p
p2
q 2 + 4q + 1
1
[3S(2) − 3S(1) + 1] = · · · =
.
p
p3
En particular, la media, varianza y desviación tı́pica
de X resultan ser:
m1;X
−
ν
=
S(2) =
Por tanto, como I(0) = 1, resulta que
mn;X
0
n
1
n
(−1)ν+1
S(n − ν)
p ν=1
ν
S(1) =
se obtiene la recurrencia
∞
Por ejemplo, a partir de S(0) = 1, obtenemos
u = xn ,
dv = λe−λx dx,
I(n) =
−k q
n k
v(k − 1)∆u(k).
a
Alternativamente, podemos llegar también al mismo
resultado mediante un simple desarrollo de la suma
inicial:
∞
S(n) =
(k + 1 − 1)n pq k−1
k=0
∞
=
k=0
n
=
pq
k−1
n
ν=0
(−1)ν
∞
n ν
ν=0
n
n
1
=
q
(k + 1)n−ν pq k−1
k=0
∞
n 1
(−1)ν
q ν=0
ν
=
n
(−1)ν (k + 1)n−ν
ν
(−1)ν
ν=0
(k + 1)n−ν pq k
k=0
n
S(n − ν)
ν
de donde
S(n) 1 −
1
q
= S(n)
=
−p
q
n
n
1
(−1)ν
S(n − ν)
q ν=1
ν
que conduce a la misma recurrencia obtenida en (16).
Esto sugiere que, en el caso continuo, una manipulación similar debe conducir a la recurrencia (16). En
efecto, se puede comprueba que
∞
I(n) = lim
→0 0
= ··· =
(x + − )n λe−λx dx
n
I(n − 1).
λ
References
[1] A. Papoulis, Probability, Random Variables and
Stochastic Processes (2nd edition), McGrawHill, New York, 1984.
[2] G.R. Grimmet and D.R. Stirzaker, Probability and Random Processes, Oxford Univ. Press,
New York, 1982.
5
Descargar