Cadenas de Markov y Teoría de Colas

Anuncio
Cadenas de Markov y
Teoría de Colas
Carlos F. Belaustegui Goitia
Procesos y Cadenas de Markov
•
•
•
•
•
•
Variables binomial, geométrica y de Poisson.
Procesos puntuales.
Procesos de Markov.
Cadenas de Markov. Clasificación de estados, clases de cadenas, estado
estacionario. Teorema de Perron-Frobenius.
Cadenas de Markov en tiempo continuo. Ecuaciones de balance global.
Aplicaciones.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
2
Variables Binomial y Geométrica
Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) =   p k (1 − p) n−k ,
k 
 n
n!
  =
 k  k!(n − k )!
3 4
8
P( X = 1) = p
P( X = 2) = (1 − p) p
L
P( X = n) = (1 − p) n−1 p = q n−1 p
n=22, k=7
1
Separación entre eventos: sea X= número de pruebas
hasta el primer éxito
13
15
21
1
1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22
 22 
  combinaciones
7
3 4
8
15
21
X=n
Propiedad “sin memoria” de la distribución geométrica
P ( X = n / X > n0 ) =
P ( X = n, X > n0 ) P ( X = n)
=
=
P ( X > n0 )
P ( X > n0 )
q n −1 p
∞
∑q
k −1
=
p
k = n0 +1
=
5 48
48
13
n0
X=n
Aplicación: Proceso de Bernoulli como modelo
de flujo ATM
09/11/2003
Distribución geométrica.
X es el número de pruebas
hasta el primer éxito en una
secuencia de pruebas de
Bernoulli.
q n −1
∞
∑q
i = n0
=
i
q n −1
= q n − n0 −1 p = P ( X = n − n0 )
n0
1
1− q
−
1− q 1− q
53 bytes
C.F. Belaustegui
Goitia - Cadenas de Markov y Teoría de Colas
1 CC = 2.83 uSec @ 149.76 Mbps
3
Variables Binomial y de Poisson
Variable Binomial: La probabilidad de que el evento
A, cuya probabilidad es P(A) = p, ocurra k veces en n
pruebas es
n
pn (k ) =   p k (1 − p) n−k ,
k 
 n
n!
  =
 k  k!(n − k )!
3 4
8
1 3 4 8 13 15 21
1 2 4 5 11 19 20
3 5 6 7 12 17 20
...............
4 6 8 9 16 21 22
09/11/2003
13
1− k / n
pn (k + 1)
p n−k
a
a
=
⋅
=
⋅
n
→
→∞
1− p k +1 1− a / n k +1
pn (k )
k +1
a
pn ( k )
k +1
p(0) = lim pn (0) = lim (1 − p) n = lim (1 − a / n) n = e −a
pn (k + 1) =
n →∞
n=22, k=7
1
Variable de Poisson: Si p<<1, np=a, y k del orden de np
n→∞
n→∞
p(1) = ae −a
15
21
 22 
  combinaciones
 7 
p ( 2) =
a
a2
p(1) = e −a
2
2
L
a k −a
p(k ) = e
k!
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
4
Puntos de Poisson
6 1 5
Puntos de Poisson: Se colocan al azar n puntos en el
intervalo real [0, T)
t 2 − t1 ∆t
=
T
T
 n
pn (k puntos en [t1 , t 2 ]) =   p k (1 − p) n−k
k 
3 2
t1
(λ∆t ) k −λ∆t
pn (k puntos en [t1 , t 2 ]) n
→
= p(k )
e
,T →∞
k!
09/11/2003
t2
T
P(1 punto en [t1 , t 2 ]) = p =
λ = n /T
n → ∞, T → ∞, λ = cte., p = ∆t / T → 0
a = np = n ∆t / T = λ ∆t
∆t
94 8 7
Densidad de puntos
→ λ∆t
p(1) = λ∆t e − λ∆t ≈ λ∆t (1 − λ∆t ) ∆
t →0
(λ∆t ) k −λ∆t (λ∆t ) k
(λ∆t ) k
≈

→
e
(1 − λ∆t ) ∆
t →0
k!
k!
k!
P (1 punto en [t, t + ∆t ])
λ = lim
∆t →0
∆t
p(k ) =
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
5
Distribución Exponencial
X
t
x0
t+x
t
Separación entre puntos: sea X = distancia desde
t al primer punto a la derecha de t.
FX ( x) = P( X ≤ x) = 1 − P( X > x) =
= 1 − P (0 puntos en [t , t + x]) = 1 − e
−λx
x≥0
f X ( x) = λ e −λx u ( x)
∞
1
1
E ( X ) = ∫ xλ e −λx dx = , var( X ) = 2
λ
λ
0
Los tiempos entre arribos son independientes y
distribuídos exponencialmente con parámetro λ
09/11/2003
X
Propiedad “sin memoria” de la distribución
exponencial
FX ( x / X ≥ x0 ) = P( X ≤ x / X ≥ x0 ) =
=
P( X ≤ x, X ≥ x0 )
=
P( X ≥ x0 )
P( x 0 ≤ X ≤ x) FX ( x) − FX ( x0 )
=
= 1 − e−λ ( x − x0 )
P( X ≥ x0 )
1 − FX ( x0 )
f X ( x / X ≥ x0 ) = λ e−λ ( x − x0 ) u ( x − x0 ) = f X ( x − x0 )
Lo que ocurre después de t0 es independiente de lo
que ocurrió antes de t0..
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
6
Relación entre procesos de
Bernoulli y Poisson
Tiempo continuo
Tiempo discreto
Proceso de Bernoulli
Proceso de Poisson
Distribución entre arribos:
Distribución entre arribos:
Geométrica
Exponencial
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
7
Ejemplo: Arribos Aleatorios
servidor
A
09/11/2003
B
C
D
arribos
tiempo
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
•El proceso de arribos es Poisson.
•Los tiempos entre arribos son
independientes y distribuidos
exponencialmente con parámetro
λ.
8
Ejemplo: Modelo de Tráfico Telefónico
fTh(t)
X
Th: duración de la comunicación
(holding time)
t+x
t
fTh (t ) = µ e − µ t u (t )
f X ( x) = λ e − λx u ( x)
∞
E ( X ) = ∫ xλ e
0
Arribos de Poisson
−λx
Fdp experimental
1
1
dx = , var( X ) = 2
λ
λ
1/µ
Separación entre arribos exponencial
t
tk
1
2
L
λ: tasa de arribos (llamadas/seg)
1/µ: duración media de la llamada (seg)
a = λ ⋅ (1/ µ )
Tráfico (Erlang)
i
T
ai = λ̂i ⋅ Eˆ (Thi ) =
a = ∑ ai =
i
09/11/2003
N i 1 Ni
1 Ni
⋅ ∑ tki = ∑ tki
T N i k =1
T k =1
1 L
∑ jtj
T j =0
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Número de ocupaciones simultáneas
Tiempo medio de ocupación
de una línea
Promedio de líneas ocupadas
simultáneamente
Tiempo total en el que
exactamente j líneas están ocupadas
9
Procesos de Markov
Proceso de Markov: Es un proceso estocástico cuyo
pasado no tiene influencia sobre el futuro si el presente
está especificado.
Cadena de Markov: Proceso de Markov en tiempo
discreto con un conjunto numerable de estados ai.
Especificado en términos de:
π ij (n1, n2 ) = P( X n2 = a j / X n1 = ai )
Tiempo continuo:
t n −1 < t n
P[X (t n ) ≤ xn / X (t ) ∨ t ≤ t n −1 ] = P[X (t n ) ≤ xn / X (t n −1 )]
Tiempo discreto:
∑π
ij
( n, m ) = 1
Π (n, m)1 = 1
πi1
continuo
discreto
estado
p j (n) = ∑ pi (k )π ij (k , n)
Cadenas de
Markov
discreto
Procesos
puntualesColas
continuo
tiempo
πi2
ai
Matriz estocástica
P[X (t n ) ≤ xn / X (t n −1 ),L, X (t1 )] = P[X (t n ) ≤ xn / X (t n −1 )]
Sistemas
dinámicos
Prob. transición
Propiedades:
j
t1 < t 2 < L < t n
09/11/2003
Prob. estado
pi (n) = P( X n = ai )
i
p T ( n ) = p T ( k ) Π ( k , n)
πik
p1
π1j
aj
π2j
p2
πij p
i
π ij (k , n) = ∑π il (k , m)π lj (m, n)
l
Π (k , n) = Π (k , m)Π (m, n)
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Ecuación de
Chapman-Kolmogorov
10
Propiedades de las Cadenas de Markov
Propiedades generales de los procesos de Markov
P[ X (t n ) ≤ xn / X (t n −1 ),L, X (t1 )] = P[ X (t n ) ≤ xn / X (t n −1 )]
⇒ f ( xn / xn −1 , L, x1 ) = f ( xn / xn −1 )
E ( X n / X n −1 ,L , X 1 ) =
n −1
,L , x1 ) dx =
(n, m) = ∑ P( X m = a j / X n = ai ) =
j
P( X m = a j , X n = ai )
P( X n = ai )
∑ p (k )π
i
∞
∫ x f ( x / xn−1 ) dx =E ( X n / X n−1 )
−∞
f ( xn / xn +1 ,L , xn + k ) = f ( xn / xn +1 )
ij
j
=∑
−∞
=
∑π
j
∞
∫ x f (x / x
Propiedades de las cadenas de Markov
ij
i
=
P( X n = ai )
=1
P( X n = ai )
(k , n) = ∑ P( X k = ai ) P( X n = a j / X k = ai ) =
i
= ∑ P( X k = ai , X n = a j ) =P( X n = a j ) = p j (n)
i
Un proceso de Markov también
es de Markov si el tiempo se invierte.
k < m < n:
π ij ( k , n) = P ( X n = a j / X k = ai ) = ∑ P ( X n = a j , X m = al / X k = ai ) =
l
k < m < n:
f ( xn , x m , xk )
f ( xn , xk / x m ) =
=
f ( xm )
=
Si el presente está especificado,
el pasado es independiente del
futuro.
f ( xn / xm ) f ( xm / xk ) f ( xk )
= f ( xn / xm ) f ( xk / xm )
f ( xm )
=∑
P ( X n = a j , X m = a l , X k = ai )
=
P ( X k = ai )
=∑
P ( X n = a j / X m = a l , X k = ai ) P ( X m = al , X k = a i )
l
l
P ( X k = ai )
= ∑ P ( X n = a j / X m = a l , X k = a i ) P ( X m = a l / X k = ai ) =
l
= ∑ P ( X n = a j / X m = a l ) P ( X m = al / X k = a i ) =
l
09/11/2003
=
= ∑ π il ( k , m)π lj ( m, n)
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría
l de Colas
11
Evolución de una Cadena de Markov
Cadenas homogéneas: Las probabilidades de
transición πij(m,n) sólo dependen de la diferencia
k=n-m.
Ecuación de Chapman-Kolmogorov:
π ij (k , n) = ∑ π il (k , m)π lj (m, n)
Evolución del sistema
Π (2) = Π (1)Π (1) = Π 2
L
Π (n + 1) = Π (n)Π
Π ( n) = Π n
p(n) = [ p1 (n) L p N ( n)]T
p T ( n) = p T ( k ) Π ( k , n) =
= pT (k )Π (n − k ) =
= pT (k )Π n − k =
= pT (0)Π n
l
Estado estacionario
Π (k , n) = Π (k , m)Π (m, n)
p ( n) = p
pT = pT Π
π ij (n − k ) = ∑ π il (m − k )π lj (n − m)
l
Π ( n − k ) = Π ( m − k )Π ( n − m)
Π ( p + q ) = Π ( p ) Π ( q ) = Π ( q )Π ( p )
Matriz de probabilidades de transición a n pasos.
El elemento i,j de Πn es la probabilidad de llegar
de i a j en exactamente n pasos.
Si existe el estado estacionario, el vector de probabilidad de estados
p de una cadena de Markov, es un autovector izquierdo de su
matriz de transición Π con autovalor 1.
¿Existe
¿Existeun
unestado
estado
estacionario?
Si p(1) ≠ p, el proceso no es estacionario.
estacionario?
Si Πn tiende a un límite para n → ∝, el proceso es asintóticamente
estacionario.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
12
Ejemplo: Cadena de 2 estados
Aplicación: Es un modelo para voz en paquetes.
a
1-a
00
11
1-b
b
Matriz de transición
Solución en estado estacionario
π 01  1 − a
a 
π
=
Π =  00


π 10 π 11   b 1 − b 
1 b a  (1 − a − b) n  a − a 
n
+
Π ( n) = Π =
a + b b a 
a + b − b b 
09/11/2003
Estado 0: inactivo (silencio). La probabilidad de que la próxima TS sea
activa es a, y la probabilidad de que permanezca en el estado
inactivo es 1-a.
Estado 1: activo (habla). La probabilidad de que la próxima TS sea
inactiva es b, y la probabilidad de que permanezca en el estado
activo es 1-b. En el estado activo, una TS contiene una celda
con probabilidad p, y se tiene un proceso de Bernoulli.
p = pΠ
[ p0
p1 ] = [ p0
a    p0 = b
1 − a
p1 ]
a+b
  ⇒ 
b
b
1
−


a
p0 + p1 = 1  p1 =
a+b

C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
13
Ejemplo: Proceso de cuenta binomial
Ejemplo: Proceso de cuenta binomial.
1-p
Es una secuencia de variables aleatorias de Bernoulli independientes.
Sn es el proceso de suma o cuenta que da el número de éxitos en las
primeras n pruebas.
En cada paso, Sn puede incrementarse en 1 con probabilidad p o quedar
igual con probabilidad 1-p.
1
Ik = 
0
p
11
1-p
p
22
1-p
p
n-1
n-1
1-p
p
Matriz de transición
Con probabilidad p
Con probabilidad 1-p
n
Sn = I1 + L + I n ⇒ P( Sn = j ) =   p j (1 − p) n− j
 j
09/11/2003
00
1-p
0≤ j≤n
p
0
0
1 − p
 0
1− p
p
0
Π=
 0
0
1− p p

L
L L
 L
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
L
L

L

L
14
nn
Propiedades Generales de la Matriz de Transición
Radio espectral
Matriz no negativa
ρ (Π ) = max λ
Π ≥ 0 ⇔ π ij ≥ 0 ∀i, j
λ∈σ (Π )
1 ∈ σ (Π ) ⇒ 1 ≤ ρ (Π )
n
Π ≥0
Matriz Estocástica
Π1 = 1 ⇔ (1,1) es un par propio de Π
Π1 = 1 ⇔ Π ∞ max Πx ∞ = max ∑ π ij = 1
x ∞ =1
i
ρ (∗) ≤ ∗ ⇒ ρ (Π ) ≤ Π ∞ = 1
El radio espectral es menor o igual
que cualquier norma
ρ (Π ) = 1
El radio espectral es unitario
i
Norma infinito: máxima suma de valores absolutos de
cada fila = 1
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
15
Clasificación de Estados
•
Accesible: j es accesible desde i si hay alguna secuencia de
transiciones de i a j con probabilidad no nula: ∃n>0/ πij(n)>0.
•
Comunicantes: los estados i y j comunican si son accesibles entre
sí. Se escribe i↔j. La comunicación es una relación de equivalencia:
i↔j, j↔k ⇒ i↔k.
•
Absorbente: Si es imposible abandonarlo: πii=1.
•
Recurrente: El estado i es recurrente si la probabilidad de regresar
alguna vez a él es 1.
•
Periódico: Un estado es periódico con período d si sólo se puede
regresar a él después de d, 2d, ..., nd pasos.
•
Aperiódico o Ergódico: Periódico con período d=1. Se puede
regresar a él en cualquier momento.
•
Transitorio: La probabilidad de regresar al estado alguna vez es
menor que 1.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Recurrente
∞
f i = ∑ π ii (n) = 1
n =1
Transitorio
∞
f i = ∑ π ii (n) < 1
n =1
16
Clases de Estados
•
•
•
•
Cerrada: Si desde un estado interior no se puede
alcanzar ningún estado exterior a la clase. Un
estado absorbente es una clase cerrada con un
único estado.
Irreducible: Clase cerrada tal que ningún
subclase propia es cerrada. En otros términos, la
única clase cerrada es la de todos los estados.
Dos estados pertenecen a un mismo conjunto si se
comunican.
Dos clases distintas deben ser disjuntas, pues si
existe algún elemento común, los estados de una
clase se pueden comunicar con los de la otra, y así
resultan ser de la misma clase.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Clase reducible
Clase cerrada
Estados absorbentes
Clase irreducible
17
Clases de Cadenas
•
Irreducible. Definiciones equivalentes:
–
La que consiste en una única clase de equivalencia.
–
El único conjunto cerrado es el de todos los estados.
En una cadena irreducible, todos los estados son recurrentes o son todos transitorios.
En una cadena irreducible finita, no pueden ser todos los estados transitorios; luego, son todos recurrentes.
•
Reducible. Opciones:
1.
Tiene uno o más estados absorbentes.
2.
Tiene un subconjunto de estados S1 desde el cual no es posible alcanzar estados fuera de S1.
•
Absorbente: la que tiene al menos un estado absorbente, accesible desde cualquier otro estado.
•
Aperiódica: Todos sus estados son periódicos con período 1.
•
Regular: Es posible ir de un estado a cualquier otro en exactamente n pasos: ∃n>0/ Π(n)= Π n > 0.
Regular ⇒ Todos los estados comunican ⇒ Irreducible
•
Ergódica: Irreducible, aperiódica, recurrente positiva.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
18
Cadenas Absorbentes
Una cadena es absorbente si es posible renombrar sus
estados para escribir la matriz de probabilidades de
transición como
Q R 
Π=

0 I 
11
22
33
(
tt
1
1
t+1
t+1
t+2
t+2
1
t+r
t+r
[
r estados absorbentes
(I − Q )−1 R 
]


I
Q R 
p Q (n + 1) p I ( n + 1) = p Q ( n) p I (n) 

0 I 
p Q ( n + 1) = p Q ( n)Q, p I ( n + 1) = p Q ( n)R + p I (n)
[
t estados transitorios
)
0
Q n Q n −1 + Q n − 2 + L + I R 
Π =
→
 n→∞ 
0
I


0
p ( n) = p Q ( n) p I ( n )
n
] [
]
p Q ( n) → 0, p I ( n) → p Q (0)(I − Q ) R + p I (0)
−1
Q
R
0
I
t
09/11/2003
n →∞
t
n→∞
r
r
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
19
Cadenas Reducibles e Irreducibles
Matriz Reducible
Matrices de Permutación
P es una matriz de permutación si exactamente 1 elemento en cada
fila y 1 elemento en cada columna es 1 y los restantes son nulos.
0 1 0 
1   2 
P = 1 0 0, P 2 = 1
0 0 1
3 3
permuta las filas de A
PA
permuta las columnas de A
AP
A' = P T AP
det P = ±1
P1 , P2 ∈ MP ⇒ P1 P2 ∈ MP
B C 
A' = P T AP = 

 0 D
Test: A ∈ℜN×N es irreducible sii:
Identidad de N×N
Matriz de valores absolutos
Matriz positiva
(I
+ A)
N −1
N
>0
Permutación de estados en una cadena de Markov
Permuta las filas y columnas de A
P T = P −1
A es una matriz reducible (irreducible) si (si no) existe alguna matriz de
permutación P tal que:
Π ' = PT ΠP
Permutar filas y columnas de Π equivale a renombrar los
estados de la cadena
Cadena Reducible
Una cadena de Markov es reducible si es posible renombrar sus estados para
llevar la matriz de probabilidades de transición Π a la forma
Q R 
Π ' = PT ΠP = 

 0 A
En caso contrario, la cadena de Markov es irreducible.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
20
Cadenas de Markov y Grafos
Grafo de una cadena
El grafo G(Π
Π) de Π es el gráfico orientado sobre n nodos {N1, N2,..., Nn}
en el cual hay un arco orientado de Ni a Nj si y sólo si πij≠0
Clase irreducible
Cambio de nombre de los nodos
Si P es una matriz de permutación,
G (PT ΠP ) = G (Π )
Grafo fuertemente conexo
Para
Paracada
cadapar
parde
denodos
nodos(N
(Ni,i,NNj )j )existe
existeuna
unasecuencia
secuenciade
dearcos
arcos
a
N
.
orientados
que
conduce
de
N
i
j
orientados que conduce de N a N .
i
ΠΠesesirreducible
irreducible
j
Todos
Todoslos
losestados
estadoscomunican.
comunican.La
Lacadena
cadenaconsiste
consisteenenuna
unaúnica
únicaclase
clase
dedeequivalencia.
equivalencia.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
21
Descomposición Espectral de una Matriz
A∈ℜ
ℜn×n es diagonalizable cuando tiene un conjunto completo
de autovectores linealmente independientes.
Avi = λi v i
Autovector derecho
AT u i = µi u i ⇔ uTi A = µi uTi
Autovector izquierdo
(
det(A − λI ) = det AT − λI
)
A y AT tienen iguales
autovalores
Avi = λi v i ⇒ uTj Avi = λi uTj v i 
T
⇒
u

j v i = 0 si λi ≠ λ j
T
T
T
T
u j A = λ j u j ⇒ u j Avi = λ j u j v i  Autovectores derecho e
T
i
u vi ≠ 0
T
j
u v i = δ ij
izquierdo son biortogonales
Normalización
V = [v1 L v n ], U = [u1 Lu n ] Conjunto completo de autovectores
l.i. ⇔ A es diagonalizable
Λ = diag (λ1 , K, λn )
AV = VΛ ⇔ V −1AV = Λ 
−1
T
T
⇔U =V ⇔U V=I
T
T
T
T −1
U A = ΛU ⇔ U A(U ) = Λ 
n
A = VΛV = VΛU = ∑ λi v i uTi
−1
T
i =1
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Descomposición espectral
22
Teorema de Perron-Frobenius
Teorema de Perron-Frobenius
Si A≥0 es irreducible, entonces
El radio espectral es un autovalor de A
ρ (A )∈ σ (A )
El radio espectral es positivo
ρ (A ) > 0
El radio espectral es un autovalor simple A
alg mult ρ ( A) = 1
El autovector asociado al radio espectral es positivo.
∃x > 0 : Ax = ρ (A )x
∀A :1 ≤ geo mult ρ (A ) ≤ alg mult ρ (A ) = 1 ⇒ geo mult ρ (A ) = 1
El autovector asociado al radio espectral es único.
No existen otros autovectores no negativos aparte de x: Vector de Perron
y T A = ρ (A)y T
El vector izquierdo de Perron tiene la misma propiedad.
Matriz primitiva
A≥0, irreducible es primitiva si tiene un único autovalor r = ρ(A) de módulo
máximo (es decir, un único autovalor sobre el círculo espectral).
A≥0, irreducible es imprimitiva de índice h si tiene h autovalores de módulo
máximo.
Test de Frobenius: A≥0 es primitiva sii Am>0 para algún m≥1.
n −2 n+ 2
>0
Test de Wielandt: A≥0 ∈ℜnxn es primitiva sii A
2
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
23
Matrices primitivas e imprimitivas
Si A≥0 es irreducible y primitiva, entonces tiene un
único autovalor r = ρ(A) sobre el círculo espectral.
Si A≥0 es irreducible e imprimitiva de índice h, entonces
tiene h autovalores sobre el círculo espectral.
r = ρ ( A)
B = A / r ⇒ ρ (B) = 1, σ (B) = {λ1 = ρ (B) = 1, λ2 ,K , λn }
alg mult λi = 1 ∀i = 1, 2, K, h
λi < λ1 = 1 ∀i = 2,K , n
Teorema: Los h autovalores de A sobre el círculo
espectral, son las raíces de orden h de ρ(A)
Bx i = λi x i


 2πik 
S =  ρ ( A) exp
 : k = 0,1, K , h − 1
 h 


y Tj B = λ j y Tj
n
n
B = ∑ λi x i y Ti = x1y1T + ∑ λi x i y Ti
i =1
lim B = lim (A / r ) = x y
k →∞
En este caso, A/r no es convergente, pero es sumable Cesàro:
i=2
k
k
k →∞
09/11/2003
T
1 1
S = {λ1 = ρ ( A), λ2 ,K , λh }
A/r es convergente
I + ( A / r ) + L + ( A / r ) k −1
lim
= x1y1T
k →∞
k
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
24
Cadenas irreducibles y aperiódicas
Propiedades generales de la matriz de
probabilidades de transición
Π n ≥ 0 ∀n ≥ 1
ρ (Π ) = 1
Π1 = 1
(1, 1) es un par propio de Π
i >1
i >1
Matriz irreducible
Por el teorema de Perron-Frobenius, 1 es el vector
de Perron asociado al autovalor 1. No existe otro
autovector derecho no negativo. Para el mismo
autovalor, existe un único autovector izquierdo p no
negativo tal que
Normalización
Π = 1p T + ∑ λ i v i u Ti
Π n = 1p T + ∑ λ ni v i u Ti
Radio espectral unitario
pT Π = p
Matriz irreducible y primitiva
λi < 1 ∀i > 1
Por ser primitiva, 1 es el único autovalor sobre el
círculo espectral
lim Π k = 1pT
Todas las filas son iguales. Todas las columnas
tienen iguales elementos
k →∞
lim pT (k ) = lim pT (0)Π k = pT (0)1pT = pT
k →∞
k →∞
La distribución de probabilidades estacionaria es el vector izquierdo
de Perron.
La cadena es aperiódica.
pT 1 = 1
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
25
Cadenas irreducibles y periódicas
Forma canónica de Frobenius para matrices
imprimitivas
Matriz irreducible e imprimitiva
I + Π + L Π k −1
= 1pT
k →∞
k
pT (0) + pT (1) + L + pT (k − 1)
= pT (0)1pT = pT
lim
k →∞
k
lim
Si Π es imprimitiva de orden h>1, entonces existe una
permutación tal que
Interpretación
1 si el estado inicial es j
1 si el estado en tiempo n es j
Z0 = 
, Zn = 
0 si no
0 si no
k −1
∑Z
n
: número de visitas al estado j antes del tiempo k .
n
/ k : fracción de veces que el estado j es visitado antes del tiempo k .
n =0
k −1
∑Z
 0
 0

PT ΠP =  M

 0
Π h1
Π12
0
M
0
0
0 L
0 
Π 23 L
0 
O O
M 

L 0 Π h −1,h 
L 0
0 
La cadena es periódica de período h.
n =0
E ( Z n ) = 1 ⋅ P( Z n = 1) + 0 ⋅ P( Z n = 0) = P( Z n = 1) = p j (n)
 k −1
 k −1
 k −1

E  ∑ Z n / k  = ∑ p j ( n) / k =  ∑ p T ( n ) / k  = p T
 n=0
 n =0
 n =0
j
( )
j
La fracción de tiempo a largo plazo que la cadena pasa en j es pj :
componente j del vector de Perron pT. La interpretación vale también
cuando la matriz es primitiva y existe un estado estacionario.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
26
Cadenas reducibles (1)
Cadena Reducible
Una cadena de Markov es reducible si es posible renombrar sus estados
para llevar la matriz de probabilidades de transición Π a la forma
X Y 
Π ' = PT ΠP = 

 0 Z
 X11
R S T 
 0
X Y  


Π≡
 ≡ 0 U V  ≡L≡  M
0
Z
 


 0 0 W 
 0
Si X o Z es reducible
Si R, U o W es reducible, etc.
X12
X 22
M
0
L
L
O
L
Π11
 0

X1k   M

X 2 k   0
≡
M   0
 
X kk   0
 M

 0
Cada Xii es irreducible o [0]1x1.
09/11/2003
Π12
Π 22
M
0
0
0
M
0
Cada Πii es irreducible o [0]1x1
i-ésima clase transitoria: cuando se la abandona,
no se regresa a ella
L Π rr
L Π 2r
L M
L Π rr
L 0
L 0
L M
L 0
Π1,r +1
Π1, r + 2
Π 2,r +1
Π 2,r + 2
M
M
Π r ,r +1
Π r ,r + 2
Π r +1, r +1
0
0
Π r + 2,r + 2
M
M
0
0
L
L
L
L
L
L
O
L
Π 1m 
Π 2 m 
M 

Π rm 
0 

0 
M 

Π mm 
Forma canónica para
matrices reducibles
Cada Πr+j,r+j es irreducible.
j-ésima clase ergódica. Cada clase
ergódica es una cadena irreducible en sí
misma
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
27
Cadenas reducibles (2)
 n
Γ
Π =  11

 0
Cada Πii es irreducible o [0]1x1
i-ésima clase transitoria: cuando se la abandona, no se regresa a ella
ρ (Π ii ) = 1 ⇒ Π ii 1 = 1, pero

 ⇒ ρ (Π ii ) < 1
Π ii 1 ≤ 1 porque hay bloques Π ij , j ≠ i, no nulos
ρ (Γ11 ) < 1 ⇒ lim
k →∞
Π11
 0

 M

0
Π≡
 0

 0
 M

 0
Π12 L Π rr
Π 22 L Π 2 r
M
Π1,r +1
Π 2,r +1
Π1,r + 2
Π 2,r + 2
M
M
Π r ,r +1
Π r ,r + 2
0
0
L M
L Π rr
0
0
L
L
0
0
Π r +1,r +1
0
Π r + 2,r + 2
M
L
L
M
M
M
0
0
0
0
n −1
∑Γ
n
k −1
11
I + Γ11 + L + Γ
k
L Π 1m 
L Π 2 m 
L
M 

L Π rm  Γ11
≡
L
0   0

L
0 
O
M 

L Π mm 
k
= lim Γ11
=0
k →∞
i=0

Γ12 Γ n22−1−i 

Γ n22

i
11
1 k −1 n −1 i
1 k −1 k i
Γ11Γ12 Γ n22−1−i = ∑ ∑ Γ11
Γ12 Γ n22−1−i =
∑∑
k n =1 i =0
k i = 0 n =i +1
I + Γ22 + Γ222 + L + Γ22k −1−i
= ∑ Γ Γ12
k
i=0
k −1
i
11
1 k −1 n −1 i
n −1− i
=(I − Γ11 )Γ12 L
Γ11Γ12 Γ 22
∑∑
k →∞ k
n =1 i = 0
lim
Γ12 
Γ 22 
−1
I + Π + L + Π k −1 0 (I − Γ11 ) Γ12 L 
=
lim

k →∞
k
L
0

−1
0 (I − Γ11 ) Γ12 L 
lim Π k = 

k →∞
L
0

Siempre
Sii todas las
submatrices de Γ22
son primitivas
pTj Π jj = pTj , j = r + 1,K , m
1pTr+1

+L+ Γ


=
O M =L
k

1pTm 

lim Γ 22 = L si todas las submatrices de Γ 22 son primitivas
Cada Πr+j,r+j es irreducible.
I + Γ 22
j-ésima clase ergódica. Cada clase ergódica es una cadena irreducible en sí misma
lim
k →∞
Los autovalores unitarios de cada Πr+j,r+j son simples y son raíces de la unidad.
Los autovalores unitarios de Π son el conjunto de los autovalores unitarios de las submatrices Πr+j,r+j .
k
Pueden estar repetidos por aparecer en más e una submatriz Πr+j,r+j .
k −1
22
k →∞
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
28
Cadenas reducibles (3)
Π11
 0

 M

0
Π≡
 0

 0
 M

 0
Π12 L Π rr
Π1,r +1
Π1,r + 2
Π 22 L Π 2 r
M L M
Π 2,r +1
M
Π 2,r + 2
M
Π r ,r +1
Π r +1,r +1
Π r ,r + 2
0
0
0
L Π rr
L 0
0
L
0
0
Π r + 2,r + 2
M
L
L
M
M
M
0
0
0
0
L Π 1m 
L Π 2 m 
L
M 

L Π rm  Γ11
≡
0   0
L

L
0 
O
M 

L Π mm 
I + Π + L + Π k −1 0 (I − Γ11 ) Γ12 L 
lim
=

k →∞
k
L
0

0 (I − Γ11 )−1 Γ12L 
k
lim Π = 

k →∞
0
L


−1
Γ12 
Γ 22 
Siempre
Sii todas las
submatrices de Γ22
son primitivas
Cada Πr+j,r+j es irreducible.
j-ésima clase ergódica. Cada clase ergódica es una cadena irreducible en sí misma.
Toda cadena reducible eventualmente queda absorbida en una clase ergódica.
Si Πr+j,r+j es primitiva, la cadena llega a un estado estacionario determinado por el
vector izquierdo de Perron de Πr+j,r+j .
Si Πr+j,r+j es imprimitiva, la cadena oscila en la clase ergódica para siempre.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
29
Valor medio y autocorrelación en la cadena de Markov (t. discreto)
R(n, n + k ) = E ( X n X n + k ) = ∑∑ xi x j P ( X n+ k = j, X n = i ) =
p T ( n + k ) = p T ( n) Π k
i
lim p(n) = p
= ∑∑ xi x j P( X n + k = j / X n = i) P ( X n = i )
n→∞
n
lim Π = 1p
T
i
n→∞
j
= ∑∑ xi x jπ ij (k ) pi (n) =
x = [x1 x2 L x N ]
T
i
y (n) = [x1 p1 (n) x2 p2 (n) L x N p N (n)]
T
n→∞
m X ( n) = E ( X n ) = ∑ xi pi (n) =pT ( n)x = pT (0)Π n x
i
m X = lim m X (n) = pT x = y T 1
j
= y T ( n )Π k x → y T Π k x = R ( k )
n →∞
lim y (n) = y
n→∞
j
R (n, n) = y T (n)x = ∑ pi (n) xi2 = E ( X n2 ) = m X2 (n)
i
R( k ) = y T Π k x → y T 1pT x = m X2
k →∞
C ( k ) = R (k ) − m X2 = y T (Π k − 1pT )x
C (0) = y T (I − 1pT )x = y T x − y T 1pT x = E ( X 2 ) − m X2 = σ X2
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
30
Cadenas de Markov en Tiempo Continuo
Cadenas homogéneas
πij(t1, t2)
t2 − t1 = τ ,
ai
Π (τ + α ) = Π (τ )Π (α )
aj
t1
Ecuaciones de Kolmogorov
t2
Puntos de Poisson
Cadena de Markov en tiempo continuo: Los cambios de
estado ocurren en los puntos aleatorios Tn.
Π (t1 , t 2 )1 = 1
pT (t 2 ) = pT (t 2 )Π (t1 , t 2 )
Π (t1 , t3 ) = Π (t1 , t 2 )Π (t 2 , t3 )
Matriz de velocidad
de cambio de la
probabilidad de transición
t3 − t2 = α
Propiedades básicas
Π (t + τ ) = Π (t )Π (τ )
d Π (t + τ )
dΠ (τ )
= Π (t )
dτ
dτ
& (t + τ ) = Π (t )Π
& (τ )
Π
& (t ) = Π (t ) Π
& (0)
Π
& (τ ) = Π
& (0 + )
Λ = lim Π
τ →0 +
& (t ) = Π (t )Λ
Π
pT (t ) = pT (0)Π (t )
& (t ) = pT (0)Π (t )Λ = pT (t )Λ
p& T (t ) = pT (0)Π
Solución
Π (t ) = e Λ t
p T (t ) = pT (0)Π (t ) = pT (0) e Λ t
1 0 L 0
0 1 L 0

Π (0) = I = 
L L L L


0 0 L 1
Condición inicial
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
31
Ecuaciones de Balance Global
Solución en estado estacionario
kk
p(t ) = p = cte. ⇒ p& (t ) = 0
T
p Λ=0
Sistema de ecuaciones homogéneas
pT 1 = 1
Condición adicional
λij
p
ii
λji
Ecuaciones de balance global
∑ piλij = 0 ⇒ ∑ pi λij = − p j λ jj
i≠ j
i
∑π ji = 1 ⇒ ∑ λ ji = 0 ⇒ −λ jj = ∑ λ ji
i
i
∑ p j λ ji = ∑ piλij
i≠ j
ll
i≠ j
i≠ j
Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad
saliente
de
j
saliente de j
09/11/2003
jj
Flujo
Flujo de
de velocidad
velocidad de
de probabilidad
probabilidad
entrante
a
j
entrante a j
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
32
Evolución de la cadena en tiempo continuo
Π (t ) = e
Λvi = λi vi
Λt
p(t ) = p(0)Π (t ) = p(0) e Λ t
Π (t )1 = 1
& (t )1 = 0
Π
Λ1 = 0
pT Λ = 0
uTi Λ = λiuTi
uTi v j = δij
U = [u1 LuN ], V = [v1 LvN ]
UT V = I
Λk = ∑λki viuTi
i
f (Λ) = ∑ f (λi )viuTi
i
λ1 = 0 > λ2 > L> λN
eΛt = ∑eλit viuTi = 1pT + ∑eλit viuTi → = 1pT
i
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
i>1
t →∞
33
Valor medio y autocorrelación en la cadena de Markov (t. continuo)
R (t1 , t 2 ) = E ( X (t1 ) X (t 2 )) = ∑∑ xi x j P ( X (t 2 ) = j , X (t1 ) = i ) =
Π (t ) = exp(Λt )
pT (t + τ ) = pT (t )Π (τ ) = pT (t ) exp(Λτ )
lim p(t ) = p
t →∞
lim Π (t ) = 1pT
j
= ∑∑ xi x j P ( X (t 2 ) = j / X (t1 ) = i ) P ( X (t1 ) = i )
i
j
= ∑∑ xi x jπ ij (t1 , t 2 ) pi (t1 ) =
i
t →∞
j
R(t , τ ) = ∑∑ xi x jπ ij (τ ) pi (t ) =
x = [x1 x2 L x N ]
T
i
y (t ) = [x1 p1 (t ) x2 p2 (t ) L xN p N (t )]
T
j
= y T (t )Π (τ )x → y T Π (τ )x = y T e Λτ x = R (τ )
n→∞
lim y (t ) = y
R (t , t ) = y (t )x = ∑ pi (t ) xi2 = E ( X 2 (t )) = m X2 (t )
T
t →∞
m X (t ) = E ( X (t )) = ∑ xi pi (t ) =pT (t )x = pT (0)Π (t )x
i
m X = lim m X (t ) = pT x = y T 1
t →∞
i
i
R(τ ) = y T Π (τ ) x → y T 1pT x = m X2
k →∞
(
)
C (τ ) = R (τ ) − m = y T Π (τ ) − 1pT x
(
2
X
)
C (0) = y T I − 1pT x = y T x − y T 1pT x = E ( X 2 ) − m X2 = σ X2
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
34
Ejemplo : Proceso de Poisson
Otra forma de obtener la matriz Λ:
π ij (t ) = P[ X (t ) = j / X (0) = i ] =
= P[ j − i puntos en [0, t ]] =
e−λt

0
Π=
 0

L
λt e−λ t
e −λt
0
L
− λ
 0
& (0 + ) = 
Λ =Π
 0

L
(λt ) 2 e −λ t / 2!
L
λt e −λ t
(λt )2 e −λ t / 2!
λt e −λ t
e −λt
L
L
λ
0
−λ λ
0 −λ
L L
π ii (τ ) = P[ X (τ ) = i / X (0) = i ] =
= P[T1 > τ ] = 1 − P[T1 ≤ τ ] =
(λt ) j −i −λ t
e
( j − i)!
L
L

L

L
L

L
L

L
λii = π&ii (0) = −λ
λi ,i +1 = π&i ,i +1 (0) = λ
= 1 − FT1 (τ ) = e −λτ
π i ,i +1 (τ ) = P[ X (τ ) = i + 1 / X (0) = i] =
= P[T1 ≤ τ ] = FT1 (τ ) = 1 − e −λτ
Solución de p& (t ) = p(t )Λ
p (0) = [1 0 0 L]
Condición
inicial
p& 0 (t ) = −λp0 (t ) ⇒ p0 (t ) = e − λt
p&1 (t ) = λp0 (t ) − λp1 (t ) = λ e −λt − λp1 (t ) ⇒ p1 (t ) = λt e −λt
L
(λt ) n −λ t
p& n (t ) = λpn−1 (t ) − λpn (t ) ⇒ pn (t ) =
e
n!
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
35
Ejemplo : Señal binaria aleatoria
a
-a
0
1
-b
b
π 01 (τ ) = P[X (τ ) = 1 / X (0) = 0] = P[1 punto en `[0,τ ]] = 1 − e − aτ
π 10 (τ ) = P[X (τ ) = 0 / X (0) = 1] = P[1 punto en `[0,τ ]] = 1 − e −bτ
 e − aτ
Π (τ ) = 
−bτ
1 − e
1 − e − aτ 

e −bτ 
− a a 
& (0) = 
Λ=Π

 b − b
 b + a e −( a+b)t

a+b
e Λt = 
b

1 − e −( a + b )t
 a + b
09/11/2003
]
 b
p=
a + b
a 
a + b 
T
a 
a + b 
a
E ( X (t )) = pT x =
a+b

y = 0


a
1 − e −( a+b)t 
a+b

a + b e − ( a +b )t 

a+b
b

 ap0 = bp1   p0 = a + b
p T Λ = 0
⇔
⇒
pT 1 = 1 
 p0 + p1 = 1  p1 = a
a+b

[
x = [0 1]
T
Puntos de Poisson
[
]
2
ab
 a 
R(τ ) = y e x = 
e −( a +b )τ
 +
2
 a + b  (a + b )
T
Λt
= m X2 + σ X2 e −( a +b )τ
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
36
Ejemplo: Cola M/M/1 (1)
Clientes atendidos de a uno por vez en orden de llegada
•Tiempo entre arribos distribuido exponencialmente con parámetro λ.
•Tiempo de servicio de un cliente distribuido exponencialmente con
•parámetro µ.
π j , j +1 (τ ) = P( X (τ ) = j + 1/ X (0) = j ) =
= P(1 arribo en [0,τ ]) = (λτ ) e −λτ → λτ + o(τ )
π j , j + 2 (τ ) = P( X (τ ) = j + 2 / X (0) = j ) =
2
= P(2 arribo en [0,τ ]) = (λτ ) e
π j , j −1 (τ ) = P( X (τ ) = j − 1/ X (0) = j ) =
−λτ
/ 2!→ o(τ )
− λ
µ
&
Λ = Π (0) = 
 0

L
λ
0
λ
− (λ + µ )
µ
− (λ + µ )
L
L
pΛ
Λ=0
− λp0 + µp1 = 0
λp j −1 − ( µ + λ ) p j + µp j +1 = 0
= P(1 partida en[0, τ ]) = ( µτ ) e −µτ → µτ + o(τ )
π jj (τ ) = P( X (τ ) = j / X (0) = j ) =
= P(0 arribo y 0 partida en [0,τ ]) + P (1 arribo y 1 partida en [0,τ ]) + L =
µp1 = λp0
λp j −1 + µp j +1 = (λ + µ ) p j
j=0
j = 1,2,...
j=0
j = 1,2,...
= e−λτ ⋅ e − µτ + λτ e −λτ ⋅ µτ e −µτ → 1 − (λ + µ )τ + o(τ )
Flujo entrante
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
Flujo saliente
37
L
L

L

L
Ejemplo: Cola M/M/1 (2)
λ
00
11
µ
µp1 = λp0
λp j −1 + µp j +1 = (λ + µ ) p j
λ
λ
22
µ
j=0
j = 1,2,...
λ
λ
jj
µ
µ
λ
j+1
j+1
µ
µ
λp0 − µp1 = 0
λp j −1 − µp j = λp j − µp j +1 = cte.

 ⇒ cte. = 0 ⇒ λp j − µp j +1
j ≥ 1
p j = (λ / µ ) p j −1 = ρp j −1


j
∞
∞
p0  ⇒ p j = (1 − ρ ) ρ
j
1 = ∑ p j = p0 ∑ ρ =
1 − ρ 
j =0
j =0
p j = ρ n p0
09/11/2003
ρ = λ / µ <1⇔ λ < µ
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
La tasa de arribos debe ser menor
que la velocidad de servicio; de
otro modo, la cola crece sin límite.
38
Ejemplo: Proceso de Nacimiento y Muerte General
•Transiciones limitadas a estados adyacentes.
•Los arribos ocurren como un proceso de Poisson de tasa
λι. Los tiempos entre arribos son vv.aa. exponenciales iid
con media 1/ λι.
•El tiempo entre desapariciones está distribuido
exponencialmente con media 1/ µι.
Ecuaciones de balance global
µ1 p1 = λ0 p0
λ j −1 p j −1 + µ j +1 p j +1 = (λ j + µ j ) p j
j=0
j = 1,2,..., N - 1
λ N −1 p N −1 = µ N p N
j=N
Solución de las ecuaciones de balance global
λ0
00
λ1
11
µ1
λ2
22
µ2
jj
µ3
µj
λN-1
λj
λj-1
j+1
j+1
µj+1
N
N
µN
µ1 p1 − λ0 p0 = 0
λ j −1 p j −1 + µ j +1 p j +1 − (λ j + µ j ) p j = cte. = 0
λ N −1 p N −1 − µ N p N = 0
j=0
j = 1,2,..., N - 1
j=N
i −1
λ
pi = i −1 pi −1 =
µi
∏λ
i
i =0
i
∏µ
p0
i
i =1
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
39
Ejemplo: Proceso de Poisson Modulado por Markov (MMPP)
•Modelo para voz en paquetes.
•Duración del intervalo de silencio: fdp
exponencial, 1/λ = 600 mseg.
•Duración del intervalo de habla: fdp exponencial,
1/µ = 400 mseg.
Modelo para N fuentes
Νλ
00
11
µ
22
jj
2µ
11 habla
µ
i −1
pi =
V paquetes/seg
λi −1
pi −1 =
µi
∏λ
i
i
i=0
i
∏µ
p0
i
i =1
λ
p0
µ
p0 + p1 = 1
µp1 = λp0 ⇒ p1 =
09/11/2003
N
N
Nµ
Probabilidad que i fuentes
entre N estén activas
λ
00
j+1
j+1
(j+1)µ
Modelo para una fuente única
silencio
λ
(Ν−j)λ
(Ν−1)λ
µ
= 0.6
µ +λ
λ
p1 =
= 0.4
µ +λ
p0 =
λi = ( N − i )λ , µ i = iµ
N
∑p
i
i=0
=1
 N  λ   λ 
pi =    1 + 
 i  µ   µ 
λ
E (i ) = N
µ +λ
λµ
var(i ) = N
(µ + λ )2
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
−N
 N  λ 

=  
 i  µ + λ 
i
 µ 


µ +λ 
Número medio de
fuentes activas
40
N −i
Ejemplo : Modelo MMPP del multiplexado estadístico de voz (1)
Aplicación: Multiplexado Estadístico de Voz
•Describe el comportamiento de multiplicadores de
tramas (DCME).
•Próxima generación de DCME soportada por AAL2.
•Duración del intervalo de silencio: fdp exponencial,
1/λ = 600 mseg.
•Duración del intervalo de habla: fdp exponencial,
1/µ = 400 mseg.
N fuentes
de voz
MUX
Estadístico
Capacidad del canal:
C canales de voz
equivalentes
 N  λ 

pi =  
 i  µ + λ 
µ
p0 =
= 0.6,
µ +λ
E (i ) = Np1
N −i
N
 µ 
 =   p1i p0N −i

i
µ +λ 
λ
p1 =
= 0.4
µ +λ
Probabilidad que i fuentes
entre N estén activas
var(i ) = Np0 p1
Promedio de tráfico recortado
Promedio de tráfico total
N
n
Promedio de tráfico recortado =∑ r (k )  p k (1 − p ) N − k
k =0
k 
F ( N , C , p1 ) =
k − C
r (k ) = 
 0
F ( N , C , p1 ) =
09/11/2003
i
k >C
k ≤C
n
1 N
(k − C )  p k (1 − p ) N − k
∑
Np1 k = 0
k 
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
41
Ejemplo : Modelo MMPP del multiplexado estadístico de voz (2)
Freeze Out Fraction
30
Freeze Out Fraction
F ( N , C , p1 ) =
n
1
(k − C )  p k (1 − p ) N − k
∑
Np1 k =0
k 
N
25
Capacidad del Canal (C)
MUX
Estadístico
N fuentes
de voz
Capacidad del canal:
C canales de voz
equivalentes
20
15
0.1 %
0.5 %
1.0 %
5.0 %
10.0 %
10
5
0
0
10
20
30
40
50
60
Número de Fuentes de Voz (N)
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
42
Ejemplo : Modelo MMPP del multiplexado estadístico de datos (1)
Aplicación: Multiplexado Estadístico de Datos
Caracterización de una fuente
•Duración del intervalo OFF: fdp exponencial, 1/λ = tOFF.
•Duración del intervalo ON: fdp exponencial, 1/µ = tON.
•Burstiness: vel. pico/vel. promedio.
T
1
1
rm = ∫ r (t )dt = ∑ rp tONi = rp P (ON )
T 0
T i
P(ON ) = p1 = rm / rp
b = rp / rm = 1 / p1
Probabilidad de actividad
de la fuente
Burstiness
G = N / C
 ⇒ G = Nrp / rc = Nη > 1
C = rc / rp 
Ráfaga perdida o retrasada
rp
rc
rm
Ganancia de
multiplexado estadístico
Se debe cumplir la condición de estabilidad:
S=
Capacidad del canal:
C canales
Velocidad del canal: rC
MUX
Estadístico
N fuentes
Entradas
Nλarribos L Nrm Nrp pON Nrp
=
=
=
<1
rc
rc
rc
brc
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
43
Ejemplo : Modelo MMPP del multiplexado estadístico de datos (2)
i
 N  λ   µ 
 

pi =  
i
µ
λ
µ
λ
+
+


 
µ
λ
, p1 =
p0 =
µ +λ
µ +λ
E (i) = Np1
N −i
N
=   p1i p0N −i Probabilidad que i fuentes entre N
estén activas
i
pi
Np1 (1 − p1 )
Np1 C
i
Aproximación gaussiana a la distribución binomial
var(i) = Np1 (1 − p1 )
PL = Q (α )
Probabilidad de pérdida
C ≈ Np1 + α Np1 (1 − p1 )
Número de canales para la
prob. de pérdida PL
C = 1/η
0 = Np1 + α 1 − p1 Np1 − 1 / η
Np1 = −
α 1 − p1 1
±
α 2 (1 − p1 ) + 4 / η
2
2
09/11/2003
Throughput
normalizado
[
η
α 2 (1 − p1 ) + 4 / η − α 1 − p1
4 p1
(Grc / rp )rm Grm
Nr
S= m =
=
= Gp1
rc
rc
rp
G = Nη =
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
44
]
2
Ejemplo : Modelo MMPP del multiplexado estadístico de datos (3)
Ganancia de Multiplexado Estadístico
Ganancia
10.00
8.00
6.00
Throughput
Prob. pérdida = 10-6
12.00
b=2
b=4
b=8
b=12
b=16
b=20
0.90
0.80
b=2
b=4
b=6
b=8
b=10
b=12
b=14
b=16
b=18
b=20
16.00
14.00
Throughput Normalizado
4.00
2.00
0.70
0.60
0.50
0.40
0.30
0.20
0.10
0.00
0.00
0
0.05
0.1
0.15
0.2
0.25
0
0.3
Relación vel. pico/vel. enlace
G = Nη =
09/11/2003
η
4 p1
[ α (1 − p ) + 4 / η − α
2
1
0.05
0.1
0.15
0.2
0.25
0.3
Relación vel. pico/vel. enlace
1 − p1
]
2
S=
Nrm (Grc / rp )rm Grm
=
=
= Gp1
rc
rc
rp
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
45
Ejemplo : Modelo MMPP del multiplexado estadístico de datos (4)
Ganancia de Multiplexado Estadístico
30.00
Ganancia
N=30
Prob. pérdida 10-2
25.00
b=32
25
20.00
0.00
η
4 p1
G = Nη
G=
[ α (1 − p ) + 4 / η − α
2
1
15
16
10.00
5.00
20
24
15.00
Solución simultánea de las
ecuaciones
10
12
6
2
0
0.2
0.4
0.6
0.8
1
Relación vel. pico/vel. enlace
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
46
1 − p1
]
2
Utilidad de los modelos de Markov
•
•
El modelo de Poisson es apropiado si
hay un gran número de usuarios
similares e independientes.
Si se combinan n procesos de arribos
iid, no necesariamente Poisson de tasa
λ/n,
–
–
•
La tasa de arribos del agregado es λ.
El proceso agregado se aproxima a un
proceso de Poisson de tasa λ cuando
n→∞ en condiciones bastante amplias.
PASTA: Poisson Arrivals See Time
Averages
09/11/2003
•
La distribución exponencial no tiene
memoria.
–
–
•
•
Lo que ocurre después del tiempo t es
independiente de lo que ocurrió antes
de t.
El conocimiento del pasado no sirve
para predecir el futuro.
Para los tiempos de servicio:
P(s>r+t / s>t) = P(s>r)
El tiempo adicional necesario para
completar el servicio del cliente que
está siendo atendido, es independiente
de cuándo comenzó el servicio.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
47
Teoría de Colas
•
•
•
•
•
•
Teorema de Little
Cola M/M/1
Cola M/M/1/K
Cola M/M/c. Fórmula Erlang-C
Cola M/M/c/c. Fórmula Erlang-B
Cola M/M/N/N/N
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
48
Introducción
• Teoría de Colas: Tipos de problemas y soluciones.
• Introducción a las colas de espera.
• Fundamentos: Probabilidad, estadística, procesos
aleatorios.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
49
Tipos de problemas y soluciones (1)
Usuario
Usuario11
Recursos
Recursoscompartidos
compartidos
Usuario
UsuarioNN
• El modelo de una cola de espera generalmente se
usa para representar un sistema de recursos
compartidos.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
50
Tipos de problemas y soluciones (2)
Flujo entrante
Clientes que arriban
Cola
Línea de espera
Servidor
Cabeza de línea
Flujo saliente
Clientes atendidos
Bloqueo,
pérdida o desborde
Concepto básico:
•Los clientes llegan para ser atendidos. Si todos los servidores están ocupados, el cliente
espera en la cola y es atendido después.
•Parámetros: tasa de arribos, velocidad de atención, número de servidores, capacidad de la
cola...
•Medidas: tiempo de espera, utilización de los servidores, tamaño de la cola, probabilidad de
rechazo...
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
51
Ejemplos
Sistema
Clientes
Servidor
Procesador
Programas o procesos
CPU, disco, dispositivos
I/O, bus...
MUX estadístico
Paquetes o celdas
Enlace de comunicaciones
Conmutador de circuitos
Llamadas
Canales
Red de acceso múltiple
(LAN, LAN inalámbrica)
Paquetes o tramas
Medio (FO, UTP, RF)
Servicios Web
Requerimientos de cliente
Web server
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
52
Objetivos y métodos
Objetivos
•
•
Método
Predecir la performance del
sistema.
Determinar cómo
9 Dimensionar el sistema (ancho de
banda)
9 Controlar la entrada
•
Análisis de un modelo matemático.
•
Simulación.
•
Medición de sistemas reales.
para obtener la performance
requerida, en términos de:
9 Grado de servicio (GoS)
9 Retardo
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
53
Factores
Básicos
•
•
•
•
Tasa de arribos.
Tiempo de servicio.
Número de servidores.
Longitud máxima de la cola (tamaño del “buffer”).
Otros
•
•
•
•
Tamaño de la población.
Disciplina de servicio (FCFS, LCFS, prioridades, vacaciones).
Modelo de carga de trabajo (tráfico).
Comportamiento del cliente: Desistir, abandonar, ...
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
54
Modelos de tráfico
Voz
Video CBR
Dependencia
de corto alcance
•Poisson
•Modelos de regresión
Datos en paquetes
Imágenes
Modelos
de tráfico
Dependencia
de largo alcance
Video VBR
•F-ARIMA (Fractional
AutoRegressive Integrated
Moving Average)
•FBM (Fractional Brownian
Motion)
...
Dificultad del modelo
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
55
Modelo de switch o de router
Link
Port
Port
Router / Switch
Router / Switch
Tasa de arribos
λ
Paquetes/seg
09/11/2003
Tamaño del Buffer
B paquetes
L bytes/paquete
µ
Tasa de servicio
Velocidad de Transmisión
R bits/seg
µ = R/8L
Paquetes/seg
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
56
Componentes del Retardo
λ
µ
Procesamiento:
Cola:
Transmisión:
Propagación:
Tiempo desde que el
paquete es recibido hasta
que se le asigna un enlace
de salida.
Tiempo desde que al paquete
se le asigna un enlace de salida
hasta que comienza la
transmisión (tiempo de espera).
Tiempo entre la
transmisión del
primer bit y el
último bit del
paquete.
Tiempo desde que el último
bit es transmitido por la
fuente hasta que el último bit
es recibido por el receptor.
Dependen de la carga de tráfico
y el tamaño de los paquetes
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
57
Tipos de Colas
Notación de Kendall
A/S/M/K/N/Q
Distribución del tiempo entre arribos:
M: exponencial (Markov)
D: determinística (constante)
G: General
Distribución del tiempo de servicio:
M: exponencial (Markov)
D: determinística (constante)
G: General
Número de servidores
09/11/2003
Disciplina de servicio:
FIFO, LIFO, prioridad,...
Tamaño de la población.
Puede ser finito o infinito.
Tamaño máximo de la cola,
longitud del buffer o
capacidad de almacenamiento.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
58
Teoría de Colas
•
•
•
•
•
•
Teorema de Little
Cola M/M/1
Cola M/M/1/K
Cola M/M/c. Fórmula Erlang-C
Cola M/M/c/c. Fórmula Erlang-B
Cola M/M/N/N/N
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
59
Teorema de Little
Tk
0
k =1
N (t )
D(t): partidas
T1
N(t)=A(t)-D(t): número de clientes en el sistema
A (T )
∫ N (t )dt =
A(t): arribos
T2
T
t
T
∑ Tk
1T
1
= ∫ N (t )dt =
T0
T
A (T )
A(T ) 1 A(T )
A(T )
∑Tk = T ⋅ A(T ) ∑ Tk = T Tk
k =1
k =1
A(T )
= λ̂T
T
N (t )
T
t
Número medio de clientes
en el sistema
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
T
= λ̂T Tk
T
E ( N ) = λ E (T )
Tasa de
arribos
Tiempo medio de
permanencia en el
sistema
60
T
Teorema de Little: Aplicación
Flujo entrante
Cola
Clientes que arriban
T =W + S
E (T ) = E (W ) + 1/ µ
E( N ) = E( Nq ) + λ / µ =
= E( Nq ) + ρ
++
E(W)
09/11/2003
Nq
clientes en la cola
W
S
Tiempo de espera
en la cola
Tiempo de
servicio
N
E(T)
ρρ
E ( N q ) = λE (W )
Tiempo medio de servicio:
E ( N ) = λE (T )
E(S) = 1/µ seg/cliente
“Little” means a lot!
λ clientes/seg
1/ µ
1
E (T ) =
=
1− ρ µ − λ
Flujo saliente
Cabeza de línea Clientes atendidos
Línea de espera
E (W ) = E ( N )(1 / µ ) = λE (T ) / µ = ρE (T )
E (T ) = E (W ) + 1 / µ = ρE (T ) + 1 / µ
1/µ
Servidor
clientes en el sistema
T
Tiempo en el sistema
o retardo
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
61
Tipos de Colas
Notación de Kendall
A/S/M/K/N/Q
Distribución del tiempo entre arribos:
M: exponencial (Markov)
D: determinística (constante)
G: General
Distribución del tiempo de servicio:
M: exponencial (Markov)
D: determinística (constante)
G: General
Número de servidores
09/11/2003
Disciplina de servicio:
FIFO, LIFO, prioridad,...
Tamaño de la población.
Puede ser finito o infinito.
Tamaño máximo de la cola,
longitud del buffer o
capacidad de almacenamiento.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
62
Cola M/M/1 (1)
•Sistema de un único servidor.
•Clientes atendidos de a uno por vez en orden de llegada.
•Los clientes arriban como un proceso de Poisson de tasa
λ. Los tiempos entre arribos son vv.aa. exponenciales iid
con media 1/ λ.
•Tiempo de servicio de un cliente distribuido
exponencialmente con media 1/ µ.
•El sistema puede acomodar un número ilimitado de
clientes.
Solución de las ecuaciones de balance global
ρ = λ / µ <1
p j = (1 − ρ ) ρ j = P[ N (t ) = j ]
ρ
ρ
, var( N ) = σ N2 =
1− ρ
(1 − ρ ) 2
1/ µ E ( S )
1
E( N ) 1 ρ
E (T ) = T =
=
=
=
=
λ
λ 1− ρ 1− ρ 1− ρ µ − λ
E(N ) = N =
E (W ) = W = T − S =
λ
00
λ
11
µ
λ
22
µ
λ
λ
jj
µ
µ
λ
j+1
j+1
µ
µ
ρ
S
−S =
S
1− ρ
1− ρ
λρ
ρ2
E ( N q ) = N q = λW =
S=
1− ρ
1− ρ
E ( N s ) = N s = λS = λ (1/ µ ) = ρ
P(servidor ocupado) = 1 − p0
µp1 = λp0
λp j −1 + µp j +1 = (λ + µ ) p j
09/11/2003
j=0
j = 1,2,...
Ecuaciones de
balance global
P(servidor ocupado) = N s
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
⇒ ρ = 1 − p0
63
Cola M/M/1 (2)
E(N)
20
20
15
15
10
µE(T)
5
5
0
0
0
0,2
0,4
E (N ) =
09/11/2003
10
0,6
ρ
1− ρ
0,8
ρ
1
0
0,2
0,4
0,6
0,8
1
ρ
E (T ) =
E (S ) 1/ µ
=
1− ρ 1− ρ
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
64
Aplicación: Multiplexado de tráfico
Capacidad de transmisión del canal: C bit/seg.
M flujos de tráfico de Poisson de tasa λ/M comparten el canal.
Longitud de paquetes distribuida exponencialmente con media L.
FDM, TDM
•Se crean M canales separados, cada uno de capacidad C/M.
•En FDM, el retardo de transmisión es ML/C.
•En TDM, el retardo de transmisión es ML/C si el paquete es mucho
más largo que 1 TS. Si L = 1 TS, el retardo de transmisión es L/C,
pero debe esperar (M-1) tiempos de TS entre transmisiones.
09/11/2003
Retardo de transmisión del canal
Estadístico
Los paquetes de cada flujo se combinan en una sola cola y se
transmiten con un ordenamiento FCFS.
λ/M
C/M
λ/M
λ/M
C/M
λ/M
λ/M
C/M
λ/M
µ
C/M
=
L
M
M
1
=
T =
µ /M −λ /M µ −λ
µi =
1 L
=
µ C
•Un
•Unpaquete
paquetetarda
tardaMMveces
vecesmás
másenenlalacola
colayyenenser
serservido
servidoenenTDM
TDMooFDM,
FDM,que
queenen
multiplexado
estadístico.
multiplexado estadístico.
•Sin
•Sinembargo,
embargo,lavarianza
lavarianzadel
delretardo
retardoesesmenor
menorenenTDM
TDMooFDM.
FDM.
•TDM
y
FDM
malgastan
capacidad
del
canal
cuando
un
flujo
•TDM y FDM malgastan capacidad del canal cuando un flujononotiene
tienetráfico,
tráfico,pero
pero
eliminan
la
necesidad
de
identificar
a
qué
flujo
pertenece
cada
paquete.
eliminan la necesidad de identificar a qué flujo pertenece cada paquete.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
λ
C
µ=
C
L
T =
1
µ −λ
65
Cola M/M/1/K (1)
Cola M/M/1 con capacidad finita. El sistema puede
contener hasta K clientes. Los que llegan cuando el
sistema está lleno, son devueltos.
pj
λ
00
λ
11
λ
22
µ
µ
λp0 = µp1
λp j −1 + µp j +1 = (λ + µ ) p j
λpK −1 = µpK
λ
λ
K-1
K-1
µ
µ
0
K
K
µ
j =0
j = 1,2,L.K − 1
j=K
p j = ρp j −1 = ρ p0 
1− ρ

K
ρj
1 − ρ K +1  ⇒ p j =
K +1
1 = ∑ p j = p0
1− ρ
1 − ρ 
j =0
j
09/11/2003
j = 0,L, K
ρ<1
K
ρ=1
pj
pj
0
K
ρ>1
0
K
( K + 1) ρ K +1
ρ
−
1− ρ
1 − ρ K +1
1− ρ
Probabilidad de bloqueo
PB = P( N = K ) = pK =
ρK
K +1
1− ρ
λB = λPB
Tasa de rechazos
Tasa efectiva de arribos
λ A = λ − λB = λ (1 − PB )
Carga ofrecida
E ( N ) = λE ( S ) = ρ
E(N ) =
1
1− ρ K
E ( N A ) = λ A E ( S ) = λ (1 − pK ) = ρ
µ
1 − ρ K +1
Carga satisfecha
E(N )
E(N )
1 1
( K + 1) ρ K  1 − ρ K +1
E (T ) =
=
= 
−

λA
λ (1 − PB ) µ 1 − ρ 1 − ρ K +1  1 − ρ K
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
66
Cola M/M/1/K (2)
1
10
K=10
K=10
0,8
8
K=2
λA/µ
0,6
6
µE(T)
0,4
4
0,2
2
K=2
0
0
0
0,5
1
1,5
2
ρ
λA = λ
K
09/11/2003
0,5
1
1,5
2
ρ
K
1− ρ
1− ρ
= µρ
K +1
1− ρ
1 − ρ K +1
E ( N A ) = λA / µ
0
1 1
( K + 1) ρ K  1 − ρ K +1
−
E (T ) = 

µ 1 − ρ 1 − ρ K +1  1 − ρ K
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
67
Ejemplo: Dimensionamiento de un buffer
Capacidad del buffer requerida
1,00E+00
200
1,00E-01
180
1,00E-02
160
1,00E-03
140
1,00E-04
ρ = 0.9
1,00E-05
0.5
0.7
1,00E-06
0.8
0.8
0.9
1,00E-07
0.7
1,00E-08
120
100
80
60
40
0.5
1,00E-09
Capacidad
P(overflow)
Probabilidad de "overflow"
20
1,00E-10
0
0
20
40
60
80
100
120
140
160
180
200
0,0
0,1
0,2
0,3
Tamaño del buffer
PB = P( N = K ) = pK =
0,4
0,5
0,6
Carga ofrecida
ρ
0,7
0,8
0,9
1− ρ
ρK
K +1
1− ρ
λB = λPB
λ A = λ − λB = λ (1 − PB )
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
68
1,0
Cola M/M/c (1)
El número de servidores es c. La tasa de partidas es kµ cuando
k servidores están ocupados, pues:
k servidores ocupados ⇒ tiempo hasta la próxima partida T = min(T1,LTk )
P(T > t ) = P[min(T1,L, Tk ) > t ] =
aj
p0
j!
c
j −c a
pj = ρ
p0
c!
= P(T1 > t )L P(Tk > t ) =
=e
−µ t
Le
−µ t
=e
pj =
−kµ t
kµ
k servidores ocupados ⇒ tasa de partidas = 
cµ
λ
00
λ
11
µ
09/11/2003
λ
22
2µ
λp0 = µp1
λp j −1 + ( j + 1) µp j +1 = (λ + jµ ) p j
λp j −1 + cµp j +1 = (λ + cµ ) p j
k <c
k ≥c
λ
λ
c-1
c-1
3µ (c-1)µ
cµ
λ
c+1
c+1
cµ
j = 0,L , c
j ≥ c +1
−1
λ
cc
j=0
j = 1,L, c
j ≥ c +1
 c −1 a j a c 1 

p0 =  ∑ +

ρ
j
!
c
!
1
−

 j =0
a=λ/µ
Número medio de servidores ocupados
ρ = λ / cµ = a / c < 1
Ocupación de 1 servidor
cµ
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
69
Cola M/M/c (2)
∞
P(W > 0) = P( N ≥ c) = ∑ ρ j −c pc =
j =c
pc
= C (c, a )
1− ρ
1 a c  c −1 a j a c 1 
C (c, a ) =
∑ +
1 − ρ c!  j =0 j! c! 1 − ρ 
∞
−1
∞
E ( N q ) = ∑ ( j − c) p j = ∑ ( j − c) ρ j −c pc =
j =c
E( Nq )
j =c
C ( c, a ) C ( c , a )
=
cµ − λ µ (c − a)
λ
C (c, a ) 1
E (T ) = E (W ) + E ( S ) =
+
µ (c − a ) µ
λ
E ( N ) = λE (T ) = λE (W ) + = E ( N q ) + a
µ
E (W ) =
09/11/2003
=
ρ
C ( c, a )
1− ρ
Probabilidad de encontrar todos los c servidores ocupados y tener que
esperar en la cola: fórmula Erlang C.
Número medio de clientes en la cola.
Tiempo medio de espera en la cola.
Tiempo medio total en el sistema (retardo).
Número medio de clientes en el sistema.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
70
Fórmula Erlang-C
1 a c  c −1 a j a c 1 
∑ +

C ( c, a ) =
1 − ρ c!  j =0 j! c! 1 − ρ 
09/11/2003
−1
Probabilidad de encontrar todos los c servidores ocupados y tener que
esperar en la cola: fórmula Erlang C.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
71
Fórmula Erlang-C: Tiempo de espera
E (W ) =
09/11/2003
E(Nq )
λ
=
C ( c , a ) C ( c, a )
=
cµ − λ µ (c − a)
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
72
Ejemplo: Call Center
Ejemplo
Un call center recibe 600 llamadas por hora, con una duración media
de 3’. El operador trabaja durante 20’’ después de cada llamada. Se
quiere que el tiempo medio de espera sea 20’’. Obtener el número
de operadores necesario.
a = (600/3600) ×(3×60+20) = 33.33 Erlang
µE(W) = 20/(3×60) = 0.111 (Tiempo de espera normalizado)
µE(W) =C(c,a)/(c-a)
0.111 = C(c,33.33)/(c-33.33)
c = 36 operadores.
09/11/2003
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
73
Ejemplo: Retardo en acceso DVB-RCS
Internet access (browsing)
Assumptions:
Users:
Internet usage/month/user
Day-to month ratio
BH-to-day ratio
1000
20 h
1/20
1/10
Pages/session
36
Page size
50 Kbyte
Page delivery time
2 sec
Page view time
60 sec
Mean upstream packet length
80 Byte
Mean downstream packet length
560 Byte
Simultaneous session in BH
100 i.e. 10 % users
Protocol: TCP/IP with 560 bytes/OB packet and 80 bytes/IB packet.
Peak dnstream thput in BH/user
Peak upstream thput in BH/user
Session duration
Mean thput/user
Mean upstream thput in BH
Mean dnstream thput in BH
Upstream packets in BH
Dnstream packets in BH
DVB-S BASIC ACCESS PROFILE BA1
Forward max (Kbps)
Forward min (Kbps)
Return max (Kbps)
Return min (Kbps)
Unav/month (%)
Activity MBH (%)
09/11/2003
256
8
16
2
0.1
20
Qty.
200.0
28.6
37.2
6.5
92.2
645.2
147.5
147.5
Unit
Kbit/s
Kbit/s
sec
Kbit/s
Kbit/s
Kbit/s
•
•
•
•
•
•
Tráfico elástico NRT - transferencia de archivos.
Proceso de arribo de archivos: Poisson con tasa λ.(archivos/seg)
Tamaño medio de archivo: L (bits)
Max. Bitrate de una terminal: rb (bit/seg)
Ancho de banda (capacidad total) disponible: C (bit/seg).
Objetivo: Garantizar un tiempo medio de transferencia E(T), o bien un determinado throughput promedio L/E(T) para
todas las transacciones.
C (c , a ) 1 1  C (c , a ) 
+ = 1 +

c−a 
µ (c − a ) µ µ 
µ = rb / L, c = C / rb , a = λL / rb
E (T ) = E (W ) + E ( S ) =
Downstream :
Pag/session *(2+60)/60
PageSize*8/(2+60)
Mean dnstream thput*80/560
MeanThput/user*10 users
(50*1024/560)*10/(4+60)
BA2 BA3 BA4 BA5 BA6 BA7
256 256 512 1024 2048 4096
16
32
64 128 256 512
32
64 128 256 512 1028
4
8
16
32
64 128
0.1
0.1
0.1
0.1
0.1
0.1
20
20
25
25
25
30
E (T ) =
Byte
bits
rb Kbit/s
µ paq/s
λ paq/s
a Erlang
Downstream
560.0
4,480.0
256.0
57.1
147.5
2.6
Upstream
80.0
640.0
32.0
50.0
147.5
2.9
Upstream :
E (T ) =
BA8
4096
1024
1028
256
0.1
30
1  C (c,2.6) 
C (c,2.6)
< 16.1 ⇒ c = 4
 < 0.3 ⇒
1 +
57.1 
c − 2.6 
c − 2.6
L
1  C (c,2.9) 
C (c,2.9)
< 15.0 ⇒ c = 4
1 +
 < 0.3 ⇒
50.0 
c − 2.9 
c − 2.9
Para mantener acotado el retardo, se necesitan
•4×256 = 1024 Kbit/s downstream
•4×32 = 128 Kbit/s upstream.
Comparar con los valores de throughput medio:
•645.2 Kbit/s downstream
•92.2 Kbit/s upstream
.
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
74
Cola M/M/c/c
La capacidad de la cola es igual al número total de servidores.
Los clientes que arriban cuando todos los servidores están
ocupados, son devueltos.
a =λ/µ
Carga ofrecida
pj =
j
a
p0
j!
00
λ
11
µ
λ
22
2µ
λ
λ
c-1
c-1
3µ (c-1)µ
cc
cµ
j = 0,L, c
 c aj 
1 = ∑ p j ⇒ p0 =  ∑ 
j =0
 j =0 j! 
c
λ
−1
Probabilidad de que los c servidores estén ocupados =
ac
a c / c!
P ( N = c ) = pc =
= B(c, a) = PB probabilidad de bloqueo: Fórmula Erlang B
p0 =
c!
1 + a + a 2 / 2!+ L + a c / c!
Tasa efectiva de arribos
λ A = λ − λpc = λ [1 − B(c, a)]
λA
= a[1 − B (c, a )]
µ
λ A a[1 − B(c, a)] λ
=
= [1 − B (c, a)] = ρ [1 − B (c, a)]
µc
µc
c
λ
E ( N ) = λ A E ( S ) = [1 − B (c, a)]
µ
09/11/2003
Carga soportada por cada servidor = utilización
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
75
Fórmula Erlang-B
Fórmula Erlang-B
Fórmula Erlang-B
20
50
0.1%
18
45
0.5%
16
5.0%
35
Número de circuitos
14
Número de circuitos
40
1.0%
10.0%
12
20.0%
10
8
0.5%
25
1.0%
5.0%
20
6
15
4
10
2
5
0
0.1%
30
10.0%
20.0%
0
0,0
1,0
2,0
3,0
4,0
5,0
6,0
7,0
8,0
9,0
10,0
0,0
5,0
10,0
15,0
Tráfico total ofrecido (Erlang)
20,0
25,0
30,0
35,0
40,0
45,0
Tráfico total ofrecido (Erlang)
a c / c!
a c / c!
=
P ( N = c) = B (c, a) = PB =
1 + a + a 2 / 2!+ L + a c / c! c k
∑ a / k!
k =0
B (c + 1, a) =
09/11/2003
aB(c, a)
c + 1 + aB(c, a )
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
76
50,0
Cola M/M/N/N/N
•El número de servidores es N. La tasa de partidas es kµ
cuando k servidores están ocupados.
•La cantidad de fuentes (o “tamaño de la población”) es
N. La tasa de arribos es (N-i)λ cuando hay i fuentes
activas.
•Es un modelo idéntico al MMPP.
Νλ
00
11
µ
λ
(Ν−j)λ
(Ν−1)λ
22
jj
2µ
j+1
j+1
N
N
(j+1)µ
Nµ
Probabilidad que i fuentes
entre N estén activas
i −1
pi =
λi −1
pi −1 =
µi
∏λ
i
i
i=0
i
∏µ
p0
i
i =1
λi = ( N − i )λ , µ i = iµ
N
∑p
i
i=0
09/11/2003
=1
 N  λ   λ 
pi =    1 + 
 i  µ   µ 
λ
E (i ) = N
µ +λ
λµ
var(i ) = N
(µ + λ )2
C.F. Belaustegui Goitia - Cadenas de Markov y Teoría de Colas
−N
 N  λ 

=  
 i  µ + λ 
i
 µ 


µ +λ 
Número medio de
fuentes activas
77
N −i
Descargar