Matrices no Negativas

Anuncio
1.
Matrices no negativas
Cuando A posee al menos un coeficiente nulo y el resto no negativos, puede
ocurrir que algunas de las propiedades probadas no se sigan cumpliendo.
Ejemplo 1.1 Si
A=
0 1
0 0
,
el radio espectral es nulo, ρ(A) = 0, y la multiplicidad algebraica y geométrica
son distintas.
Ejemplo 1.2 Si A = In , n > 1, ρ(A) = 1 cualquier vector de coordenadas
positivas es autovector y la multiplicidad geométrica es mayor que 1.
Ejemplo 1.3 Si
A=
0 1
1 0
,
se cumplen todas las propiedades salvo la sexta, ya que 1 y −1 tienen el
mismo módulo.
Veamos primero que propiedades subsisten:
Proposición 1.4 Si A ≥ 0, ρ(A) es autovalor (aunque puede ser 0) y posee
al menos un autovector de coordenadas no negativas.
También sigue valiendo:
Teorema de Collatz-Wielandt: r = máxx∈N f (x), donde:
(Ax)i
}, y
1≤i≤n
xi
f (x) = { mı́n
N = {x ∈ Rn : xi ≥ 0∀i, x 6= 0}.
Dem 1.5 Consideremos la sucesión de matrices positivas Bk = A + k1 E,
donde E es la matriz con todos sus coeficientes iguales a 1. Como Bk > Bk+1 ,
por el corolario del Teorema C-W, tenemos que rk = ρ(Bk ) > ρ(Bk+1 ), es
una sucesión decreciente acotada inferiormente por 0, luego converge a un
número r∗ ≥ 0. Por otra parte cada Bk posee un vector de Perron xk , como
sus coordenadas están acotadas, se puede conseguir una subsucesión xnk que
converge a un vector x ≥ 0, x 6= 0. Como
Ax = lı́m Bnk xnk = lı́m rnk xnk = r∗ x,
k→∞
k→∞
1
se tiene que x es autovector no negativo con autovalor r∗ . Además si usamos
que:
1
1
k k
k
ρ(A) ≤ ||Ak ||∞
≤ ||Bm
||∞
al tomar lı́mite para k → ∞ queda ρ(A) ≤ rm , y tomando lı́mite para m →
∞, vemos que r∗ ≥ ρ(A), y como r∗ es un autovalor debe ser r∗ = ρ(A).
Para probar C-W, observamos que sigue valiendo 0 ≤ f (x)x ≤ Ax ≤ Ak x.
Si multiplicamos a izquierda por el vector de Perron a izquierda qk de Ak ,
obtenemos:
f (x)qkT x ≤ qkT Ax ≤ qkT Ak x = rk qkT x =⇒ f (x) ≤ rk ∀ k =⇒ f (x) ≤ r,
como f (z) = r y z ∈ N , se sigue que máxx∈N f (x) = r.
Sobre las restantes propiedades de las matrices positivas, Frobenious observó que algunas se mantenı́an dependiendo de la posición en que se ubican
los ceros de A. Esto lo llevó a definir lo siguiente:
Definición 1.6 Una matriz A se dice reducible si existe una matriz de permutación P tal que
X Y
T
P AP =
.
0 Z
En caso de no existir una tal P , A se dice irreducible.
Una forma gráfica de observar la irreducibilidad es asociando a una matriz
n × n A = (aij ) ≥ 0 un grafo dirigido G(A) con n vértices. Donde el vértice
i se conecta con el j por una arista dirigida de i a j, si aij > 0.
La matriz A será irreducible si y sólo si todo par de vértices de G(A)
puede conectarse entre si mediante un camino.
Vemos que una matriz reducible permite separar a {1, 2, . . . , n − 1, n} =
I ∪ J, en dos conjuntos disjuntos I, J, tales que aij = 0, ∀i ∈ I, j ∈ J.
(k)
En tal caso, el coeficiente aij de Ak será nulo para todo k > 0, ya que
P
(k)
aij = i1 ,i2 ,...ik−1 aii1 ai1 i2 . . . aik −1j y todos los sumandos serán nulos, porque
siempre aparece al menos un factor nulo en cada sumando. Recı́procamente,
si A ≥ 0 es irreducible, el coeficiente i, j de alguna potencia Ak será positivo.
El siguiente Lema conecta las matrices irreducibles y no negativas con las
positivas.
Lema 1.7 Si A ≥ 0 es irreducible entonces (I + A)n−1 > 0.
2
Dem 1.8
n−1
[(I + A)
n−1 n−1 X
X
n−1 k
n − 1 (k)
]ij = [
A ]ij =
aij > 0.
k
k
k=0
k=0
Con este resultado podemos extender casi todas las propiedades del Teorema
de Perron a matrices no negativas.
Teorema de Perron-Frobenious
Sea A una matriz n × nA ≥ 0 irreducible, con r = ρ(A), entonces son
verdaderas las siguientes afirmaciones:
1) r > 0,
2) r ∈ σ(A), r se llama raı́z de Perron,
3) multalg (ρ(A)) = 1,
4) Existe un vector x > 0 tal que Ax = rx,
5) El vector de Perron, es el único vector z que cumple:
X
Az = rz, z > 0,
zi = 1,
i
y salvo por múltiplos de z, no hay otros autovectores de A con coordenadas positivas y cualquier autovalor.
6) Teorema de Collatz-Wielandt:
r = máxx∈N f (x), donde:
(Ax)i
, y N = {x ∈ Rn : xi ≥ 0∀i, x 6= 0}.
1≤i≤n
xi
f (x) = mı́n
Dem 1.9 2) y 6) ya fueron probados. Para el resto de las afirmaciones usaremos lo siguiente: si λ es autovalor de A entonces (1 + λ)n−1 es autovalor
de (I + A)n−1 , ya que si triangularizamos A mediante una matriz unitaria
U : T = U T AU , la misma U nos permite triangularizar (I + A)n−1 y los valores que obtenemos en la diagonal son los (1 + tii )n−1 . Más aún, se sigue
que la multiplicidad algebraica de λ en A es menor o igual que la multiplicidad algebraica de (1 + λ)n−1 en (I + A)n−1 . Entonces si µ = ρ((I + A)n−1 ),
tenemos:
µ = máx {|(1 + λ)n−1 |} = ( máx {|(1 + λ)|})n−1 = (1 + r)n−1
λ∈σ(A)
λ∈σ(A)
3
Ahora bien, si Ax = rx con x ≥ 0, (I + A)n−1 x = (1 + r)n−1 x lo cual implica
al ser x autovector correspondiente a ρ((I +A)n−1 ), que x > 0 y multalg r = 1.
Por lo tanto Ax > 0, por lo cual r > 0. Esto prueba 1), 3), 4) y 5).
Frobenious estudió también en que casos vale que hay un sólo autovalor
de módulo ρ(A).
Definición 1.10 Si λ ∈ σ(A), |λ| = ρ(A) =⇒ λ = ρ(A) decimos que A
es primitiva, en caso contrario se dice que A es imprimitiva y el número de
autovalores con módulo ρ(A) se llama ı́ndice de imprimitividad.
Ejemplo 1.11 La matriz n × n de permutación cı́clica (aij ) con aii+1 = 1 =
an1 , 1 ≤ i ≤ n − 1. es un ejemplo donde los autovalores son todas las raı́ces
n−ésimas de la unidad. Por lo tanto, es un ejemplo de matriz imprimitiva
de ı́ndice n.
Si A es primitiva con ρ(A) = r, A/r tendrá todos sus autovalores de módulo
menor que 1 salvo el de Perron. Por lo tanto para todo vector x se tiene:
lı́mk→∞ ( Ar )k x = α(x)p donde α(x) puede calcularse multiplicando por el
vector de Perron a izquierda q:
A
qT x
A
α(x)q T p = q T lı́m ( )k x = lı́m q T ( )k x = lı́m q T x =⇒ α(x) = T .
k→∞
k→∞
k→∞ r
r
q p
Por lo tanto:
pq T
A
lı́m ( )k = T > 0.
k→∞ r
q p
Un test muy útil para ver si A es primitiva es el siguiente:
Proposición 1.12 A ≥ 0, es primitiva si y sólo si existe k > 0 tal que
Ak > 0.
Dem 1.13 Si r = ρ(A) entonces rk = ρ(Ak ) y si λ es autovalor con |λ| = r
entonces λk es autovalor de Ak con multalg (λ)A =≤ multalg (λk )Ak y |λk | =
rk =⇒ λk = rk por ser Ak > 0. Como la multiplicidad algebraica de rk en
Ak es uno, se tiene que sólo puede provenir de λ = r.
Recı́procamente si A es primitiva como lı́mk→∞ ( Ar )k = qT1 p pq T > 0 se
tiene que alguna potencia de A será positiva.
4
Ejemplo 1.14 Cualquier matriz de permutación es reducible o imprimitiva
ya que toda potencia de P es de permutación y no puede ser positiva.
Ejemplo 1.15 Para ver si


0 2 0
A= 0 0 3 
4 5 0
es primitiva no hace falta calcular potencias de A, sino de cualquier matriz
que tenga los mismos coeficientes nulos y el resto positivos pero arbitrarios.
Es decir podemos reducir a calcular cuadrados de matrices con ceros y unos.
En nuestro caso calculamos

2 
 
2 

0 1 0
0 0 1
0 0 1
0 1 1
 0 0 1  = 1 1 0   1 1 0  = 1 1 1 
1 1 0
0 1 1
0 1 1
1 1 1
y la siguiente potencia da positiva, por lo tanto A es primitiva.
Una cota para la potencia que hay que calcular es (n − 1)2 + 1. En el ejemplo
anterior n = 3 y (3 − 1)2 + 1 = 5, como A4 no es positiva, se ve que la cota
es efectiva.
5
Descargar