Operaciones Vec y producto Kronecker de matrices. Aplicaciones 1

Anuncio
Trabajo D
Trabajos Curso 2012-2013
1
Operaciones Vec y producto Kronecker de matrices. Aplicaciones
1.
1.1.
Operación Vec y producto Kronecker de matrices
Operación Vec
El tratamiento sobre matrices aleatorias debe ser visto como una extensión del que se realiza para
vectores. Por ello lo habitual es vectorizar dicha matriz, o sea, tratarla como un vector sin más que
tener en cuenta que los espacios Mn×q (espacio vectorial de las matrices de dimensión n × q) y Rnq
son isomorfos. Evidentemente esta es una solución cómoda que será útil si somos capaces de conocer
bien los mecanismos que ligan las expresiones matriciales y vectorizadas.
Definición 1.1. Sea Xn×q . Se define Vec(X) como el vector de dimensión nq × 1 formado al apilar
las columnas de X una tras otra, o sea, si notamos por columnas X = [x1 , x2 . . . , xq ],


x1
 x2 


Vec(X) =  .  .
 .. 
xq
Teorema 1.1. Vec : Mn×q −→ Rnq es un isomorfismo de espacios vectoriales.
Demostración. Sean a, b ∈ R y X, Y ∈ Mn×q . Entonces Vec(aX + bY) = a Vec(X) + b Vec(Y), por lo
que la aplicación es lineal.
Llamemos {ei : i = 1, . . . , nq} y {Jij : i = 1, . . . , n; j = 1, . . . , q} a las bases canónicas respectivas
de Rnq y Mn×q .
La aplicación Vec aplica la base de Mn×q en la de Rnq en la forma Vec(Jij ) = e(j−1)n+i . En cuanto
a su inversa, dado zh ∈ Rnq se verifica
h = kn con k ∈ N. En este caso Vec−1 (eh ) = Jn,k .
h = kn + r con 0 < r < n. En tal caso Vec−1 (eh ) = Jr,k+1 Veamos un ejemplo de aplicación:
Ejemplo 1.1. Sean X1 , . . . , XN vectores aleatorios p-dimensionales con igual media µ. Consideremos
la matriz aleatoria XN ×p = [X1 , . . . , XN ]0 y sea el vector


X1
 X2 


Vec(X0 ) =  .  .
.
 . 
XN
Entonces, si notamos 1N al vector N dimensional cuyas componentes son todas iguales a uno, se
verifica


µ


 µ 
0
0
Vec(X
)
=

E
.  = Vec ([µ, µ, . . . , µ]) = Vec(µ1N ) .
 .. 
µ
Análisis Multivariante. 3o Grado en Estadı́stica
Trabajo D
Trabajos Curso 2012-2013
2
Comentario 1.1. En ocasiones estaremos interesados en calcular la esperanza matemática de una
cierta matriz aleatoria. Sin embargo habrá situaciones en las que dicho cálculo será más fácil realizarlo si calculamos la esperanza de su vectorización y después, en virtud del isomorfismo anterior,
deshacemos dicho proceso.
1.2.
Producto Kronecker de matrices
Ejemplo 1.2. Continuando con el ejemplo 1, supongamos que X1 , . . . , XN son independientes y con
igual matriz de covarianzas Σ. Entonces,
h
0 i
Cov Vec(X0 ) = E Vec(X0 ) − E Vec(X0 ) Vec(X0 ) − E Vec(X0 )


 

X1 − µ
Σ 0 ··· 0
 X2 − µ 
  0 Σ ··· 0 




0
0 
= E 
 (X1 − µ) , . . . , (XN − µ)  =  ..
 .
..
..
..




. 0 
.
.
.
XN − µ
0
···
0
Σ
Este ejemplo motiva la definición de producto kronecker de matrices.
Definición 1.2. Sean Am×n y Bp×q dos matrices. Se define el producto Kronecker de ellas como la
matriz, de dimensiones mp × nq,


a11 B a12 B . . . a1n B
 a21 B a22 B . . . a2n B 
i = 1, . . . , m


A⊗B=
 = (aij B)ij ;
..
..
..
..
j = 1, . . . , n


.
.
.
.
am1 B am2 B . . . amn B
A la vista de la definición, es inmediato que en el ejemplo 2 se tiene Cov [Vec(X0 )] = IN ⊗ Σ.
Comentario 1.2. Evidentemente el ejemplo anterior no es suficiente justificación para la introducción de esta operación ya que se puede comentar que no deja de ser una forma de abreviar la notación.
Otra, de las múltiples razones que se pueden argumentar, es la siguiente.
Sea el producto A ⊗ B, con An×n y B3×3 y sea el sistema de ecuaciones x = (A ⊗ B)y. Si A ⊗ B
es no singular, para resolver dicho sistema habrá que invertir una matriz 3n × 3n. Sin embargo,
se verifica (A ⊗ B)−1 = A−1 ⊗ B−1 , por lo que será suficiente con invertir dos matrices de orden
inferior, con el consiguiente ahorro de cálculo y, seguramente, con una ganancia en lo que se refiere
a la precisión de la solución.
Propiedades del producto Kronecker
1. Dados α, β ∈ R, Am×n y Bp×q , (αA) ⊗ (βB) = αβ(A ⊗ B) = αβA ⊗ B = A ⊗ (αβ)B .
2. Dadas Am×n , Bm×n , Cp×q y Dp×q , entonces
a) (A ⊗ C) + (B ⊗ C) = (A + B) ⊗ C, (A ⊗ C) + (A ⊗ D) = A ⊗ (C + D).
b) (A + B) ⊗ (C + D) = (A ⊗ C) + (A ⊗ D) + (B ⊗ C) + (B ⊗ D).
3. Dadas Am×n , Bp×q , Cr×s , (A ⊗ B) ⊗ C = A ⊗ (B ⊗ C).
4. Dadas Am×n , Bn×p , Cq×r y Dr×s , (A ⊗ C)(B ⊗ D) = AB ⊗ CD.
Análisis Multivariante. 3o Grado en Estadı́stica
Trabajo D
Trabajos Curso 2012-2013
3
5. Si Am×m y Bn×n son no singulares, (A ⊗ B)−1 = A−1 ⊗ B−1 .
6. Dadas Am×n y Bp×q , (A ⊗ B)0 = A0 ⊗ B0 .
7. Si Am×m y Bn×n son ortogonales, A ⊗ B es ortogonal.
8. Si Am×m y Bn×n son matrices triangulares superiores (inferiores), entonces A ⊗ B es triangular
superior (inferior).
9. Si Am×m y Bn×n son definidas positivas, entonces A ⊗ B es definida positiva.
10. Dadas Am×n = [A1 , . . . , Ak ] y Bp×q , entonces A ⊗ B = [A1 ⊗ B, . . . , Ak ⊗ B]. En particular,
si am×1 y bp×1 son dos vectores se tiene a ⊗ b0 = ab0 = b0 ⊗ a.
11. Dadas Am×m y Bn×n , entonces tr[A ⊗ B] = tr[A] tr[B].
A11 A12
A11 ⊗ B A12 ⊗ B
12. Dadas Am×n =
y Bp×q , entonces A ⊗ B =
.
A21 A22
A21 ⊗ B A22 ⊗ B
13. Sean Am×m y Bn×n matrices reales con autovalores reales respectivos λ1 , . . . , λm y µ1 , . . . , µn .
Entonces A ⊗ B tiene como autovalores λi µj , i = 1, . . . , m; j = 1, . . . , n. Como consecuencia
rg(A ⊗ B) = rg(A) rg(B) y | A ⊗ B |=| A |n | B |m .
1.3.
Relaciones entre las operaciones Vec y el producto Kronecker
Sabemos que dados X1 , . . . , XN vectores aleatorios p-dimensionales con igual media µ y dada la
matriz aleatoria XN ×p = [x1 , . . . , xN ]0 , entonces
0
0
E Vec(X ) = Vec ([µ, µ, . . . , µ]) = Vec(µ1N )
y, a la vista de la definición de producto Kronecker, es inmediato comprobar que esa expresión no
es más que 1N ⊗ µ, lo cual es una primera (y evidente) muestra de que ambas operaciones pueden
conducir a resultados relacionados entre ellas.
A continuación vamos a exponer algunas propiedades que ponen en relación las dos operaciones
introducidas.
Teorema 1.2. Se verifican las siguientes afirmaciones:
1. Si an×1 y bq×1 son dos vectores, entonces Vec(ab0 ) = b ⊗ a.
2. Sean An×q , Bq×p y Cp×r . Entonces Vec(ABC) = (C0 ⊗ A) Vec(B).
3. Dadas An×q y Bq×n , entonces tr[AB] = Vec0 (A0 ) Vec(B) = Vec0 (B0 ) Vec(A) .
Como ejercicio, veamos un ejemplo que muestra las posibilidades de este tipo de cálculo.
Ejercicio: Sean X1 , . . . , XN vectores aleatorios p-dimensionales independientes con igual media µ
e igual matriz de covarianzas Σ. Consideremos XN ×p = [X1 , . . . , XN ]0 y sea Yr×s = Br×p X0 CN ×s .
Entonces
E[Vec(Y)] = C0 1N ⊗ Bµ.
Cov [Vec(Y)] = C0 C ⊗ BΣB0 .
Análisis Multivariante. 3o Grado en Estadı́stica
Trabajo D
1.4.
Trabajos Curso 2012-2013
4
La distribución normal matricial. Aplicación al caso de un muestra aleatoria
simple de una población normal multivariante
Sea Yr×s una matriz aleatoria. En general, entenderemos por distribución de dicha matriz a la
correspondiente a Vec[Y0 ]. En particular tenemos la siguiente definición:
Definición 1.3. Sea Yr×s una matriz aleatoria. Sean Mr×s , Cr×r y Ds×s con C y D definidas
positivas. Se dice que Y ; Nr×s [M; C⊗D] si y = Vec(Y0 ) ; Nrs×1 [m; C⊗D], siendo m = Vec(M0 ).
A partir de esa caracterización se tiene el siguiente resultado
Teorema 1.3. Sea Yr×s una matriz aleatoria normal Nr×s [M; C ⊗ D]. Entonces su densidad es
s
r
1 −1
− rs
−
−
−1
0
f (Y) = (2π) 2 | C | 2 | D | 2 exp − tr C (Y − M)D (Y − M)
2
Ejercicio. Obtener la expresión anterior para la densidad normal matricial.
Indicación: La demostración se limita a operar en la densidad de y = Vec[Y0 ].
1
1
− rs
−
0
−1
(2π) 2 | C ⊗ D | 2 exp − (y − m) (C ⊗ D) (y − m)
2
sustituir y = Vec[Y0 ], m = Vec[M0 ] y usar las propiedades anteriormente expuestas sobre la operación
Vec, el producto Kronecker y las relaciones entre ambas operaciones.
Como aplicación de la distribución normal matricial, vamos a calcular la distribución conjunta de
una muestra aleatoria simple procedente de una normal multivariante.
Ejercicio: Sea X1 , . . . , XN una muestra aleatoria simple procedente de una población Np [µ; Σ], con
Σ > 0. Consideremos XN ×p = [X1 , . . . , XN ]0 y x = Vec[X0 ]. Demostrar que X ; NN ×p [1N µ0 ; IN ⊗ Σ].
Indicación: Conviene seguir los siguientes pasos:
1. Considerar x = Vec[X0 ].
2. Verificar que
N
X
0 (Xi − µ)(Xi − µ)0 = X − 1N µ0 X − 1N µ0
i=1
3. Tomar la densidad conjunta de la muestra y operar, partiendo de
f (X) = f (x) =
N
Y
i=1
f (Xi ) =
N
Y
(2π)
i=1
Análisis Multivariante. 3o Grado en Estadı́stica
− p2
− 12
|Σ|
1
−1
0
exp − (Xi − µ)Σ (Xi − µ)
2
Descargar