Trabajo D Trabajos Curso 2012-2013 1 Operaciones Vec y producto Kronecker de matrices. Aplicaciones 1. 1.1. Operación Vec y producto Kronecker de matrices Operación Vec El tratamiento sobre matrices aleatorias debe ser visto como una extensión del que se realiza para vectores. Por ello lo habitual es vectorizar dicha matriz, o sea, tratarla como un vector sin más que tener en cuenta que los espacios Mn×q (espacio vectorial de las matrices de dimensión n × q) y Rnq son isomorfos. Evidentemente esta es una solución cómoda que será útil si somos capaces de conocer bien los mecanismos que ligan las expresiones matriciales y vectorizadas. Definición 1.1. Sea Xn×q . Se define Vec(X) como el vector de dimensión nq × 1 formado al apilar las columnas de X una tras otra, o sea, si notamos por columnas X = [x1 , x2 . . . , xq ], x1 x2 Vec(X) = . . .. xq Teorema 1.1. Vec : Mn×q −→ Rnq es un isomorfismo de espacios vectoriales. Demostración. Sean a, b ∈ R y X, Y ∈ Mn×q . Entonces Vec(aX + bY) = a Vec(X) + b Vec(Y), por lo que la aplicación es lineal. Llamemos {ei : i = 1, . . . , nq} y {Jij : i = 1, . . . , n; j = 1, . . . , q} a las bases canónicas respectivas de Rnq y Mn×q . La aplicación Vec aplica la base de Mn×q en la de Rnq en la forma Vec(Jij ) = e(j−1)n+i . En cuanto a su inversa, dado zh ∈ Rnq se verifica h = kn con k ∈ N. En este caso Vec−1 (eh ) = Jn,k . h = kn + r con 0 < r < n. En tal caso Vec−1 (eh ) = Jr,k+1 Veamos un ejemplo de aplicación: Ejemplo 1.1. Sean X1 , . . . , XN vectores aleatorios p-dimensionales con igual media µ. Consideremos la matriz aleatoria XN ×p = [X1 , . . . , XN ]0 y sea el vector X1 X2 Vec(X0 ) = . . . . XN Entonces, si notamos 1N al vector N dimensional cuyas componentes son todas iguales a uno, se verifica µ µ 0 0 Vec(X ) = E . = Vec ([µ, µ, . . . , µ]) = Vec(µ1N ) . .. µ Análisis Multivariante. 3o Grado en Estadı́stica Trabajo D Trabajos Curso 2012-2013 2 Comentario 1.1. En ocasiones estaremos interesados en calcular la esperanza matemática de una cierta matriz aleatoria. Sin embargo habrá situaciones en las que dicho cálculo será más fácil realizarlo si calculamos la esperanza de su vectorización y después, en virtud del isomorfismo anterior, deshacemos dicho proceso. 1.2. Producto Kronecker de matrices Ejemplo 1.2. Continuando con el ejemplo 1, supongamos que X1 , . . . , XN son independientes y con igual matriz de covarianzas Σ. Entonces, h 0 i Cov Vec(X0 ) = E Vec(X0 ) − E Vec(X0 ) Vec(X0 ) − E Vec(X0 ) X1 − µ Σ 0 ··· 0 X2 − µ 0 Σ ··· 0 0 0 = E (X1 − µ) , . . . , (XN − µ) = .. . .. .. .. . 0 . . . XN − µ 0 ··· 0 Σ Este ejemplo motiva la definición de producto kronecker de matrices. Definición 1.2. Sean Am×n y Bp×q dos matrices. Se define el producto Kronecker de ellas como la matriz, de dimensiones mp × nq, a11 B a12 B . . . a1n B a21 B a22 B . . . a2n B i = 1, . . . , m A⊗B= = (aij B)ij ; .. .. .. .. j = 1, . . . , n . . . . am1 B am2 B . . . amn B A la vista de la definición, es inmediato que en el ejemplo 2 se tiene Cov [Vec(X0 )] = IN ⊗ Σ. Comentario 1.2. Evidentemente el ejemplo anterior no es suficiente justificación para la introducción de esta operación ya que se puede comentar que no deja de ser una forma de abreviar la notación. Otra, de las múltiples razones que se pueden argumentar, es la siguiente. Sea el producto A ⊗ B, con An×n y B3×3 y sea el sistema de ecuaciones x = (A ⊗ B)y. Si A ⊗ B es no singular, para resolver dicho sistema habrá que invertir una matriz 3n × 3n. Sin embargo, se verifica (A ⊗ B)−1 = A−1 ⊗ B−1 , por lo que será suficiente con invertir dos matrices de orden inferior, con el consiguiente ahorro de cálculo y, seguramente, con una ganancia en lo que se refiere a la precisión de la solución. Propiedades del producto Kronecker 1. Dados α, β ∈ R, Am×n y Bp×q , (αA) ⊗ (βB) = αβ(A ⊗ B) = αβA ⊗ B = A ⊗ (αβ)B . 2. Dadas Am×n , Bm×n , Cp×q y Dp×q , entonces a) (A ⊗ C) + (B ⊗ C) = (A + B) ⊗ C, (A ⊗ C) + (A ⊗ D) = A ⊗ (C + D). b) (A + B) ⊗ (C + D) = (A ⊗ C) + (A ⊗ D) + (B ⊗ C) + (B ⊗ D). 3. Dadas Am×n , Bp×q , Cr×s , (A ⊗ B) ⊗ C = A ⊗ (B ⊗ C). 4. Dadas Am×n , Bn×p , Cq×r y Dr×s , (A ⊗ C)(B ⊗ D) = AB ⊗ CD. Análisis Multivariante. 3o Grado en Estadı́stica Trabajo D Trabajos Curso 2012-2013 3 5. Si Am×m y Bn×n son no singulares, (A ⊗ B)−1 = A−1 ⊗ B−1 . 6. Dadas Am×n y Bp×q , (A ⊗ B)0 = A0 ⊗ B0 . 7. Si Am×m y Bn×n son ortogonales, A ⊗ B es ortogonal. 8. Si Am×m y Bn×n son matrices triangulares superiores (inferiores), entonces A ⊗ B es triangular superior (inferior). 9. Si Am×m y Bn×n son definidas positivas, entonces A ⊗ B es definida positiva. 10. Dadas Am×n = [A1 , . . . , Ak ] y Bp×q , entonces A ⊗ B = [A1 ⊗ B, . . . , Ak ⊗ B]. En particular, si am×1 y bp×1 son dos vectores se tiene a ⊗ b0 = ab0 = b0 ⊗ a. 11. Dadas Am×m y Bn×n , entonces tr[A ⊗ B] = tr[A] tr[B]. A11 A12 A11 ⊗ B A12 ⊗ B 12. Dadas Am×n = y Bp×q , entonces A ⊗ B = . A21 A22 A21 ⊗ B A22 ⊗ B 13. Sean Am×m y Bn×n matrices reales con autovalores reales respectivos λ1 , . . . , λm y µ1 , . . . , µn . Entonces A ⊗ B tiene como autovalores λi µj , i = 1, . . . , m; j = 1, . . . , n. Como consecuencia rg(A ⊗ B) = rg(A) rg(B) y | A ⊗ B |=| A |n | B |m . 1.3. Relaciones entre las operaciones Vec y el producto Kronecker Sabemos que dados X1 , . . . , XN vectores aleatorios p-dimensionales con igual media µ y dada la matriz aleatoria XN ×p = [x1 , . . . , xN ]0 , entonces 0 0 E Vec(X ) = Vec ([µ, µ, . . . , µ]) = Vec(µ1N ) y, a la vista de la definición de producto Kronecker, es inmediato comprobar que esa expresión no es más que 1N ⊗ µ, lo cual es una primera (y evidente) muestra de que ambas operaciones pueden conducir a resultados relacionados entre ellas. A continuación vamos a exponer algunas propiedades que ponen en relación las dos operaciones introducidas. Teorema 1.2. Se verifican las siguientes afirmaciones: 1. Si an×1 y bq×1 son dos vectores, entonces Vec(ab0 ) = b ⊗ a. 2. Sean An×q , Bq×p y Cp×r . Entonces Vec(ABC) = (C0 ⊗ A) Vec(B). 3. Dadas An×q y Bq×n , entonces tr[AB] = Vec0 (A0 ) Vec(B) = Vec0 (B0 ) Vec(A) . Como ejercicio, veamos un ejemplo que muestra las posibilidades de este tipo de cálculo. Ejercicio: Sean X1 , . . . , XN vectores aleatorios p-dimensionales independientes con igual media µ e igual matriz de covarianzas Σ. Consideremos XN ×p = [X1 , . . . , XN ]0 y sea Yr×s = Br×p X0 CN ×s . Entonces E[Vec(Y)] = C0 1N ⊗ Bµ. Cov [Vec(Y)] = C0 C ⊗ BΣB0 . Análisis Multivariante. 3o Grado en Estadı́stica Trabajo D 1.4. Trabajos Curso 2012-2013 4 La distribución normal matricial. Aplicación al caso de un muestra aleatoria simple de una población normal multivariante Sea Yr×s una matriz aleatoria. En general, entenderemos por distribución de dicha matriz a la correspondiente a Vec[Y0 ]. En particular tenemos la siguiente definición: Definición 1.3. Sea Yr×s una matriz aleatoria. Sean Mr×s , Cr×r y Ds×s con C y D definidas positivas. Se dice que Y ; Nr×s [M; C⊗D] si y = Vec(Y0 ) ; Nrs×1 [m; C⊗D], siendo m = Vec(M0 ). A partir de esa caracterización se tiene el siguiente resultado Teorema 1.3. Sea Yr×s una matriz aleatoria normal Nr×s [M; C ⊗ D]. Entonces su densidad es s r 1 −1 − rs − − −1 0 f (Y) = (2π) 2 | C | 2 | D | 2 exp − tr C (Y − M)D (Y − M) 2 Ejercicio. Obtener la expresión anterior para la densidad normal matricial. Indicación: La demostración se limita a operar en la densidad de y = Vec[Y0 ]. 1 1 − rs − 0 −1 (2π) 2 | C ⊗ D | 2 exp − (y − m) (C ⊗ D) (y − m) 2 sustituir y = Vec[Y0 ], m = Vec[M0 ] y usar las propiedades anteriormente expuestas sobre la operación Vec, el producto Kronecker y las relaciones entre ambas operaciones. Como aplicación de la distribución normal matricial, vamos a calcular la distribución conjunta de una muestra aleatoria simple procedente de una normal multivariante. Ejercicio: Sea X1 , . . . , XN una muestra aleatoria simple procedente de una población Np [µ; Σ], con Σ > 0. Consideremos XN ×p = [X1 , . . . , XN ]0 y x = Vec[X0 ]. Demostrar que X ; NN ×p [1N µ0 ; IN ⊗ Σ]. Indicación: Conviene seguir los siguientes pasos: 1. Considerar x = Vec[X0 ]. 2. Verificar que N X 0 (Xi − µ)(Xi − µ)0 = X − 1N µ0 X − 1N µ0 i=1 3. Tomar la densidad conjunta de la muestra y operar, partiendo de f (X) = f (x) = N Y i=1 f (Xi ) = N Y (2π) i=1 Análisis Multivariante. 3o Grado en Estadı́stica − p2 − 12 |Σ| 1 −1 0 exp − (Xi − µ)Σ (Xi − µ) 2