Tema 2. Distribuciones propias del análisis multivariante. Concepto de matriz aleatoria Una matriz aleatoria de orden n × p es una función medible X sobre un espacio de probabilidad (Ω, A, P) con valores en Mn,p , el espacio de las matrices de n filas y p columnas. Se denota X = (Xi j ) donde 1 ≤ i ≤ n, 1 ≤ j ≤ p. La matriz de medias, E[X] = (E[Xi j ]), conserva algunas propiedades de la esperanza: • E[X1 + X2 ] = E[X1 ] + E[X2 ] • Si A, B y C son matrices constantes E[AXB + C] = AE[X]B + C • vec(E[X]) = E[vec(X)]. También podemos definir la covarianza matricial Covm(X) = Cov(vec(X)). La función caracterı́stica de una matriz aleatoria se define como: ϕX (s) = E[exp{i tr(st X)}] = E[exp{i vec(s) · vec(X)}] = ϕvec(X) (vec(s)) , s ∈ Mn,p Sus propiedades: • ϕXt (s) = ϕX (st ). • Si X = (X1 |X2 ) con X1 ∈ Mn,k (k < p) y s1 ∈ Mn,k entonces ϕX1 (s1 ) = ϕX (s1 |0). • ϕAXB+C (s) = exp{i tr(s C)}ϕX (A sBt ). t t • Si X = (X1 | . . . |Xk ) y s = (s1 | . . . |sk ) entonces las submatrices X1 , . . . , Xk son independientes si y sólo si ϕX (s) = ϕX1 (s1 ) · . . . · ϕXk (sk ) 2.1 Distribución normal matricial. Sea µ = (µi j ) una matriz de orden n × p y sean Γ = (γi j ) y Σ = (σi j ) matrices cuadradas simétricas y semidefinidas positivas de órdenes n y p, respectivamente. D́. Diremos que la matriz aleatoria de orden n × p, X = (Xi j ) sigue distribución normal matricial de parámetros µ, Γ y Σ si vec(X) ∼ Nnp (vec(µ), Γ ⊗ Σ) en cuyo caso denotaremos X ∼ Nn,p (µ, Γ, Σ) Es fácil deducir a partir de las propiedades de la normal multivariante y del producto de Kronecker que la función caracterı́stica de la normal matricial es: ) ( 1 t t , s ∈ Mn,p ϕX (s) = ϕvec(X) (vec(s)) = exp i tr(s µ) − tr(s ΓsΣ) 2 Si Γ y Σ son definidas positivas, la función de densidad de X es f (x) = 1 1 exp{− tr((x − µ)t Γ−1 (x − µ)Σ−1 )} 2 (2π)np/2 |Γ| p/2 |Σ|n/2 Por último es inmediato comprobar que E[X] = µ y Covm(X) = Γ ⊗ Σ. 1 , x ∈ Mn,p Propiedades de la distribución normal matricial. Supongamos que X ∼ Nn,p (µ, Γ, Σ), • (Matriz traspuesta) Xt ∼ N p,n (µt , Σ, Γ). • Si p = 1 y Σ = σ2 ≥ 0 entonces X ∼ Nn (µ, σ2 Γ). • Si n = 1 y Γ = γ2 ≥ 0 entonces Xt ∼ Nn (µ, γ2 Γ). • Si a ∈ R, entonces aX ∼ Nn,p (aµ, a2 Γ, Σ) = Nn,p (aµ, Γ, a2 Σ) • (Transformaciones lineales) Si C ∈ Mm,n , D ∈ M p,r y H ∈ Mm,r , entonces CXD + H ∼ Nm,r (CµD + H, CΓCt , Dt ΣD) • (Distribuciones marginales por columnas) Sea p = p1 + p2 . Si X = (X1 |X2 ), µ = (µ1 |µ2 ) y ! Σ11 Σ12 Σ= Σt12 Σ22 con Xi , µi ∈ Mn,pi y Σii ∈ M pi i = 1, 2, entonces Xi ∼ Nn,pi (µi , Γ, Σii ) , i = 1, 2 • (Distribuciones condicionadas por columnas) Sea p = p1 + p2 . Si X = (X1 |X2 ), µ = (µ1 |µ2 ) y ! Σ11 Σ12 Σ= Σt12 Σ22 con Xi , µi ∈ Mn,pi y Σii ∈ M pi i = 1, 2, entonces dado x2 ∈ Mn,p2 , la distribución de X1 condicionada a que X2 = x2 es t −1 t Nn,p1 (µ1 + (x2 − µ2 )Σ−1 22 Σ12 , Γ , Σ11 − Σ12 Σ22 Σ12 ) • (Distribuciones marginales por filas) Sea n = n1 + n2 . Si ! ! X1 µ1 X= , µ= y Γ= X2 µ2 Γ11 Γt12 Γ12 Γ22 Γ11 Γt12 Γ12 Γ22 ! con Xi , µi ∈ Mni ,p y Γii ∈ Mni i = 1, 2, entonces Xi ∼ Nni ,p (µi , Γii , Σ) , i = 1, 2 • (Distribuciones condicionadas por filas) Sea n = n1 + n2 . Si ! ! X1 µ1 y Γ= X= , µ= X2 µ2 ! con Xi , µi ∈ Mni ,p y Γii ∈ Mni i = 1, 2, entonces, dado x2 ∈ Mn2 ,p , la distribución de X1 condicionada a que X2 = x2 es −1 t Nn1 ,p (µ1 + Γ12 Γ−1 22 (x2 − µ2 ) , Γ11 − Γ12 Γ22 Γ12 , Σ) 2 Resultados sobre la independencia de ciertas funciones de una normal matricial. I . Supongamos que X ∼ Nn,p (µ, Γ, Σ). Por columnas Sea p = p1 + p2 . Supongamos que X = (X1 |X2 ) y ! Σ11 Σ12 Σ= Σt12 Σ22 con Xi , ∈ Mn,pi y Σ12 ∈ M p1 ,p2 . Supongamos además que Γ , 0. Entonces X1 , X2 son independientes si y sólo si Σ12 = 0 Por filas Sea n = n1 + n2 . Supongamos que X= X1 X2 ! y Γ= Γ11 Γt12 Γ12 Γ22 ! con Xi ∈ Mni ,p y Γ12 ∈ Mn1 ,n2 . Supongamos además que Σ , 0. Entonces X1 , X2 son independientes si y sólo si Γ12 = 0 I . Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0. Sean A ∈ Mm,n y B ∈ Mr,n . Entonces AX, BX son independientes si y sólo si ABt = 0 I ́ . Una transformación lineal y una forma cuadrática Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0. Sea A ∈ Mm,n y sea B ∈ Mn una matriz simétrica y semidefinida positiva. Si AB = 0, entonces AX y Xt BX son independientes. Dos formas cuadráticas Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0. Sean A y B ∈ Mn matrices simétricas y semidefinidas positivas. Si AB = 0, entonces Xt AX y Xt BX son independientes. Rango de una normal matricial. Si X ∼ Nn,p (µ, Γ, Σ) con p ≤ n y Γ, Σ definidas positivas, entonces P(r(X) = p) = 1. 3 2.2 Distribuciones de Wishart y Hotelling Distribución de Wishart D́ Sea Y una matriz aleatoria con distribución Nn,p (0, In , Σ), siendo Σ semidefinida positiva. Se denomina distribución de Wishart de parámetros p, n y Σ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Yt Y y denotaremos por W ∼ W p (n, Σ). Dicho de otro modo, si Y1 , . . . , Yn son vectores aleatorios p-dimensionales, independientes idénticamente distribuidos con distribución N p (0, Σ) entonces la distribución Wishart de parámetros p, n y Σ es P la de la matriz aleatoria W = ni=1 Yi Yti . Nótese que en la definición original estos vectores forman las filas de la matriz Y. Si p = 1 y Σ = σ2 , entonces W1 (n, σ2 ) = σ2 χ2 (n). Evidentemente si σ2 = 1 obtenemos la distribución chi-cuadrado con n grados de libertad. D́ (Wishart no central) Sea Y una matriz aleatoria con distribución Nn,p (µ, In , Σ), siendo Σ semidefinida positiva. Denotemos por δ a la matriz cuadrada p-dimensional semidefinida positiva δ = µt µ . Se denomina distribución de Wishart no central de parámetros p, n, Σ y δ a la distribución de la matriz aleatoria cuadrada p-dimensional W = Yt Y y denotaremos por W ∼ W p (n, Σ, δ). Dicho de otro modo, si Y1 , . . . , Yn son vectores aleatorios p-dimensionales, independientes con distribuciones respectivas N p (µi , Σ), i = 1, . . . , n, entonces la distribución Wishart de parámetros p, n, Σ P y δ es la de la matriz aleatoria W = ni=1 Yi Yti . En este caso, la matriz µ de la definición original se P particionarı́a µt = (µ1 | . . . |µn ) y por tanto δ = ni=1 µi µti . Nótese que la distribución Wishart será centrada si el parámetro de descentralización δ = 0. Propiedades de la distribución Wishart. • Si W ∼ W p (n, Σ, δ) entonces E[W] = nΣ + δ. • Si a ∈ R+ y W ∼ W p (n, Σ, δ) entonces aW ∼ W p (n, aΣ, aδ) . • Si W ∼ W p (n, Σ, δ) y A ∈ Mr,p entonces AWAt ∼ Wr (n, AΣAt , AδAt ) . • (Marginales de una Wishart) Sean p = p1 + p2 , W ∼ W p (n, Σ, δ) y consideremos las siguientes descomposiciones: ! ! ! W11 W12 Σ11 Σ12 δ11 δ12 W= , Σ = y δ = Wt12 W22 Σt12 Σ22 δt12 δ22 con Wii , Σii , δii matrices cuadradas de orden pi , i = 1, 2. Entonces Wii ∼ W pi (n, Σii , δii ) , i = 1, 2 . • (rango de una Wishart) Si W ∼ W p (n, Σ, δ) y Σ es definida positiva entonces P(|W| , 0) = 1, es decir, W es definida positiva casi seguramente. • (suma de Wisharts independientes) Si W1 ∼ W p (n1 , Σ) y W2 ∼ W p (n2 , Σ) son independientes, entonces W1 + W2 ∼ W p (n1 + n2 , Σ) . Distribución de formas cuadráticas matriciales Sea Y ∼ Nn,p (µ, In , Σ) y sea A una matriz cuadrada de orden n y rango k, simétrica. Si A es idempotente, entonces Yt AY ∼ W p (k, Σ, µt Aµ) . 4 Otros resultados relativos a la distribución de Wishart. Sea W ∼ W p (n, Σ) con n ≥ p y Σ definida positiva. Supongamos p = p1 + p2 y consideremos las siguientes descomposiciones de W y Σ: ! ! Σ11 Σ12 W11 W12 , Σ= W= Wt12 W22 Σt12 Σ22 t con Wii , Σii matrices cuadradas de orden pi , i = 1, 2. Denotemos por Σ11·2 = Σ11 − Σ12 Σ−1 22 Σ12 . −1 t t −1 • Si U = W−1 22 W12 , entonces la distribución de U condicionada a W22 es N p2 ,p1 (Σ22 Σ12 , W22 , Σ11·2 ) . t • Si V = W11 − W12 W−1 22 W12 , entonces V es independiente de (U, W22 ) y V ∼ W p1 (n − p2 , Σ11·2 ) . Por último establecemos la siguiente relación entre la distribución de Wishart y la chi cuadrado: Si y ∈ R p \{0} entonces yt Σ−1 y ∼ χ2 (n − p + 1) yt W−1 y Distribución T2 de Hotelling D́ Supongamos n ≥ p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ) y W una matriz aleatoria con distribución W p (n, Σ) independientes. Llamaremos distribución T 2 de Hotelling de parámetros p y n a la distribución de probabilidad de la variable aleatoria T = nYt W−1 Y, denotándose T ∼ T 2 (p, n) . Si p = 1, entonces T 2 (1, n) es el cuadrado de una distribución t de Student con n grados de libertad. D́ (T 2 de Hotelling no central) Con las notaciones de la definición anterior, supongamos que µ ∈ R p y que Y tiene distribución N p (µ, Σ). Si denotamos por δ = µt Σ−1 µ, llamaremos distribución T 2 de Hotelling no central de parámetros p, n y δ a la distribución de probabilidad de la variable aleatoria T = nYt W−1 Y, denotándose T ∼ T 2 (p, n, δ) . Relación entre la distribución T2 de Hotelling y la F de Snedecor. Supongamos n ≥ p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector aleatorio con distribución N p (0, Σ) y W una matriz aleatoria con distribución W p (n, Σ) independientes. Entonces la variable aleatoria n − p + 1 t −1 F= YW Y p tiene distribución F(p, n − p + 1). En consecuencia se verifica que T ∼ T 2 (p, n) si y sólo si n− p+1 T ∼ F(p, n − p + 1) np 5