Tema 2. Distribuciones propias del análisis multivariante.

Anuncio
Tema 2. Distribuciones propias del análisis multivariante.
Concepto de matriz aleatoria
Una matriz aleatoria de orden n × p es una función medible X sobre un espacio de probabilidad (Ω, A, P)
con valores en Mn,p , el espacio de las matrices de n filas y p columnas. Se denota X = (Xi j ) donde
1 ≤ i ≤ n, 1 ≤ j ≤ p.
La matriz de medias, E[X] = (E[Xi j ]), conserva algunas propiedades de la esperanza:
• E[X1 + X2 ] = E[X1 ] + E[X2 ]
• Si A, B y C son matrices constantes E[AXB + C] = AE[X]B + C
• vec(E[X]) = E[vec(X)].
También podemos definir la covarianza matricial Covm(X) = Cov(vec(X)).
La función caracterı́stica de una matriz aleatoria se define como:
ϕX (s) = E[exp{i tr(st X)}] = E[exp{i vec(s) · vec(X)}] = ϕvec(X) (vec(s))
,
s ∈ Mn,p
Sus propiedades:
• ϕXt (s) = ϕX (st ).
• Si X = (X1 |X2 ) con X1 ∈ Mn,k
(k < p) y s1 ∈ Mn,k entonces ϕX1 (s1 ) = ϕX (s1 |0).
• ϕAXB+C (s) = exp{i tr(s C)}ϕX (A sBt ).
t
t
• Si X = (X1 | . . . |Xk ) y s = (s1 | . . . |sk ) entonces las submatrices X1 , . . . , Xk son independientes si y
sólo si
ϕX (s) = ϕX1 (s1 ) · . . . · ϕXk (sk )
2.1 Distribución normal matricial.
Sea µ = (µi j ) una matriz de orden n × p y sean Γ = (γi j ) y Σ = (σi j ) matrices cuadradas simétricas y
semidefinidas positivas de órdenes n y p, respectivamente.
D́. Diremos que la matriz aleatoria de orden n × p, X = (Xi j ) sigue distribución normal
matricial de parámetros µ, Γ y Σ si
vec(X) ∼ Nnp (vec(µ), Γ ⊗ Σ)
en cuyo caso denotaremos X ∼ Nn,p (µ, Γ, Σ)
Es fácil deducir a partir de las propiedades de la normal multivariante y del producto de Kronecker que
la función caracterı́stica de la normal matricial es:
)
(
1
t
t
, s ∈ Mn,p
ϕX (s) = ϕvec(X) (vec(s)) = exp i tr(s µ) − tr(s ΓsΣ)
2
Si Γ y Σ son definidas positivas, la función de densidad de X es
f (x) =
1
1
exp{− tr((x − µ)t Γ−1 (x − µ)Σ−1 )}
2
(2π)np/2 |Γ| p/2 |Σ|n/2
Por último es inmediato comprobar que E[X] = µ y Covm(X) = Γ ⊗ Σ.
1
,
x ∈ Mn,p
Propiedades de la distribución normal matricial.
Supongamos que X ∼ Nn,p (µ, Γ, Σ),
• (Matriz traspuesta) Xt ∼ N p,n (µt , Σ, Γ).
• Si p = 1 y Σ = σ2 ≥ 0 entonces X ∼ Nn (µ, σ2 Γ).
• Si n = 1 y Γ = γ2 ≥ 0 entonces Xt ∼ Nn (µ, γ2 Γ).
• Si a ∈ R, entonces aX ∼ Nn,p (aµ, a2 Γ, Σ) = Nn,p (aµ, Γ, a2 Σ)
• (Transformaciones lineales) Si C ∈ Mm,n , D ∈ M p,r y H ∈ Mm,r , entonces
CXD + H ∼ Nm,r (CµD + H, CΓCt , Dt ΣD)
• (Distribuciones marginales por columnas) Sea p = p1 + p2 . Si X = (X1 |X2 ), µ = (µ1 |µ2 ) y
!
Σ11 Σ12
Σ=
Σt12 Σ22
con Xi , µi ∈ Mn,pi y Σii ∈ M pi i = 1, 2, entonces
Xi ∼ Nn,pi (µi , Γ, Σii ) , i = 1, 2
• (Distribuciones condicionadas por columnas) Sea p = p1 + p2 . Si X = (X1 |X2 ), µ = (µ1 |µ2 ) y
!
Σ11 Σ12
Σ=
Σt12 Σ22
con Xi , µi ∈ Mn,pi y Σii ∈ M pi i = 1, 2, entonces dado x2 ∈ Mn,p2 , la distribución de X1 condicionada a que X2 = x2 es
t
−1 t
Nn,p1 (µ1 + (x2 − µ2 )Σ−1
22 Σ12 , Γ , Σ11 − Σ12 Σ22 Σ12 )
• (Distribuciones marginales por filas) Sea n = n1 + n2 . Si
!
!
X1
µ1
X=
, µ=
y Γ=
X2
µ2
Γ11
Γt12
Γ12
Γ22
Γ11
Γt12
Γ12
Γ22
!
con Xi , µi ∈ Mni ,p y Γii ∈ Mni i = 1, 2, entonces
Xi ∼ Nni ,p (µi , Γii , Σ) , i = 1, 2
• (Distribuciones condicionadas por filas) Sea n = n1 + n2 . Si
!
!
X1
µ1
y Γ=
X=
, µ=
X2
µ2
!
con Xi , µi ∈ Mni ,p y Γii ∈ Mni i = 1, 2, entonces, dado x2 ∈ Mn2 ,p , la distribución de X1 condicionada a que X2 = x2 es
−1 t
Nn1 ,p (µ1 + Γ12 Γ−1
22 (x2 − µ2 ) , Γ11 − Γ12 Γ22 Γ12 , Σ)
2
Resultados sobre la independencia de ciertas funciones de una normal matricial.
I      .
Supongamos que X ∼ Nn,p (µ, Γ, Σ).
Por columnas Sea p = p1 + p2 . Supongamos que X = (X1 |X2 ) y
!
Σ11 Σ12
Σ=
Σt12 Σ22
con Xi , ∈ Mn,pi y Σ12 ∈ M p1 ,p2 . Supongamos además que Γ , 0. Entonces
X1 , X2 son independientes si y sólo si Σ12 = 0
Por filas Sea n = n1 + n2 . Supongamos que
X=
X1
X2
!
y
Γ=
Γ11
Γt12
Γ12
Γ22
!
con Xi ∈ Mni ,p y Γ12 ∈ Mn1 ,n2 . Supongamos además que Σ , 0. Entonces
X1 , X2 son independientes si y sólo si Γ12 = 0
I       .
Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0. Sean A ∈ Mm,n y B ∈ Mr,n . Entonces
AX, BX son independientes si y sólo si ABt = 0
I   ́      .
Una transformación lineal y una forma cuadrática Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0.
Sea A ∈ Mm,n y sea B ∈ Mn una matriz simétrica y semidefinida positiva.
Si AB = 0, entonces AX y Xt BX son independientes.
Dos formas cuadráticas Supongamos que X ∼ Nn,p (µ, In , Σ) con Σ , 0. Sean A y B ∈ Mn matrices
simétricas y semidefinidas positivas.
Si AB = 0, entonces Xt AX y Xt BX son independientes.
Rango de una normal matricial.
Si X ∼ Nn,p (µ, Γ, Σ) con p ≤ n y Γ, Σ definidas positivas, entonces P(r(X) = p) = 1.
3
2.2 Distribuciones de Wishart y Hotelling
Distribución de Wishart
D́ Sea Y una matriz aleatoria con distribución Nn,p (0, In , Σ), siendo Σ semidefinida positiva. Se
denomina distribución de Wishart de parámetros p, n y Σ a la distribución de la matriz aleatoria cuadrada
p-dimensional W = Yt Y y denotaremos por W ∼ W p (n, Σ).
Dicho de otro modo, si Y1 , . . . , Yn son vectores aleatorios p-dimensionales, independientes idénticamente distribuidos con distribución N p (0, Σ) entonces la distribución Wishart de parámetros p, n y Σ es
P
la de la matriz aleatoria W = ni=1 Yi Yti . Nótese que en la definición original estos vectores forman las
filas de la matriz Y.
Si p = 1 y Σ = σ2 , entonces W1 (n, σ2 ) = σ2 χ2 (n). Evidentemente si σ2 = 1 obtenemos la distribución
chi-cuadrado con n grados de libertad.
D́ (Wishart no central) Sea Y una matriz aleatoria con distribución Nn,p (µ, In , Σ), siendo Σ semidefinida positiva. Denotemos por δ a la matriz cuadrada p-dimensional semidefinida positiva δ = µt µ .
Se denomina distribución de Wishart no central de parámetros p, n, Σ y δ a la distribución de la matriz
aleatoria cuadrada p-dimensional W = Yt Y y denotaremos por W ∼ W p (n, Σ, δ).
Dicho de otro modo, si Y1 , . . . , Yn son vectores aleatorios p-dimensionales, independientes con distribuciones respectivas N p (µi , Σ), i = 1, . . . , n, entonces la distribución Wishart de parámetros p, n, Σ
P
y δ es la de la matriz aleatoria W = ni=1 Yi Yti . En este caso, la matriz µ de la definición original se
P
particionarı́a µt = (µ1 | . . . |µn ) y por tanto δ = ni=1 µi µti .
Nótese que la distribución Wishart será centrada si el parámetro de descentralización δ = 0.
Propiedades de la distribución Wishart.
• Si W ∼ W p (n, Σ, δ) entonces E[W] = nΣ + δ.
• Si a ∈ R+ y W ∼ W p (n, Σ, δ) entonces aW ∼ W p (n, aΣ, aδ) .
• Si W ∼ W p (n, Σ, δ) y A ∈ Mr,p entonces AWAt ∼ Wr (n, AΣAt , AδAt ) .
• (Marginales de una Wishart) Sean p = p1 + p2 , W ∼ W p (n, Σ, δ) y consideremos las siguientes
descomposiciones:
!
!
!
W11 W12
Σ11 Σ12
δ11 δ12
W=
,
Σ
=
y
δ
=
Wt12 W22
Σt12 Σ22
δt12 δ22
con Wii , Σii , δii matrices cuadradas de orden pi , i = 1, 2. Entonces Wii ∼ W pi (n, Σii , δii ) , i = 1, 2 .
• (rango de una Wishart) Si W ∼ W p (n, Σ, δ) y Σ es definida positiva entonces P(|W| , 0) = 1, es
decir, W es definida positiva casi seguramente.
• (suma de Wisharts independientes) Si W1 ∼ W p (n1 , Σ) y W2 ∼ W p (n2 , Σ) son independientes,
entonces W1 + W2 ∼ W p (n1 + n2 , Σ) .
Distribución de formas cuadráticas matriciales
Sea Y ∼ Nn,p (µ, In , Σ) y sea A una matriz cuadrada de orden n y rango k, simétrica. Si A es idempotente,
entonces Yt AY ∼ W p (k, Σ, µt Aµ) .
4
Otros resultados relativos a la distribución de Wishart.
Sea W ∼ W p (n, Σ) con n ≥ p y Σ definida positiva. Supongamos p = p1 + p2 y consideremos las
siguientes descomposiciones de W y Σ:
!
!
Σ11 Σ12
W11 W12
, Σ=
W=
Wt12 W22
Σt12 Σ22
t
con Wii , Σii matrices cuadradas de orden pi , i = 1, 2. Denotemos por Σ11·2 = Σ11 − Σ12 Σ−1
22 Σ12 .
−1 t
t
−1
• Si U = W−1
22 W12 , entonces la distribución de U condicionada a W22 es N p2 ,p1 (Σ22 Σ12 , W22 , Σ11·2 ) .
t
• Si V = W11 − W12 W−1
22 W12 , entonces V es independiente de (U, W22 ) y V ∼ W p1 (n − p2 , Σ11·2 ) .
Por último establecemos la siguiente relación entre la distribución de Wishart y la chi cuadrado:
Si y ∈ R p \{0} entonces
yt Σ−1 y
∼ χ2 (n − p + 1)
yt W−1 y
Distribución T2 de Hotelling
D́ Supongamos n ≥ p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean
Y un vector aleatorio con distribución N p (0, Σ) y W una matriz aleatoria con distribución W p (n, Σ)
independientes. Llamaremos distribución T 2 de Hotelling de parámetros p y n a la distribución de
probabilidad de la variable aleatoria T = nYt W−1 Y, denotándose T ∼ T 2 (p, n) .
Si p = 1, entonces T 2 (1, n) es el cuadrado de una distribución t de Student con n grados de libertad.
D́ (T 2 de Hotelling no central) Con las notaciones de la definición anterior, supongamos que
µ ∈ R p y que Y tiene distribución N p (µ, Σ). Si denotamos por δ = µt Σ−1 µ, llamaremos distribución T 2
de Hotelling no central de parámetros p, n y δ a la distribución de probabilidad de la variable aleatoria
T = nYt W−1 Y, denotándose T ∼ T 2 (p, n, δ) .
Relación entre la distribución T2 de Hotelling y la F de Snedecor.
Supongamos n ≥ p y Σ matriz cuadrada de orden p simétrica y definida positiva. Sean Y un vector
aleatorio con distribución N p (0, Σ) y W una matriz aleatoria con distribución W p (n, Σ) independientes.
Entonces la variable aleatoria
n − p + 1 t −1
F=
YW Y
p
tiene distribución F(p, n − p + 1).
En consecuencia se verifica que
T ∼ T 2 (p, n)
si y sólo si
n− p+1
T ∼ F(p, n − p + 1)
np
5
Descargar