Conceptos Básicos (T) - Jorge Galbiati | Estadística

Anuncio
1
ANALISIS DE DATOS MULTIDIMENSIONALES
CONCEPTOS BASICOS
VECTOR ALEATORIO.
Un vector eleatorio es un vector cuyas coordenadas son variables aleatorias:
⎡
⎢
⎢
X=⎢
⎣
x1
x2
:
xp
⎤
⎥
⎥
⎥
⎦
(1)
CONCEPTOS MUESTRALES
Supóngase que se toma una muestra de tamaño n de una población definida por el vector aleatorio
p-dimensional (1). Esta muestra consiste en n observaciones p-dimensionales, que se organizan en
forma de una matriz denominada ”Matriz de datos”
Matriz de Datos
Es una matriz cuyas filas son observaciones de una población definida por un vector aleatorio.
Por lo tanto cada columna de la matriz de datos corresponde a observaciones de una variable o
caracterı́rtica, y cada fila corresponde a observaciones o casos multivariantes o multidimensionales.
Una matriz de datos es una muestra de una población multivante.
variables
⎡
xi1
⎢ x
⎢ 2i
⎢
⎢ ..
⎢
X =⎢
⎢ ..
⎢
⎢ ..
⎢
⎣ ..
xn1
o caracterı́sticas
⎤
xi2 .. xip
x22 .. x2p ⎥
⎥
⎥
⎥
..
⎥
⎥ observaciones o casos
..
⎥
⎥
..
⎥
⎥
⎦
..
xn2
.. xnp
Vector de Promedios o de medias muestrales
Está formado por los promedios de los valores de las columnas, es decir, los promedios muestrales
de cada variable, de una matriz de datos:
2
⎡
⎢
⎢
⎢
X=⎢
⎢
⎢
⎣
⎡
⎢
⎢
⎢
en que 1 = ⎢
⎢
⎢
⎣
1
1
..
..
1
xi1
xi2
..
..
1
xip
n
1
n
1
n
⎤
⎡
⎥ ⎢
⎥ ⎢
⎥ ⎢
⎥=⎢
⎥ ⎢
⎥ ⎢
⎦ ⎣
x1
x2
..
..
xp
⎤
⎥
⎥
⎥
⎥=
⎥
⎥
⎦
1
nX 1
⎤
⎥
⎥
⎥
⎥
⎥
⎥
⎦
Matriz de varianza covarianza muestral.
Está formada por las varianzas y covarianzas muestrales, calculadas en base a una matriz de datos.
⎡
⎢
⎢
S=⎢
⎣
sij =
1
n
y
n
k=1
s11
s21
..
sp1
s12
s22
..
sp2
..
..
s1p
s2p
..
.. spp
⎤
⎥
⎥
⎥
⎦
(xki − xi ) (xkj − xj )
n
2
sii = n1 k=1 (xki − xi )
si i es distinto de j,
en la diagonal,
xi y xj son los promedios de las columnas (variables) i y j, respectivamente. La matriz de varianzascovarianzas es cuadrada y simétrica.
En forma matricial, en términos de la matriz de datos X, se puede escribir como
S=
1
nX
I − nI 11 X =
1
n X HX
en que H es la matriz de centrado
H = I − nI 11
Se puede ver que esta es una matriz simétrica e idempotente (H × H = H).
Matriz de correlaciones muestral.
Contiene unos en la diagonal y las respectivas correlaciones muestrales fuera de ella.
3
⎡
⎢
⎢
R=⎢
⎣
1
r21
..
rp1
r12
1
..
rp2
.. r1p
.. r2p
..
.. 1
⎤
⎥
⎥
⎥
⎦
en que rij es la correlación muestral entre las variables (columnas) i
covarianza entre las variables i y
y
j,
rij =
s
√ ij
√
si sj
, la
j dividida por sus respectivas desviaciones standard.
En forma matricial se puede escribir
1
1
R = D− 2 SD− 2
1
en que D− 2 es la matriz diagonal que contiene los inversos de las desviaciones estádar.
1
D− 2
⎡ √
s11
⎢ 0
⎢
=⎢
⎣ ..
0
0
√
s22
..
0
..
..
0
0
..
√
spp
..
⎤
⎥
⎥
⎥
⎦
VALORES Y VECTORES PROPIOS DE UNA MATRIZ
Sea M una matriz cuadrada p × p. Un vector propio v de M , asociado al valor propio λ son tales
que
M v = λv
Los valores propios pueden ser números complejos.
El número de valores propios es igual a la dimensión de la matriz, aunque pueden haber valores
propios iguales. En tales casos se dice que el valor propio tiene multiplicidad 2, 3, etc., según el
número de veces que se repite el mismo valor. Hay un vector propio distinto asociado a cada valor
propio. Si un valor propio tiene multiplicidad r mayor que uno, entonces hay un r valores propios
distintos (no paralelos) asociados a ese valor propio.
Propiedades:
1)
Si v es un vector propio de una matriz M , cualquier múltiplo de v tambien es vector propio.
Basta ver que si M v = λv entonces para cualquier contante k se cumple que M (kv) = λ(kv),
entonces kv es otro vector propio asociado al mismo valor propio. Se suele trabajar con vectores
4
propios normalizados, es decir, tales que su norma es 1. De estos hay dos asociados a cada valor
propio.
2)
Sea M una matriz simétrica. Entonces sus valores propios son reales y sus vectores propios
son ortogonales.
3)
Descomposición espectral. Sea M una matriz simétrica. Sea Γ una matriz cuyas columnas
son los vectores propios normalizados, y sea Λ = diag {λ1 , λ2 ...λp } , los λi sus valores propios,
ordenados de acuerdo al orden de los vectores propios en Γ. Entonces Γ es una matriz ortogonal
( Γ Γ = ΓΓ = I ) y M se puede expresar como
M = ΓΛΓ
o bien se puede escribir
Γ M Γ = Λ
4)
o
El determinante de una matriz se puede expresar en términos de sus valores propios como
det M =
5)
M Γ = ΓΛ
p
i=1
λi
La traza de una matriz se puede expresar en términos de sus valores propios como
trM =
p
i=1
λi
Matrices definidas y semidefinidas positivas
Una matriz M pxp es semidefinida positiva si para todo vector p-dimensional x,
x M x ≥ 0
Una matriz M pxp es definida positiva si para todo vector p-dimensional x = 0,
x M x > 0
En forma análoga, se pueden definir matrices semidefinidas negativas y definidas negativas.
Propiedades:
1)
Una matriz M es semidefinida positiva si y sólo si todos sus valores propios son no-negativos.
5
2)
Una matriz M es definida positiva si y sólo si todos sus valores propios son positivos.
3)
Una matriz es definida positiva si y sólo si es no-singular (invertible)
Ejemplo 1:
M=
10 3
4 6
Sus valores propios son las soluciones λ al sistema de ecuaciones
|M − λI| = 0
En este caso el sistema es
10 − λ
3
4
6−λ
= (10 − λ)(6 − λ) − 12 = λ2 − 16λ + 48 = 0
de donde los valores propios son : λ1 = 12 y
λ2 = 4
Los vectores propios se obtienen reemplazando λ por su respectivo valor en la ecuación
M v = λv
3
2
Se obtiene asociado a λ1 el vector propio V 1 =
o cualquier múltiplo de él y a λ2 el
1
vector propio V 2 =
o cualquier múltiplo de él.
−2
Los vectores propios normalizados son:
√ 3/ 13
V =
√
2/13
√ 1/ 5
∗
√
V2 =
−2/ 5
∗
1
Ejemplo 2
La matriz
⎡
17 −4
⎢
⎣ −4 14
−7 −4
tiene valores propios λ1 = 2, λ2 = λ3 = 3.
Sus respectivos vectores propios normalizados son
⎤
−7
⎥
−4 ⎦
17
6
⎡
⎡
⎤
1
⎢
⎥
v 1 = √13 ⎣ 1 ⎦
1
⎤
1
⎢
⎥
v 2 = √12 ⎣ 0 ⎦
−1
⎡
⎤
−1
⎢
⎥
v 3 = √16 ⎣ 2 ⎦
−1
PROBABILIDAD ASOCIADA A VECTORES ALEATORIOS
Sea Si X un vector aleatorio. Se define la función de distribución de probabilidad (o función de
distribución de probabilidad acumulada) como la función
F : Rp −→ R
F (x1 , x2 , .., xp ) = F (x) = Pr(X1 ≤ x1 , X2 ≤ x2 , .., Xp ≤ xp )
Esta última expresión e puede escribir como Pr(X ≤ x).
Un vector aleatorio X es continuo si existe una función f : Rp −→ R tal que
F (x) =
x1 x2
−∞ −∞
..
xp
−∞
f (t1 , t2 , ..tp )dt1 dt2 ..dtp =
x
−∞
f (t)dt
f se denomina función de densidad de X
Sea X un vector aleatorio continuo, sea f su función de densidad, y sea D un subconjunto de Rp .
Entonces la probabilidad de D está dada por
Pr(X ∈ D) =
D
f (t)dt
Un vector aleatorio X es discreto si su probabilidad está concentrada en un número finito o
numerable de puntos de Rp , S = {xs / s = 1, 2, ..}
El conjunto S se denomina soporte del vector aleatorio.
Sea X un vector aleatorio discreto y sea f (x) la función que le asigna probabilidad a cada punto
de Rp . Se denomina función de probabilidad de X. Entonces si D es un subconjunto de Rp . La
probabilidad de D está dada por
Pr(X ∈ D) =
tj ∈D
f (tj )
7
MOMENTOS
Vector de medias o de esperanzas
Sea X un vector aleatorio. Se define el vector esperado o vector de medias como el vector de los
valores esperados de las coordenadas de X .
⎡
⎢
⎢
µ = E(X) = ⎢
⎣
E(X1 )
E(X2 )
:
E(Xp )
⎤
⎥
⎥
⎥
⎦
Tiene la propiedad de linealidad E(a + bX) = a + bE(X) , en que a y b son escalares constantes.
Generalizando el concepto anterior, si g(x) es una función vectorial g : Rp −→ Rq
⎡
⎢
⎢
g(X) = ⎢
⎣
g1 (X)
g2 X)
:
gq (X)
⎤
⎥
⎥
⎥
⎦
entonces el vector esperado de g(X) es el vector q-dimensional
⎡
⎢
⎢
E(g(X)) = ⎢
⎣
E(g1 (X))
E(g2 (X))
:
E(gq (X))
⎤
⎥
⎥
⎥
⎦
Se puede generalizar al caso en que g(X) entrega como imagen una matriz qxr. El siguiente es un
caso de esta generalización.
Matriz de varianzas-covarianzas
Se define la matriz de varianzas-covarianzas Σ = V ar(X) del vector aleatorio X como la matriz
pxp simétrica que tiene en su i-esimo elemento de la diagonal a la varianza de la coordenada xi y
en la posición (i, j) a la covarianza entre las coordenadas xi y xj .
⎡
⎢
⎢
Σ = V ar(X) = ⎢
⎣
var(x1 )
cov(x1 , x2 ) ...
var(x2 )
cov(x2 , x1 )
...
...
cov(xp , x1 )
...
...
cov(x1 , xp )
...
...
var(xp )
⎤
⎥
⎥
⎥
⎦
8
Propiedades:
Si An×p y Bp×m son matrices de constantes, entonces
V ar(AX) = AV ar(X)A
matrizn × n
V ar(XB) = B V ar(X)B
matrizm × m
Matrix de correlaciones
La matriz de correlaciones está formada por una diagonal de unos, y por las correlaciones respectivas, fuera de la diagonal.
⎡
⎢
⎢
R = Corr(X ) = ⎢
⎣
1
corr(x1 , x2 ) ... corr(x1 , xp )
1
...
corr(x2 , x1 )
...
...
...
...
...
1
corr(xp , x1 )
⎤
⎥
⎥
⎥
⎦
Matrices de covarianzas.
Sean X p×1 e Y q×1 dos matrices de datos. Se define la matriz de covarianzas de X e Y como la
matriz p × q que contiene
todas las covarianzas entre pares de elementos de X y de Y.
⎡
⎢
⎢
Cov(X, Y ) = ⎢
⎣
cov(x1, y1 ) cov(x1 , y2 )
cov(x2 , y1 ) cov(x2 , y2 )
..
..
cov(xp , y1 ) cov(xp , y2 )
.. cov(x1 , yq )
.. cov(x2 , yq )
..
..
.. cov(xp , yq )
⎤
⎥
⎥
⎥
⎦
Propiedades:
Si An×p y Bm×p son matrices de constantes, entonces
Cov(AX, (BY ) )) = ACov(X, Y )B matriz
n×m
PROBABILIDADES MARGINALES Y CONDICIONALES
⎤
X1
⎥
⎢
Considere la partición X = ⎣ −− ⎦ en que X 1 tiene k elementos y X 2 tiene p-k elementos.
X2
⎡
La distribución marginal del vector aleatorio X1 se define como Pr(X 1 ≤ x1 ) = F (x1 , x2 , .., xk , ∞, ∞, .., ∞).
9
Si X es continuo y su densidad es f (x) = f (x1 , x2 ) entonces la densidad marginal de X 1 está dada
por
f1 (x1 ) =
∞
−∞
f (t1 , t2 )dt2
La densidad condicional de X 2 dado X 1 = x1 se define como
f (X 2 /X 1 = x1 ) =
f (x1 ,X 2 )
f1 (x1 )
en los puntos en que f1 (x1 ) = 0, y se define como 0 en los demás
puntos.
Dos vectores aleatorios distintos pueden tener densidades marginales iguales .
El caso discreto es análogo. En adelante sólo se darán las definiciones y propiedades para el caso
contı́nuo, entendiéndose que hay una situación análoga para el caso discreto.
INDEPENDENCIA
Dos vectores aleatorios X 1 y X 2 son independientes si y sólo si la densidad conjunta de X=(X 1 , X 2 )
cumple la propiedad
f (x1 , x2 ) = f1 (x1 ) f2 (x2 )
Descargar