X/Y

Anuncio
ESTADÍSTICA
Tema 2: Variables Estadísticas Bidimensionales
1. DISTRIBUCIONES BIDIMENSIONALES
Los N elementos de la población son clasificados según dos caracteres X e Y, cuyas
modalidades las notamos respectivamente por xi e yj donde i varía desde 1 hasta p y j
varía desde 1 hasta q.
nij Frecuencia absoluta: número de individuos de la población que presentan la
modalidad xi de X y la modalidad yj de Y .
Tabla de frecuencias absolutas de una variable bidimensional
suma
(X/Y)
x1
x2
x3
…
xp
n·j
y1
n11
n21
n31
…
np1
n·1
y2
n12
n22
n32
…
np2
n·2
y3
n13
n23
n33
…
np3
n·3
…
…
…
…
…
…
…
yq
n1q
n2q
n3q
…
npq
n·q
suma
ni·
n1·
n2·
n3·
…
np·
n··=N
Nota: el primer subíndice
indica el número de fila y el
segundo subíndice indica el
número de columna
fij Frecuencia relativa: proporción de individuos de la población que presentan la
modalidad xi de X y la modalidad yj de Y. Se obtiene dividiendo la frecuencia absoluta
entre el número de elementos de la población (N).
Tabla de frecuencias relativas de una variable bidimensional
suma
(X/Y)
x1
x2
x3
…
xp
f·j
y1
f11
f21
f31
…
fp1
f·1
y2
f12
f22
f32
…
fp2
f·2
y3
f13
f23
f33
…
fp3
f·3
…
…
…
…
…
…
…
yq
f1q
f2q
f3q
…
fpq
f·q
suma
ni·
f1·
f2·
f3·
…
fp·
f··=1
2. DISTRIBUCIONES MARGINALES
Estas distribuciones nos indican cómo se distribuye una variable independientemente
de los valores que tome la otra.
Distribución marginal de X:
Distribución marginal de Y:
X
x1
x2
x3
…
xp
suma
Y
y1
y2
y3
…
yq
suma
ni·
n1·
n2·
n3·
…
np·
n··=N
n·j
n·1
n·2
n·3
…
n·q
n··=N
Existe una única distribución marginal de X y una única distribución marginal de Y.
6
ESTADÍSTICA
Tema 2: Variables Estadísticas Bidimensionales
3. DISTRIBUCIONES CONDICIONADAS
Son distribuciones unidimensionales obtenidas a partir de las bidimensionales,
manteniendo fijo un valor en una de las variables y considerando los valores que toma
la otra con sus respectivas frecuencias
Distribución de X condicionada
al valor yj de Y:
X|Y=yj
x1
x2
x3
…
xp
suma
Distribución de Y condicionada
al valor xi de X:
ni|j
n1j
n2j
n3j
…
npj
n·j
nj|i
ni1
ni2
ni3
…
niq
ni·
Y|X=xi
y1
y2
y3
…
yq
suma
4. COVARIANZA
σ XY = Cov( X , Y ) =
1
N
q
p
∑∑ ( xi − x )( y j − y )nij =
j =1 i =1
1
N
q
p
∑∑ x y n
j =1 i =1
i
j
ij
− xy
5. INDEPENDENCIA ESTADÍSTICA
- Las variables X e Y se dicen estadísticamente dependientes cuando la variación de
una influye en la distribución de frecuencias de la otra.
- Cuando las distribuciones condicionadas a cualquier valor de la otra variable sean
iguales, diremos que las variables X e Y son estadísticamente independientes. Las
variables son independientes si y solamente si ocurre que f ij = f i · f · j para cualquier
pareja (i,j).
- Cuando las variables son independientes la covarianza vale 0 (siempre).
- Cuando la covarianza vale 0 las variables son incorreladas.
6. NUBE DE PUNTOS:
Se representan las observaciones en unos ejes cartesianos. Para cada individuo se
tiene un punto con coordenadas (xi,yj), que respresenta el valor observado en (X, Y).
Y
yj
(xi, yj)
Nota: como cada pareja (xi,yj) tiene una
frecuencia nij la cual, en muchos casos,
es diferente de la unidad, un punto
puede ser la concentración de nij puntos.
xi
X
7
ESTADÍSTICA
Tema 2: Variables Estadísticas Bidimensionales
Algunos ejemplos:
Y
Y
X
X
Y
Y
X
X
7. RECTAS DE REGRESIÓN:
COEFICIENTE de CORRELACIÓN LINEAL de PEARSON: r =
σ XY
σ XσY
Valores:
-1
0
Linealidad perfecta
Y
1
No linealidad
Linealidad perfecta
Y
X
Y
X
Pendiente negativa
Y
X
Pendiente positiva
Y
X
X
Y
Representación inadecuada
Representación adecuada
Para que una recta represente bien a los puntos, debe
existir linealidad y debemos utilizar un método que
reduzca la distancia entre los puntos observados y la
recta.
X
8
ESTADÍSTICA
Tema 2: Variables Estadísticas Bidimensionales
Método de los mínimos cuadrados: se minimiza la suma de los residuos al cuadrado.
Para predecir Y en función de X: Y = aX + b
1

2
min ∑ ( y j − (axi + b )) nij 
 n i. j

y = ax + b
y j − (ax i + b )
a xi +b
yj
xi
Y|X
Variable dependiente: Y
Variable independiente: X
Recta de regresión:
a=
σ XY
σ X2
X|Y
Variable dependiente: X
Variable independiente: Y
Y = aX + b
b= y−
Recta de regresión:
σ XY
x
σ X2
α=
σ XY
σ Y2
X = αY + β
β =x−
σ XY
y
σ Y2
Posición relativa de las rectas de regresión:
Ambas rectas pasan por el punto ( x, y )
- Si las pendientes de las rectas no son iguales, las rectas se cortan en ese punto.
- Si las pendientes de las rectas son iguales, las rectas son coincidentes.
8. BONDAD DE AJUSTE
COEFICIENTE de DETERMINACIÓN: R = 1 −
2
Valores:
0
S rY2
σ Y2
1
Ajuste pésimo
Ajuste perfecto
Y
Y
X
Y
X
X
9
Descargar