Tema 4: VARIABLE ALEATORIA N

Anuncio
Tema 4: VARIABLE
ALEATORIA N-DIMENSIONAL
Carlos Alberola López
Lab. Procesado de Imagen, ETSI Telecomunicación
Despacho 2D014
[email protected], [email protected],
http://www.lpi.tel.uva.es/sar
Concepto de VA N-dimensional
X
(X, Y )
Y
Extensión a
composición de N
experimentos ε i
X = (X1 , X 2 ,L, X N )
Conceptos básicos
•
Función de distribución: se define como la probabilidad de la
intersección de N sucesos:
I
•
Función de densidad
•
Cálculo de una probabilidad en espacio N-dimensional
Conceptos básicos
•
•
Reducción del número de variables en las funciones:
•
Función de distribución: evaluar en infinito las variables a
eliminar
•
Función de densidad: integrar en el recorrido de las variables
a eliminar
Independencia de variables: factorización de funciones de
caracterización
Conceptos básicos
•
N funciones de N VAs: Teorema fundamental:
•
Si partimos de una situación del tipo:
Y1
Y2
= g 2 (X1 , X 2 ,L, X N )
M
M
YN
•
= g1 (X1 , X 2 ,L, X N )
= g N (X1 , X 2 ,L, X N )
Podemos caracterizar la VA de salida mediante:
Conceptos básicos
•
Respecto de funciones condicionadas:
•
Recordemos la relación vista en el caso 2D:
•
Y recordemos la regla de la cadena para probabilidades
condicionadas
•
O bien
Conceptos básicos
•
Teniendo esto presente, podemos escribir:
•
O bien
f ( x1 , x2 ,L, x N ) = f (x1 , x2 x3 ,L, x N ) f ( x3 ,L, x N )
•
Existen pues múltiples posibilidades
Conceptos básicos
•Y siguiendo esta pauta es sencillo eliminar la
dependencia de variables en las funciones
condicionadas:
•Variables a la izquierda del condicionante:
integrar con respecto a ellas.
•Variables a la derecha del condicionante:
multiplicar por la función de densidad de esa
variable condicionada a las demás e integrar
con respecto a ella.
Conceptos básicos
•Estimación de mínimo error cuadrático medio:
•El estimador lineal se obtiene resolviendo un
problema de optimización.
•El estimador no lineal es la extensión del
resultado visto en el capítulo anterior, es decir,
la esperanza de la variable a estimar
condicionada a las observaciones:
Esperanzas matemáticas
•Los conceptos de correlación y covarianza siguen estando
presentes. Tales parámetros miden la relación cruzada entre dos
variables (no entre tres o más).
•Cuando se tienen N variables hay que especificar entre qué dos
variables (de las N) se están especificando tales parámetros.
•Es cómodo emplear operadores vectoriales y/o matriciales para
ordenar esta información.
Vector de medias:
Matriz de covarianza:
Esperanzas matemáticas
•La ortogonalidad y/o la incorrelación son propiedades cómodas
para cálculos de esperanzas en las que haya N variables
N
involucradas. Por ejemplo, sea
Z = ∑ X i. Su varianza es:
i =1
Esperanzas matemáticas
•Entonces:
{
E (Z − ηZ )
2
}
Variables complejas
•Las variables complejas son una combinación lineal de variables
Z = X + jY
reales:
•Por tanto:
E {Z} = E {X + jY} = E{X}+ jE{Y}
•Respecto de la varianza, en el caso complejo tenemos que
encontrar un radio de dispersión. Por ello se define:
Valor cuadrático medio
Variables complejas
•La esperanza de una función de la variable compleja puede
escribirse como hemos visto para el caso de una función de 2
variables aleatorias:
•Independencia: si dos variables complejas son independientes, las
componentes cartesianas son independientes entre sí:
Z1
= X1 + jY1
Z2
= X 2 + jY2
independientes
Variables complejas
•Al respecto de correlación y covarianza:
•El orden de las variables por tanto ahora es importante:
Teoremas asintóticos
•Teorema del Límite Central: la suma de variables
independientes e indénticamente distribuidas (IID) tiende a tener
una distribución gaussiana.
con
•El teorema también es cierto cuando de las VAs son
independientes y tienen distribuciones similares.
Teoremas asintóticos
•Para VAs continuas y para VAs discretas con valores
equiespaciados también se observa que:
con
Teoremas asintóticos
X1 + X 2
X1
5
∑X
i =1
X i ~ U (0,1)
10
i
∑X
i =1
i
Teoremas asintóticos
•Teorema de Demoivre-Laplace: caso particular del Teorema del
Límite Central para el caso de VAs de Bernouilli IID:
N >> 1
⎧0 P (X i = 0 ) = q
Xi = ⎨
⎩1 P (X i = 1) = p
X ~ B(N, p )
con
2
Teoremas asintóticos
•Ley de los Grandes Números: convergencia de la frecuencia
relativa a la probabilidad axiomática. Formalmente:
•con
f r ( A) =
P ( A)
NA
N
=p
Teoremas asintóticos
•Ley de los Grandes Números. Demostración:
Demoivre-Laplace
Teoremas asintóticos
•Por tanto:
• La expresión
sirve para hallar el valor de N que hace falta para caer dentro de
un intervalo del valor p con una probabilidad deseada.
Variables conjuntamente gaussianas
•N VAs son conjuntamente gaussianas si la función de densidad
de las mismas se puede escribir
1xN
Nx1
NxN
1x1
Variables conjuntamente gaussianas
•Si N VAs son conjuntamente gaussianas:
•Que cada una de ellas es marginalmente gaussiana, con los
parámetros (media y varianza) según indica el vector de medias
y la matriz de covarianza.
•Que cada subconjunto de k<N variables son conjuntamente
gaussianas.
•Que la función de densidad de k variables condicionadas a las
N-k restantes es la correspondiente a una variable
conjuntamente gaussiana.
Variables conjuntamente gaussianas
•IMPORTANTE: La transformación lineal de VAs conjuntamente
gaussianas es conjuntamente. gaussiana!!!!!
•Partimos de Y = A X
donde la matriz de transformación es
de rango completo. Entonces, aplicando el teorema fundamental:
•Operando y agrupando términos matriciales en la matriz
llega fácilmente al resultado
C
se
Variables conjuntamente gaussianas
•Si N VAs son conjuntamente gaussianas:
•Incorrelación implica independencia
σ
CX =
2
X1
0
M
0
0
σ
2
X2
0
L
L
0
0
M
O
0
0
σ
2
XN
Gaussiana Bivariante
•Particularización de lo anterior para N=2. La función de densidad
resulta ser:
•Si ρ XY = 0 entonces los términos cruzados desaparecen y la
función de densidad se factoriza en el producto de las marginales
(luego, de nuevo, incorrelación implica independencia)
b) Las variables son gaussianas correladas. Por ello la variable
bidimensional es una gaussiana bivariante. Nos piden:
fY (y x )
E {Y x}
Para ello
1
⎡ x 2 2 ρxy y 2 ⎤ x 2
1
−
− 2 + 2⎥
2 ⎢ 2
σ
σ ⎦⎥ 2σ 2
2 1− ρ ⎣⎢ σ
f XY ( x, y ) 2πσ 2 1 − ρ 2
(
fY (y x ) =
=
e
1
f X (x )
σ 2π
)
e
Introduciendo el segundo factor:
fY (y x ) =
resulta
fY
1
−
2 1− ρ 2
(
e
1
σ 2π (1 − ρ 2 )
(y x ) =
1
σ 2π (1 − ρ
2
)
)
(
)
⎡ x 2 x 2 1− ρ 2 2 ρxy y 2 ⎤
− 2 + 2⎥
⎢ 2−
2
σ
σ
σ ⎥⎦
⎢⎣ σ
1
−
2 1− ρ 2
(
e
)
⎡ ρ 2 x 2 2 ρxy y 2 ⎤
⎢ 2 − 2 + 2⎥
σ
σ ⎥⎦
⎢⎣ σ
es decir
fY (y x ) =
1
σ (1 − ρ
2
)
1
−
2 1− ρ 2
2π
Según enunciado
(
e
)
( y − ρx )2
σ2
(
Y X = x 0 ~ N ρx 0 , σ 1 - ρ 2
)
P (R ) = ∫ f XY ( x, y )dxdy
Solución: a)
R
2
⎛ 1 ⎞
= ∫⎜
⎟ e
R ⎝ σ 2π ⎠
x2
− 2
2σ
e
y2
− 2
2σ
dxdy
Si ahora hacemos
P (R ) = ∫
∫
2
⎛ 1 ⎞
⎜
⎟ e
⎝ σ 2π ⎠
= r cos(θ )
y
= r sin (θ )
Nos queda
R
1
2π
4
0 0
x
r2
− 2
2σ
rdrdθ = ∫
2π
0
1
4
0
1
r
dθ ∫ 2 e
2π
σ
r2
− 2
2σ
dr
P (R ) = ∫
2π
0
1
4
0
r
1
dθ ∫ 2 e
σ
2π
r2
− 2
2σ
dr = − e
P (R ) = 1 − e
1
32σ 2
= 1− e
0
Si ha de verificarse que:
−
r2
− 2
2σ
1
4
≥ 0.7
entonces, despejando tenemos
σ ≤ 0.1611
−
1
32σ 2
Descargar