Variables aleatorias. Distribución Gaussiana. Simulación Montecarlo.

Anuncio
Series Temporales: sesión 2 (13/10/2009)
Ejercicio propuesto: Halla la esperanza y la varianza del siguiente proceso en tiradas independientes.
Xt =
t
X
θτ
(1)
τ =1
θτ =
1
con probabilidad p
−1 con probabilidad 1 − p
(2)
Solución:
E(Xt ) = E(
t
X
θτ ) =
τ =1
t
X
t
X
E(θτ ) =
(p + (−1)(1 − p)) = t(2p − 1)
τ =1
(3)
τ =1
Para poder hallar la varianza, primero hallamos el momento de orden 2
t X
t
t X
t
t
X
X
X
θτ )2 ) = E(
θτ θτ 0 ) =
E(θτ θτ 0 )
E(Xt2 ) = E((
τ =1 τ 0 =1
t
X
τ =1
=
X
E(θτ2 )
E(θτ )E(θτ 0 ) +
τ 6=τ 0
τ =1 τ 0 =1
τ =1
2
= t(t − 1)(2p − 1) + t(12 p + (−1)2 (1 − p))
= (2p − 1)2 t2 + t(1 − (2p − 1)2 ) = E(Xt )2 + t(4p − 4p2 )
⇒ V ar(Xt ) = 4p(1 − p)t
(4)
Podemos señalar que el proceso Xt es un proceso de difusión, puesto que
su varianza es lineal respecto al tiempo
Números aleatorios
Distribuciones discretas: en la sesión anterior ya vimos la distribuciı̈¿ 21 n
binomial
N
PN (m) =
(1 − p)N −m pm
(5)
m
Otra distribución discreta muy importante es la distribución de Poisson. Una
variable se dice de Poisson de media λ si
k
−λ λ
P (X = k) = e
k!
(6)
Distribuciones continuas:
Las distribuciones continuas se caracterizan por dos tipos de funciones:
la función de densidad de probabilidad pdf (x|θ) y la función de probabilidad
acumulada cdf (x|θ), donde θ es el vector de parámetros de los que depende
la distribución. Ambas se relacionan por la siguiente igualdad:
Z x
pdf (x0 |θ)dx0
(7)
P (X ≤ x) ≡ cdf (x|θ) =
∞
Distribución Gaussiana o Normal
1
(x − µ)2
p(x) = normpdf (x|µ, σ) = √
exp −
2σ 2
2πσ
(8)
Distribución Log-normal
1 1
(log y − µ)2
p(y) = lognpdf (y|µ, σ) = √
exp −
2σ 2
2πσ y
(9)
Veamos algunas propiedades de la distribución normal. Si tenemos X ∼
N (µ, σ), una variable aleatoria normal de parámetros µ y σ, podemos hacer
una cambio de variable para trabajar con una va Z ∼ N (0, 1):
dx
x−µ
⇒ dz =
⇒ px (x)dx = pz (z)dz ⇒ px (x)σ = pz (z)
σ
σ
2
1
z
pz (z) = √ exp −
⇒ Z ∼ N (0, 1)
2
2π
(10)
R∞
Demostración de que −∞ p(z)dz = 1:
Z ∞
z2
I=
exp (− )dz
(11)
2
−∞
z =
I
2
2 Z ∞
Z ∞
z2
x2
y2
exp (− )dz =
exp (− )dx
exp (− )dy
2
2
2
∞
∞
−∞
Z ∞Z ∞
2
2
x +y
exp −
dxdy
2
−∞ −∞
Z 2π Z ∞
∞
r2
r2
dθ
r exp (− )dr = 2π[− exp (− )]
2
2 0
0
0
Z ∞
2
√
1
z
I = 2π ⇒ √
exp (− ) = 1
2
2π −∞
(12)
Z
=
=
=
⇒
∞
donde hemos utilizado un simple cambio a coordenadas polares.
Cálculo de momentos:
Los momentos de potencia impar son siempre igual a cero, dado que la función
a integrar es impar respecto al origen, y el intervalo de integración es simétrico
respecto al origen:
E(z 2k+1 ) =
Z
∞
1
z 2k+1 p(z)dz = √
2π
−∞
Z
∞
z2
z 2k+1 e 2 = 0
−
(13)
−∞
Los momentos pares cumplen la siguiente igualdad (queda como ejercicio
para la siguiente sesión):
E(z 2k ) = (2k − 1)!!
(14)
Un primer paso para la demostración por inducción es demostrar que E(z 2 ) =
(2 − 1)!! = 1 (para terminar el ejercicio tendremos que aplicar inducción):
"
2 #∞
Z ∞
Z ∞
− z2
2
z
1
z2
1
−ze
√
√
√
z(z exp (− ))dz =
+
exp (− )dz = 1
2
2
2π −∞
2π
2π −∞
−∞
(15)
Para resolverla hemos utilizado la fórmula de integración por partes,
Z
Z
udv = uv − vdu
(16)
z2
donde u = z y dv = z exp (− ), y que la integral de la densidad de proba2
bilidad es 1.
Ejercicio: Siendo X una va. normal de media µ y desviación estándar σ,
demuestra que E((x − µ)2k+1 ) = 0 y que E((x − µ)2k ) = (2k − 1)!!σ 2k .
Otros datos de la normal están recogidos en la siguiente tabla:
Media
Varianza
Coef. de asimetrı́a
Kurtosis
E(x)
E((x − µ)2 )
E((x − µ)3 )
σ3
E((x − µ)4 )
σ4
µ
σ2
0
3
La kurtosis es una medida de lo ”picuda”que es la pdf. Si kurtosis > 3
entonces la pdf es leptokúrtica o de cola pesada, como la pdf log-normal o la
distribución de Cauchy/Lorenz. Si kurtosis < 3 entonces la pdf se considera
platokúrtica o de cola ligera.
Método de Montecarlo
Supongamos que tenemos un generador de muestras aleatorias de una
cierta distribución. Podemos representar en un histograma de cajas la cantidad de muestras generadas en cada intervalo definido. Cuando la cantidad
de muestras generadas tiende a infinito, entonces el histograma se aproxima
a la pdf de la distribución.
Figura 1: Histograma de una distribución normal.
¿ Cómo podemos estimar E(x) mediante muestreo?
Sean {xi }N
i=1 variables aleatorios independientes e idénticamente distribuidas
(iid) xi ∼ N (µ, σ), entonces
N
1 X
E[x] ≈
xi
N i=1
(17)
Teorema del lı́mite central para estimaciones Montecarlo
Sean {ξi }N
i=1 , N variables aleatorias independientes e idénticamente distribuidas,
de media E[ξ] y desviación estándar std[ξ],
N
1 X
ξi = E[ξ] + ,
N i=1
(18)
donde para N → ∞
std[ξ]
∼ N (0, √ ).
N
Escrito en Latex por Vı́ctor Soto Martı́nez.
(19)
Descargar