Pontificia Universidad Católica de Chile Facultad de Matemáticas Departamento de Estadı́stica Series de Tiempo 2015 Serie de Problemas 1 1. Sea Yt = donde "t ⇠ RB(0, 2 ). Sea Wt = 1/3 0+ P1 1t t 2 Z, + "t , j= 1 Yt+j . a) Calcule el valor esperado de la serie de tiempo Wt . b) Calcule la cov(Wt , Wt+k ) y muestre que dicha covarianza no depende de t. ¿Es Wt estacionario? c) Obtenga la función de autocorrelación asociada a Wt . 2. Sea Yt = 0,4Yt donde "t ⇠ RB(0, 1 + 0,45Yt 2 + "t + "t 1 + 0,25"t 2, 2 ). t 2 Z, a) Exprese esta ecuación en términos del operador de rezago B y determine el tipo de proceso y orden correspondiente. ¿Se puede simplificar esta ecuación? ¿Cuál es el orden después de simplificarla? b) Determine si el proceso es causal y/o invertible. En ambos casos, de ser posible, determine los coeficientes de las expansiones correspondientes. 3. Sea Xt un proceso estacionario con distribución normal de media µx y función de autocovarianza x (k). Defina la serie de tiempo no lineal Yt = exp(Xt ). a) Exprese el valor esperado de Yt en función de µx y x (0). b) Determine la función de auto-covarianza de Yt . 4. Sea {"t }t2Z ruido blanco estándar, y defina el proceso de heteroscedasticidad condicional autorregresiva de primer orden, ARCH(1), como Yt = "t ↵0 + ↵1 Yt2 1 1/2 , t 2 Z, ↵0 , ↵1 > 0. a) Muestre que una condición necesaria para estacionaridad es que ↵1 < 1, y que en este caso (Yt ) = ↵0 /(1 ↵1 ). b) Muestre que el proceso tiene media cero y función correlación de ruido blanco. ¿Es el proceso Yt ruido blanco? iid 5. Sea Zt , Zt0 ⇠ N(0, 2) y "t ruido blanco estándar. Considere el proceso dado por Xt = 1 X j Zj cos(!jt) + Zj0 sin(!jt) + "t , j=0 para alguno ! > 0. a) Encuentre una condición para la existencia del proceso Xt . b) Calcule la media, varianza y covarianza del proceso Xt . Pontificia Universidad Católica de Chile Facultad de Matemáticas Departamento de Estadı́stica Series de Tiempo 2015 Serie de Problemas 1: Esquema de Solución 1. a) El valor esperado de la serie de tiempo Wt es, E(Wt ) = 1 1 1 P 1 P E(Yt+j ) = E{ 3 j= 1 3 j= 1 0 b) La función de autocovarianza de Wt es w (h) + 1 (t w (h) + j) + "t+j } = 0 1 + (3t) = 3 0 + t 1. = cov(Wt , Wt+h ), = cov(Wt , Wt+h ) ✓ ◆ 1 1 1 P 1 P = cov Yt+j , Yt+h+i 3 j= 1 3 i= 1 = = = = = 1 1P P cov(Yt+j , Yt+h+i ) 9 i j= 1 1 1 P 1 P cov{ 9 i= 1 j= 1 0 + 1 (t + j) + "t+j , 0 + 1 (t + h + i) + "t+h+i } 1 1 P 1 P cov("t+j , "t+h+i ) 9 i= 1 j= 1 1 1 P 1 P j) " (h + i 9 i= 1 j= 1 1 { " (h) + " (h 1) + " (h 2) 9 + " (h + 1) + " (h) + " (h 1) + Pero ( h) = (h) y " = 2, " (h + 2) + " (h + 1) + " (h)}. ası́ que: w (h) = 8 2 > > 3 , > > <2 2 9 2 > > 9 > > :0, h = 0, |h| = 1, |h| = 2. e.o.c. Wt no es estacionario, dado que E(Wt ) depende de t. c) La función de autocorrelación asociada a Wt es 8 1, h = 0, > > < 2 3 , |h| = 1, ⇢(h) = 1 , |h| = 2, > > : 3 0, e.o.c. 2. Sea B Yt = Yt 1 y B Yt = Y t d. a) La ecuación inicial del modelo sugiere un proceso ARMA(2,2), pero para evitar la sobreparametrización del modelo, removemos los factores comunes de (B) y ⇥(B), y nos quedamos con un proceso ARMA(1,1); o sea, Yt = 0,4Yt 1 + 0,45Yt 2 + "t + "t 1 + 0,25"t 2 , Yt 0,4Yt 1 0,45Yt 2 = "t + "t 1 + 0,25"t 2 ✓ ◆ ✓ ◆ 40 45 2 25 2 , 1 B B Yt = 1 + B + B "t , 100 100 100 ✓ ◆✓ ◆ ✓ ◆2 9 5 5 , 1 B 1 + B Y t = 1 + B "t 10 10 10 ✓ ◆ ✓ ◆ 9 5 , 1 B Y t = 1 + B "t . 10 10 | {z } | {z } (B) ⇥(B) b) Recordemos la siguiente definición. Definición 1 Sea 0 = 1. Un proceso ARMA(p, q) es causal si Yt = 1 P j "t j = (B)"t , j=0 1 P j=0 | j| < 1. Sea D = {z 2 C : |z| 6 1} el cı́rculo unitario. Consideremos el siguiente teorema. Teorema 1 Un proceso ARMA(p, q) es causal si y sólo si coeficientes de (z) satisfacen (z) = ⇥(z)/ (z), z 2 D. (z) 6= 0, para z 2 D. Los En nuestro caso tenemos, 9 10 z=0,z= 2 Dc , 10 9 (z) = 0 , 1 y entonces el proceso es causal por teorema. Además tenemos, (z) = ⇥(z) 1 + ✓z = ,( (z) 1 z 0 + 1z + 2z 2 + · · · )(1 z) = 1 + ✓z, y entonces los coeficientes subyacentes a la representación causal son, 8 > z0 : 0 = 1, > > > > 1 >z : 0+ 1 =✓ ) 1 =✓+ , > < 2 z : 1 + 2 = 0 ) 2 = (✓ + ), > > . .. > > .. . > > > :z j : j 1 (✓ + ). j 1+ j =0) j = Además 1 P j=0 | j| = 0 + 1 P j 1 (✓ + ) = 1 + (✓ + ) j=1 1 P j 1 j=1 < 1. Para la segunda parte del ejercicio recordemos la definición de proceso invertible y el siguiente teorema. Definición 2 Sea ⇡0 = 1. Un proceso ARMA(p, q) es invertible si "t = 1 P j=0 ⇡j Y t j = ⇧(B)Yt , 1 P j=0 |⇡j | < 1. Teorema 2 Un proceso ARM A(p, q) es invertible, si y sólo si ⇥(z) 6= 0, para z 2 D. Los coeficientes de ⇧(z) satisfacen ⇧(z) = (z)/⇥(z), z 2 D. En nuestro caso 5 z=0,z= 10 ası́ que el proceso es invertible. Además tenemos, 2 2 Dc , ⇥(z) = 0 , 1 + ⇧(z) = (z) 1 z = , (⇡0 + ⇡1 z + ⇡2 z 2 + · · · )(1 + ✓z) = 1 ⇥(z) 1 + ✓z z, y entonces los coeficientes subyacentes a la representación invertible son, 8 0 > >z : ⇡0 = 1, > > > z 1 : ✓⇡0 + ⇡1 = ) ⇡1 = (✓ + ), > > > > <z 2 : ✓⇡1 + ⇡2 = 0 ) ⇡2 = ✓⇡1 = ✓(✓ + ), z 3 : ✓⇡2 + ⇡3 = 0 ) ⇡3 = ✓⇡2 = ✓2 (✓ + ), > > > > .. .. > > > . . > > : j z ✓⇡j 1 + ⇡j = 0 ) ⇡j = ( 1)j ✓j 1 (✓ + ). Además 1 P j=0 |⇡j | = |⇡0 | + 1 P j=1 |( 1)j ✓j 3. Tenemos que Xt ⇠ N(µx , 1 x (0)) (✓ + )| = 1 + 1 P ✓j 1 (✓ + ) = 1 + (✓ + ) j=1 1 P j=1 ✓j 1 < 1. cuya función generadora de momentos esta dada por, Mxt ( ) = exp{µx + 1 2 2 X (0)} = E(eXt ) a) El valor esperado del proceso no lineal Yt = eXt es E(Yt ) = E(ext ) = Mxt (1) = exp{µx + 1 2 x (0)}. b) La función de autocovarianza de Yt es y (k) = cov(Yt , Yt+k ) = cov(eXt , eXt+k ) = E(eXt eXt+k ) E(eXt )E(eXt+k ) 1 1 exp{µx + x (0)} exp{µx + 2 2 = E(eXt +Xt+k ) Pero Xt + Xt+k ⇠ N(2µx , 2 y (k) +2 = {2µx + = e 4. x (0) 2µx + x (k)), x (0) (0) x + [exp{ x (0)}. y por tanto x (k)} x (k)} exp{2µx + x (0)} 1]. a) Un proceso es débilmente estacionario si E(Yt ) = µ, V ar(Yt ) = no depende de t, entonces 2 y su cov[Yt , Yt+k ] Yt = "t (↵0 + ↵1 Yt2 1 )1/2 Yt2 = E(Yt2 ) = = "2t (↵0 + ↵1 Yt2 1 ) ↵0 E("2t ) + ↵1 E("2t Yt2 1 ), E("2t ) = 1 ↵0 + ↵1 E(Yt2 1 ) Luego E(Yt2 )(1 ↵1 ) = ↵0 ) E(Yt2 ) = ↵0 /(1 ↵1 ), entonces para que E(Yt2 ) sea positivo necesariamente ↵ < 1. Si suponemos estacionalidad se puede observar que E(Yt2 ) = var(Yt ) + E 2 (Yt ) = (0) + µ2 . En este caso, var(Yt ) = E(Yt2 ) µ2 = ↵0 , 1 ↵1 donde usamos µ = E(Yt ) = E{E("t (↵0 + ↵1 Yt2 1 )1/2 | Yt 1 )} = E{E("t )(↵0 + ↵1 Yt2 1 )1/2 } = 0. b) Por a) sabemos que E(Yt ) = 0 y var(Yt ) = ↵0 /(1 proceso no esta correlacionado; pero ↵1 ), nos queda comprobar que el (h) = E{E(Yt+h Yt | Yt+h 1 )} 2 1/2 E[Yt E{"t+h (↵0 + ↵1 Yt+h | Yt+h 1 }] 1) 2 1/2 E{Yt E("t+h )(↵0 + ↵1 Yt+h } 1) = = = 0, 5. y entonces el proceso es ruido blanco. P P1 2 2 a) Como E(Xt2 ) = 2 1 j=0 j + " , la condición j=0 proceso. 2 j < 1 garante la existencia del b) Tenemos E(Xt ) = 1 P j=0 var(Xt ) = var E(Zj ) cos(!jt) + E(Zj0 ) sin(!jt) + 0 = 0, j ⇢ y cov(Xs , Xt ) = cov 1 P j j=0 1 P = = = Zj cos(!jt) + Zj0 sin(!jt) + "t 1 P 1 P 1 P j=0 k=0 1 P 1 P = 2 1 P j=0 2 j + 2 ", Zj cos(!js) + Zj0 sin(!js) + "s , j j=0 k=0 = ⇢ k Zk cos(!kt) + Zk0 sin(!kt) + "t j k cov{Zj cos(!js) + Zj0 sin(!js), Zk cos(!kt) + Zk0 sin(!kt)} j k {cos(!js) cos(!kt)cov(Zj , Zk ) j=0 k=0 1 2 P 2 j {cos(!js) cos(!jt) j=0 1 2 P 2 t)), j cos(!j(s j=0 + sin(!js) sin(!kt)cov(Zj0 , Zk0 )} + sin(!js) sin(!jt)} que apenas depende en la diferencia s t, lo que implica que el proceso es estacionario.