METODOS NUMERICOS PARA RESOLVER MODELOS MACROECONOMICOS DINAMICOS Carlos Urrutia1 Universidad Carlos III de Madrid Ilades-Georgetown University Agosto, 1998 1 E-mail: [email protected]. Debo agradecer a Raphael Bergoeing, Victor Pacharoni, Juan Enrique Suarez y Juan Carlos Zevallos por sus comentarios. Cualquier error restante es responsabilidad exclusiva del autor. Contents Introducci¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Primera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 El Modelo de Crecimiento Neocl¶asico . . . . . . . . . . . . . . . . 1.1.1 El Modelo Determin¶istico B¶asico . . . . . . . . . . . . . . 1.1.2 Equilibrio General Competitivo . . . . . . . . . . . . . . . 1.1.3 El Problema del Plani¯cador Social . . . . . . . . . . . . . 1.2 Introducci¶on a los M¶etodos Num¶ericos . . . . . . . . . . . . . . . 1.2.1 Soluci¶on de Ecuaciones No-Lineales . . . . . . . . . . . . . 1.2.2 Derivadas Num¶ericas . . . . . . . . . . . . . . . . . . . . . 1.3 M¶etodos Iterativos Simples . . . . . . . . . . . . . . . . . . . . . . 1.3.1 Shooting . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Gauss-Seidel . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.3 Resolviendo Directamente el Equilibrio Competitivo . . . . 1.3.4 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 2 Segunda Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Formulaci¶on Recursiva y Programaci¶on Din¶amica . . . . . . . . . 2.1.1 Programaci¶on Din¶amica . . . . . . . . . . . . . . . . . . . 2.2 Iteraci¶on de la Funci¶on de Valor . . . . . . . . . . . . . . . . . . . 2.2.1 Implementaci¶on Num¶erica . . . . . . . . . . . . . . . . . . 2.2.2 Resolviendo el Equilibrio Competitivo . . . . . . . . . . . 2.3 El Modelo Estoc¶astico . . . . . . . . . . . . . . . . . . . . . . . . 2.3.1 Iteraci¶on de la Funci¶on de Valor . . . . . . . . . . . . . . . 2.3.2 Simulaci¶on de las Trayectorias Optimas . . . . . . . . . . . 2.3.3 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 3 Tercera Sesi¶on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 El Modelo Lineal-Cuadr¶atico . . . . . . . . . . . . . . . . . . . . . 3.1.1 Ecuaci¶on de Bellman . . . . . . . . . . . . . . . . . . . . . 3.1.2 Calculo de la Regla de Decisi¶on Optima . . . . . . . . . . 3.1.3 Iteraci¶on de la Matriz de Ricatti . . . . . . . . . . . . . . . 3.1.4 Simulaci¶on de Trayectorias Optimas . . . . . . . . . . . . . 3.1.5 Computaci¶on E¯ciente . . . . . . . . . . . . . . . . . . . . 3.2 Aproximaci¶on Lineal-Cuadr¶atica en Torno al Estado Estacionario 3.2.1 Resolviendo el Problema del Plani¯cador Social . . . . . . 3.2.2 Resolviendo el Equilibrio Competitivo . . . . . . . . . . . 3.2.3 Limitaciones . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1 2 2 2 4 5 5 5 7 8 9 10 11 12 13 13 14 16 17 18 19 21 23 24 25 25 25 27 27 28 28 30 30 32 36 Bibliograf¶ia . . . . . . . . . Ap¶endices . . . . . . . . . . A Ejercicios de Repaso . . A.1 Primera Sesi¶on . . A.2 Segunda Sesi¶on . . A.3 Tercera Sesi¶on . . . B Librer¶ia de Programas en . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Matlab . . . . . . . . . . . . . . 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37 38 38 38 39 39 42 Introducci¶ on Durante el mes de julio de 1998 tuve a cargo el curso de Macroeconom¶ia Avanzada, en el Post-Grado de Ilades-Georgetown University, en Santiago de Chile. El objetivo del curso fue introducir algunos m¶etodos num¶ericos para resolver modelos din¶amicos de equilibrio general, y estas notas recojen lo principal de su contenido. Los modelos din¶amicos han cobrado mayor importancia en la literatura macroecon¶omica reciente, especialmente tras la publicaci¶on del art¶iculo de Kydland y Prescott (1982). Lamentablemente, su uso se ha visto limitado por la carencia de soluciones anal¶iticas simples, lo que obliga a aproximar num¶ericamente las trayectorias ¶optimas de las principales variables. En este curso present¶e algunos de los m¶etodos desarrollados en esa linea, con ¶enfasis en la programaci¶on din¶amica y el m¶etodo de aproximaci¶on lineal-cuadratica. Si bien en cada sesi¶on present¶e brevemente la base te¶orica detr¶as de cada m¶etodo, el ¶enfasis del curso fue aplicado. La idea fue que los alumnos trabajaran con problemas concretos escribiendo sus propios programas. Los ejercicios y programas (en lenguaje MATLAB) presentados en el ap¶endice al ¯nal del documento permiten al lector sentarse frente al computador y empezar a experimentar con estos m¶etodos. Dado el carater introductorio del curso no fue posible cubrir varios de los avances m¶as recientes en este campo. En particular, dej¶e de lado aquellos modelos basados en residuos ponderados, incluyendo el de expectativas parametrizadas. Algunas referencias u¶tiles al respecto son los art¶iculos de McGrattan (1994 y 1998) y Den Haan y Marcet (1990). Asimismo, no se cubri¶o el tema de computaci¶on de modelos con agentes heterog¶eneos. Nuevamente, el art¶iculo de Rios-Rull (1998) es una excelente introduci¶on al tema. Debo terminar agradeciendo a mis colegas de Ilades-Georgetown University por la invitaci¶on que dio origen a este curso, as¶i como a los alumnos que siguieron con paciencia cada una de las sesiones. Espero haberles transmitido como mensaje que estos modelos din¶amicos de equilibrio general son ¶utiles y, armado de las herramientas adecuadas, pueden dar respuestas a problemas importantes. 1 1. Primera Sesi¶ on Esta primera sesi¶on tiene tres objetivos. Primero, introducir un modelo din¶amico simple de equilibrio general con fundamentos microecon¶omicos. Resolver este modelo y sus posibles extensiones ser¶a el tema central del curso. Segundo, familiarizar a los participantes con algunas t¶ecnicas b¶asicas de an¶alisis num¶erico necesarias para el curso. Finalmente, presentar algunos m¶etodos simples para resolver modelos din¶amicos. Estos m¶etodos tienen grandes limitaciones, pero por su sencillez constituyen un buen primer paso para el investigador que busca sentarse frente a la computadora y obtener una respuesta r¶apida. 1.1. El Modelo de Crecimiento Neocl¶ asico Empecemos describiendo el tipo de modelo que queremos resolver. Un desarrollo fundamental a la base de la Macroeconom¶ia moderna es el llamado Modelo de Crecimiento Neocl¶asico. En este modelo, las decisiones de los agentes son modeladas de manera expl¶icita en un contexto intertemporal. A continuaci¶on presentaremos el modelo determin¶isitico b¶asico, dejando para la pr¶oxima sesi¶on el modelo con incertidumbre.2 1.1.1. El Modelo Determin¶istico B¶ asico Existen dos tipos de agentes en esta econom¶³a. En primer lugar, tenemos un n¶umero grande de consumidores id¶enticos, que viven un in¯nito n¶umero de per¶³odos y que podemos modelar como un u¶nico agente representativo. En segundo lugar, tenemos un n¶umero grande de ¯rmas id¶enticas que producen el u¶nico bien de la econom¶³a, y que podemos modelar tambi¶en como una ¶unica ¯rma representativa. El agente representativo tiene preferencias descritas por la funci¶on de utilidad intertemporal: U= 1 X ¯ t u (ct ) (1.1) t=0 en donde u es una funci¶on de utilidad de un per¶³odo que asumimos c¶oncava (uc > 0 y ucc < 0) y ¯ es un factor de descuento que asumimos constante. 2 Una presentaci¶o n m¶a s detallada de este modelo y sus extensiones puede encontrarse en Urrutia (1996). Otra referencia ¶util, pero m¶a s concisa, es el art¶iculo de Cooley y Prescott (1995). 2 Dicho consumidor pos¶ee todo el capital y trabajo (normalizado a una unidad) en la econom¶³a, que renta a las ¯rmas. Al mismo tiempo compra a estas ¯rmas el u¶nico bien, que puede ser usado tanto para consumo como inversi¶on. Pero el agente representativo es tambi¶en due~no de la ¯rma, por lo tanto recibe todos los bene¯cios que ¶esta pueda generar. El consumidor enfrenta entonces la siguiente restricci¶on presupuestaria: ct + it = wt + rt kt + ¦t (1.2) en donde los gastos en consumo e inversi¶on deben ser iguales a los ingresos (salarios mas renta del capital mas bene¯cios) en cada per¶³odo. N¶otese que estamos normalizando el precio del u¶nico bien para que sea igual a uno en cada per¶³odo, por lo tanto w t y rt son precios relativos expresados en unidades del u¶nico bien. El stock de capital del consumidor crece de acuerdo a: kt+1 = (1 ¡ ±)kt + it (1.3) en donde ± es una tasa constante de depreciaci¶on. De otro lado est¶a la ¯rma representativa, que renta capital y trabajo para producir el ¶unico bien en la econom¶³a, usando la funci¶on de producci¶on agregada con retornos a escala constantes: Yt = F (Kt ; Lt ) (1.4) en donde asumimos que FK ; FN > 0, FKK ; FN N < 0 y F KN > 0. Puesto que la oferta de trabajo es inel¶astica y normalizada en una unidad, reescribimos: Yt = F (Kt ; 1) = f (Kt ) (1.5) con fk > 0 y fkk < 0. El objetivo de esta ¯rma es maximizar bene¯cios ¦t en cada per¶³odo, en donde: ¦t = Yt ¡ wt ¡ rtK t (1.6) normalizando nuevamente el precio del ¶unico bien para que sea uno en cada per¶³odo. Podemos demostrar que con rendimientos a escala constantes los bene¯cios van a ser siempre iguales a cero. 3 1.1.2. Equilibrio General Competitivo Un Equilibrio General Competitivo (EGC) para esta econom¶³a es un conjunto de secuencias para las cantidades ct , i t , kt+1, Yt y K t y los precios wt y rt tales que: i) Dados k 0 > 0, wt y rt , las secuencias ct , i t y kt+1 resuelven el problema: 1 X max ¯ t u (ct ) (1.7) t=0 s:t: ct + it = wt + rtk t kt+1 = (1 ¡ ±) kt + i t 8t 8t ii) En cada per¶³odo t, dados wt y rt , los valores Yt y K t resuelven el problema: max s:t: Yt ¡ wt ¡ rt Kt (1.8) Yt = f (Kt ) iii) En cada per¶³odo t, hay igualdad entre oferta y demanda: Yt = ct + i t (1.9) Kt = kt (1.10) En este curso vamos a revisar un conjunto de m¶etodos para aproximar el Equilibrio Competitivo, es decir, para encontrar valores num¶ericos para las secuencias de consumo, inversi¶on, capital, producto y precios que satisfagan la de¯nici¶on anterior. Esto requiere en primer lugar especi¯car las formas funcionales para la funci¶on de utilidad u (c) y la funci¶on de producci¶on f (K), as¶i como valores para todos los par¶ametros del modelo (incluyendo ¯ y ±). Los criterios para asignar esos valores dependen ya del investigador y no ser¶an cubiertos en este curso. 3 Una introducci¶o n al m¶etodo de calibraci¶ on y al debate con la econometr¶ia tradicional puede encontrarse en Cooley y Prescott (1995) y Bergoeing (1998). 3 4 1.1.3. El Problema del Plani¯cador Social Consideremos por un momento una econom¶³a como la descrita anteriormente, pero en la cual las decisiones son tomadas por un plani¯cador social o un dictador benevolente. Este plani¯cador busca maximizar la utilidad del agente representativo (1.1), sujeto a las restricciones tecnol¶ogicas dadas por (1.3) y (1.4). Las cantidades resultantes de esta maximizaci¶on son Optimos de Pareto, en el sentido que no es posible aumentar la utilidad de algun agente sin reducir la de otro. Formalmente, un Optimo de Pareto (OP) para esta econom¶³a es un conjunto de secuencias para las cantidades ct , it y kt+1 que, dado k0 > 0, resuelven el problema del plani¯cador social: max 1 X ¯ t u (ct ) (1.11) t=0 s:t: ct + it = f (k t) kt+1 = (1 ¡ ±) kt + it 8t 8t Podemos demostrar que si no existen distorsiones tales como impuestos o externalidades, todo EGC es un OP y para cada OP existe un sistema de precios que lo hace un EGC. Esta equivalencia entre el problema del plani¯cador social y los problemas de familias y ¯rmas competitivas es una aplicaci¶on directa de los Teoremas del Bienestar. En la pr¶actica, nos permite hallar el EGC resolviendo primero el problema del plani¯cador social, que es mas sencillo, y luego encontrando los precios. 1.2. Introducci¶ on a los M¶ etodos Num¶ericos A continuaci¶on veremos algunos procedimientos num¶ericos que m¶as adelante ser¶an ¶utiles para el desarrollo del curso. En particular, veremos como aproximar num¶ericamente la soluci¶on de un sistema de ecuaciones no-lineales y como calcular la matriz Jacobiana de una funci¶on, sin necesidad de conocer las expresiones anal¶iticas para las derivadas. 1.2.1. Soluci¶ on de Ecuaciones No-Lineales Varios de los m¶etodos que vamos a revisar en este curso se reducen ¯nalmente a resolver un sistema de ecuaciones, posiblemente no-lineales. Sea x = (x1 ; x2 ; :::xn) 5 un vector columna de n componentes, y F (x) una funci¶on que transforma valores de Rn en Rn . Queremos encontrar algun vector x^, no necesariamente u¶nico, tal que F (^ x) = 0. Dado que no podemos resolver anal¶iticamente la ecuaci¶on, vamos a aproximar num¶ericamente su soluci¶on mediante un vector que denotamos por x¹. Para ello, un procedimiento sencillo se conoce como el m¶etodo de NewtonRaphson. La idea es usar una expansi¶on de Taylor de la funci¶on F en torno a la soluci¶on aproximada x¹, del tipo F (x) ¼ F (¹ x) + J (¹ x) (x ¡ x¹) + t¶erminos de orden mayor (1.12) en donde J (¹ x) es la matriz Jacobiana con las derivadas parciales de F evaluadas en x¹: 2 6 J (¹ x) = 6 6 4 F11 (¹ x) F21 (¹ x) ::::::::::: Fn1 (¹x) F 12 (¹ x) F 22 (¹ x) ::::::::::: F n2 (¹ x) :::: :::: :::: :::: F1n (¹ x) F2n (¹ x) ::::::::::: Fnn (¹ x) 3 7 7 7 5 y Fij (¹ x) = @Fxij(¹x) . Una aplicaci¶on del Teorema de Taylor nos asegura que, conforme x¹ se acerca al valor x, los t¶erminos de orden mayor tienden a cero. Luego, manipulando (1.12) evaluada en x^ obtenemos: x^ ¼ x¹ ¡ J (¹ x)¡1 F (¹x) (1.13) que es la base del m¶etodo de Newton-Raphson. El algoritmo en s¶i sigue los siguientes pasos. Primero debe proponerse una soluci¶on x0, usando en lo posible el conocimiento que tengamos acerca de F . Adem¶as, debe establecerse un criterio de tolerancia, es decir un valor m¶inimo para el margen de error que consideramos aceptable. Con s = 0, iniciamos el siguiente procedimiento iterativo: 1. Calcular el vector F (xs ) y la matriz J (xs); 2. Calcular el vector xs+1 usando la siguiente regla: xs+1 = xs ¡ J (xs )¡1 F (xs ) 6 3. Evaluar la norma o distancia kxs+1 ¡ xs k.4 Si esta distancia es mayor que el criterio de tolerancia establecido, regresar al paso 1 con s = s + 1. En caso contrario, el procedimiento termina con x¹ = xs+1. Si empezamos con un candidato x0 su¯cientemente cerca de x^, puede demostrarse que el m¶etodo de Newton-Raphson converge a dicha soluci¶on. Sin embargo, si empezamos lejos de x^ el m¶etodo converger¶a a otra soluci¶on (en caso de que esta no sea ¶unica) o bien diverger¶a, es decir la distancia kxs+1 ¡ xs k se ir¶a haciendo cada vez mayor. De ah¶i la importancia de probar distintos valores para x0 antes de aventurar una soluci¶on de¯nitiva. Otra desventaja de este m¶etodo es que requiere tener expresiones anal¶iticas para todas las derivadas parciales de F , a ¯n de calcular J (xs ) en cada iteraci¶on. Un m¶etodo alternativo al Newton-Raphson, conocido como el m¶etodo de secante, es similar al anterior en cada paso con la excepci¶on de que usa derivadas num¶ericas para aproximar J (xs ). Pese a ser m¶as sencillo de implementar, el m¶etodo de secante es menos preciso, y en ocasiones resulta m¶as dif¶icil obtener convergencia. 1.2.2. Derivadas Num¶ericas Queremos obtener una aproximaci¶on num¶erica para la matriz Jacobiana J (x), que descomponemos en sus n columnas J (x) = [J1 (x) J2 (x) ::: Jn (x)] siendo Ji (x) el vector columna con las n derivadas parciales de la funci¶on F con respecto a x i. Sea h es un vector columna de n componentes (incremento). Cuando los valores de h son peque~ nos, podemos usar la expansi¶on de Taylor: F (x1 + h1 ; x2 ; :::; xn) ¼ F (x) + J1 (x) h1 F (x1; x2 + h2 ; :::; xn) ¼ F (x) + J2 (x) h2 4 Hay varias maneras de de¯nir el concepto de distancia entre dos vectores de dimensi¶on n. Los m¶as usados son la norma Euclideana: q 2 2 kx ¡ yk = (x1 ¡ y 1 ) + ::: + (xn ¡ yn ) y la llamada sup-norma: kx ¡ yk = max fjx 1 ¡ y1 j ; :::; jxn ¡ yn jg N¶otese que cuando n = 1, ambas f¶o rmulas se reducen al valor absoluto habitual. 7 :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: F (x1; x2; :::; xn + hn) ¼ F (x) + Jn (x) hn de donde obtenemos para cada i = 1; :::; n 1 [F (x1; :::; xi + hi; :::; xn ) ¡ F (x)] (1.14) hi Alternativamente, podemos aproximar num¶ericamente la matriz Jacobiana usando la derivada por el lado izquierdo: Ji (x) ¼ 1 [F (x) ¡ F (x1 ; :::; xi ¡ hi ; :::; xn)] hi o, tomando x como el punto medio: Ji (x) ¼ Ji (x) ¼ 1 [F (x1 ; :::; xi + hi ; :::; xn) ¡ F (x1; :::; xi ¡ hi; :::; xn )] 2hi (1.15) (1.16) Esta ¶ultima f¶ormula es considerada m¶as precisa, a menos que exista una discontinuidad en la funci¶on F evaluada en x. Al igual que el criterio de tolerancia, la elecci¶on del vector de incrementos h es arbitraria. Nuevamente, conviene asegurar la respuesta probando con valores progresivamente m¶as peque~ nos, hasta que el valor de las derivadas se estabilice. 1.3. M¶etodos Iterativos Simples Veamos ahora algunos m¶etodos sencillos para calcular el Equilibrio Competitivo en un modelo determin¶istico similar al presentado a comienzos del curso. Empecemos trabajando con el problema del plani¯cador social (1.11). Analizando las condiciones de primer orden del problema, podemos demostrar que la trayectoria ¶optima para el capital kt satisface en cada per¶iodo la ecuaci¶on de Euler : u [f (kt ) ¡ kt+1 + (1 ¡ ±) kt ] = fk (kt+1) + (1 ¡ ±) ¯u [f (kt+1) ¡ kt+2 + (1 ¡ ±) kt+1] y converge monot¶onicamente hasta su valor de estado estacionario, dado por: 8 ¤ k = fk¡1 " # 1 ¡ (1 ¡ ±) ¯ (1.17) Podemos reescribir la ecuaci¶on de Euler como: ª (kt+2; kt+1; kt ) = 0 (1.18) y el problema se reduce a resolver la ecuaci¶on en diferencias no-lineal (1.18) de segundo orden en kt, con una condici¶on inicial (k0 > 0 dado) y una condici¶on ¯nal, k ¤. 1.3.1. Shooting Un m¶etodo sencillo para resolver el problema anterior se conoce como shooting. El m¶etodo supone que la econom¶ia alcanza su estado estacionario en un n¶umero ¯nito T de per¶iodos, ¯jado arbitrariamente al comienzo. Tambi¶en proponemos un valor inicial para k1 (denotado por k10) e iniciamos la siguiente iteraci¶on, con s = 0: 1. Dados k 0 y ks1, hallar ks2 resolviendo: ª (k0 ; ks1; k2s ) = 0 usando Newton-Raphson o alg¶un otro m¶etodo num¶erico. 2. Calcular k3s ; :::; k sT resolviendo recursivamente: ª (k1s ; ks2; k3s ) = 0 :::::::::::::::::::::::::::::: ³ ´ ª kTs ¡2 ; ksT ¡1; kTs = 0 3. Evaluar jkTs ¡ k¤ j. Si esta distancia es mayor que el criterio de tolerancia acordado, regresar al paso 1, con s = s + 1 y un nuevo candidato k1s+1. En caso contrario, el procedimiento termina con la soluci¶on kt = kts . El tercer paso veri¯ca si la trayectoria kts calculada converge hacia el valor de estado estacionario k¤ , que podemos calcular a partir de (1.17). Si no converge, cambiamos el valor de k1 y volvemos a recalcular la secuencia, hasta obtener 9 convergencia. N¶otese que una vez obtenida la secuencia de valores para kt podemos calcular las trayectorias para ct , yt, wt , rt y cualquier otra variable de inter¶es, usando las siguientes condiciones: yt = f (kt ) (1.19) i t = k t+1 ¡ (1 ¡ ±) kt (1.20) ct = yt ¡ it (1.21) Kt = kt (1.22) rt = fk (K t) (1.23) wt = f (Kt ) ¡ fk (Kt ) Kt (1.24) obtenidas de la de¯nici¶on del Equilibrio Competitivo. 1.3.2. Gauss-Seidel Un problema del m¶etodo del shooting es que no existe un procedimiento sistem¶atico para ajustar el valor propuesto para k 1 al ¯nal de cada iteraci¶on. Una alternativa que evita este problema es el m¶etodo de Gauss-Seidel. Nuevamente suponemos que la econom¶ia alcanza su estado estacionario en un n¶umero ¯nito T de per¶iodos. Esta vez, proponemos valores iniciales para toda la secuencia k20; :::; k0T e iniciamos la siguiente iteraci¶on, con s = 0: 1. Dados k 0 y ks2, hallar ks+1 resolviendo: 1 ³ ´ s ª k0; k s+1 1 ; k2 = 0 usando Newton-Raphson o alg¶un otro m¶etodo num¶erico. 2. Calcular k2s+1; :::; ks+1 resolviendo recursivamente: T ³ ´ s+1 s ª ks+1 1 ; k2 ; k3 = 0 :::::::::::::::::::::::::::::: ³ ´ s+1 s ª kTs+1 ¡2 ; kT ¡1; kT = 0 10 3. Evaluar jkTs ¡ k¤ j. Si esta distancia es mayor que el criterio de tolerancia acordado, regresar al paso 1, con s = s + 1. En caso contrario, el procedimiento termina con la soluci¶on kt = ks+1 . t El tercer paso veri¯ca nuevamente si la trayectoria k st calculada converge hacia el valor de estado estacionario k ¤. Si no converge, n¶otese que ya no necesitamos volver a proponer una secuencia de valores iniciales k2s+1; :::; kTs+1 , pues estos se obtienen de la u¶ltima iteraci¶on (segundo paso). 1.3.3. Resolviendo Directamente el Equilibrio Competitivo En ciertas aplicaciones en las cuales los teoremas del bienestar no se cumplen5, es necesario resolver directamente el Equilibrio Competitivo. Para ello, trabajamos con la ecuaci¶on de Euler obtenida del problema del consumidor (1.7): u [w t + rtk t ¡ kt+1 + (1 ¡ ±) kt ] = rt+1 + (1 ¡ ±) ¯u [w t+1 + rt+1kt+1 ¡ kt+2 + (1 ¡ ±) kt+1] una ecuaci¶on en diferencias de segundo orden en kt que depende de las secuencia de precios rt y wt : © ( kt+2; kt+1 ; ktj wt; w t+1 ; rt ; r t+1 ) = 0 (1.25) Tambi¶en tomaremos en cuenta las condiciones de equilibrio (1.22), (1.23) y (1.24). Un m¶etodo simple para resolver este problema implica una doble iteraci¶on. Primero, siempre suponiendo que en T per¶iodos se llega al estado estacionario, proponemos una secuencia inicial para el capital agregado K00 ; K10; :::; K T0 , cuidando que K00 = k 0 y que KT0 = K ¤. Luego, seguimos el siguiente algoritmo (primera iteraci¶on), con s = 0. 1. Calcular todas las secuencias de precios usando (1.23) y (1.24). 2. Dados esos precios, resolver la ecuaci¶on de Euler (1.25) usando el m¶etodo de shooting o de Gauss-Seidel (segunda iteraci¶on) y obteniendo una soluci¶on k0s; k s1; :::; kTs . Estas aplicaciones incluyen modelos con distorsiones tales como impuestos o dinero, as¶i como modelos con decisiones discretas y otras no-convexidades. 5 11 3. Veri¯car si k(K0s ; K1s; :::; K Ts ) ¡ (k0s ; ks1; :::; kTs )k es menor al criterio de tolerancia especi¯cado. De ser as¶i, concluye el algoritmo. En caso contrario, regresar al paso 1 con s = s + 1 y un nueva secuencia K ts+1 = 12 (Kts + kts ). El u¶ltimo paso veri¯ca que la condici¶on de igualdad entre oferta y demanda de capital (1.22) se cumpla en cada per¶iodo. De no ser as¶i, reiniciamos el proceso con una nueva secuencia de capital, obtenida como un promedio ponderado de la secuencia propuesta al principio de la iteraci¶on y la obtenida como resultado de la misma. 1.3.4. Limitaciones Hemos presentado un conjunto de m¶etodos iterativos relativamente simples que permiten resolver un Equilibrio Competitivo. Uno puede preguntarse si es necesario revisar m¶etodos m¶as complejos, y la respuesta es a¯rmativa. Lamentablemente, los m¶etodos presentados en esta sesi¶on tienen importantes limitaciones para el trabajo cuantitativo. Una primera limitaci¶on es el n¶umero de variables. Algunas extensiones del Modelo de Crecimiento Neocl¶asico, en los cuales hay otras variables de estado adem¶as del stock de capital, requieren resolver sistemas de ecuaciones en diferencias con m¶as de una variable. Ello en principio podr¶ia hacerse con m¶ultiple iteraciones, una para cada variable, pero el proceso ser¶ia lento e ine¯ciente. En segundo lugar, estos m¶etodos solo sirven para modelos determin¶isticos, pues no existe una manera sistem¶atica de introducir incertidumbre al momento de la computaci¶on. Por lo tanto, se requieren m¶etodos alternativos para resolver modelos de ciclos econ¶omicos, entre otros. Por ¶ultimo, estos m¶etodos basado en la ecuaci¶on de Euler requieren que las funciones objetivo sean continuas y diferenciables. Esto impide el an¶alisis de soluciones de esquina, decisiones discretas (como trabajar o permanecer desempleado) u otras no-convexidades. En las pr¶oximas sesiones revisaremos m¶etodos num¶ericos un poco m¶as so¯sticados que permitan superar estas limitaciones. 12 2. Segunda Sesi¶ on Esta sesi¶on tiene como objetivo presentar el m¶etodo de iteraci¶on de la funci¶on de valor. Para ello, empezamos reformulando la de¯niciones de equilibrio en t¶erminos recursivos y presentando algunos resultados de la literatura sobre programaci¶on din¶amica. Estos resultados constituyen la base te¶orica para el m¶etodo de iteraci¶on de la funci¶on de valor, que se presenta a continuaci¶on para resolver el problema del plani¯cador social en un contexto determin¶istico. Finalmente, el m¶etodo es extendido para resolver y simular un modelo estoc¶astico con shocks tecnol¶ogicos. 2.1. Formulaci¶ on Recursiva y Programaci¶ on Din¶ amica Un Equilibrio General Competitivo Recursivo es un conjunto de funciones v (k; K ), c (k; K), i (k; K), k 0 (k; K ), precios w (K ) y r (K ) y ley de movimiento ¡ (K) tales que: i) Dadas las funciones w, r y ¡, la funci¶on de valor v (k; K ) resuelve la ecuaci¶on de Bellman: v (k; K ) = max0 c;i;k fu (c) + ¯v (k 0; K 0 )g (2.1) s:t: c + i = w (K ) + r (K ) k k 0 = (1 ¡ ±) k + i K 0 = ¡ (K) y las funciones c (k; K ), i (k; K ) y k 0 (k; K ) son reglas de decisi¶on ¶optimas para este problema. ii) Para todo K , los precios satisfacen las condiciones marginales: r (K) = f 0 (K) (2.2) w (K ) = f (K) ¡ f 0 (K) K (2.3) iii) Para todo K, hay igualdad entre oferta y demanda: f (K ) = c (K; K) + i (K; K ) 13 (2.4) iv) Para todo K, ley de movimiento agregada y comportamiento individual son consistentes: ¡ (K) = k 0 (K; K) (2.5) Resolver un Equilibrio Competitivo en su formulaci¶on recursiva consiste entonces en encontrar un conjunto de funciones que satisfagan las condiciones anteriores. En particular, una vez encontradas las reglas de decisi¶on ¶optimas y partiendo de un k0 dado, podemos reconstruir las secuencias para las principales variables de manera recursiva: k 1 = k0 (k0; k0 ) k 2 = k0 (k1; k1 ) = k0 (k0 (k0; k0 ) ; k 0 (k0; k0)) y as¶i sucesivamente para kt , t = 3; 4; ::: El Principio de Optimalidad asegura que la secuencia resultante es igual a la que obtendr¶iamos resolviendo el equilibrio en forma de secuencias que vimos en la sesi¶on anterior. De manera similar, de¯nimos un Optimo de Pareto Recursivo como un conjunto de funciones v (k), c (k), i (k), k 0 (k) que resuelven la ecuaci¶on de Bellman del plani¯cador social: v (k) = max0 c;i;k fu (c) + ¯v (k 0)g (2.6) s:t: c + i = f (k) k0 = (1 ¡ ±) k + i La equivalencia entre el equilibrio competitivo y el problema del plani¯cador social se sigue manteniendo en este contexto. 2.1.1. Programaci¶ on Din¶ amica Las ecuaciones de Bellman (2.1) y (2.6) son ejemplos de un problema m¶as general. Sea x un vector columna de n componentes, X un subconjunto de Rn , la funci¶on de retorno F : X £ X ! R y la correspondencia - : X ! X . Con esos elementos, de¯nimos la funci¶on de valor v : X ! R como la soluci¶on de la ecuaci¶on de Bellman: 14 v (x) = max y fF (x; y) + ¯v (y)g (2.7) s:t: y 2 - (x) para todo x 2 X. Dada la funci¶on de valor, podemos de¯nir la regla de decisi¶on ¶optima g : X ! X como: g (x) = arg max y es decir, la funci¶on que satisface: fF (x; y) + ¯v (y)g (2.8) s:t: y 2 - (x) v (x) = F (x; g (x)) + ¯v (g (x)) Las propiedades de las funciones v y g han sido analizadas en la literatura sobre programaci¶on din¶amica6. En ella, se demuestra que si (i) X es un conjunto convexo; (ii) - (x) es un conjunto compacto y no-vac¶io, para todo x 2 X; (iii) la correspondencia - es convexa y continua; (iv) la funci¶on F es c¶oncava, acotada y continua; y (v) ¯ < 1; entonces: 1. existe una u¶nica funci¶on v que satisface (2.7); 2. v es continua, acotada y estrictamente c¶oncava; 3. existe una u¶nica funci¶on g que resuelve (2.8); 4. g es continua. En la mayor parte de ejemplos pr¶acticos que veremos, incluyendo el Modelo de Crecimiento Neocl¶asico, las restricciones impuestas en las preferencias y tecnolog¶ia aseguran que los supuestos (i)-(v) se cumplen. Aparte de asegurarnos existencia y unicidad de la soluci¶on, el m¶etodo de programaci¶on din¶amica nos ofrece un procedemiento para encontrar dicha soluci¶on. De¯namos el operador T : B(X) ! B (X), en donde B (X) es el espacio de funciones acotadas de¯nidas en X, de la siguiente manera: 6 Una referencia completa, aunque bastante t¶ecnica, puede encontrarse en Stokey y Lucas (1989). 15 T [v (x)] = max y fF (x; y) + ¯v (y)g (2.9) s:t: y 2 - (x) Encontrar la funci¶on de valor que resuelve (2.7) es equivalente a encontrar un punto ¯jo del operador T , es decir, una funci¶on v tal que T [v] = v. Bajo ciertas condiones t¶ecnicas, el operador T es una contracci¶on 7. Por lo tanto, partiendo de cualquier funci¶on v0 2 B (X), la secuencia vn de¯nida por: v1 = T v0 v 2 = T v 1 = T 2v 0 ::::::::::::: converge hacia el punto ¯jo v. 2.2. Iteraci¶ on de la Funci¶ on de Valor Volvamos ahora al problema del plani¯cador social (2.6) en su froma recursiva. Reemplazando las restricciones en la funci¶on objetivo, tenemos: v (k) = max 0 k fu [f (k) + (1 ¡ ±) k ¡ k0 ] + ¯v (k 0 )g (2.10) s:t: k 0 2 [0; f (k) + (1 ¡ ±) k] un problema equivalente a la ecuaci¶on de Bellman general (2.7) con x = k, y = k 0 , F (x; y) = u [f (x) + (1 ¡ ±) x ¡ y] y - (x) = [0; f (x) + (1 ¡ ±) x]. De acuerdo con la teor¶ia de la programaci¶on din¶amica que revisamos brevemente, partiendo de cualquier funci¶on v0 (por ejemplo, v0 (k) = 0) la secuencia vn de¯nida por vn+1 (k) = max 0 k fu [f (k) + (1 ¡ ±) k ¡ k 0] + ¯vn (k 0)g 7 (2.11) El operador T es una contracci¶on con m¶odulo ¯ si existe un n¶ u mero ¯ 2 (0; 1) tal que kT f (x) ¡ T g (x)k · ¯ kf (x) ¡ g (x)k para todo f; g 2 B (X), x 2 X. Las llamadas condiciones de Blackwel l su¯cientes para una contracci¶o n son: monotonicidad del operador T , en el sentido que T f · T g si f (x) · g (x) para todo x 2 X, y descuento, en el sentido que existe un n¶umero ¯ 2 (0; 1) tal que T [f + a] (x) · T f (x)+ ¯a para todo f 2 B (X), x 2 X y a ¸ 0. Nuevamente, los supuestos (i)-(v) mencionados anteriormente garantizan su cumplimiento. 16 s:t: k 0 2 [0; f (k) + (1 ¡ ±) k] converge a la soluci¶on v cuando n tiende a in¯nito. Esto constituye de por s¶i un m¶etodo iterativo en un espacio de funciones; en esta secci¶on veremos como implementarlo num¶ericamente. 2.2.1. Implementaci¶ on Num¶erica Empezamos de¯niendo una malla de valores para k, es decir, un vector K = (K1; K2;:::; K p) con K1 = K min y Kp = K max. Por simplicidad, podemos usar puntos igualmente espaciados, con K2 = Kmin + ´, K 3 = Kmin + 2´ y as¶i sucesivamente, en donde ´ = (Kmax ¡ Kmin ) = (p ¡ 1) Mientras m¶as puntos usemos, es decir mientras p sea mayor y ´ m¶as peque~ no, la aproximaci¶on ser¶a m¶as precisa. Luego, de¯nimos una matriz M de la siguiente manera: 2 6 M =6 6 4 F (K1; K 1) F (K2; K 1) :::::::::::::::: F (Kp; K 1) F (K 1; K2) F (K 2; K2) :::::::::::::::: F (K p; K2) ::::: ::::: ::::: ::::: F (K1; K p) F (K2; K p) :::::::::::::::: F (Kp; K p) 3 7 7 7 5 en donde F (x; y) = u [f (x) + (1 ¡ ±) x ¡ y]. La matriz M contiene la funci¶on de retorno evaluada para cada posible k 2 K y k 0 2 K. Sin embargo, sabemos que no todos esos valores son posibles. La restricci¶on k 0 2 [0; f (k) + (1 ¡ ±) k] nos permite eliminar algunas celdas de la matriz que son inalcanzables para el plani¯cador social, imponi¶endole un valor cero8. Hacemos entonces: Mij ´ F (Ki; K j ) = 0 si Kj > f (Ki ) + (1 ¡ ±) Ki Una vez constru¶ida la matriz M , el resto del procedimiento es una simple iteraci¶on. Empezamos con cualquier vector columna V 0 2 Rp (por ejemplo, V 0 = 0) e iniciamos el siguiente algoritmo con s = 0: ³ ´ 1. Dado el vector V s = V1s ; V2s ; :::; V ps y la matriz M , calcular V s+1 de la siguiente manera: 2 6 V s+1 = max 6 6 8 4 M11 + ¯V1s M21 + ¯V1s :::::::::::::::::: Mp1 + ¯V1s M12 + ¯V2s M22 + ¯V2s :::::::::::::::::: Mp2 + ¯V2s ::: ::: ::: ::: M1p + ¯Vps M2p + ¯Vps :::::::::::::::::: Mpp + ¯Vps 3 7 7 7 5 O un valor negativo (como por ejemplo ¡1000). El punto es impedir que el programa escoja esa celda al calcular la maximizaci¶o n. 17 donde el m¶aximo es calculado por ¯la, es decir: V s+1 = 2 6 6 6 6 6 4 n o 3 max nM11 + ¯V1s ; M12 + ¯V2s ; :::; M1p + ¯Vps o max M21 + ¯V1s ; M22 + ¯V2s ; :::; M2p + ¯Vps :::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: n o max Mp1 + ¯V1s ; Mp2 + ¯V2s ; :::; Mpp + ¯Vps 7 7 7 7 7 5 2. Evaluar kV s+1 ¡ V sk. Si la norma es mayor que el criterio de tolerancia permitido, regresar al paso 1 con s = s + 1. En caso contrario, el procedimiento termina con la soluci¶on V = V s+1. Una vez obtenida la aproximaci¶on a la funci¶on de valor V (evaluada en cada uno de los p puntos de la malla), la correspondiente regla de decisi¶on ¶optima G se obtiene calculando: 2 6 G = arg max 6 6 4 M11 + ¯V1 M21 + ¯V1 :::::::::::::::::: Mp1 + ¯V1 M12 + ¯V2 M22 + ¯V2 :::::::::::::::::: Mp2 + ¯V2 ::: ::: ::: ::: M1p + ¯Vp M2p + ¯Vp :::::::::::::::::: Mpp + ¯Vp 3 7 7 7 5 Es decir, G es un vector columna de n componentes, en donde Gi 2 f1; :::; pg nos indica el n¶umero de la columna que maximiza la ¯la i. Podemos entonces reconstruir la secuencia ¶optima de capital, partiendo de k0 = K i de la siguiente manera: k1 = Kj con j = Gi k2 = Kl con l = G j ::::::::::::::::::: y as¶i sucesivamente. 2.2.2. Resolviendo el Equilibrio Competitivo El m¶etodo de iteraci¶on de la funci¶on de valor es particularmente apropiado para resolver el problema del plani¯cador social. Sin embargo, su utilidad es menor al momento de resolver directamente el Equilibrio Competitivo. La raz¶on no es que existan dos variables de estado, el capital individual y el agregado, pues eso ser¶ia 18 una simple extensi¶on del m¶etodo anterior. El principal problema es que la ley de movimiento del capital agregado (la funci¶on ¡ en la ecuaci¶on de Bellman (2.1)) debe ser conocida al momento de realizar la optimizaci¶on. Sin embargo, este es un objeto que solo conocemos luego de resolver el equilibrio. Una forma de evitar este problema guarda cierta analog¶ia con el metodo de doble iteraci¶on que vimos en la sesi¶on anterior. Presentaremos solo la idea general, pues su utilizaci¶on es limitada en la pr¶actica. Suponemos que la ley de movimiento tiene cierta forma funcional, por ejemplo un polinomio de grado n: K 0 = ¡ (K) = a1 + a2K 2 + ::: + a nK n y proponemos un vector inicial de par¶ametros (a 1; a2; :::; a n). Dada esa ley de movimiento, la ecuaci¶on (2.1) puede resolverse iterando la funci¶on de valor. Obtenemos entonces la regla de decisi¶on ¶optima y, dado k0 , calculamos la secuencia ¶optima resultante k0; k1; :::; kT . Con esos datos, corremos la regresi¶on: kt+1 = a 1 + a2 k2t + ::: + an knt y estimamos un nuevo juego de par¶ametros (^a1 ; ^a2; :::; ^an ). Si estos estan razonablemente cercanos a los que propusimos, termina el procedimiento. En caso contrario, volvemos a resolver la ecuaci¶on de Bellman usando (^a1 ; ^a2; :::; ^an ) como los nuevos par¶ametros de la ley de movimiento. Evidentemente, este m¶etodo de doble iteraci¶on ser¶a m¶as preciso conforme mayor sea el grado n del polinomio que se use para aproximar la ley de movimiento del capital agregado. Pero a¶ un con un n grande, nada garantiza la convergencia del algoritmo. 2.3. El Modelo Estoc¶ astico Consideremos ahora un modelo un poco distinto, en el cual la productividad de la ¯rma representativa esta sujeta a un shock tecnol¶ogico µ. Es decir, en cada per¶iodo t, tenemos: Yt = µt f (Kt ) en donde µ t es una variable aleatoria que sigue un determinado proceso estoc¶astico. Las decisiones se toman en cada per¶iodo antes de que el shock correspondiente sea observado. 19 Para poder aplicar el m¶etodo de programaci¶on din¶amica, suponemos que los shocks toman un n¶ umero ¯nito y siguen un proceso dei Markov de ³ q de valores ´ h ¯ primer orden. Es decir, µ 2 µ 1; µ 2; :::; µ q y P rob µ t+1 = µ j¯¯ µ t = µ i = ¼ ij . EvP identemente, debe cumplirse que qj=1 ¼ ij = 1. La matriz ¦ de orden q £ q con todas las probabilidades ¼ij se conoce como la matriz de transici¶on. Un Equilibrio General Competitivo, Recursivo y Estoc¶astico para esta econom¶ia es un conjunto de funciones (o planes contingentes) v (k; K; µ), c (k; K; µ), i (k; K; µ), k 0 (k; K; µ), precios w (K; µ) y r (K; µ) y ley de movimiento ¡ (K; µ) tales que: i) Dadas las funciones w, r y ¡, la funci¶on de valor v (k; K; µ) resuelve la ecuaci¶on de Bellman: v (k; K; µ) = max0 c;i;k fu (c) + ¯Eµ v (k0 ; K 0 ; µ 0 )g (2.12) s:t: c + i = w (K; µ) + r (K; µ) k k 0 = (1 ¡ ±) k + i K 0 = ¡ (K; µ) y las funciones c (k; K ), i (k; K) y k 0 (k; K) son reglas de decisi¶on ¶optimas para este problema. ii) Para todo K y µ, los precios satisfacen las condiciones marginales: r (K; µ) = µf 0 (K) (2.13) w (K; µ) = µf (K) ¡ µf 0 (K ) K (2.14) iii) Para todo K y µ, hay igualdad entre oferta y demanda: µf (K ) = c (K; K; µ) + i (K; K; µ) (2.15) iv) Para todo K y µ, ley de movimiento agregada y comportamiento individual son consistentes: ¡ (K; µ) = k 0 (K; K; µ) (2.16) N¶otese que, dada la forma en que hemos de¯nido el proceso estoc¶astico para los shocks tecnol¶ogicos, podemos expresar el valor esperado en (2.12) como: 20 0 0 0 Eµ i v (k ; K ; µ ) = q X ³ ¼ij v k 0 ; K 0 ; µ j j =1 ´ (2.17) N¶otese tambi¶en que las reglas de decisi¶on ¶optimas son planes contigentes. Para obtener las trayectorias correspondientes es necesario simular una historia completa de realizaci¶on de los shocks tecnol¶ogicos. Similarmente, de¯nimos un Optimo de Pareto Recursivo y Estoc¶astico como un conjunto de funciones v (k; µ), c (k; µ), i (k; µ), k0 (k; µ) que resuelven la ecuaci¶on de Bellman del plani¯cador social: v (k; µ) = max0 c;i;k fu (c) + ¯Eµ v (k 0; µ 0 )g (2.18) s:t: c + i = µf (k) k0 = (1 ¡ ±) k + i y nuevamente, en aquellos casos en que se cumplan los supuestos de los Teoremas del Bienestar, resolveremos este problema como una manera indirecta de calcular el Equilibrio Competitivo. 2.3.1. Iteraci¶ on de la Funci¶ on de Valor La ecuaci¶on de Bellman (2.18) puede resolverse num¶ericamente usando el m¶etodo de iteraci¶on de la funci¶on de valor. Dada una malla (K1; K2;:::; K p) para el stock de capital y la malla (µ1 ; µ2 ; :::; µq ) para los shocks tecnol¶ogicos, de¯nimos la matriz M de orden pq £ p de la siguiente manera: 2 M 6 6 6 6 6 6 6 6 6 =6 6 6 6 6 6 6 6 6 4 F (K1; K1 ; µ1 ) F (K1 ; K2; µ 1) ::::: F (K1; Kp ; µ1 ) ::::::::::::::::::::::::: :::::::::::::::::::::::: ::::: :::::::::::::::::::::: F (Kp; K1 ; µ1 ) F (Kp ; K2; µ 1) ::::: F (Kp; Kp ; µ1 ) F (K1; K1 ; µ2 ) F (K1 ; K2; µ 2) ::::: F (K1 ; Kp; µ 2) ::::::::::::::::::::::::: ::::::::::::::::::::::: ::::: :::::::::::::::::::::::: F (Kp; K1 ; µ2 ) F (Kp ; K2; µ 2) ::::: F (Kp ; Kp; µ 2) ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: F (K1; K1 ; µq ) F (K1; K 2; µ q ) ::::: F (K1 ; Kp; µ q ) :::::::::::::::::::::::: :::::::::::::::::::::::: ::::: :::::::::::::::::::::: F (Kp; K1 ; µq ) F (Kp; K 2; µ q ) ::::: F (Kp ; Kp; µ q ) 21 3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5 en donde F (x; y; µ) = u [µf (x) + (1 ¡ ±) x ¡ y]. Nuevamente, imponemos las restricciones tecnol¶ogicas en la matriz M haciendo:: Mp(l¡1)+i;j ´ F (K i; Kj ; µ l ) = 0 si K j > µ l f (K i) + (1 ¡ ±) Ki Una vez constru¶ida M, escojemos cualquier vector columna V 0 2 Rpq (por ejemplo, V 0 = 0) e iniciamos el siguiente algoritmo con s = 0: ³ ´ 1. Dado el vector V s = V1s ; V2s ; :::; Vpqs , calcular una matriz W s de q £ p de acuerdo a: 2 Pq 3 Pq Pq s s s j=1 ¼ 1jV j(p¡1)+1 j=1 ¼1j Vj(p¡1)+2 ::::: j=1 ¼ 1j Vj(p¡1)+p Pq Pq 6 Pq 7 s s s 6 j=1 ¼ 2jV j(p¡1)+1 j=1 ¼2j Vj(p¡1)+2 ::::: j=1 ¼ 2j Vj(p¡1)+p 7 s 6 7 W =6 ::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::: 7 4 ::::::::::::::::::::::::::: 5 Pq Pq Pq s s s ¼ V ¼ V ::::: ¼ V j=1 qj j(p¡1)+1 j=1 qj j(p¡1)+2 j=1 qj j(p¡1)+p 2. Dados el vector W s y la matriz M , calcular la matriz M ¤ de orden pq £ p de la siguiente manera: 2 M¤ = 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 4 s s s M11 + ¯W11 M12 + ¯W12 ::::: M1p + ¯W1p ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: s s s Mp1 + ¯W11 Mp2 + ¯W12 ::::: Mpp + ¯W1p s s s Mp+1;1 + ¯W21 Mp+1;2 + ¯W22 ::::: Mp+1;p + ¯W2p ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: s s s M2p;1 + ¯W21 M2p;2 + ¯W22 ::::: M2p;p + ¯W2p ::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::::: s s s M(q¡1)p+1;1 + ¯Wq1 M(q¡1)p+1;2 + ¯Wq2 ::::: M(q¡1)p+1;p + ¯Wqp ::::::::::::::::::::::::::::::: ::::::::::::::::::::::::::::::: ::::: ::::::::::::::::::::::::::::::: s s s Mqp;1 + ¯Wq1 Mqp;2 + ¯Wq2 ::::: Mqp;p + ¯Wqp 3. Dada la matriz M ¤, calcular el vector V s+1 como: V s+1 = max M ¤ donde el m¶aximo es calculado por ¯la. 4. Evaluar kV s+1 ¡ V sk. Si la norma es mayor que el criterio de tolerancia permitido, regresar al paso 1 con s = s + 1. En caso contrario, el procedimiento termina con la soluci¶on V = V s+1. La regla de decisi¶on ¶optima se calcula como antes: G = arg max M ¤ en donde M ¤ es la matriz obtenida en el segundo paso de la u¶ltima iteraci¶on. 22 3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5 2.3.2. Simulaci¶ on de las Trayectorias Optimas Con el m¶etodo anterior, obtenemos la funci¶on de valor V y la regla de decisi¶on ¶optima G evaluadas para cada stock de capital y cada shock tecnol¶ogico. Estos vectores est¶an ordenados de la siguiente manera: 2 V = 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 6 4 v (K 1; µ 1) v (K 2; µ 1) ::::::::::::::: v (K p; µ 1) v (K 1; µ 2) ::::::::::::::: v (K p; µ 2) ::::::::::::::: v (K 1; µ q ) ::::::::::::::: v (K p; µ q ) 3 2 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5 G 6 6 6 6 6 6 6 6 6 6 =6 6 6 6 6 6 6 6 6 6 4 g (K1;µ 1) g (K2;µ 1) ::::::::::::::: g (Kp; µ1 ) g (K1;µ 2) ::::::::::::::: g (Kp; µ2 ) ::::::::::::::: g (K1;µ q ) ::::::::::::::: g (Kp; µq ) 3 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 7 5 en donde l = g (K i; µ j ) nos indica que, dado el stock de capital y la realizaci¶on del shock tecnol¶ogico, el plani¯cador social escoger¶a un stock de capital para el siguiente per¶iodo igual a Kl . Para obtener una secuencia ¶optima de capital k0; k1 ; :::; kT debemos entonces simular primero una historia de realizaci¶on de shocks tecnol¶ogicos µ 0; µ 1; :::; µ T , usando por supuesto la informaci¶on contenida en la matriz de transici¶on ¦. Cualquier lenguaje de programaci¶on escoje n¶ umeros aleatrios de acuerdo a una distribuci¶on espec¶i¯ca. Por ejemplo, podemos pedir que escoja µ 0 asignando la misma ³ ´ 1 2 probabilidad 1=q a cada uno de los posibles valores en la malla µ ; µ ; :::; µ q . A continuaci¶on, pedimos que simule recursivamente una secuencia µ 1; :::; µ´T de man³ i 1 2 era tal que, dado µ t = µ , escoja µt+1 entre los valores µ ; µ ; :::; µ q con una distribuci¶on de probabilidad (¼i1; ¼ i2; ::; ¼iq ). Una vez conocida la secuencia de shocks tecnol¶ogicos, podemos simular una secuencia ¶optima para el capital k0; k1 ; :::; kT y para el resto de variables, usando la regla de decisi¶on ¶optima G. Estas secuencias representan series de tiempo, cuyos principales estad¶isticos (media, varianza, patr¶on de correlaciones) pueden ser calculados y comprados con los datos. N¶otese, sin embargo, que las series de tiempo obtenidas dependen de la particular realizaci¶on de los shocks tecnol¶ogicos. Por eso, se recomienda hacer un n¶umero grande de simulaciones y usar el promedio (entre simulaciones) de cada uno de los estad¶isticos mencionados. 23 2.3.3. Limitaciones El m¶etodo de iteraci¶on de la funci¶on de valor tiene la ventaja de ser bastante preciso cuando la malla de valores para las variables de estado es su¯cientemente ¯na. Adem¶as, permite incorporar incertidumbre de una manera natural. Sin embargo, este m¶etodo tiene a su vez ciertas limitaciones. Primero, su aplicabilidad es mayor para econom¶ias en las que los Teoremas del Bienestar se cumplen y podemos entonces resolver el problema del plani¯cador social. Ya hemos visto las di¯cultades que se presentan al tratar de resolver directamente el Equilibrio Competitivo. En segundo lugar, al aumentar el n¶umero de variables de estado y/o el n¶umero de puntos en la malla, la dimensi¶on del problema (de la matriz M ) crece exponencialmente volviendo este m¶etodo muy lento y costoso en t¶erminos computacionales. Por ¶ultimo, los m¶etodos basado en la programaci¶on din¶amica solo permiten introducir shocks estoc¶asticos de una determinada estructura, b¶asicamente procesos de Markov de primer orden con n¶ umero ¯nito de estados. Otros procesos estoc¶asticos m¶as generales requieren m¶etodos distintos, como el que analizaremos en la pr¶oxima sesi¶on. 24 3. Tercera Sesi¶ on En esta sesi¶on revisaremos el m¶etodo de aproximaci¶on lineal-cuadr¶atica en torno al estado estacionario. Durante muchos a~nos, este m¶etodo fue considerado est¶andar para resolver modelos macroecon¶omicos din¶amicos, especialmente el modelo de Ciclos Econ¶omicos Reales de Kydland y Prescott (1982). Empezaremos revisando las t¶ecnicas para analizar y resolver problemas de maximizaci¶on intertemporal en los cuales la funci¶on objetivo toma una forma cuadr¶atica y las restricciones son lineales. Una buena referencia para esta secci¶on es el libro de Sargent (1987). En la segunda parte, veremos como transformar el problema del plani¯cador social y el Equilibrio Competitivo en problemas lineal-cuadr¶aticos, a ¯n de resolverlos usando las t¶ecnicas anteriores. 3.1. El Modelo Lineal-Cuadr¶atico Consideremos el siguiente problema de optimizaci¶on din¶amica: max E0 fyt g s:t: 1 X h i ¯ t xTt Rxt + 2yTt W xt + ytT Qyt t=0 xt+1 = Axt + Byt + "t+1 "t+1 » (0; §) (3.1) 8t 8t en donde xt es un vector columna de p variables de estado (incluyendo la constante), yt es un vector columna de q variables de control y "t es un vector de p variables aleatorias (ruidos blancos) distribuidas conjuntamente con media cero y matriz de varianzas-covarianzas §. Las matrices de coe¯cientes Rp£p, Wq£p , Qq£q , Ap£p, Bp£q y §p£p son datos del problema, as¶i como el vector inicial de variables de estado x0 . Finalmente, asumimos que tanto R como Q son matrices sim¶etricas, R negativa semide¯nida y Q negativa de¯nida. El problema (3.1) pertenece a la clase de modelos lineal-cuadr¶aticos, en los cuales se maximiza la suma descontada de una funci¶on objetivo cuadr¶atica sujeto a una secuencia de restricciones lineales. En esta secci¶on estudiaremos las propiedades de este modelo y un m¶etodo num¶erico para resolverlo. 3.1.1. Ecuaci¶ on de Bellman Podemos reformular el problema (3.1) de manera recursiva como un problema de programaci¶on din¶amica: 25 n o v(x) = max xT Rx + 2yT W x + yT Qy + ¯Ev (x0) y (3.2) x0 = Ax + By + "0 " 0 » (0; §) s:t: en donde el valor esperado dentro de la maximizaci¶on se calcula en base a toda la informaci¶on contenida en el vector de variables de estado x. Para resolver la ecuaci¶on de Bellman (3.2), proponemos que la funci¶on de valor tiene la siguiente forma: v (x) = xT P x + d (3.3) en donde P es una matriz sim¶etrica, negativa semide¯nida, de orden p £ p y: d = ¯ (1 ¡ ¯)¡1 traza (P §) M¶as adelante veri¯caremos que la soluci¶on toma efectivamente esa forma. Reemplazando esta soluci¶on propuesta en (3.2), tenemos: n h (3.4) io v(x) = max xT Rx + 2yT W x + yT Qy + ¯E (x0)T P x0 + d y y, usando la ley de movimiento del vector de variables de estado: n v(x) = max xT Rx + 2yT W x + yT Qy y h io +¯E (Ax + By + "0 )T P (Ax + By + " 0) + d que, simpli¯cando, nos da: n v(x) = max xT Rx + 2yT W x + yT Qy + 2¯y T B T P Ax y (3.5) o T +¯yT BT P By + ¯xT AT P Ax + ¯E ("0 ) P "0 + ¯d Ahora bien, n¶otese que E (" 0)T P "0 = traza E (" 0 )T P " 0 = traza P E ("0 )T "0 = traza (P §). Reemplazando en (3.5) y usando la de¯nici¶on de d en (3.4), obtenemos ¯nalmente: n v(x) = max xT Rx + 2y T W x + y T Qy + 2¯yT BT P Ax y (3.6) o +¯y T B T P By + ¯xT AT P Ax + d 26 3.1.2. Calculo de la Regla de Decisi¶ on Optima El siguiente paso consiste en resolver la maximizaci¶on en (3.6), usando la condici¶on de primer orden: @v(x) = 2W x + 2Qy + 2¯B T P Ax + 2¯B T P By = 0 @y que, despejando, nos da la regla de decisi¶on ¶optima y = Gx, con la matriz: ³ G = ¡ Q + ¯BT P B ´¡1 ³ W + ¯BT P A ´ (3.7) N¶otese dos propiedades de esta regla de decisi¶on ¶optima. En primer lugar, es una funci¶on lineal de las variables de estado. En segundo lugar, G es independiente de la estructura estoc¶astica del problema, en particular de la matriz de varianzascovarianzas § 9. Ambas propiedades son espec¶i¯cas al modelo lineal-cuadr¶atico. 3.1.3. Iteraci¶ on de la Matriz de Ricatti Nos queda veri¯car que la soluci¶on toma efectivamente la forma propuesta en (3.3), encontrando una matriz P que satisfaga: xT P x + d = xT Rx + 2 (Gx)T W x + (Gx)T Q (Gx) +2¯ (Gx)T BT P Ax + ¯ (Gx)T B T P B (Gx) + ¯xT AT P Ax + d en donde el lado derecho de la ecuaci¶on se obtiene reemplazando la regla de decisi¶on ¶optima en (3.6). Eliminando d de ambos lados y dividiendo la ecuaci¶on por xT x, nos queda: P = R + 2GT W + GT QG + 2¯G T BT P A + ¯GT B T P BG + ¯AT P A y, reemplazando la de¯nici¶on de G (3.7) y simpli¯cando, obtenemos ¯nalmente: ³ P = R + ¯AT P A ¡ W T + ¯AT P B ´³ Q + ¯B T P B una expresi¶on conocida como la ecuaci¶on de Ricatti. 9 ´¡1 ³ ´ W + ¯BT P A (3.8) A esta segunda propiedad se le conoce como equivalencia de certidumbre. Ella nos permite hallar la regla de decisi¶on ¶o ptima resolviendo el problema determin¶istico y usar la estructura estoc¶a stica del modelo u¶ nicamente para la simulaci¶on de las trayectorias ¶o ptimas. 27 Se puede demostrar que la ecuaci¶on (3.8) tiene una u¶nica soluci¶on P sim¶etrica y negativa semide¯nida. Adem¶as, podemos encontrar esa soluci¶on mediante el siguiente proceso iterativo. Partiendo de cualquier matriz P0 sim¶etrica y negativa semide¯nida (por ejemplo, P0 = 0), calculamos recursivamente: ³ Pn+1 = R + ¯AT Pn A ¡ W T + ¯AT PnB ´³ Q + ¯B T Pn B ´¡1 ³ W + ¯B T PnA ´ hasta obtener convergencia. Se demuestra que, conforme n tiende a in¯nito, la secuencia P n converge a la verdadera soluci¶on P . 3.1.4. Simulaci¶ on de Trayectorias Optimas Una vez calculada la matriz P que satisface la ecuaci¶on de Ricatti, podemos calcular la funci¶on de valor (3.3) y la regla de decisi¶on ¶optima (3.7). Volviendo a la ley de movimiento de las variables de estado: xt+1 = Axt + Byt + "t+1 y reemplazando la regla de decisi¶on ¶optima G: xt+1 = (A + BG) xt + "t+1 (3.9) obtenemos un sistema lineal de ecuaciones en diferencia para xt , sujeta a shocks estoc¶asticos. Este sistema nos permite simular las trayectorias ¶optimas de las variables de estado, dados x0 y una determinada secuencia de realizaciones de los shocks estoc¶asticos "t . Tambi¶en nos permite analizar la estabilidad del sistema, es decir si luego de un shock que aleje al vector xt del estado estacionario ¶este vuelve a converger al mismo en el largo plazo. Para que el modelo sea estable, tiene que cumplirse que los valores propios de la matriz (A + BG) sean todos menores que uno en valor absoluto. 3.1.5. Computaci¶ on E¯ciente La e¯ciencia del m¶etodo linear-cuadr¶atico puede ser aumentada considerablemente mediante unas simples transformaciones. La idea es simpli¯car la versi¶on determin¶istica del problema (3.2) eliminando el factor de descuento y los productos cruzados, para obtener un problema de la forma: 28 n o ~ x + y~T Q~ ~y + v (~ v(~ x) = max x~T R~ x0) y~ (3.10) ~x + B~ y~ x~0 = A~ s:t: Esa simpli¯caci¶on puede obtenerse mediante las siguientes transformaciones: x~t y~t ~ R ~ Q t = ¯ 2 x³t ´ t = ¯ 2 yt + Q¡1 Wxt = R ¡ W T Q¡1W = Q A~ = B~ = q q ³ ¯ A ¡ BQ¡1W ¯B ´ Para resolver el problema transformado (3.10) seguimos los mismos pasos que en el caso del problema original. En primer lugar, proponemos una soluci¶on v (~ x) = x~T P x~, en donde P es una matriz sim¶etrica negativa semide¯nida. En ~ x, obteniendo: segundo lugar, derivamos la regla de decisi¶on ¶optima y~ = G~ ³ ~ =¡ Q ~+B ~ T P B~ G ´¡1 ~ T P A~ B (3.11) Finalmente, calculamos la matriz P resolviendo iterativamente la ecuaci¶on de Ricatti: ³ ~ + A~T P A~ ¡ A~T P B~ Q ~+B ~ T P B~ P=R ´¡1 B~T P A~ (3.12) que es computacionalmente m¶as sencilla que su similar (3.8). ~ podemos recuN¶otese que, una vez calculada la regla de decisi¶on ¶optima G, perar la regla de decisi¶on para el problema original: ³ ´ ~ ¡ Q¡1W x y= G e, introduciendo los shocks estoc¶asticos, simular las trayectorias ¶optimas de las variables originales. 29 3.2. Aproximaci¶ on Lineal-Cuadr¶ atica en Torno al Estado Estacionario En general, los modelos con los que trabajamos no tienen una estructura linealcuadr¶atica equivalente al problema (3.2). No podemos, por lo tanto, aplicar el m¶etodo de soluci¶on presentado en la secci¶on anterior, al menos directamente. La estrategia que seguiremos es construir una aproximaci¶on lineal-cuadr¶atica a nuestro modelo en torno al estado estacionario (determin¶istico), utilizando para ello una expansi¶on de Taylor de segundo orden. Esta t¶ecnica, usada inicialmente por Kydland y Prescott (1982), es facilmente aplicable para resolver el problema del plani¯cador social. Como veremos al ¯nal, tambi¶en podemos usar un versi¶on de este m¶etodo para resolver el Equilibrio Competitivo en una econom¶ia para la cual no se cumplen los supuestos de los Teoremas del Bienestar. 3.2.1. Resolviendo el Problema del Plani¯cador Social Empecemos con el problema del plani¯cador social con shocks tecnol¶ogicos en su forma recursiva. Reemplazando las restricciones no-lineales dentro de la funci¶on objetivo, tenemos: v (k; µ) = max i fu [µf (k) ¡ i] + ¯Eµ v (k0 ; µ 0)g (3.13) s:t: k0 = (1 ¡ ±) k + i µ0 = (1 ¡ ½) + ½µ + "0µ "0µ » ³ 0; ¾2µ ´ N¶otese que hemos cambiado la especi¯caci¶on estoc¶astica de los shocks tecnol¶ogicos. En la sesi¶on anterior trabajamos con un proceso de Markov de primer orden con n¶umero ¯nito de estados. Hemos generalizado dicha representaci¶on a un proceso autoregresivo de primer orden con media uno. Una de las ventajas del m¶etodo lineal-cuadr¶atico es que permite trabajar con este tipo de procesos. Tenemos entonces identi¯cadas dos variables de estado k, µ, asi como la variable de control i. El siguiente paso es calcular los valores de estado estacionario determin¶istico (eliminando el ruido estoc¶astico) de estas variables: µ¤ = 1 k ¤ = fk¡1 " # 1 ¡ (1 ¡ ±) ¯ 30 i ¤ = ±fk¡1 " # 1 ¡ (1 ¡ ±) ¯ y aproximar la funci¶on de retorno U (k; µ; i) ´ u [µf (k) ¡ i] mediante una expansi¶on de Taylor de segundo orden en torno a dichos valores: U (k; µ; i) ¼ U (²) + Uk (²) (k ¡ k¤) + Uµ (²) (µ ¡ µ¤ ) + Ui (²) (i ¡ i¤) µ ¶ µ ¶ µ ¶ 1 1 1 ¤ 2 ¤ 2 + Ukk (²) (k ¡ k ) + Uµµ (²) (µ ¡ µ ) + Uii (²) (i ¡ i¤)2 2 2 2 +Ukµ (²) (k ¡ k ¤) (µ ¡ µ ¤) + Uki (²) (k ¡ k ¤) (i ¡ i¤ ) +Uµi (²) (µ ¡ µ¤ ) (i ¡ i ¤) (3.14) en donde todas las funciones con argumento (²) est¶an evaluadas en el vector de estado estacionario (k¤; µ ¤; i ¤). La aproximaci¶on de Taylor (3.14) nos da una funci¶on de retorno cuadr¶atica. Reemplazandola en el problema del plani¯cador social (3.13), tenemos ahora s¶i un objeto equivalente a (3.2), con: 2 3 1 7 x=6 4 k ¡ k¤ 5 µ ¡ µ¤ 2 3 3 1 0 0 6 A = 4 0 1¡± 0 7 5 0 0 ½ 2 3 Ui (²) 6 T W = 4 Uki (²) 7 5 Uµi (²) 2 3 0 6 B=4 1 7 5 0 3 "1 7 "=6 4 "k 5 "µ y = [i ¡ i¤ ] 2U (²) Uk (²) Uµ (²) 6 R = 4 Uk (²) Ukk (²) Ukµ (²) 7 5 Uµ (²) Ukµ (²) Uµµ (²) 2 2 2 Q = [Uii (²)] 3 0 0 0 6 §=4 0 0 0 7 5 0 0 ¾ 2µ y en donde R es sim¶etrica y negativa semide¯nida y Q es sim¶etrica y negativa de¯nida10 . 10 Estas propiedades de las matrices R y Q pueden demostrarse usando la concavidad de las funciones de utilidad y de producci¶o n. 31 Podemos entonces resolver este problema mediante las t¶ecnicas analizadas en la secci¶on anterior, obtener la regla de decisi¶on ¶optima (lineal) y hacer las simulaciones estoc¶asticas. N¶otese, sin embargo, que todas las variables est¶an expresadas en t¶erminos de desviaciones con respecto al estado estacionario. Los resultados deben transformarse adecuadamente para recuperar las variables en t¶erminos absolutos. 3.2.2. Resolviendo el Equilibrio Competitivo Trabajar directamente con el Equilibrio Competitivo implica resolver el problema: v (k; K; µ) = max c;i s:t: fu (c) + ¯Eµ v (k 0 ; K 0 ; µ0 )g c +i k0 r (K ) w (K ) K0 µ0 = = = = = = (3.15) w (K) + r (K) k (1 ¡ ±) k + i fk (K) f (K) ¡ fk (K) K ¡ (K) (1 ¡ ½) + ½µ + " 0µ ³ "0µ » 0; ¾ 2µ ´ en donde la ley de movimiento del capital agregado ¡ no es conocida. Sin embargo, sabemos que en equilibrio la igualdad K = k se cumple, aunque el agente representativo no toma en cuenta esa condici¶on de equilibrio al resolver su maximizaci¶on. Reemplazando la restricci¶on presupuestaria y las de¯niciones de precios dentro de la funci¶on de utilidad, obtenemos la ecuaci¶on de Bellman: v (k; K; µ) = max i s:t: fU (k; K; µ; i) + ¯Eµ v (k0 ; K 0; µ 0 )g k0 = (1 ¡ ±) k + i µ0 = (1 ¡ ½) + ½µ + "0µ " 0µ » ³ 0; ¾2µ 32 ´ (3.16) en donde U (k; µ; i; K ) ´ u [µf (K ) ¡ µfk (K ) K + µfk (K ) k ¡ i], junto con la condici¶on de equilibrio K = k. Nuevamente aproximamos la funci¶on U mediante una expansi¶on de Taylor de segundo orden en torno al vector de estado estacionario (k¤ ; µ¤ ; i¤; K ¤), obteniendo un problema lineal-cuadr¶atico del tipo: n o v(x) = max xT Rx + 2yT W x + yT Qy + ¯Ev (x0) y (3.17) x01 = Ax1 + By + C x2 + "0 "0 » (0; §) s:t: m¶as la condici¶on de equilibrio: x2 = Dx1 + Hy en donde: 2 3 1 6 x1 = 4 k ¡ k¤ 7 5 ¤ µ¡µ 2 6 R =6 6 4 x2 = [K ¡ K ¤] 2U (²) Uk (²) Uµ (²) UK (²) Q = [Uii (²)] Uk (²) Ukk (²) Ukµ (²) UkK (²) Uµ (²) Ukµ (²) Uµµ (²) UµK (²) x= 3 1 0 0 6 A =4 0 1¡± 0 7 5 0 0 ½ 3 0 7 DT = 6 4 1 5 0 x1 x2 UK (²) Ukµ (²) UµK (²) UKK (²) 2 2 " H = [0] # 2 7 7 7 5 6 WT = 6 6 4 2 3 Ui (²) Uki (²) Uµi (²) UKi (²) 2 0 6 B =4 1 7 5 0 3 7 7 7 5 3 0 6 C =4 0 7 5 0 3 0 0 0 7 §= 6 4 0 0 0 5 0 0 ¾2µ con R y Q sim¶etricas, R negativa semide¯nida y Q negativa de¯nida. 33 3 "1 6 " = 4 "k 7 5 "µ y = [i ¡ i ¤] 3 2 2 De¯namos ¯nalmente las matrices auxiliares: 2 3 2 2U (²) Uk (²) Uµ (²) 7 R1 = 6 4 Uk (²) Ukk (²) Ukµ (²) 5 Uµ (²) Ukµ (²) Uµµ (²) 2 3 Ui (²) 7 W1T = 6 4 Uki (²) 5 Uµi (²) 3 UK (²) 7 R2 = 6 4 Ukµ (²) 5 UµK (²) W2 = h Uµi (²) i que son simples particiones de las matrices R y W . Para resolver el problema (3.17), vamos a utilizar la equivalencia de certidumbre y trabajar con el problema determin¶istico. Adem¶as, mediante las siguientes transformaciones: x~t y~t R~ ~ Q t = ¯ 2 x³t ´ t = ¯ 2 yt + Q¡1W xt = R ¡ W T Q ¡1 W = Q A~ = ~ = B C~ = ~ = D ~ = H q ³ ´ q ³ ´ ¯ A ¡ BQ ¡1W1 q ¯B ³ ³ ¯ C ¡ BQ¡1 W2 I + H Q¡1W2 I + H Q¡1W2 ´¡1 ³ ´¡1 D ¡ HQ¡1W1 H ´ simpli¯camos el problema eliminando el factor de descuento y los productos cruzados. Nos queda un problema de la forma: n o ~ x + y~T Q~ ~y + v (~ v(~ x) = max x~T R~ x0) y~ s:t: ~x1 + B~ y~ + C~ x~2 x~01 = A~ (3.18) (3.19) m¶as la condici¶on de equilibrio: ~ x1 + H ~ y~ x~2 = D~ 34 (3.20) Las condiciones de primer orden para (3.18) incluyen: @v (~ x) ~ y + B~ T ¸ = 0 = 2Q~ @ y~ (3.21) @v (~ x) ~ 1x~01 + 2R~2x~02 + A~T ¸0 = 0 = ¡¸ + 2R (3.22) @ x~01 en donde ¸ es el vector de multiplicadores de Lagrange asociado a la restricci¶on (3.19). N¶otese que no podemos tomar la derivada con respecto a x~2, pues no conocemos la ley de movimiento de las variables agregadas. Sin embargo, sabemos que en equilibrio la condici¶on (3.20) se cumple. El siguiente paso consiste en proponer una soluci¶on para el multiplicador de Lagrange, que luego veri¯caremos. Proponemos la regla ¸ = 2S~ x01 , en donde S es una matriz negativa semide¯nida. Reemplazando en (3.21): ~ y + B~ T S~ Q~ x01 = 0 y usando la restricci¶on (3.19) junto con la condici¶on de equilibrio (3.20): ³ ´ ³ ´ ~ y + B~ T S A~ + C ~D ~ x~1 + B~ T S B~ + C ~H ~ y~ = 0 Q~ ~ x1, con: obtenemos la regla de decisi¶on ¶optima y~ = G~ h ³ ~=¡ Q ~+B ~ T S B~ + C~H ~ G ´i ¡1 ³ ~ B~ T S A~ + C~D ´ (3.23) Para veri¯car esta soluci¶on y encontrar la matriz S, trabajamos con la ecuaci¶on (3.22). Reemplazando ¸ por 2S x~01 y usando la condici¶on de equilibrio (3.20), tenemos: ³ ´ ~ 1 + R~2 D ~ ¡ S x~01 + R ~ 2H ~ y~0 + A~T S~ R x001 = 0 lo que, rezagando un per¶iodo y usando la restricci¶on (3.19), nos da: ³ ´ ³ ´ ~1 + R ~ 2D ~ ¡ S x~1 + R ~2 H ~ y~ + A~T S A~ ~x1 + B~ y~ + C~x~2 = 0 R Usando la condici¶on de equilibrio (3.20) junto con la regla de decisi¶on ¶optima ~x1 , nos queda: y~ = G~ n ³ ´ h ³ ~ 1 + R~2D ~ ¡ S + A~T S A~ + C ~D ~ + R ~ 2H ~ + A~T S B~ + C ~H ~ R 35 ´i o ~ x~1 = 0 G ~ en Finalmente, eliminando x~1 a ambos lados, reemplazando la de¯nici¶on de G (3.23) y reordenando t¶erminos, obtenemos: ³ ~2 D ~ + A~T S A~ + C~D ~ S = R~1 + R h ³ ~2 H ~ + A~T S B~ + C ~H ~ ¡ R ´ ´i h ³ ~ + B~ T S B~ + C~ H ~ Q ´i¡1 ³ ´ ~ B~T S A~ + C~ D una versi¶on de la ecuaci¶on de Ricatti (3.12) que puede resolverse iterativamente como antes11 . ~ recuUna vez hallada la matriz S y calculada la regla de decisi¶on ¶optima G, peramos la regla de decisi¶on para el problema original: ³ y = I + Q¡1W2H ´¡1 h i ~ ¡ Q ¡1 (W1 + W2D) x1 G y simulamos las trayectorias ¶optimas de las principales variables. Recu¶erdese nuevamente que estas variables est¶an expresadas como desviaciones con respecto a su nivel de estado estacionario. 3.2.3. Limitaciones El m¶etodo de aproximaci¶on lineal-cuadr¶atica ofrece un procedimiento bastante simple y r¶apido en t¶erminos computacionales, incluso cuando el n¶ umero de variables se incrementa. Al no forzar la discretizaci¶on del espacio para las variables de estado, las soluciones tienden a ser m¶as precisas. Sin embargo, su principal limitaci¶on es que asume que las reglas de decisi¶on ¶optima son lineales, lo que constituye una buena aproximaci¶on u¶nicamente cuando el modelo se mantiene cerca del estado estacionario. Este m¶etodo no ser¶a el adecuado, por lo tanto, para econom¶ias que empiezan con un capital inicial muy por debajo del nivel de estado estacionario, o para aquellas en las cuales los shocks estoc¶asticos tienen una varianza muy alta. 11 McGrattan (1994) desarrolla de manera similar un m¶etodo para resolver el Equilibrio Competitivo mediante una aproximaci¶on lineal-cuadr¶a tica. Adicionalmente, presenta un m¶etodo alternativo para resolver la ecuaci¶o n de Ricatti que no requiere de iteraciones. 36 References [1] Bergoeing, Raphael. "Notas en Experimentos Computacionales y Teoria de Equilibrio General Aplicada", Documento de Docencia D-6, IladesGeorgetown University, 1998. [2] Cooley, Thomas y Edward Prescott. "Economic Growth and Business Cycles". En: Cooley, Thomas (ed.). Frontiers of Business Cycle Research, Princeton University Press, 1995. [3] Den Haan, Wouter y Albert Marcet. "Solving the Stochastic Growth Model by Parametrizing Expectations", Journal of Business and Economic Statistics, 1990. [4] Kydland, Finn y Edward Prescott. "Time to Build and Aggregate Fluctuations", Econometrica 50, 1982. [5] McGrattan, Ellen. "A Note on Computing Competitive Equilibria in Linear Models", Journal of Economic Dynamics and Control, 1994. [6] McGrattan, Ellen. "Solving the Stochastic Growth Model with a Finite Element Method", Federal Reserve Bank of Minneapolis, 1994. [7] McGrattan, Ellen. "Application of Weighted Residual Methods to Dynamic Economic Models", Sta® Report 232, Federal Reserve Bank of Minneapolis, 1998. [8] Rios-Rull, Jose Victor. "Computation of Equilibria in Heterogeneous Agent Models", University of Pennsylvania, 1998. [9] Sargent, Thomas. Dynamic Macroeconomic Theory, Harvard University Press, 1987. [10] Stokey, Nancy y Robert Lucas. Recursive Methods in Economic Dynamics, Harvard University Press, 1989. [11] Urrutia, Carlos. "Notas sobre Crecimiento y Ciclos Economicos", Documento de Docencia D-5, Ilades-Georgetown University, 1996. 37 A. Ejercicios de Repaso A.1. Primera Sesi¶ on 1) Usar el m¶etodo de Newton-Raphson para aproximar con un nivel de tolerancia de 10¡5 las soluciones de las siguientes ecuaciones: x = (2 ¡ ex + x2 )=3 3x2 ¡ ex = 0 ex + 2¡x + 2 cos (x) ¡ 6 = 0 Repetir el ejercicio usando el m¶etodo de secante. 2) La ecuaci¶on (4x ¡ 7)=(x ¡ 2) = 0 tiene una soluci¶on x = 1:75. Usar el m¶etodo de Newton-Raphson para la ecuaci¶on anterior con los siguientes valores iniciales: x0 = 1:625 x0 = 1:875 x0 = 1:45 x0 = 3 y explicar gr¶a¯camente los resultados obtenidos. 3) Encontrar y gra¯car las trayectorias ¶optimas para el capital, consumo, producto, salario real y tasa de inter¶es en el Modelo de Crecimiento Neocl¶asico Simple, con las siguientes formas funcionales: f(k) = Ak® u(c) = log(c) los siguientes valores para los par¶ametros: ¯ = 0:99 A = 10 ® = 0:35 ± = 0:06 y un stock de capital inicial k0 igual a la mitad del capital de estado estacionario k ¤, utilizando el m¶etodo de iteraci¶on de Gauss-Seidel con 100 per¶iodos >C¶omo se modi¯can dichas trayectorias cuando cambiamos el valor de ¯ a 0:98? 4) Repetir los pasos en la parte (3) para una econom¶ia en la cual el gobierno impone una tasa impositiva al ingreso de 20%, cuya recaudaci¶on es devuelta a los agentes como una transferencia lump-sum. >C¶omo se modi¯can dichas trayectorias cuando la tasa impositiva asumenta a 25%? Evaluar el efecto sobre el bienestar del agente representativo de dicha medida. 38 A.2. Segunda Sesi¶ on 1) Encontrar y gra¯car las trayectorias ¶optimas para el capital, consumo, producto, salario real y tasa de inter¶es en el Modelo de Crecimiento Neocl¶asico Simple, con las siguientes formas funcionales: f(k) = Ak® u(c) = log(c) los siguientes valores para los par¶ametros: ¯ = 0:99 A = 10 ® = 0:35 ± = 0:06 y un stock de capital inicial k0 igual a dos tercios del capital de estado estacionario k ¤, utilizando el m¶etodo de iteraci¶on de la funci¶on de valor. Usar una malla para el stock de capital de 500 puntos igualmente espaciados desde 0:5k ¤ hasta 1:2k ¤ y gra¯car las funciones de valor obtenidas en cada una de las iteraciones. 2) Considere una econom¶ia similar a la de la parte (1) sujeta a un shock tecnol¶ogico µ que puede tomar los siguientes valores µ 2 f0; 0:5; 1g y con matriz de transici¶on: 2 3 0:5 0:3 0:2 6 ¦ = 4 0:1 0:7 0:2 7 5 0 0:4 0:6 Resolver el modelo utilizando el m¶etodo de iteraci¶on de la funci¶on de valor, con una malla para el stock de capital de 500 puntos igualmente espaciados desde 0 hasta 1:5k¤ . Partiendo con un k0 igual al stock de capital de estado estacionario y con µ 0 = 0:5, simular y gra¯car una realizaci¶on de la trayectoria ¶optima (una serie de tiempo) para el capital, consumo, producto, salario real y tasa de inter¶es, por 50 per¶iodos. Usando un promedio de 100 simulaciones, calcular la desviaci¶on est¶andar del logaritmo de cada una de las series obtenidas y su correlaci¶on con el producto. A.3. Tercera Sesi¶ on Considere el siguiente modelo de Ciclos Econ¶omicos Reales. El agente representativo maximiza su utilidad esperada, que depende del consumo y el ocio: E0 1 X t=0 ¯t [log (ct ) + °log (1 ¡ lt )] 39 sujeto a la restricci¶on presupuestaria: ct + it = wt lt + (1 ¡ ¿) rt kt + Tt en donde ¿ es un impuesto (o subsidio, si menor que cero) proporcional al ingreso por renta del capital, cuya recaudaci¶on es devuelta mediante una transferencia Tt . La regla de acumulaci¶on de capital sigue siendo: k t+1 = (1 ¡ ±) kt + i t La ¯rma representativa opera con una tecnolog¶ia descrita por la funci¶on de producci¶on: F (Kt ; Lt ) = µKt® L1¡® t en donde µ es un par¶ametro que mide la productividad. Tanto el impuesto ¿ como el par¶ametro productivo µ est¶an sujetos a shocks estoc¶asticos, de la forma: ¿ t+1 = ´¿ t + » t+1 µt+1 = (1 ¡ ½) + ½µ t + "t+1 en donde los ruidos blancos se distribuyen conjuntamente de acuerdo a: " »t "t # » Ã" 0 0 # " ; ¾21 ¾ 12 ¾12 ¾ 22 #! 1) Utilizando la siguiente parametrizaci¶on: ¯ = 0:99 ´ = 0:7 ½ = 0:5 ° = 0:3 ® = 0:35 ¾ 21 = 0:01 ± = 0:06 ¾22 = 0:02 ¾12 = 0:001 resolver el modelo anterior mediante una aproximaci¶on lineal-cuadr¶atica en torno al estado estacionario. Encontrar la regla de decisi¶on ¶optima. Partiendo con un nivel de capital igual al de estado estacionario, simular y gra¯car una realizaci¶on de la trayectoria optima (una serie de tiempo) para el capital, consumo, empleo, 40 producto, salario real y tasa de inter¶es por 50 periodos. Usando un promedio de 100 simulaciones, calcular la desviaci¶on est¶andar del logaritmo de cada una de las series obtenidas y su correlaci¶on con el producto. 2) Volver a simular y hallar los estad¶isticos para las series se~naladas en la parte (1) en una econom¶ia sin shocks de pol¶itica ¯scal (con ´ = ¾21 = ¾12 = 0). Comparar los resultados y evaluar el bene¯cio sobre el bienestar del agente representativo de eliminar las °uctuaciones de pol¶itica ¯scal. 41 B. Librer¶ia de Programas en Matlab 42