Blanchard: Estado de la Macro

Anuncio
NBER WORKING PAPER SERIES
EL ESTADO DE LA MACRO
Olivier J. Blanchard
Papel de Trabajo Nro. 14259
http://www.nber.org/papers/w14259
NATIONAL BUREAU OF ECONOMIC RESEARCH
1050 Massachusetts Avenue
Cambridge, MA 02138
Agosto 2008
Preparado para el "Annual Review of Economics". Gracias a Daron Acemoglu (uno de los editores),
Ricardo Caballero, V.V. Chari, Laura Feiveson, Ben Friedman, Jordi Gali, Anil Kashyap, Jaewoo
Lee, N.Greg Mankiw, Marianna Riggi, Julio Rotemberg, Robert Shimer, Andrei Shleifer, y Harald
Uhlig por sus valiosos comentarios. Las opiniones aquí expresadas pertenecen al autor y no
necesariamente reflejan las propias del National Bureau of Economic Research.
© 2008 por Olivier J. Blanchard. Todos los derechos reservados. Pueden transcribirse sin permiso
explícito secciones breves del texto, sin exceder los dos párrafos, siempre que sea citada la
fuente.
Traducción al castellano: Juan Carlos Hermida
El Estado de la Macro
Olivier J. Blanchard
NBER Working Paper No. 14259
Agosto 2008
JEL No. E0, E2, E3, E4, E50,
RESUMEN
Luego de la explosión de la macroeconomía en los años 1970s, por largo periodo el terreno se
asemejó a un campo de batalla. Sin embargo, con el transcurrir del tiempo, y en gran parte
debido a que los hechos no han quedado en el olvido, ha emergido una visión compartida tanto en
las fluctuaciones como en la metodología. No todo está bien. Como acontece en todas las
revoluciones, ésta en particular se produjo a partir de la destrucción de cierto conocimiento, y
ha padecido del extremismo que se ha congregado a su alrededor. De todos modos nadie ha
quedado herido de muerte. El estado de la macro es saludable.
La primera sección introduce el escenario con una breve revisión del pasado. La segunda
argumenta que ha existido amplia convergencia y la tercera pasa revista a puntuales
acontecimientos. La cuarta se centra en la convergencia de la metodología. La última considera
los actuales desafíos.
Olivier J. Blanchard
MIT
Sección de Economía
E52-357
Cambridge, MA 02142-1347,
y NBER
[email protected]
1
Los editores de esta nueva revista me solicitaron escribiera sobre “El Futuro de Macroeconomía".
Nadie debiera aceptar semejante tarea. Uno puede prever el futuro próximo con cierta precisión
sabiendo que la tecnología de Investigación es en gran parte de naturaleza austriaca, resultando
el producto de la aplicación de recursos después de un tiempo. Uno puede observar diferentes
equipos de trabajo y estar seguro que, más temprano o más tarde, ellos tendrán éxito. Pero es
casi imposible prever de aquí en más si se tiene en cuenta lo que alguien habría previsto para el
futuro de la macro en 1970, luego que Lucas, Sargent y Prescott entraron en escena. De todos
modos, uno puede hacer un balance, mostrar evoluciones, señalar fortalezas y debilidades del
estado actual del conocimiento, y exponer lo que puede esperarse sin señalarlo como algo digno
de pronóstico. Esto es lo que haré en este ensayo.
Permítame continuar con más advertencias. Me enfocaré sólo en una parte de la macro, a saber,
las fluctuaciones. Dejaré de lado el tema del crecimiento, donde ha tenido lugar mucha acción y
mucho progreso; éste no es un juicio de valor, sólo una reflexión de ventajas comparativas1.
Tampoco realizaré esfuerzo alguno por ser enciclopédico, equilibrado, o imparcial. La bibliografía
será en gran parte aleatoria. Para abreviar, éste no es un capítulo de manual, sino el desarrollo
de un tema.
El tema es que, luego de la explosión (en el sentido positivo y negativo de la palabra) en el
campo en los años 1970s, ha habido un progreso enorme y la convergencia ha sido sustancial.
Durante cierto tiempo —un tiempo bastante extenso— el terreno se pareció a un campo de
batalla. Los investigadores se abrieron en diferentes direcciones, muchos ignorándose
mutuamente, y el resto comprometiéndose en amargas luchas y controversias. Sin embargo, con
el transcurrir tiempo y debido en gran parte a hechos que en cierto modo no tuvieron forma de
alejarse, ha surgido una enfoque principalmente compartido tanto por las fluctuaciones como por
la metodología. No todo está bien. Como en todas las revoluciones, dicho enfoque ha surgido de
la destrucción de cierto conocimiento, y padece de cierto extremismo endurecido y de moda.
Pero nada de esto es mortal. El estado de la macro es bueno2.
El trabajo está organizado en cuatro secciones. El primero describe el escenario con un breve
repaso del pasado. El segundo describe que ha habido una amplia convergencia en la visión, lo
que considera el tercero con más detalle. El cuarto se centra en la convergencia de la
metodología, y los actuales desafíos. Uno podría sostener que la convergencia en la metodología
es más obvia que la convergencia en la visión, y por lo tanto debiera haberse tratado primero. Tal
vez sea cierto, sin embargo lo que finalmente importa es cómo explicamos los hechos, y ésta es
la razón de mi elección en la organización del trabajo.
1
Omitiré incluso un tema cercano a mi corazón, “el mediano plazo", las evoluciones de baja periodicidad
reflejadas en los movimientos de las tasas capital/trabajo, la participación del trabajo y así sucesivamente.
Una razón es que no mucho (no lo suficiente) ha sucedido en este frente.
2
Sé que otros colegas están en descuerdo con esta evaluación optimista (por ejemplo, Solow (2008)). Para
verificar si yo era el totalmente iluso, organicé un debate en las reuniones de la AEA del 2008 sobre el tema
"la Convergencia de la Macro". Robert Shimer, Michael Woodford, y V.V. Chari junto con Pat Kehoe y Ellen
McGrattan, escribieron ensayos sobre la macro -qué serán publicados en la primera edición de la nueva
revista AEJ: macro (American Economic Journal: Macroeconomics) de la Asociación Económica Americana- y
que ya están disponibles en el sitio web de la revista. Leí los ensayos y en realidad sugieren una sustancial
pero no una completa convergencia; los lectores pueden apreciarlo por sí mismos.
2
1. Un breve repaso del pasado
Cuando difundieron “la revolución de las expectativas racionales", Lucas y Sargent (1978) no
anduvieron con rodeos:
Que las predicciones [de economía Keynesiana] eran extremamente incorrectas, y que la doctrina
en la que ellos se basaban era radicalmente defectuosa, son de hecho ahora cuestiones simples y
ya no admiten sutilezas en la teoría económica. La tarea que enfrentan los actuales estudiantes
del ciclo económico es ordenar lo que resta y determinar que rasgos pueden salvarse de ese
notable evento intelectual que llamaron Revolución Keynesiana, que puede ponerse a resguardo,
y que otros deben desecharse.
Ellos pronosticaron un largo proceso de reconstrucción:
Si bien se está lejos de lo claro que será el resultado de este proceso, ya es evidente que
involucrará necesariamente la reapertura de problemas básicos en economía monetaria que se
han considerado como “cerrados" a partir de los treinta y la reevaluación de cada aspecto del
marco institucional dentro del cual se formula la política monetaria y fiscal en los países
avanzados. Este ensayo es un informe de avance sobre este proceso de reevaluación y
reconstrucción.
Ellos estaban en lo cierto. Durante los siguientes quince años aproximadamente, el campo
explotó. Tres grupos dominaron la escena, los nuevos clásicos, los nuevos Keynesianos, y los
nuevos teóricos del crecimiento (no se necesita señalar aquí el rol de “nuevo" a la PR), siguiendo
cada uno una agenda muy diferente:
Los nuevos clásicos se abocaron a lo que Lucas-Sargent denominaron reconstrucción. Pronto, sin
embargo, los Mencheviques dieron paso a los Bolcheviques, y la agenda de investigación se volvió
incluso más extrema. Bajo la dirección de Prescott, las rigideces nominales, la información
imperfecta, el dinero, y la curva de Phillips, todos desaparecieron del modelo básico, y los
investigadores se centraron en las propiedades estocásticas del modelo de Ramsey (equivalente al
agente representativo de la economía Arrow-Debreu), rebautizado como modelo del Ciclo
Económico Real, ó RBC (Real Bussines Cycle). Tres principios guiaron la investigación: los
fundamentos micro explícitos, definidos como maximización de utilidad y beneficios; el equilibrio
general; y la exploración de cuán compatibles pueden llegar a ser las escasas imperfecciones.
Los nuevos Keynesianos se abocaron a la reforma, no a la revolución. Unidos en la creencia de
que la visión anterior de la macroeconomía era básicamente correcta, ellos aceptaron la
necesidad de mejorar los fundamentos para las diversas imperfecciones que subyacen en el
enfoque. El programa de investigación comenzó por examinar en forma teórica y empírica, la
naturaleza y realidad de diversas imperfecciones, desde las rigideces nominales a los salarios de
eficiencia, a las restricciones del mercado de crédito. Los modelos eran de equilibrio parcial, o
incluían un trivial cierre de equilibrio general: cada uno pareció incluir demasiado pronto una
común estructura de equilibrio general.
Los nuevos teóricos del crecimiento sencillamente abandonaron el campo (i.e. fluctuaciones). El
comentario de Lucas según el cual cada vez que uno piensa en el crecimiento apenas puede
pensar en algo más, a muchos convenció para centrarse en los determinantes del crecimiento, en
lugar de las fluctuaciones y sus implicaciones aparentemente pequeñas en el bienestar.
Irónicamente, a medida que el modelo de crecimiento de Ramsey se volvía el caballito de batalla
3
de los nuevos clásicos, gran parte del progreso en el frente del crecimiento se hizo examinando
las implicaciones de diversas imperfecciones, desde la naturaleza del conocimiento de los bienes
públicos y la naturaleza de la investigación y desarrollo (R&D) a las externalidades de la
acumulación de capital.
Las relaciones entre los tres grupos —o, más específicamente, los primeros dos, denominados por
Halley “de agua dulce" y “de agua salada" respectivamente (por la situación geográfica de la
mayoría de los nuevos clásicos y la mayoría de los nuevos Keynesianos)— estaba tensa, y a
menudo era desagradable. Los primeros acusaron a los segundos de ser los economistas malos,
aferrados a creencias obsoletas y teorías desacreditadas. Los segundos acusaron a los primeros de
ignorar hechos básicos y, en su persecución de un hermoso modelo pero irrelevante, de continuar
presos de una declinante "ilusión científica". (Ver el debate entre Prescott y Summers (1986)).
Uno razonablemente podría desesperar sobre el futuro de la macro (y, de hecho, algunos de
nosotros lo vivimos de cerca (Blanchard 1992)).
Ésta es aún la opinión que muchos principiantes tienen del campo. Pero ya no se corresponde con
la realidad. Los hechos eventualmente tienen un modo de forzar a la teoría como irrelevante
(uno desea que suceda más rápido). Y la buena teoría también tiene una manera de forzar a la
teoría mala. Las nuevas herramientas desarrolladas por los nuevos clásicos pasaron a dominar.
Los hechos enfatizados por los nuevos Keynesianos volvieron a forzar las imperfecciones en el
modelo de referencia. Ha surgido una visión en gran parte común, lo que constituye el tema de la
próxima sección.
2. Convergencia en la visión
2.1 El rol de la demanda agregada y las rigideces nominales
Es difícil ignorar los hechos. Un hecho fundamental en la macro es que los desplazamientos en la
demanda agregada de bienes afecta sustancialmente el producto en una economía absolutamente
competitiva más de lo que nosotros esperaríamos. Los consumidores más optimistas compran más
bienes, y el aumento en la demanda lleva a más producto y más empleo. Los cambios en la tasa
de los fondos federales tienen importantes efectos en los precios de los activos reales, los precios
de los bonos y acciones y, a su vez, sobre el nivel de actividad.
Estos hechos no son fáciles de explicar dentro de un modelo macro de precios flexibles
perfectamente competitivo. Los consumidores más optimistas deben consumir más y trabajar
menos, no consumir más y trabajar más. La política monetaria debe reflejarse principalmente en
los precios de los bienes, no que Wall Street reaccione fuertemente a un inesperado cambio de
25 puntos básicos en la tasa de fondos federales.
Los intentos por explicar estos efectos mediante preferencias exóticas o exóticos efectos de
operaciones de mercado abierto sobre mercados segmentados, manteniendo el supuesto de
mercados perfectamente competitivos y precios flexibles, ha demostrado ser a lo sumo poco
convincente. Esto, incluso, ha llevado a los más obstinados nuevos clásicos a explorar la
posibilidad de que las rigideces nominales importan. En presencia de rigideces nominales, los
movimientos en el dinero nominal conducen a movimientos en el dinero real que, a su vez, llevan
a movimientos en la tasa de interés y en las demandas de bienes y producto. Y con rigideces
nominales, los movimientos en la demanda agregada no son automáticamente compensados por
movimientos en la tasa de interés, y así poder traducirse en movimientos del producto.
4
El estudio de la situación de precios y salarios nominales es uno de los temas calientes de la
investigación macro de hoy. Tiene todos los elementos necesarios para hacer la investigación
apasionante: existen datos sobre precios de la micro permanentemente disponibles, o bases de
datos del CPI (índice de precios al consumidor) o de los mismos mayoristas (ver el artículo de
Mackowiak y Smets (2008)). La agregación enfrenta delicadas cuestiones: dependiendo del modo
específico de cómo se fijan los precios, la pegajosidad (stickiness) individual puede acrecentarse
en lugar de desaparecer cuando miramos índices de precios más agregados. El tipo de casos
involucrado en esa admirable investigación ha convertido en irrelevante la cuestión de la vieja
distinción entre agua dulce /salada: si bien la investigación en el tema comenzó con los nuevos
Keynesianos, la reciente investigación ha sido en gran parte activada por un artículo de Golosov y
Lucas (2007), se construye en base a un anterior trabajo sobre la agregación de reglas estadodependientes realizado por Caplin y por Caballero, entre otros.
2.2 Shocks tecnológicos versus generaciones tecnológicas
Un principio central del enfoque de los nuevos clásicos fue que la fuente principal de las
fluctuaciones son los shocks tecnológicos. Sin embargo, de cara a la razón sobrevuela la noción de
que existen grandes shocks tecnológicos agregados cada trimestre. Excepto en épocas de
dramática transición económica, tales como el cambio de la planificación central a economías de
mercado en Europa Oriental a inicios de los 1990s, el progreso tecnológico se realiza en base a la
difusión y aplicación de nuevas ideas y sobre el cambio institucional, y en ambos casos es
probable sean movimientos de escasa periodicidad. Ninguna magnitud en la variación del residuo
de Solow trimestral convencerá a los escépticos: las variaciones de elevada periodicidad en el
agregado TFP se deben a un error de medición3.
Sin embargo, esto no implica que el progreso tecnológico no juegue un papel importante en las
fluctuaciones. Si bien el progreso tecnológico es uniforme, no es ciertamente constante. Hay
claras generaciones tecnológicas. Piense en el elevado crecimiento del TFP en la era posterior a
la segunda guerra mundial, el crecimiento del TFP de los años 1970s y 1980s, el elevado
crecimiento del TFP desde mediados de los 1990s. Estas olas o generaciones determinan
claramente movimientos en el producto de mediano y largo plazo. Pero, combinadas con el rol de
anticipaciones en la demanda, y el rol de la demanda de producto, ellos también pueden
determinar el comportamiento del producto en el corto plazo. Éste es mi próximo punto.
2.3 Hacia un cuadro general y tres amplias relaciones
La buena combinación de creencias según las cuales el progreso tecnológico pasa por las
generaciones, que las percepciones del futuro afectan la demanda actual de bienes, y que debido
a las rigideces nominales, esta demanda de bienes puede afectar el producto de corto plazo, bien
3
(También) todavía se escriben muchos trabajos con shocks de productividad de alta periodicidad como la
única fuente de fluctuaciones en el modelo. Sospecho que la mayoría de los autores utilizan estos shocks
como una conveniente sustitución, en lugar de alejarse de la convicción acerca de su existencia real. Para
algunos propósitos, el supuesto puede ser inofensivo; si, por ejemplo, el foco se pone en comprender la
oferta de trabajo, la fuente de los desplazamientos en la demanda de trabajo –ya sean si son shocks
tecnológicos o desplazamientos en la demanda agregada con precios pegajosos (sticky)- puede ser
insignificante. Sin embargo, para otros propósitos -por ejemplo, los movimientos conjuntos en el empleo, el
producto y los salarios reales- no lo es, y conduce a "enigmas" artificiales, que son enigmas sólo bajo los
supuestos sostenidos incorrectamente. Para una valiosa discusión, ver por ejemplo Rotemberg (2008).
5
pueden dar lugar a un cuadro de fluctuaciones que creo muchos macroeconomistas aprobarían en
la actualidad.
Hace cincuenta años, Samuelson (1955) escribió:
En años recientes, el 90 por ciento de los economistas americanos han dejado de ser
"economistas Keynesianos" o "economistas Anti-keynesianos". En cambio, ellos han trabajado
hacia una síntesis que es más valiosa en la vieja economía y en las modernas teorías de
determinación del ingreso. El resultado podría llamarse economía neo clásica y es aceptada, en
grandes líneas, por todos menos por el cinco por ciento aproximadamente de los escritores de
extrema izquierda y extrema derecha.
Supondría que aun no estamos actualmente en dicha etapa. Pero podemos estar llegando allí.
A menudo, esta combinación de creencias se presenta en la forma de tres amplias relaciones (me
concentraré sobre una en particular, la versión más herméticamente especificada que denomino,
en adelante, nuevo modelo keynesiano): una relación de demanda agregada en la que el producto
está determinado por la demanda, y la demanda a su vez depende de las anticipaciones tanto del
producto futuro como de las tasas futuras de interés reales. Una relación como la curva de
Phillips en la que la inflación depende tanto del producto como de las anticipaciones de inflación
futura. Y una relación de la política monetaria que comprende la proposición según la cual la
política monetaria puede usarse para afectar la tasa de interés real actual (una tasa que no
estaría ausente de las rigideces nominales).
En dicha economía, las anticipaciones juegan un papel preponderante. Tome las anticipaciones
en la productividad futura. La creencia de que una ola tecnológica puede estar a punto de
empezar, puede llevar a un aumento importante en la demanda y, a su vez, a un auge; piense en
la segunda mitad de los años 1990s con la denominada “nueva economía" y la “revolución IT".
Inversamente, el hecho de lo que parece ser el comienzo de una ola tecnológica termina siendo
sólo una serie de buenos augurios, puede llevar a una gran reducción en la demanda y a una
recesión (vea, por ejemplo, Beaudry y Portier (2006), Lorenzoni (2008), o (y no puedo
resistirme), Blanchard, L'Huillier, y Lorenzoni (2008)). O tome las anticipaciones en la inflación:
la creencia de que la inflación bien anclada limita los movimientos en la inflación real;
inversamente, los temores en la inflación futura pueden llevar a una inflación más alta hoy.
2.4 Modelo de juguete; el nuevo modelo keynesiano
Dentro de este amplio cuadro ha emergido un modelo específico, el denominado nuevo modelo
keynesiano (ó NK), y se ha vuelto un caballito de batalla para el análisis de la política y del
bienestar (dos referencias aquí son Clarida et al (1999) y, para la aplicación a la política
monetaria, el libro de Woodford (2003)).
El modelo parte del modelo RBC sin capital y, en su forma básica, agrega sólo dos
imperfecciones. Introduce la competencia monopolística en el mercado de bienes. La razón es
clara: si la economía va a tener fijadores de precios, ellos tienen cierto poder monopólico. Luego
introduce el ajuste discreto del precio nominal y usa una formulación introducida por Calvo, que
resulta ser analíticamente la más conveniente. Dentro de este marco, las tres ecuaciones antes
descriptas toman una forma específica.
•
Primero, la ecuación de demanda agregada se deriva de las condiciones de primer orden de
6
los consumidores que consideran el consumo como una función de la tasa de interés real y del
consumo futuro esperado. Como allí no hay otra fuente de demanda en el modelo básico, la
demanda de consumo es la misma que la demanda agregada. Y dado el supuesto según el cual
los fijadores de precios satisfacen la demanda a los precios existentes mientras el costo
marginal sea menor al precio, la demanda agregada es igual al producto. Juntando estos tres
supuestos, la primera relación nos da el producto como una función de la tasa de interés real
y el producto futuro esperado.
•
Segundo, bajo la especificación de Calvo, la ecuación de la curva de Phillips hace la inflación
como una función de la inflación futura esperada, y de la "brecha del producto", definido
como la diferencia entre el producto real menos el producto que se daría de no existir
rigideces nominales.
•
Tercero, la regla de la política monetaria se formaliza como una "regla de Taylor", una
función de reacción que hace la tasa de interés real seleccionada por el banco central como
una función de la inflación y la brecha del producto. (El dinero nominal no aparece en forma
explícita en el modelo: el supuesto es que el banco central puede ajustar el stock de dinero
nominal para alcanzar cualquier tasa de interés real que desee. Y, lo que importa para la
actividad es la tasa de interés real, no el dinero nominal en sí mismo).
El modelo es simple, analíticamente conveniente, y ha reemplazado en gran parte al modelo IS-LM
como el modelo básico de fluctuaciones en los cursos de grado (aunque no todavía en los libros
de texto para no graduados). Al igual que el modelo IS-LM, reduce una compleja realidad a unas
ecuaciones simples. A diferencia del modelo IS-LM, se deriva formalmente, en lugar de
informalmente, de la optimización por parte de empresas y consumidores. Esto tiene beneficios y
costos. Los beneficios son la habilidad de no sólo estudiar la actividad sino también el bienestar y
así, derivar (dentro del modelo) la política óptima basada en el correcto criterio del bienestar.
Los costos son que, si bien es tratable, las dos primeras ecuaciones del modelo son claramente
falsas (obviamente, tanto más para aquellos quienes más aproximadamente especificaron el
modelo IS-LM)... La ecuación de la demanda agregada ignora la inversión en existencias, y confía
en un efecto sustitución intertemporal en respuesta a la tasa de interés, que es difícil detectar
en los datos de los consumidores. La ecuación de inflación implica un comportamiento puramente
a futuro (forward looking) de la inflación, que de nuevo aparece fuertemente en desacuerdo con
los datos. Aun así, el modelo produce lecciones importantes que no podrían derivarse del IS-LM,
que es muy general. Permítame mencionar las tres lecciones que considero más importantes:
•
Las fluctuaciones en el producto no son necesariamente malas. Este era el mensaje principal
del modelo básico RBC en el que, de hecho, todas las fluctuaciones eran óptimas. Del mismo
modo se verifica en el modelo NK (nuevo Keynesiano). Puede ser mejor para la economía que
responda a los cambios en la tecnología, o cambios en las preferencias, a través de algunas
fluctuaciones en el producto y el empleo. Serían erróneos los intentos de suavizar esas
fluctuaciones a través del uso de la política. Aun es incierto para mí cuan irrelevante es este
argumento para las economías ricas y diversificadas, y sospecho que todavía es fuerte el
argumento de preservar el producto en una trayectoria suave. Sin embargo, es seguramente
relevante para las economías emergentes, afectadas por cambios bruscos en los términos del
intercambio, si ellos son exportadores de materias primas, o cambios súbitos en los flujos de
la capital. Tratar de alcanzar una trayectoria suave ante tales shocks, probablemente sea
7
contraproducente desde el punto de vista del bienestar.
•
Al reflexionar sobre la política, uno debe pensar en tres conceptos diferentes de actividad:
Primero, el nivel de producto real. Segundo, el nivel de producto que prevalecería en
ausencia de rigideces nominales, llamado a menudo nivel de producto natural (que se
corresponde con la tasa natural de desempleo, introducida por Friedman y Phelps), pero que
yo prefiero más llamar segundo mejor. Tercero, el nivel de producto que prevalecería en
ausencia de rigideces nominales y otras imperfecciones (en el modelo básico NK, el poder
monopólico de las empresas); llámelo nivel de eficiencia restringido del producto que, en el
modelo básico NK, también es el nivel de producto primero-mejor (óptimo). En el modelo
básico NK, la política monetaria que mantiene constante la tasa de inflación (donde el índice
de precios utilizado para medir la inflación es el que corresponde al conjunto de precios
ajustados por los fijadores de precios) mantendrá automáticamente el producto en su nivel
segundo mejor, incluso en respuesta a los shocks en el lado de la oferta, como los shocks
tecnológicos o los shocks en el precio del petróleo. ¿Es óptimo para hacer qué? Esto depende
de cómo se muevan los niveles segundo mejor y primero mejor del producto en respuesta al
shock. En el modelo básico NK, ellos se mueven al unísono, de modo que de hecho resulta ser
óptimo mantener constante la inflación, y hacer el producto igual su nivel segundo mejor.
•
Esto lleva a una conclusión política fuerte: la inflación objetivo (targeting) estricta es buena,
tanto para la inflación como para el producto (un resultado que Jordi Galí y yo hemos
bautizado "la divina coincidencia"). Este resultado sirve como una referencia importante. Sin
embargo, puede no cumplirse en presencia de prolongadas imperfecciones. Para tomar un
ejemplo muy actual, suponga que las imperfecciones del mercado de trabajo conducen a una
mayor rigidez en el salario real del que estaría implicado por un mercado de trabajo
competitivo. Entonces, un aumento en el precio del petróleo —que requiere una disminución
en el salario real— puede conducir a una gran disminución en el nivel de producto segundo
mejor: el muy bajo producto, puede entonces dar lugar un gran aumento en el desempleo y
hacer que los trabajadores acepten el recorte del salario real. El producto primero mejor
que se define como aquel producto libre de rigideces en los salarios reales, puede moverse
mucho menos. En este caso, puede ser mejor permitir un poco de inflación, y una desviación
del producto por encima de su nivel segundo mejor durante algún tiempo, en lugar de seguir
con una inflación constante4.
2.5 Construcción del modelo de juguete
Las implicaciones del modelo NK para la política, en particular la política monetaria, ha
demostrado ser sumamente rico5. El rol de las anticipaciones en el modelo nos ha permitido
estudiar las implicaciones de consistencia temporal para la política óptima, examinar el uso de
4
Como el lector puede suponer por la prosa más cargada, estoy intentando presentar informalmente
algunos resultados de mi propia investigación (Blanchard y Gali (2007))... Mi excusa es que veo estos
resultados como un buen ejemplo de lo que puede aprenderse del modelo NK que no podrían aprenderse del
modelo IS-LM o, su extensión en los libros de texto, el modelo AD-AS.
5
Debido a que el modelo está claramente bien diseñado para mirar la política monetaria, y también quizás
porque los bancos centrales son instituciones ricas con grandes departamentos de investigación y convocan a
conferencias monetarias, ha habido un trabajo sustancialmente mayor en política monetaria que en política
fiscal. Una buena teoría normativa de política fiscal en presencia de rigideces nominales todavía está por
hacerse en gran parte.
8
las reglas frente a la discreción, discutir el rol de anclar las expectativas, pensar en el rol de la
comunicación. El trabajo de Woodford, y su libro mencionado antes, muestra el progreso enorme
que se ha hecho, y este cuerpo de trabajo ha cambiado literalmente la manera en que los bancos
centrales piensan sobre la política monetaria6. Aquí se ha dicho, es claro que el modelo NK
extendido incluso para permitir, por ejemplo, la presencia de la inversión y la acumulación de
capital, o la presencia de la fijación tanto del precio discreto como del salario nominal, es aun
sólo un modelo de juguete, y que le faltan muchos de los detalles que podrían necesitarse para
entender las fluctuaciones. La próxima sección repasa los desarrollos en estos frentes.
3. Extensiones y exploraciones
Gran parte de la actual investigación sobre fluctuaciones en la macro puede considerarse como
una exploración de las implicaciones de varias imperfecciones: más allá de las rigideces
nominales, ¿son las imperfecciones las que más importan en la macro? ¿Cómo ellas afectan los
efectos dinámicos de los shocks? ¿Cómo ellas introducen por lo menos la posibilidad de shocks
adicionales? ¿Qué sabemos sobre estos efectos dinámicos, y cuán importantes son estos shocks?
Esto es cómo organizaré esta sección yendo mercado por mercado (desde los mercados de
trabajo, a los mercados de crédito y financiero, a los mercados de bienes), y luego plantear
algunas cuestiones que trascienden los mercados y veo en gran parte sin resolver.
3.1 Los mercados de trabajo. Introduciendo el desempleo
Una destacada (y desagradable) característica del modelo básico NK es que ¡no hay desempleo!
Los movimientos tienen lugar a lo largo de una curva de oferta de trabajo, ya sea en el margen
intensivo (con trabajadores que modifican las horas) o en el margen extensivo (con trabajadores
que deciden si van o no participar). Sin embargo, uno tiene la sensación de que esto puede dar
lugar a una descripción engañosa de las fluctuaciones, en términos positivos, e incluso más, en
términos normativos: se piensa a menudo que el costo de las fluctuaciones en el bienestar puede
caer en forma desproporcionada sobre el desempleado.
La primera pregunta es entonces cómo pensar introducir el desempleo en un modelo macro.
Afortunadamente aquí, podemos construir —y se está construyendo— en base a un esfuerzo
semejante desarrollado durante los últimos veinte años, en particular por Peter Diamond, Chris
Pissarides, y Cañada Mortensen (al que llamo entonces "modelo DMP". Para una presentación ver,
por ejemplo, Pissarides (2000)). En este enfoque, el desempleo surge del hecho que el mercado
de trabajo es un mercado descentralizado donde, en cierto periodo, algunos trabajadores están
buscando trabajo, mientras algunos trabajos están buscando trabajadores. Esto tiene dos
implicaciones. La primera es que, por necesidad, existe siempre cierto desempleo —y en forma
simétrica, ciertas vacantes. La segunda es que, cuando a un trabajador le toma tiempo encontrar
otro trabajo, y a una empresa encontrar otro trabajador, el trabajador y la empresa tienen cierto
poder de negociación. Esto implica que el salario —y por implicación, el costo del trabajo, el
empleo, y el desempleo—depende de la naturaleza de la negociación.
Este enfoque ha demostrado ser sumamente productivo por sí sólo. En contraste con el enfoque
6
Otro comentario ligeramente cínico: la adopción de la inflación objetivo por parte de los bancos centrales
no puede resultar totalmente de su comprensión profunda de la nueva teoría monetaria, sino también de la
coincidencia de los resultados teóricos con su permanente deseo de preservar la inflación baja y constante.
9
del agente representativo, a uno le sugiere pensar el mercado de trabajo como un mercado
caracterizado por grandes flujos, flujos de destrucción y creación de trabajo, flujos de
trabajadores entre el empleo, el desempleo y la no participación. Le permite a uno pensar sobre
los efectos de las instituciones del mercado de trabajo en la tasa natural de desempleo. Le
permite a uno pensar sobre si y cómo las fluctuaciones afectan la reasignación, y si algunas de las
fluctuaciones puede atribuirse a variaciones en la intensidad de la reasignación. El modelo es
suficientemente realista en su descripción del mercado de trabajo y puede confrontarse con los
datos, sean ellos datos micro referidos a los trabajadores, datos micro referidos a las empresas o,
aun mejor y disponibles en forma creciente, datos de panel referidos a trabajadores y empresas
en forma conjunta.
Sin embargo, la cuestión central cuando exploramos las implicaciones de una imperfección
específica en las fluctuaciones macro es doble: Primero, ¿cómo los efectos de los shocks afectan
la dinámica de la actividad? Segundo, ¿conduce a la presencia de otros shocks que pueden en sí
mismos ser una fuente importante de fluctuaciones en la actividad? En el contexto de los
mercados de trabajo, estamos sólo empezando a explorar las respuestas. Es crucial que la
respuesta contemple la reacción de los salarios reales a las condiciones del mercado de trabajo
(ver por ejemplo, Shimer (2005), y Hall (2005)).
La determinación del salario descentralizado implica la existencia de una banda salarial dentro
de la cual, empresa y trabajador, están dispuestos a continuar su relación. La existencia de dicha
banda implica que, mientras permanezca dentro de la banda, el salario real puede moverse
menos que los límites de la banda. En términos menos formales, la presencia de una banda
permite una mayor rigidez del salario real del que estaría implicado por un mercado de trabajo
competitivo. Esta rigidez del salario real no tiene en sí misma implicaciones para los equilibrios
existentes, que siguen siendo rentables mientras el salario permanezca dentro de la banda. Sin
embargo, si (y claramente un supuesto grande adicional) el mismo salario real también se paga a
los nuevos contratados, entonces la rigidez del salario real tiene implicaciones importantes en las
fluctuaciones: combinada con las rigideces nominales, más rigidez del salario real implica menos
presión de la actividad sobre la inflación; esto a su vez implica efectos más fuertes y más
persistentes de los cambios en la demanda agregada, y efectos más fuertes y más persistentes de
los shocks de oferta, tales como los aumentos en el precio del petróleo, sobre la actividad.
La presencia de una banda salarial implica que los salarios reales pueden ser más rígidos que sus
homólogos competitivos. Sin embargo, la pregunta es si los salarios reales y, en particular, los
salarios reales de los nuevos contratados, que son los únicos que determinan las decisiones de
contratación de las empresas, son de hecho más rígidos y, en ese caso por qué. Éste también es
un tema candente en la investigación. El trabajo teórico, basado en la exploración de las
restricciones entre los salarios de los trabajadores dentro de una empresa, y el trabajo empírico,
basado en la evidencia micro de los salarios de los trabajadores existentes y nuevos contratados,
está avanzando rápidamente. La próxima etapa parece ser una integración de las fricciones del
mercado que caracterizan al modelo DMP, con modelos de salario de eficiencia que pueden
explicar el salario fijado dentro de las empresas y, en particular, la relación entre salarios
pagados a los trabajadores existentes y nuevos contratados.
10
3.2 Los mercados de crédito y financieros
La actual crisis financiera deja en claro que el enfoque arbitraje en la determinación del término
estructura de las tasas de interés y precios de los activos implícitos en el modelo NK resulta
deficiente: las instituciones financieras importan, y los shocks de su capital o posición de liquidez
parece tener efectos macroeconómicos potencialmente grandes.
La principal imperfección alrededor de la cual se construye el pensamiento sobre los mercados
del crédito es la información asimétrica. Los Propietarios / administradores de un proyecto de
inversión (llámelos empresarios) tienen un mejor conocimiento de la distribución de los
rendimientos del proyecto y de su propio esfuerzo, respecto de los inversores externos. Como
resultado, los inversores externos sólo están dispuestos a participar bajo ciertas condiciones,
especialmente que los empresarios pongan algunos de sus propios fondos en el proyecto, o
pongan suficiente garantía que respalde el proyecto (garantía colateral).
Esto tiene dos implicaciones directas para las fluctuaciones macro. Primero, es probable que
estas restricciones amplifiquen los efectos de otros shocks sobre la actividad. En la medida que
los shocks adversos reduzcan los beneficios y, de ese modo, reduzca los fondos disponibles de los
empresarios así como el valor de la garantía colateral que ellos puedan poner, es probable que
ellos provoquen una caída mas abrupta en la inversión respecto de lo que sucedería en mercados
competitivos. Segundo, los desplazamientos de las restricciones pueden en sí mismas ser fuentes
de shocks. Por ejemplo, los cambios en la incertidumbre percibida que lleva a los inversores
externos a pedir más garantías, pueden llevar a los empresarios a reducir sus panes de inversión,
conduciendo a una menor demanda de corto plazo y una menor oferta de mediano plazo (dos
referencias habituales son Bernanke y Gertler (1989) quienes fueron los primeros en introducir
este mecanismo en un modelo RBC, y Kiyotaki y Moore (1997) quienes mostraron el rol del precio
de los activos y la garantía colateral).
En la medida que los empresarios no sean financiados directamente por inversores finales sino
por intermediarios financieros que a su vez se financian a través de los inversores finales, estos
intermediarios pueden enfrentar los mismos problemas que los empresarios. Para asegurarse que
los intermediarios tengan los incentivos apropiados, los inversores finales pueden desear que los
mismos intermediarios contribuyan con parte de sus propios fondos. De ese modo, las reducciones
en tales fondos obligará a los intermediarios a disminuir el financiamiento a los empresarios y
provocará nuevas caídas en la inversión (una referencia normal aquí es Holmstrom y Tirole
(1997)). Entonces, es probable que las restricciones de capital afecten a prestatarios y
prestamistas.
Además, en la medida que los proyectos de inversión tengan horizontes más largos que aquellos
de los inversores finales, los intermediarios financieros pueden mantener activos de un
vencimiento mayor que el de sus obligaciones. Debido a que los intermediarios financieros
probablemente tengan habilidad específica sobre los préstamos que han hecho y los activos que
mantienen, ellos pueden encontrar difícil o incluso imposible vender estos activos a terceras
partes. Esto a su vez extiende el alcance de los problemas de liquidez: un deseo de los inversores
finales de recibir los fondos antes que venzan los activos puede obligarles a los intermediarios a
vender activos a precios deprimidos, recortar préstamos, o incluso quebrar —posibilidades todas
que se han dado en la actual crisis financiera. (La referencia no macro usual aquí es Diamond y
Dybvig (1983) que ha activado una gran literatura). Estos mecanismos pueden amplificar
11
nuevamente los efectos de los shocks adversos, y los cambios en la distribución de fondos, o en la
impaciencia o percepciones de incertidumbre de los inversores finales, pueden tener efectos
macroeconómicos mayores.
Incluso en los mercados centralizados, los precios de los activos no siempre parecen estar
determinados por su valuación fundamental. Muchos inversores se preocupan por el valor de
reventa, en lugar del simple valor descontado de pagos futuros esperados del activo. La idea que,
cuando éste sea el caso, los activos de vida infinitamente larga pueden estar sujetos a burbujas
especulativas, es bien antigua, sostenida por muchos ejemplos claros en la historia. Un resultado
teórico normal es que, en ausencia de otras imperfecciones, las burbujas especulativas racionales
pueden existir sólo bajo ineficiencia dinámica, una condición que no aparece ser satisfecha en el
mundo real. La reciente investigación ha explorado si, en presencia de otras imperfecciones del
mercado de crédito, las burbujas racionales pueden existir incluso cuando la economía es
dinámicamente eficiente (Ventura (2003), Caballero et al, (2006)). La conclusión es que ellas
pueden existir.
Un enfoque muy diferente al mismo conjunto de problemas, ha explorado las implicaciones de los
límites al arbitraje (un argumento inicialmente formalizado por Shleifer y Vishny (1997)): si bien
es fácil de aceptar la noción de que algunos participantes en los mercados financieros no pueden
actuar racionalmente, la pregunta más difícil es por qué otros no pueden aprovechar las
oportunidades de ganancia implícitas. La respuesta que se ha explorado en la literatura es que,
nuevamente debido a la información asimétrica entre los inversores finales y los potenciales
arbitrajistas, los arbitrajistas no pueden tener acceso a fondos suficientes para arbitrar y hacen
que los precios retornen a sus valores fundamentales.
No obstante, otro enfoque ha explorado el rol de la información pública y privada en la
determinación del precio de los activos, y ha demostrado que los precios pueden responder
bastante a la información pública y muy poco a la información privada, abriendo el campo para
grandes variaciones en los precios en respuesta a las débiles señales públicas (por ejemplo, Morris
y Espinilla (2002), Angeletos y Werning (2006)). La razón: en presencia de complementariedad,
los inversores responderán a las señales públicas, no necesariamente porque ellos les crean
considerablemente sino porque, en contraposición con las señales privadas, ellos saben que otros
inversores también los observan y de ese modo pueden responderles a ellos.
En la medida que puedan haber grandes desviaciones de precios respecto de los fundamentales,
éstas pueden ser claramente fuentes de shocks en la actividad7. Y mientras es más probable que
ellas emerjan en determinados ambientes económicos, por ejemplo, cuando las tasas de interés
son bajas y los inversores son "buscadores de rendimiento", o cuando la economía pasa por una
gran estampida y los inversores se vuelven constantemente demasiado optimistas, (dos creencias
ampliamente sostenidas sobre la conducta de los inversores entre los participantes del mercado
financiero), tales desviaciones afectarán la dinámica de otros shocks, por ejemplo amplificarán
los auges y aumentarán las depresiones subsiguientes.
Todas estas dimensiones de los mercados de crédito y financieros también son el foco de activa
7
Sin embargo, de un modo interesante la así llamada "gran moderación", es decir el descenso en la
volatilidad del producto agregado desde inicios de los 1980s, no ha estado asociado con un declive en la
volatilidad del precio agregado de las acciones. Hasta ahora, lo mismo es cierto en la actual crisis
financiera. Mientras la volatilidad ha aumentado en los mercados financieros, no ha observado todavía a una
volatilidad creciente en la actividad.
12
investigación. Dada la urgencia de entender la actual crisis financiera, uno puede estar seguro
que el progreso acontecerá rápidamente. Sin embargo, lo mismo no es verdad en el próximo tema
que trato.
3.3 Mercados de bienes y márgenes (markups)
En el modelo básico NK, el margen (markup) deseado incluido en el precio por encima del costo
marginal es constante. Esto surge del supuesto según el cual es constante la elasticidad de
sustitución de la utilidad entre bienes diferenciados vendidos por empresas monopolísticamente
competitivas.
La realidad sugiere que este supuesto también está lejos de la evidencia. Primero, para una
cantidad creciente de bienes, desde el software a las drogas, los costos fijos son el principal
componente del costo en lugar de los costes marginales, lo que implica que el precio refleja en
gran parte el markup en lugar del costo marginal. Segundo, los markups deseados parecen ser
todo menos constantes. Dado que ningún costo marginal, ni el markup deseado es directamente
observable, la evidencia aquí es más polémica. Para mi mente, la evidencia más convincente tal
vez surge de la evidencia de los efectos (o la falta de) transferencia (pass-through) en los
movimientos del tipo de cambio. Un reciente trabajo empírico en los Estados Unidos, usando
precios desagregados, muestras que cuando los precios de importación se denominan en dólares
en la aduana, los movimientos del tipo de cambio apenas tienen algún efecto en los precios para
esas importaciones en los Estados Unidos, mientras que si ellos se denominan en divisas en la
aduana, los movimientos del tipo de cambio llevan a efectos de casi el cien por cien en los
precios de esas importaciones (Gopinath et al (2007)). También se demuestra que estas
diferencias sobreviven mucho tiempo luego que los importadores han tenido oportunidad de
actualizar el precio (reprice) de las mercancías y, entonces, no pueden atribuirse a las rigideces
nominales. En otros términos, los movimientos del tipo de cambio tienen grandes y heterogéneos
efectos en los markups cargados por los importadores.
Cómo se mueven los markups, en respuesta a qué y por qué es, sin embargo, casi una incógnita
en tierra de la macro8. Tenemos varias teorías. Una de las más creíbles parece ser que los
mercados de consumo, desarrollados e introducidos en un modelo macro por Phelps (1994) en el
que las empresas piensan en el stock de consumidores como un activo y elige los precios en
concordancia. Tenemos otros, basados en juegos entre empresas imperfectamente competitivas.
Algunas de estas teorías implican markups pro cíclicos, de modo que un aumento en el producto
lleva a un aumento mayor en el precio deseado, y así a más presión sobre la inflación. Algunas
implican, sin embargo, markups contra cíclicos, con la implicación opuesta. También tenemos
cierta evidencia empírica (por ejemplo Bils y Chang (2000)). Pero aún nos queda mucho por
recorrer para tener un cuadro claro o teorías convincentes, y ésta es claramente una área donde
se necesita investigación en forma urgente.
3.4 Algunas cuestiones sin resolver. Shocks, anticipaciones
Habiendo repasado el progreso mercado por mercado, permítame ahora fraccionar la
8
He hallado a I0 economistas renuentes para ayudarnos en este frente: Ellos parecen encontrar la noción de
que uno podría medir confiablemente movimientos en los markups en el transcurso del tiempo, o la noción
de que uno podría rastrear y explicar la evolución de un markup agregado, ambas ingenuas y fatales...
13
investigación de otra manera, y tratar dos problemas que veo como centrales y sin resolver. El
primero es la naturaleza y cantidad de importantes shocks detrás de las fluctuaciones. El segundo
es el papel real de las anticipaciones.
Al pensar en las fluctuaciones, una cuestión importante es si ellas son el resultado de unas pocas
fuentes principales de shocks, o de muchas fuentes diferentes, cada una de ellas con sus propios
efectos dinámicos. La naturaleza de la política óptima, las implicaciones de las fluctuaciones
sobre el bienestar, depende muchísimo de la respuesta.
En la interpretación Keynesiana tradicional de las fluctuaciones jugaron un rol principal los
shocks en la demanda agregada y los "espíritus animales" ("animal spirits"). En cambio, en la
interpretación del modelo RBC, los shocks afectaban la oferta agregada, i.e. shocks tecnológicos.
El rápido estudio precedente de las imperfecciones sugiere que puede haber muchos otros9. Uno
puede aproximarse a la cuestión de dos maneras:
La primera es usar un modelo estructural y obtener estimaciones de los shocks y de sus efectos
dinámicos. Este es, por ejemplo, el enfoque seguido por Smets y Wouters (2007), utilizando el
estado del arte de un modelo DSGE para la economía de Estados Unidos (más sobre modelos DSGE
en la próxima sección). Sus resultados (examinados y discutidos en el artículo de Chari et al
(2008) mencionado antes), es que muchos shocks contribuyen a las fluctuaciones, sin que un
shock particular emerja como dominante. Sin embargo, el problema es que la respuesta depende
muchísimo del modelo específico utilizado para examinar los datos —un comentario que siempre
es cierto, pero que es particularmente relevante en este contexto. Para tomar un ejemplo
conocido, si especificamos incorrectamente la pendiente de una curva de oferta, interpretaremos
movimientos a lo largo de la verdadera curva de oferta como desviaciones de nuestra supuesta
curva de oferta, y entonces como shocks de oferta. La ajustada parametrización de los modelos
DSGE, junto con el uso de Bayesianos robustos anteriores, hace este riesgo particularmente alto.
La segunda manera es usar un enfoque menos estructural, y utilizar un modelo de factores. Los
modelos de factores permiten a uno explorar si pueden explicarse bien los movimientos de un
número grande de variables como los efectos dinámicos de ciertos factores subyacentes.
Entonces, podemos pensar en estos factores como combinaciones lineales de shocks estructurales
mayores. El trabajo que utiliza un modelo de factores para interpretar las fluctuaciones macro,
pienso es sólo para comenzar en serio, y la segunda etapa de ir de los factores a los shocks
subyacentes (una etapa similar de ir de las VARs a las VARs estructurales) todavía es para ser
aprovechado en gran parte. De todos modos, encuentro intrigantes algunos de los resultados que
ya tenemos. Por ejemplo, el trabajo de Stock y Watson (2005) proporciona el siguiente cuadro: si
bien sus tests formales encuentran que se necesitan siete factores para explicar la mayoría de los
movimientos en las 130 series de tiempo macroeconómicas que ellos miran, tres factores (que son
ortogonales por construcción) juegan un papel dominante. El primero explica la mayoría de los
movimientos en cantidades, pero poco acerca de los movimientos en los precios o precios de los
activos. El segundo explica algunos de los movimientos en los precios de los activos, pero poco
sobre los movimientos en cantidades. El tercero explica algunos de los movimientos en los
9
El uso de los "shocks" está lleno de dificultades filosóficas pero también prácticas: los shocks tecnológicos,
los espíritus animales, los cambios percibidos en la incertidumbre, y así sucesivamente, todos tienen causas
más profundas que, en sí mismas, a su vez, tienen causas más profundas, y así sucesivamente. Una
definición operativa es que los shocks son los residuos no explicados de ecuaciones de comportamiento y
que, como resultado, diferentes patrones de tales residuos tienen efectos diferentes en las fluctuaciones.
14
precios, pero poco sobre los movimientos en cantidades o precios de los activos. Existe una
tentadora interpretación pero ligeramente preocupante para estos resultados: que los shocks de
demanda agregada, que de hecho mueven la mayoría de las cantidades en la misma dirección,
tienen un pequeño efecto en los precios y, de este modo, en la inflación. Que los shocks en
precios o salarios, y de ese modo en la inflación, explican la mayoría de los movimientos de la
inflación, con una pequeña relación en o efecto en el producto. Y que el ajuste de precios en
gran parte tiene vida por sí misma, con efectos limitados sobre la actividad. Ésta no es la única
interpretación, ni es el trabajo de Stock y Watson la última palabra pero, en ese caso, deja a uno
intranquilo sobre el control de la inflación por medio de la política monetaria implicada por el
modelo básico, un supuesto que subyace en gran parte de la política monetaria moderna.10
El segundo problema es el rol de las anticipaciones. Las anticipaciones juegan un papel crucial en
el modelo básico NK: siendo todas las otras cosas igual, las anticipaciones del consumo futuro
afectan el consumo actual en la misma proporción. Las anticipaciones de la inflación futura
afectan inflación actual también casi en la misma proporción. Bajo expectativas racionales, esto
implica un rol muy importante para las anticipaciones de sucesos futuros, o de política futura.
Que las anticipaciones importan mucho es evidentemente cierto. Que las personas y empresas
miren al futuro directamente o confiando en las previsiones de otros formándose anticipaciones,
también es evidentemente cierto. Si bien el modelo básico no sobreestima el rol de las
anticipaciones, el rol de las honorables expectativas racionales está, sin embargo, abierto a
discusión. Por cierto, las diversas restricciones del crédito limitan la habilidad de las personas y
empresas de gastar en la anticipación de buenas noticias sobre el futuro. Con seguridad, hay
mucho aprendizaje adaptable en las personas y empresas que miran la evidencia pasada para
actualizar sus creencias (una ruta explorada por Sargent —por ejemplo Sargent (2001)— y usada
por él para explicar la evolución de la curva de Phillips en el tiempo). Indudablemente, también
la racionalidad limitada y las habilidades de procesamiento limitan la capacidad de las empresas
y hogares para tener en cuenta lo que pasará en el futuro (por ejemplo ver el trabajo de Sims
(2006) y, con una formalización ligeramente diferente, una exploración de las implicaciones
macro realizada por Reis (2008)).
Una razón para inquietarse es, por ejemplo, el rol clave dado por los bancos centrales al ancla de
las expectativas inflacionarias de mediano plazo. El modelo básico NK implica que, si el banco
central es capaz de anclar en forma creíble las expectativas de inflación de mediano plazo,
entonces será más favorable la compensación (tradeoff) entre inflación y producto. El argumento
formal confía muchísimo en una especificación de ajuste de precios como la de Calvo que implica
que la inflación actual depende casi cien por cien de la inflación del próximo año que, a su vez,
depende de la inflación futura más distante. Sin embargo, uno puede plantearse razonablemente
si un fijador de precios, que elige precios para el próximo mes o el próximo trimestre, cambiará
su decisión dependiendo cual sea su expectativa de inflación, digamos de cinco años. En otros
términos, mientras deseamos creerlo muchísimo, no estoy seguro realmente que entendamos si
10
La razón de por qué no es ésta la única interpretación puede decirse en estos términos: encontrar en un
mercado dado que la cantidad y precio no están correlacionados (y entonces cada uno poder ser explicado
por un factor separado, siendo ambos factores ortogonales) es de hecho consistente con una curva de oferta
totalmente elástica, una curva de la demanda inelástica, y shocks de oferta y demanda no correlacionados
(interpretación que he dado aquí implícitamente). Pero también es consistente con curvas de oferta
inclinadas hacia arriba y curvas de demanda inclinadas hacia abajo, y la correcta relación entre las
pendientes y variaciones de los shocks de oferta y demanda subyacentes.
15
es tan importante anclar y cómo anclar las expectativas inflacionarias.
4. Convergencia en la metodología
Que haya habido convergencia en la visión puede ser polémico. Que haya habido convergencia en
la metodología no lo es: los artículos Macroeconómicos, ya sea que traten sobre teoría o hechos,
parecen muy similares entre sí en estructura y muy diferentes en la forma que ellos lo hicieron
hace treinta años. Los cambios pueden remontarse en parte a una reacción contra algunos de los
errores del pasado, pero en gran parte al progreso tecnológico: hoy podemos resolver y estimar
modelos que en ese entonces no podríamos resolver de un modo tan simple. Argumentaré que
estas evoluciones han sido en buena medida, pero no por completo, para mejor.
4.1 De modelos pequeños a más grandes
Los modelos pequeños son mecanismos esenciales de comunicación y exposición. Cuando son
exitosos, ellos reducen un problema complejo a su esencia. Ellos bien pueden expresar la
sabiduría de los modelos más grandes, de los más explícitos micro-fundados o bien pueden, en
cambio, activar el desarrollo de tales modelos. El modelo de Dornbusch de la sobre reacción
(overshooting) viene a la mente como un ejemplo de lo último.
No obstante, es cierto que gran parte del trabajo en macro de los años 1960s y 1970s consistió en
ignorar la incertidumbre, reduciendo los problemas a sistemas diferenciales 2x2, y luego dibujar
un elegante diagrama de fases. No hubo alternativa apetecible —como la de alguien que se ha
pasado el tiempo usando la regla de Cramer en sistemas 3x3 y lo conoce demasiado bien. La
macro fue en gran medida un arte, y sólo unos pocos artistas lo hicieron bien.
Hoy esa restricción tecnológica simplemente se ha ido. Con el desarrollo de los métodos
estocásticos de la programación dinámica, y el advenimiento de software como el Dynare —un
conjunto de programas que permiten a uno resolver y estimar modelos no lineales con
expectativas racionales— uno puede especificar modelos dinámicos grandes y resolverlos casi al
toque de un botón. Y en muchos casos los modelos más grandes, aun cuando ellos no pueden
resolverse analíticamente, pueden tener el mismo rol que los tradicionales modelos 2x2, a saber
comunicar un punto básico, o mostrar las implicaciones de un mecanismo básico. Ellos pueden
tratar la incertidumbre sin depender de la equivalencia con la certeza y pueden permitirnos
pensar en cuestiones tales como el ahorro preventivo o el comportamiento de la inversión bajo
irreversibilidad. En gran medida, el progreso tecnológico ha reducido el componente artístico
requerido en la investigación, y esto es para mejor.
4.2 De ecuación por ecuación a la estimación del sistema
En los años 1960s y principios de los 1970s, el trabajo empírico en la macro avanzó a través de
dos caminos. El primero fue la estimación ecuación por ecuación de las ecuaciones de
comportamiento, fueran ellas la función consumo, la ecuación demanda de dinero o la curva de
Phillips. El otro fue el desarrollo de grandes modelos econométricos, construidos reuniendo estas
ecuaciones por separado. Mucho se aprendió de este enorme doble esfuerzo, pero a mediados de
los 1970s, los problemas de estos modelos se estaban volviendo claros. Ellos fueron identificados
mejor por Sims (1980): pocas razones habían acerca de por qué los modelos dinámicos agregados
compuestos de ese modo reproducirían la dinámica real agregada. Poner ceros en una ecuación
16
podría ser una buena aproximación para la ecuación como a tal, pero no necesariamente para el
sistema en su conjunto.
Hoy, la macro econometría está interesada principalmente en la estimación del sistema.
Nuevamente, esto se debe a la disponibilidad de nueva tecnología, a saber computadoras más
poderosas. Los sistemas caracterizados por un conjunto de parámetros estructurales, se estiman
habitualmente como un todo. Debido a que la función de verosimilitud a menudo se comporta
mal (ver más abajo sobre ésta), el enfoque habitual es confiar en la estimación Bayesiana. En
este contexto, la estimación Bayesiana puede verse como un compromiso entre calibración —que
dominaron los primeros trabajos RBC— y máxima verosimilitud —que aparece en la mayoría de los
casos por pedir demasiado de los datos. El vector de autorregresiones (VARs), o VARs estructural
(SVAR) —esto es VARs con un conjunto mínimo de restricciones de identificación que le permiten
a uno rastrear los efectos de por lo menos algunos de los shocks estructurales— se usan de varias
formas: antes de la estimación se utilizan para obtener una interpretación de los datos. Luego de
la estimación se utilizan para comparar las respuestas impulso de los shocks implicados por el
modelo estructural con los obtenidos de la interpretación SVAR obtenida de los datos.
Debido a la dificultad de encontrar buenos instrumentos cuando se estiman relaciones macro, la
estimación ecuación por ecuación ha tomado el asiento de atrás —tal vez demasiado para un
asiento en la parte de atrás (para la estimación y discusión de la curva de Phillips como relación,
ver por ejemplo Gali et al (2005), y la discusión asociada correspondiente en la revista Economía
Monetaria). Ha aparecido otra forma de estimación de información limitada: la estimación y
ajuste de un subconjunto de funciones de impulso respuesta —por ejemplo las funciones de
impulso respuesta de diversas variables macroeconómicas a un shock en el precio del petróleo—
en lugar de la estimación y ajuste del conjunto completo de funciones de impulso respuesta
implicadas por el modelo. La razón es que podemos confiar más en el impulso respuesta estimado
de los shocks en el precio del petróleo que en otros aspectos de los datos, y así preferir usar sólo
esta información para estimar los parámetros subyacentes del modelo.
4.3 DSGEs
Los resultados más visibles de este nuevo enfoque son los modelos de equilibrio general
dinámicos estocásticos (o DSGEs). Son modelos derivados de los fundamentos micro —esto es
maximización de utilidad de consumidores-trabajadores, maximización de beneficios de las
empresas, expectativas racionales, y una completa especificación de imperfecciones, desde las
rigideces nominales a algunas de las imperfecciones discutidas antes— y habitualmente estimados
por métodos Bayesianos. El resultado de la estimación es un conjunto de parámetros
estructurales que caracterizan al modelo por completo. La cantidad de parámetros ha estado
aumentando rápidamente con el poder de las computadoras: por ejemplo Smets y Wouters (2007)
estiman 19 parámetros estructurales y 17 parámetros correspondientes a las varianzas y los
coeficientes de autocorrelación de primer orden correspondientes a los procesos de shocks
subyacentes.
Los modelos DSGE se han vuelto muy extendidos. Las docenas de equipos de investigadores se han
involucrado en su construcción. Casi cada banco central tiene uno, o quiere tener uno. Ellos son
utilizados para evaluar las reglas de política, para hacer pronósticos condicionados, o incluso a
veces para hacer pronósticos reales. Existen pocas dudas de que ellos representan un logro
17
impresionante. Pero ellos también tienen obvios defectos. Éste puede ser un caso en el que la
tecnología ha corrido delante de nuestra habilidad de usarlos, o por lo menos de usarlos mejor:
•
Sólo los datos macroeconómicos pueden dar tanto. La transformación de los parámetros
estructurales del modelo en coeficientes de la forma reducida es mayormente no lineal. La no
identificación es casi frecuente, con conjuntos diferentes de parámetros que producen casi el
mismo valor para la función de verosimilitud —razón por la cual la máxima verosimilitud pura
casi nunca se usa (sobre la no identificación o la identificación débil, ver por ejemplo Canova
y Sala 2006, o Iskrev (2008)). El uso de información adicional, como la incluida en los
Bayesianos preliminares, es conceptual y claramente el enfoque correcto. Pero, en la
práctica, el enfoque se ha vuelto una formulación más bien hipócrita. Los preliminares
utilizados a menudo reflejan los preliminares de otros y, después que la recursividad hacia
atrás ha rastreado sus orígenes, tienen escasa base en los hechos. En parte por la misma
razón, los modelos también son más similares en su estructura de lo que parecería deseable:
se usan aproximadamente los mismos modelos tanto en economías ricas como en economías
emergentes, pese a que sus estructuras son muy diferentes y sus shocks muy distintos.
•
Sólo la teoría actual puede dar tanto. Uno de los principios subyacentes en los DSGEs es que,
en contraste con la anterior generación de modelos, toda la dinámica debe derivarse de los
principios preliminares11. La motivación principal es que sólo bajo estas condiciones, puede
realizarse el análisis del bienestar. Sin embargo, una característica general de los datos, es
que el ajuste de las cantidades a los shocks parece más lento que el implicado por nuestros
modelos estándar de referencia. Reconciliar la teoría con los datos ha llevado dar marcha
atrás a mucha ingeniería poco convincente. La formación de hábitos externos —esto es una
especificación de la utilidad donde la utilidad no depende del consumo, sino del consumo en
relación al consumo agregado retrasado— se ha introducido para explicar el ajuste lento del
consumo. Los costos de inversión convexos cambiantes, en lugar de los costos convexos más
normales y más creíbles de inversión, se han introducido para explicar la rica dinámica de la
inversión. La indexación hacia atrás de los precios, un supuesto que hasta donde yo sé, está
absoluta y objetivamente equivocado, se ha introducido para explicar la dinámica de la
inflación. Y puesto que una vez introducidos, estos supuestos pueden luego culpar a otros,
ellos se han vuelto a menudo normales, pasados de un modelo a otro casi sin discusión.
Esta manera de proceder es claramente improcedente:
Primero, sólo deben introducirse en un modelo tales supuestos adicionales si ellos tienen
apoyo empírico independiente. El hecho que un supuesto adicional ayude al ajuste de la
dinámica agregada de un modelo que, con seguridad, está erróneamente especificado en otra
parte, no es convincente.
Segundo, está claro que la heterogeneidad y la agregación pueden conducir a una dinámica
agregada que tiene una evidente escasa relación con la dinámica individual (ver por ejemplo
Chang et al (2008) sobre la relación de la oferta agregada de trabajo respecto de la oferta de
trabajo individual, cuando se toman decisiones de oferta de trabajo individuales tanto en el
margen intensivo como extensivo, y los trabajadores ven limitado su acceso al seguro). El
progreso está haciéndose, teórica y empíricamente, al derivar del comportamiento individual
las implicaciones de la dinámica agregada (para una reciente revisión y exploración, ver por
11
Esto no quiere decir dar nitidez a una situación difusa cuando a los shocks se les permite habitualmente
tener su propia dinámica inexplicada, por ejemplo, seguir procesos AR(1).
18
ejemplo Caballero y Engel 2007). Sin embargo, hasta que lleguemos allí, puede tener más
sentido reconocer nuestra ignorancia y permitir parte de la dinámica de nuestros modelos
DSGE para tener los datos determinados. En verdad, esto haría imposible el análisis formal del
bienestar. Pero el análisis del bienestar basado en la errónea interpretación de los datos es
claramente peor. Por ejemplo, importa muchísimo para la evaluación de las fluctuaciones en
los costos del bienestar, si el lento ajuste del consumo puede atribuirse a la formación de
hábitos o, en cambio, a la agregación o al lento ajuste de las expectativas. Las funciones de
bienestar apropiadas, en términos de desviaciones de la inflación y desviaciones del producto
de cierta trayectoria suavizada puede ser lo mejor que podemos hacer dado lo que sabemos.
5. A modo de conclusión
He argumentado que la macroeconomía está pasando por un periodo de gran progreso y
entusiasmo, y que ha habido durante las últimas dos décadas convergencia en la visión y en la
metodología.
Sin embargo, existen cuestiones como la excesiva convergencia. Para imitar, pero sólo
ligeramente: un artículo macroeconómico hoy sigue a menudo estrictas reglas: empieza con una
estructure del equilibrio general en la que los individuos aumentan al máximo el valor presente
esperado de su utilidad, las empresas aumentan al máximo sus beneficios, y los mercados se
despejan. Luego introduce un giro inesperado, sea él una imperfección o el cierre de un sistema
particular de mercados, y aparecen las implicaciones del equilibrio general. Luego realiza una
simulación numérica, basada en la calibración, y demuestra que el modelo responde bien.
Finaliza con una evaluación del bienestar.
Tales artículos pueden ser grandes, y los mejores de hecho lo son. Pero, la mayoría de las veces,
ellos padecen de algunas de fallas que apenas discutí en el contexto de los DSGEs: la Introducción
de un ingrediente adicional en el modelo de referencia ya cargado con supuestos cuestionables. Y
con poca o ninguna validación independiente para el ingrediente agregado. Entonces, deseo
finalizar esta revisión con tres esperanzas/súplicas relacionadas12.
La primera es para la rehabilitación de la modelización del equilibrio parcial en macroeconomía.
Si bien puede ser sólo una primer paso, es importante entender las implicaciones de una
particular imperfección en sí misma, i.e. tomando como dado una gran parte del ambiente
macroeconómico. Forzar a examinar las mismas implicaciones de esta imperfección en el
equilibrio general crea habitualmente intercambios (tradeoffs) poco atractivos. Por ejemplo,
muchas imperfecciones llevan a la heterogeneidad del ingreso y la riqueza entre los agentes; un
cierre del equilibrio general requiere la introducción de varios supuestos auxiliares, como
supuestos poco realistas sobre la existencia de diversas formas de seguro, haciéndole difícil al
modelo evaluar los roles relativos del supuesto central y los supuestos auxiliares. Lo mejor en
este caso es proceder en dos etapas, la primera con el equilibrio parcial, y la segunda con el
problema —admitido mucho más duro— del equilibrio general13.
12
Andrei Shleifer me ha señalado que mis tres súplicas son por una mayor "arquitectura abierta" del campo,
tomando prestada una expresión del diseño de computadoras.
13
Por citar a Solow (2008): "Mi preferencia general es por los modelos pequeños, transparentes, adaptados a
menudo al equilibrio parcial, normalmente señalados para entender alguna pequeña porción del mecanismo
(macro)económico".
19
La segunda es que no debe introducirse ningún ingrediente adicional en un modelo de equilibrio
general sin alguna validación independiente. Tenemos creciente acceso a los grandes conjuntos
de datos micro que nos permiten aprender sobre aspectos de la conducta individual. Estamos
derivando teorías de la agregación que nos permiten derivar sólidamente las implicaciones
dinámicas agregadas de la conducta individual (para un ejemplo referido al caso de la inversión,
ver Caballero et. al. (1995)). En la medida de lo posible, ese debiera ser nuestro modo de
proceder. Presentar estas descripciones más realistas del comportamiento agregado en un
modelo DSGE, debe ser una última etapa, no una primer etapa.
La tercera se refiere a la relegalización de atajos y de modelos simples. Los modelos DSGE
tienden a ser muy complejos. Aproximar relaciones complejas por medio de otras más simples
auxilia la intuición y la comunicación. Los atajos del pasado pudieron haber sido potencialmente
peligrosos, sólo para ser usados por los maestros del ramo. Pero el trabajo es ahora
potencialmente mucho más fácil. Podemos comenzar con modelos totalmente articulados y ver si
podemos capturar su esencia a través de relaciones más simples. Podemos comprobar sí y cuándo
las implicaciones del atajo se ajustan a las características principales del modelo completamente
desarrollado (un buen ejemplo en este contexto es Krusell y Smith (1998)). Debiéramos desear
hacer más de esto de lo que hoy hacemos.
20
Literatura Citada
Angeletos, M., Werning I, 2006, Crises and Prices: Information Aggregation, Multiplicity, and
Volatility, American Economic Review, 96(5), 1720-1736.
Bernanke, B., Gertler, M., 1989, Agency Costs, Net Worth, and Business Fluctuations, American
Economic Review, 79(1), 14-31.
Beaudry, P., Portier, F., 2006, Stock Prices, News, and Economic Fluctuations, American
Economic Review, 96(4), September, 1293-1307.
Bils, M., Chang, Y., 2000, Understanding How Price Responds to Costs and Production, CarnegieRochester Conference Series on Public Policy, 52(1), 33-77.
Blanchard, O., 1992, For a Return to Pragmatism, Federal Reserve Bank of Saint Louis Conference
on Business Cycles, Proceedings, 121-132.
Blanchard, O., Gali, J., 2007, Real Rigidities and the New Keynesian Model, February 2007,
Journal of Money, Credit and Banking, Proceedings of the Conference on “Quantitative Evidence
on Price Determination, 35-66.
Blanchard, O., L'Huillier, J.P, Lorenzoni, G., 2008, News, Noise, and Fluctuations, mimeo MIT,
August.
Caballero, R., Engel, E, Haltiwanger, J., 1995, Plant Level Adjustment and Aggregate Investment
Dynamics, Brookings Papers on Economic Activity, (2), 1-54.
Caballero, R., Farhi, E., Hammour, M., 2006, Speculative Growth: Hints from the US Economy,
American Economic Review, 66(4), 1159-1192.
Caballero, R., Engel, E, 2007, Price Stickiness in Ss models; New Interpretations of Old Results,
Journal of Monetary Economics, 54.
Canova, F., Sala L., 2006, Back to Square One: Identification Issues in DSGE Models, Working
Paper 583, European Central Bank.
Chang, Y.S., Sungbae, A., Sun-Bin, K., 2008, Can a Representative Agent Model Represent a
Heterogeneous Agent Economy?, mimeo, March.
Chari, V.V, Kehoe, P., McGrattan E. , 2008, New-Keynesian Models Are Not Yet Useful for Policy
Analysis, mimeo, Minneapolis Fed, forthcoming AEJ-Macro.
Christiano, L, Eichenbaum, M., Evans, C, 2005, Nominal Rigidities and the Dynamic Effects of a
Shock to Monetary Policy, Journal of Political Economy, 113(1).
Clarida, R., Gali, J, Gertler, M, 1999, The Science of Monetary Policy: A New-Keynesian
Perspective, Journal of Economic Literature, December, 1661-1707.
Diamond, D., Dybvig, P.H., 1983, Bank Runs, Deposit Insurance, and Liquidity, Journal of Political
Economy, 91(3), 401-419.
Dornbusch, R., 1976, Expectations and Exchange Rate Dynamics, Journal of Political Economy,
84, 1161-1176.
Dynare, Simulation software, www.cepremap.cnrs.fr/dynare/
Gali, J., Gertler, M., López-Salido, 2005, Robustness of the Estimates of the Hybrid New
Keynesian Phillips Curve, Journal of Monetary Economics, 52, 1107-1118.
21
Golosov, M., Lucas, R., 2007, Menu Costs and the Phillips Curve, Journal of Political Economy,
115(2), 171-199.
Gopinath, G. , Rigobon, R., Itskhoki O., 2007, Currency Choice and Exchange Rate Passthrough,
mimeo Harvard.
Hall, R., 2005, Employment Fluctuations with Equilibrium Wage Stickiness, American Economic
Review, 95(1), 50-64.
Holmstrom, B., Tirole, J., 1997, Financial Intermediation, Loanable Funds, and the Real Sector,
Quarterly Journal of Economics, 91(3), 401-419.
Iskrev, N., 2008, How Much Do We Learn from the Estimation of DSGE Models? A Case Study of
Identification Issues in a New Keynesian Business Cycle Model, mimeo, Michigan, May.
Krusell, P. and A. Smith, 1998, Income and Wealth Heterogeneity in the Macro economy, Journal
of Political Economy, 106(5), 867-896.
Lorenzoni, G., 2008, A Theory of Demand Shocks, mimeo MIT, January, American Economic
Review, forthcoming.
Lucas, R., Sargent T, 1978, After Keynesian Economics, After the Phillips curve: Persistence of
high inflation and high unemployment, Federal Reserve Bank of Boston Conference volume.
Mackowiak, B., Smets, F., 2008, On the Implications of Micro Price Data for Macro Models,
mimeo, ECB.
Morris, S., Shin, H., 2002, Social Value of Public Information, American Economic Review, 52(5),
1521-1534.
Pissarides, C., 2000, Equilibrium Unemployment Theory, Cambridge University Press.
Phelps, E., 1994, Structural slumps, Harvard University Press, Cambridge, MA.
Prescott, E. , 1986, Response to a Skeptic, Federal Reserve Bank of Minneapolis Quarterly
Review, Fall.
Reis, R., 2008, Optimal Monetary Policy Rules in an Estimated Sticky-Information Model, mimeo
Princeton.
Rotemberg, J., 2008, Cyclical Wages in a Search-and-Bargaining Model with Large Firms,
International Seminar on Macroeconomics 2006, L. Reichlin and K. West (eds.), U. of Chicago
Press, 65-114
Samuelson, P., 1955, Economics, 3rd ed, New York: McGraw-Hill.
Sargent, T., 2001, The Conquest of American Inflation, Princeton: Princeton University Press.
Shimer, R., 2005, The Cyclical Behavior of Equilibrium Unemployment and Vacancies, American
Economic Review, 95(1), 25-49.
Shimer, R., 2008, Convergence in Macroeconomics: The Labor Wedge, mimeo, Chicago,
forthcoming AEJ-Macro.
Shleifer, A., Vishny R, 1997, The Limits of Arbitrage, Journal of Finance, 52(1), 35-55.
Sims, C., 1980, Macroeconomics and Reality, Econometrica, 48(1), 1-48.
Sims, C., 2008, Rational Inattention: A Research Agenda, mimeo Princeton.
22
Smets, F., Wouters, R., 2007, Shocks and Frictions in US Business Cycles: A Bayesian DSGE
Approach, American Economic Review, 97(3), 586-606.
Solow, R., 2008, The State of Macroeconomics, Journal of Economic Perspectives, forthcoming.
Summers, L., 1986, Some Skeptical Observations on Real Business Cycle Theory, Federal Reserve
Bank of Minneapolis Quarterly Review, Fall.
Ventura, J., 2003, Economic Growth with Bubbles, Universitat Pompeu Fabra, CREI Economics
Working Paper 848.
Woodford, M., 2003, Interest and Prices, Princeton University Press.
Woodford, M., 2008, Convergence in Macroeconomics, mimeo, Columbia, forthcoming AEJ-Macro.
23
Descargar