modelos macroeconómicos para la evaluación de la política … · 2018-09-04 · 4 un modelo de...

31
Jordi Galí es Director del Centre de Recerca en Economía Internacional (CREI) y Profesor de Economía de la Universitat Pompeu Fabra, en Barcelona, España. Mark Gertler Profesor de Economía de la cátedra Henry y Lucy Moses en la Universidad de Nueva York, en Nueva York, Estados Unidos. Sus direcciones de correo electrónico son <[email protected] > y [email protected] , respectivamente. Journal of Economic Perspectives. Volumen 21, Número 4, otoño de 2007, páginas 25-45 Modelos macroeconómicos para la evaluación de la política monetaria Preparado por Jordi Galí y Mark Gertler La modelización macroeconómica cuantitativa cayó en desuso en los años setenta por dos razones interrelacionadas: En primer lugar, algunos de los modelos de ese entonces, como el modelo econométrico Wharton y el modelo Brookings, fracasaron espectacularmente a la hora de pronosticar la estanflación de los años setenta. En segundo lugar, los principales macroeconomistas los fustigaron. Lucas (1976) y Sargent (1981), por ejemplo, consideraron que la falta de un método basado en la optimización para el desarrollo de ecuaciones estructurales significaba que los coeficientes estimados del modelo probablemente no serían invariables frente a nuevas tendencias de los regímenes de políticas u otros cambios estructurales. Igualmente, Sims (1980) señaló que la ausencia de supuestos convincentes y concretos que permitan despejar la fuerte simultaneidad de las variables macroeconómicas significaba que sería muy difícil confiar en la estabilidad de los parámetros en distintos tipos de regímenes. Estas críticas contundentes aclaran por qué los modelos econométricos de una era previa, adaptados en gran medida a relaciones estadísticas, no sobrevivieron los cambios estructurales ocurridos en los años setenta. En los años ochenta y noventa, muchos bancos centrales siguieron empleando modelos estadísticos de forma reducida para generar pronósticos económicos con el supuesto de que no se producirían cambios estructurales, pero sabiendo que dichos modelos no eran fiables para predecir el resultado de las modificaciones de las políticas. Por este motivo, las autoridades encargadas de formular políticas combinaron sus instintos con criterios y corazonadas para evaluar cómo incidirían en la economía las diferentes trayectorias de las políticas. En los últimos 10 años, sin embargo, los marcos macroeconómicos cuantitativos para la evaluación de las políticas han vuelto a ponerse de moda. Lo que facilitó el desarrollo de estos marcos fueron dos teorías independientes surgidas en respuesta al desmoronamiento de los modelos macroeconómicos tradicionales: la teoría neokeynesiana y la teoría del ciclo económico real. El paradigma neokeynesiano surgió en los años ochenta como un intento por proporcionar fundamentos microeconómicos a conceptos keynesianos clave, como las fluctuaciones agregadas, la rigidez de los precios nominales y la no neutralidad del dinero (véanse análisis y referencias en Mankiw y Romer, 1991). No obstante, los modelos de esta teoría por lo general eran estáticos y estaban concebidos principalmente para análisis cualitativos en lugar de cuantitativos. En cambio, la teoría del ciclo económico real, desarrollada al mismo tiempo, demostró que era posible construir modelos macroeconómicos cuantitativos exclusivamente “inductivos”, es decir, a partir de comportamientos de optimización explícitos a nivel individual (Prescott, 1986). Pero estos modelos abstraían factores monetarios y financieros y por lo tanto no podían abordar los temas que hemos

Upload: others

Post on 14-Mar-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

■ Jordi Galí es Director del Centre de Recerca en Economía Internacional (CREI) y Profesor de Economía de la Universitat Pompeu Fabra, en Barcelona, España. Mark Gertler Profesor de Economía de la cátedra Henry y Lucy Moses en la Universidad de Nueva York, en Nueva York, Estados Unidos. Sus direcciones de correo electrónico son <[email protected]> y [email protected], respectivamente.

Journal of Economic Perspectives. Volumen 21, Número 4, otoño de 2007, páginas 25-45

Modelos macroeconómicos para la evaluación de la política monetaria

Preparado por Jordi Galí y Mark Gertler

La modelización macroeconómica cuantitativa cayó en desuso en los años setenta por dos razones interrelacionadas: En primer lugar, algunos de los modelos de ese entonces, como el modelo econométrico Wharton y el modelo Brookings, fracasaron espectacularmente a la hora de pronosticar la estanflación de los años setenta. En segundo lugar, los principales macroeconomistas los fustigaron. Lucas (1976) y Sargent (1981), por ejemplo, consideraron que la falta de un método basado en la optimización para el desarrollo de ecuaciones estructurales significaba que los coeficientes estimados del modelo probablemente no serían invariables frente a nuevas tendencias de los regímenes de políticas u otros cambios estructurales. Igualmente, Sims (1980) señaló que la ausencia de supuestos convincentes y concretos que permitan despejar la fuerte simultaneidad de las variables macroeconómicas significaba que sería muy difícil confiar en la estabilidad de los parámetros en distintos tipos de regímenes. Estas críticas contundentes aclaran por qué los modelos econométricos de una era previa, adaptados en gran medida a relaciones estadísticas, no sobrevivieron los cambios estructurales ocurridos en los años setenta.

En los años ochenta y noventa, muchos bancos centrales siguieron empleando modelos estadísticos de forma reducida para generar pronósticos económicos con el supuesto de que no se producirían cambios estructurales, pero sabiendo que dichos modelos no eran fiables para predecir el resultado de las modificaciones de las políticas. Por este motivo, las autoridades encargadas de formular políticas combinaron sus instintos con criterios y corazonadas para evaluar cómo incidirían en la economía las diferentes trayectorias de las políticas. En los últimos 10 años, sin embargo, los marcos macroeconómicos cuantitativos para la evaluación de las políticas han vuelto a ponerse de moda. Lo que facilitó el desarrollo de estos marcos fueron dos teorías independientes surgidas en respuesta al desmoronamiento de los modelos macroeconómicos tradicionales: la teoría neokeynesiana y la teoría del ciclo económico real. El paradigma neokeynesiano surgió en los años ochenta como un intento por proporcionar fundamentos microeconómicos a conceptos keynesianos clave, como las fluctuaciones agregadas, la rigidez de los precios nominales y la no neutralidad del dinero (véanse análisis y referencias en Mankiw y Romer, 1991). No obstante, los modelos de esta teoría por lo general eran estáticos y estaban concebidos principalmente para análisis cualitativos en lugar de cuantitativos. En cambio, la teoría del ciclo económico real, desarrollada al mismo tiempo, demostró que era posible construir modelos macroeconómicos cuantitativos exclusivamente “inductivos”, es decir, a partir de comportamientos de optimización explícitos a nivel individual (Prescott, 1986). Pero estos modelos abstraían factores monetarios y financieros y por lo tanto no podían abordar los temas que hemos

2

descrito. En este contexto, los nuevos marcos representan una síntesis natural de los enfoques neokeynesiano y del ciclo económico real.

En general, los avances han sido notables. Hace 10 años no habría sido posible

imaginar que un modelo macroeconométrico rigurosamente estructurado tuviera mucho potencial para captar datos del mundo real, y menos aún para facilitar el proceso de formulación de las políticas monetarias. Sin embargo, últimamente se han elaborado marcos que arrojan pronósticos tan acertados como los de los modelos de forma reducida de antaño (por ejemplo, Christiano, Eichenbaum y Evans, 2005; Smets y Wouters, 2003, 2007). Dado que tienen fundamentos teóricos explícitos, estos modelos también pueden usarse para realizar experimentos contrafácticos sobre las políticas. Una indicación clara de que estos marcos han superado un umbral crítico de credibilidad es que están siendo usados de forma generalizada por bancos centrales de todo el mundo. A estos modelos aún les falta mucho para eliminar los aspectos informales del proceso de las políticas monetarias, pero lo cierto es que están infundiendo mayor disciplina en la manera de concebir y comunicar la política monetaria.

Cabe señalar, claro está, que se han registrado algunos avances importantes entre los

modelos macroeconómicos tradicionales y su versión más reciente. Marcos como los de Taylor (1979) y Fuhrer y Moore (1995) presentan varias características importantes ausentes en modelos anteriores: 1) la hipótesis de la tasa natural de Phelps/Friedman sobre la falta de una relación de compensación a largo plazo entre la inflación y el desempleo, y 2) la formación racional de expectativas. Pero al mismo tiempo, las relaciones estructurales de estos modelos típicamente no evolucionaron a partir de la optimización individual. A la larga estos marcos fueron susceptibles a algunas de las mismas críticas que condujeron a la generación de modelos anteriores a su extinción (por ejemplo, Sargent, 1981). También es pertinente el hecho de que en los últimos 20 años la optimización dinámica y la teoría del equilibrio general dinámico han registrado avances significativos. Para comunicarse con los miembros de la profesión en general, en especial con las nuevas generaciones de especialistas, quizás era necesario que se desarrollaran modelos macroeconómicos aplicados que empleen las mismas herramientas y técnicas que han pasado a ser de uso corriente en los análisis económicos modernos.

El objetivo general del presente estudio es describir los componentes de la nueva

generación de modelos macroeconómicos. Entre otros aspectos, se describen las diferencias clave con respecto a la generación previa de modelos macroeconómicos. En tal sentido, se destaca lo que estos nuevos marcos significan para las políticas, y en especial dos implicaciones fundamentales.

1. La transmisión monetaria depende en forma crítica de las expectativas del sector

privado con respecto a la trayectoria del instrumento de política del banco central, es decir, la tasa de interés a corto plazo. Desde la revolución de las expectativas racionales, se entiende bien que el efecto de la política monetaria depende de las expectativas del sector privado. Pero los estudios iniciales sobre este tema por lo general se centraba en cómo la formación de expectativas influía en el efecto contemporáneo de un cambio de tendencia de la oferta de dinero sobre las variables reales y nominales (por ejemplo, Fischer, 1977; Taylor,

3

1980). En este sentido, los nuevos estudios difieren en dos aspectos importantes. En primer lugar, como se señala más adelante, reconocen que los bancos centrales suelen emplear la tasa de interés a corto plazo como instrumento de política. En segundo lugar, en el modelo, las expectativas sobre la evolución futura de la economía se incorporan en las ecuaciones estructurales, ya que estas relaciones agregadas se basan en las decisiones que toman los hogares y las empresas individuales con miras al futuro. Por lo tanto, los valores corrientes del producto agregado y la inflación dependen no solo de las decisiones del banco central con respecto a la tasa de interés a corto plazo en un determinado momento, sino también de la trayectoria futura que se prevé seguirá ese instrumento. La implicación práctica es que la facilidad con que el banco central gestione las expectativas del sector privado acerca de las condiciones de las políticas determina en gran medida la eficacia de la institución. Dicho de otro modo, en estos paradigmas el proceso de las políticas depende de la comunicación transparente de las intenciones futuras en igual o en mayor medida que de la selección del instrumento de política en sí. En tal sentido, estos modelos son un claro argumento a favor de una mayor transparencia de las intenciones, un enfoque que los bancos centrales de todo el mundo parecen estar adoptando.

2. Los valores naturales (equilibrio de precios flexibles) del producto y de la tasa de

interés real brindan importantes puntos de referencia para la política monetaria, y pueden fluctuar considerablemente. Si bien estas rigidices se incorporan en estos modelos de una manera más rigurosa que antes, aún es cierto que se pueden definir valores naturales del producto y la tasa de interés real que surgirían en una situación de equilibrio si estas fricciones no existieran. Estos valores naturales son parámetros importantes, en parte porque reflejan el nivel eficiente (restringido) de actividad económica y en parte porque la política monetaria no puede provocar desviaciones persistentes con respecto a los valores naturales sin inducir presiones inflacionarias o deflacionarias. En los marcos tradicionales, los niveles naturales del producto y la tasa de interés real suelen modelizarse como tendencias suavizadas. En los nuevos marcos se modelizan explícitamente. De hecho, en términos generales, se corresponden con los valores del producto y la tasa de interés real que generaría un modelo de ciclo económico sin fricciones, en función de las preferencias y la tecnología adoptadas como supuestos. Además, según la teoría del ciclo económico real, estos niveles pueden variar considerablemente, ya que la economía soporta constantemente shocks “reales”, como los shocks del precio del petróleo, variaciones en el ritmo de avance tecnológico, cambios tributarios, etc. Por lo tanto, estos nuevos modelos plantean a los bancos centrales un desafío importante: hacer un seguimiento de la evolución del equilibrio natural de la economía, que no es directamente observable.

En esta sección se establece un modelo de referencia canónico que capta las

características básicas de los nuevos modelos macroeconómicos y se extraen las respectivas conclusiones para la política monetaria. Posteriormente se analizan algunas de las consideraciones de política planteadas por los nuevos modelos. Se concluye con un análisis de ciertas modificaciones del modelo de referencia que son necesarias para aplicarlo a los datos, y de otras ampliaciones que tienen por objeto hacerlo más realista.

4

Un modelo de referencia

En esta sección se presenta un marco de referencia que capta las características básicas de la nueva generación de modelos macroeconómicos y que es de utilidad para los análisis cuantitativos. El marco específico que se elaboró es una variante del modelo canónico estudiado en Goodfriend y King (1997), Clarida, Galí y Gertler (1999), Woodford (2003) y Galí (de próxima publicación), entre otros, pero con una modificación para tener en cuenta la inversión1. Al igual que en el paradigma del ciclo económico real, el punto de partida es un modelo dinámico estocástico de equilibrio real. Más específicamente, se trata de una versión estocástica del modelo de crecimiento convencional neoclásico, modificado para admitir variabilidad en la oferta de mano de obra2. Como se señaló, para adaptar el marco a los análisis de la política monetaria es necesario introducir no solo variables nominales explícitamente, sino también algún tipo de rigidez nominal. Para lograrlo, al modelo sin fricciones del ciclo económico real se le añaden tres elementos básicos muy característicos del paradigma neokeynesiano: dinero, competencia monopolística y rigideces nominales, que se analizan brevemente a continuación. En los nuevos modelos monetarios, la función esencial del dinero es hacer las veces de unidad de cuenta, es decir, la unidad en que se cotizan los precios de los bienes y activos. La existencia del dinero por lo tanto da lugar a los precios nominales. No obstante, es importante hacer una distinción entre dinero y política monetaria: La política monetaria influye en la actividad real a corto plazo exclusivamente a través de su efecto en las tasas de interés del mercado. Concretamente, el banco central influye en el gasto agregado al controlar la tasa de interés a corto plazo y al incidir en la curva total de rendimiento a través de las expectativas del mercado con respecto a sus decisiones sobre la tasa futura a corto plazo. Para controlar la tasa de interés a corto plazo, el banco central ajusta la oferta de dinero (masa monetaria) para fijar una demanda de dinero acorde con la tasa de interés que se busca. Sin embargo, estas fluctuaciones de la masa monetaria, no tienen un efecto independiente en la demanda agregada. Dado que los saldos de dinero real son un componente insignificante de la riqueza total, estos modelos están diseñados de una forma que abstrae el efecto riqueza del dinero en el gasto. Por lo tanto, si bien la política monetaria es un elemento central de estos modelos, la única función que cumple el dinero propiamente dicho es la de proporcionar una unidad de cuenta.

1 Se ha evitado asignar un nombre a los nuevos marcos porque se han usado varios. Goodfriend y King utilizan el término “nueva síntesis neoclásica”, mientras que Woodford los llama “neowicksellianos”. A instancias de un árbitro, en nuestro estudio de 1999 realizado con Richard Clarida, utilizamos el término “neokeynesianos”, que quizás haya pasado a ser el más común, a pesar de que no refleja adecuadamente la influencia de la teoría del ciclo económico real. 2 Observamos que el modelo del ciclo económico real considera que los shocks que afectan la productividad total de los factores son la causa principal de los ciclos económicos. En cambio, las versiones estimadas de los nuevos modelos monetarios hacen pensar que las perturbaciones intertemporales (es decir, los shocks al consumo o al gasto de inversión) son la clave. Véanse, por ejemplo, Galí y Rabanal (2005), Smets y Wouters (2007), o Primiceri, Schaumberg y Tambalotti (2006).

5

Para incorporar la rigidez de los precios de una manera rigurosa, las empresas tienen que ser los agentes que determinan los precios, no los que los aceptan. Por lo tanto, hay que introducir cierto tipo de competencia imperfecta, para que las empresas enfrenten curvas de demanda con pendiente descendente que las obliguen a tomar decisiones significativas con respecto a la fijación de precios. Esto se puede lograr de manera directa utilizando una versión del modelo de Dixit y Stiglitz (1977) de competencia monopolística, en el que cada empresa produce un bien diferenciado y fija el precio de ese bien asumiendo como dadas todas las variable agregadas; en general, los nuevos marcos han adoptado este método.

Al igual que con los modelos tradicionales, lo que a la larga le permite a la política

monetaria influir sobre la economía real a corto plazo es la existencia de rigideces temporales nominales. Dado que los precios nominales se ajustan lentamente, al manipular directamente las tasas de interés nominal el banco central puede influir en las tasas de interés reales y, por ende, en las decisiones de gasto real, al menos a corto plazo. Los modelos tradicionales introducen el ajuste lento de los precios al postular una “curva de Phillips” que vincula la inflación con un algún tipo de indicador de la demanda excedentaria, así como valores rezagados de la inflación pasada. En cambio, en la nueva generación de modelos se deriva una ecuación de inflación —por lo general denominada curva de Phillips neokeynesiana— explícitamente a partir de las decisiones de fijación de precios de la empresa, como se describe más adelante.

Para describir nuestro marco canónico, y al igual que con el marco tradicional,

conviene organizar el sistema de acuerdo con tres bloques: demanda agregada, oferta agregada y políticas. Además, cada subsector puede representarse con una sola ecuación. En el apéndice disponible en la versión electrónica de este documento (<http://www.e-jep.org>), se describen en detalle las relaciones entre la demanda y la oferta agregadas. De aquí en adelante presentamos ecuaciones condensadas de la demanda y la oferta agregadas junto con una motivación informal. Al añadir una nueva relación que describe la política monetaria es posible expresar el modelo como un sistema de tres ecuaciones, similar en espíritu a la forma en que se han representado los modelos macroeconómicos tradicionales. La principal diferencia con respecto al marco tradicional es, desde luego, que la nueva generación de modelos tiene fundamentos microeconómicos explícitos. Demanda/oferta agregadas: Una representación compacta

Al formular el modelo de referencia conviene tener en cuenta que lo que la política monetaria puede influir es la desviación de la actividad económica con respecto a su nivel natural. En nuestro modelo de referencia, el nivel natural de actividad económica se define como el equilibrio que surgiría si los precios fueran perfectamente flexibles y si no existiera ninguna otra distorsión cíclica. Así, en el caso limitante de flexibilidad perfecta de los precios, el marco asume las características de un modelo de ciclo económico real. Una diferencia es que en el marco actual, dado que hay competencia monopolística y no competencia perfecta, el nivel natural de actividad económica está por debajo del nivel eficiente desde el punto de vista social. No obstante, esta distinción no afecta la naturaleza de la dinámica cíclica vinculada al nivel natural de actividad económica, el cual, en nuestro

6

marco de referencia, se asemeja a la de un modelo de ciclo económico real con preferencias y tecnología similares.

La relación de la demanda agregada se desarrolla a partir de las decisiones de gasto

de un hogar representativo y una empresa representativa. En el modelo de referencia, los mercados de capital y de seguros son perfectos. En este entorno sin fricciones, un hogar satisface exactamente la condición optimizadora de las decisiones de consumo/ahorro. Es decir, ajusta el crecimiento previsto de su consumo en forma directa con los movimientos de la tasa de interés real prevista. Del mismo modo, en los mercados de capital perfectos, la empresa representativa satisface exactamente la condición optimizadora de la inversión, es decir, varía la inversión en forma proporcional con la q de Tobin, o la razón entre el valor sombra del capital instalado y el valor de sustitución.

De las decisiones de gasto individuales se puede derivar una ecuación de tipo curva

IS que relaciona inversamente la demanda agregada con la tasa de interés a corto plazo, de manera similar a la ecuación que surge del marco tradicional. Sin embargo, a diferencia del modelo tradicional, en el nuevo también son importantes las expectativas sobre el valor futuro de la tasa de interés a corto plazo, ya que influyen en las tasas de interés a corto plazo y en los precios de los activos.

Concretamente, y˜t denota la brecha porcentual entre el producto real y su nivel natural, rr˜l

t denota la brecha entre la tasa de interés real a largo plazo y su nivel natural, y q˜t denota la correspondiente brecha porcentual en la q de Tobin3. A continuación, realizando aproximaciones lineales logarítmicas del modelo de referencia y de la variante con precios flexibles, se puede derivar una ecuación de demanda agregada que relaciona la brecha del producto, y˜t, inversamente con la brecha de la tasa de interés real, rr˜l

t , y directamente con la brecha en la q de Tobin, q˜t, a saber:

siendo ϒc y ϒi las proporciones de consumo e inversión, respectivamente, en el producto de estado constante; Ϭ la elasticidad intertemporal de substitución; y η la elasticidad de la razón inversión/capital con respecto a la q de Tobin. Esta ecuación relaciona efectivamente la brecha del producto con la suma de dos términos.

3 Cabe aclarar que el nivel natural de actividad económica en cualquier período determinado corresponde, por definición, al período t, condicionado a la masa de capital al comienzo del período. La política monetaria no ejerce ningún efecto sobre el nivel natural de actividad económica que hemos definido. La política monetaria puede afectar la trayectoria de la masa de capital, aunque tal efecto suele ser pequeño en términos porcentuales de acuerdo con las parametrizaciones aceptables del modelo.

7

El primer término es la brecha de consumo y el segundo es la brecha de inversión. Concretamente, la brecha de consumo varía en relación inversa con la brecha de la tasa de interés real a largo plazo rr˜l

t. Por intuición, si la tasa de interés real a largo plazo está por encima de su valor natural, los hogares estarán inducidos a ahorra más que el estado de equilibrio natural, y por consiguiente el consumo será más bajo. Análogamente, si q está por encima de su valor natural, las empresas estarán inducidas a invertir más de lo que invertirían en un entorno de precios flexibles.

Para vincular la demanda agregada a la política monetaria resulta útil definir la brecha

de la tasa de interés real a corto plazo, rr˜t, como la diferencia entre la tasa de interés a corto plazo y su valor de equilibrio natural, rrn

t, es decir:

siendo rt la tasa de interés nominal a corto plazo y π t+1 la tasa de inflación de t a t + 1.

De esta relación se desprenden dos proposiciones. La primera es que la brecha de la

tasa de interés real a largo plazo, rr˜lt, depende directamente del valor corriente y el valor

previsto de la brecha de la tasa de interés real a corto plazo, rr˜t. Esta proposición surge del vínculo entre las tasas de interés a largo plazo y las tasas de interés a corto plazo corrientes y previstas que se deducen de la hipótesis sobre expectativas de la curva de rendimientos. La segunda proposición es que la brecha en la q de Tobin, q˜t, depende inversamente de los valores corriente y previsto de la brecha de la tasa de interés a corto plazo, rr˜t. Esta segunda proposición surge porque la q de Tobin depende de los rendimientos descontados de la inversión de capital, cuyas tasas de descuento dependen de la trayectoria prevista de las tasas de interés real a corto plazo.

Por lo tanto, se puede considerar que el mecanismo mediante el cual la política

monetaria influye en la demanda agregada funciona de la siguiente manera: dado que los precios se ajustan lentamente, al modificar la tasa de interés nominal a corto plazo el banco central puede influir en la tasa de interés real a corto plazo reales y, por ende, en la brecha de de la tasa de interés real. Al fijar las condiciones de política corrientes y previstas, el banco central puede afectar la trayectoria correspondiente de rr˜t y, a su vez, influir sobre la brecha de la tasa de interés a largo plazo, rr˜l

t, y la brecha en la q de Tobin, q˜t. Al igual que en los modelos tradicionales, el marco puede incorporar fluctuaciones

exógenas de las compras del gobierno u otros componentes de la demanda agregada. Estas fluctuaciones influyen en el nivel natural del producto y en la tasa de interés real natural. No obstante, la forma de la ecuación de la demanda agregada no se ve afectada, ya que esta relación se expresa mediante variables de brechas.

Por último, se observa que la forma compacta de la curva de la demanda agregada

depende de que se suponga la existencia de mercados de capital perfectos, de manera que la hipótesis del ingreso permanente en el caso del consumo y la teoría de q en el caso de la inversión sean válidas. Como se analiza más adelante, en estudios recientes se aplica de manera menos estricta el supuesto de los mercados de capital perfectos.

8

La relación de la oferta agregada evoluciona a partir de las decisiones con que las

empresas individuales fijan los precios. Para captar la inercia de los precios nominales, se supone que las empresas fijan precios de manera escalonada: en cada período un subconjunto de empresas fija sus precios respectivos para períodos múltiples. De acuerdo con la formulación más común, planteada por Calvo (1983), en cada período una empresa ajusta sus precios con una probabilidad fija independiente de la historia4. Este supuesto es una aproximación aceptable de los datos (Nakamura y Steinsson, 2007; Alvarez, 2007).

En un entorno de precios flexibles, durante cada período las empresas un precio igual

a un margen constante sobre el costo nominal marginal. Con la fijación escalonada de precios, las empresas que pueden realizar ajustes en un período determinado fijan un precio igual a un promedio ponderado de los costos nominales marginales corrientes y previstos. La ponderación de un determinado costo nominal marginal en el futuro depende de la probabilidad de que el precio determinado por la empresa haya permanecido fijo hasta ese momento en particular, y del factor de descuento de la empresa. Las empresas que no ajustan los precios en el período corriente simplemente ajustan el producto para satisfacer la demanda, dado que el precio está por encima del costo marginal. Por lo tanto, las rigideces del precio nominal permiten que el producto fluctúe alrededor de su nivel natural. Por otro lado, en vista de que las curvas de la oferta de las empresas tienen una pendiente ascendente, estas fluctuaciones inducidas por la demanda dan origen a un comportamiento anticíclico de los márgenes.

Al combinar las versiones lineales logarítmicas de la decisión de determinación del

precio óptimo, el índice de precios y el equilibrio del mercado de mano de obra, se puede obtener la siguiente ecuación de la oferta estructural agregada:

en donde, conforme a Clarida, Galí y Gertler (1999), ut se puede interpretar como un “shock por empuje de los costos”. La ecuación se asemeja a la curva tradicional de Phillips en el sentido de que relaciona la inflación πt con la demanda excedentaria, medida en función de y˜t, y también con otro término que refleja las expectativas inflacionarias, en este caso β Et

πt+1. Sin embargo, en marcado contraste con la curva tradicional de Phillips, el método

basado en la optimización aplica en este caso una estructura rígida a la relación. El coeficiente de la inflación prevista, β, es el factor de descuento subjetivo del hogar. El coeficiente de la pendiente de la demanda excedentaria, κ, por su parte, es una función de dos grupos de ecuaciones primitivas de modelos. El primer grupo refleja la elasticidad del costo 4 La idea de recurrir al escalonamiento para introducir la inercia nominal es de Fischer (1997) y Taylor (1980), quienes la usaron para describir la fijación de los salarios nominales. Una ventaja de la formulación de Calvo es que facilita la agregación. Dado que la probabilidad de ajuste es independiente del tiempo que una empresa haya mantenido sus precios fijos, no es necesario llevar un control de cuándo los diferentes cohortes de empresas ajustaron sus precios.

9

marginal con respecto al producto. Cuanto menos sensible sea el costo marginal con respecto al producto (es decir, cuanto más chatas sean las curvas de oferta), menos sensible será el ajuste de precios a las fluctuaciones del producto (es decir, κ será más pequeña). El segundo grupo refleja la sensibilidad del ajuste de precios a las fluctuaciones de los costos marginales. Esto incluye el parámetro que rige la frecuencia del ajuste de precios. Cuanto más baja sea esta frecuencia, menos empresas realizarán ajustes en cualquier período y, por consiguiente, menos sensible será la inflación con respecto al costo marginal y menor será el valor de κ. También pueden revestir interés los aspectos complementarios de la fijación de precios, que pueden inducir a las empresas a reducir a un mínimo la variación de sus precios relativos. Estos aspectos complementarios, conocidos en las publicaciones especializadas como “rigideces reales”, inducen a las empresas que ajustan sus precios a tratar de mantener sus precios relativos en un nivel cercano al de las empresas que no realizan ajustes. El efecto neto de las rigidices reales es una reducción de κ, y por lo tanto una reducción general de la sensibilidad de la inflación con respecto al producto (Ball y Romer, 1990; Woodford, 2003)5.

Además, el shock por empuje de costos, ut, tiene una estricta interpretación teórica. Si no existen fricciones en el mercado distintas de las rigideces de los precios nominales, ut desaparece efectivamente, con lo cual y˜t se convierte en la única fuerza que impulsa la inflación. Un aspecto clave de este resultado es que las empresas ajustan los precios en respuesta a fluctuaciones previstas del costo marginal. En este caso de referencia, las desviaciones del costo marginal real con respecto a su valor natural son aproximadamente proporcionales a y˜t, con lo cual este último valor se convierte efectivamente en una estadística suficiente del primer valor. En términos generales, las fluctuaciones del producto por encima del valor natural incrementan la demanda de mano de obra, lo cual provoca un aumento de los salarios y una reducción del producto marginal de la mano de obra, dos factores que tienden a elevar los costos marginales de las empresas. Sin embargo, si hay otros tipos de fricciones de mercado, las variaciones de los costos marginales de las empresas dejan de ser necesariamente proporcionales a la demanda excedentaria. Supóngase por ejemplo que debido a algún tipo de fuerza en el mercado laboral los salarios reales aumentan por encima de sus valores de equilibrio competitivo. Si y˜t se mantiene constante, los costos marginales de las empresas aumentan debido al aumento de los salarios, avivando la inflación. En este caso, el término de impulso de los costos capta el impacto de la inflación. Desde una perspectiva general, ut representa la variación de los costos marginales reales debida a factores distintos de la demanda excedentaria. En la presente formulación, ut será tratado simplemente como un factor exógeno. Sin embargo, como se analiza más adelante (y en el apéndice electrónico), existen formulaciones más generales de este modelo que introducen variaciones endógenas en ut, típicamente al permitir la rigidez de los salarios, que se introduce en gran medida de la misma manera que se introduce la rigidez de los precios (fijando los salarios nominales escalonadamente). De hecho, si existe rigidez de salarios, ut dependerá de shocks reales convencionales, como shocks del petróleo y de la productividad. 5 La mayoría de los datos empíricos arrojan valores bajos de κ (Galí y Gertler, 1999). Sin embargo, cuando hay rigidices reales, es posible conciliar las estimaciones bajas con los datos microeconómicos sobre la frecuencia de los ajustes de precios, como se señala en un resumen reciente de Nakumura y Steinsson (2007) y en otros estudios.

10

Otro aspecto importante en que la nueva curva de Phillips difiere de la anterior es que ahora es completamente prospectiva. La inflación depende no solo de los valores corrientes de y˜t and ut, sino también de la secuencia descontada prevista de sus valores futuros. Esta característica prospectiva de la inflación implica que la capacidad del banco central para contener la inflación depende no solo de la orientación de sus políticas en un momento dado, sino también de la orientación que el sector privado percibe que se adoptará en el futuro. Este tema se analiza más a fondo en la siguiente sección. Entre tanto, cabe señalar que este proceso prospectivo de la inflación contrasta marcadamente con la curva de Phillips tradicional, que por lo general relaciona la inflación con valores rezagados y con algún otro indicador de la demanda excedentaria, sin ninguna motivación teórica explícita. En la versión de referencia de la nueva curva de Phillips no se observan valores rezagados arbitrarios de la inflación6. Por supuesto que el debate sobre la especificación exacta de la curva de Phillips determina en gran medida el tipo de restricciones a las que se enfrenta un banco central a la hora de elegir las políticas. La implicación de la curva de Phillips tradicional es que, a corto plazo, el banco central tiene que elegir entre la inflación y la actividad real: dado que las expectativas no inciden de manera alguna en la dinámica de la inflación, la única manera de reducir la inflación en el corto plazo es contrayendo la actividad económica. En cambio, en la nueva cuerva de Phillips las expectativas desempeñan un papel crucial y, como resultado, la disyuntiva entre la inflación y la actividad a corto plazo se presenta de manera más sutil. Concretamente, si el impulso de los costos, ut, no varía, la disyuntiva a corto plazo no surge, siempre y cuando el banco central pueda comprometerse de manera creíble a estabilizar la inflación corriente y la prevista. En tal sentido, cabe señalar que si no existe un shock de empuje de costos, la inflación depende solo de los valores corriente y previsto de la brecha del producto. En tal caso, el banco central puede mantener la estabilidad de precios ajustando las tasas de interés a corto plazo para estabilizar la brecha del producto. A tales efectos, puede fijar la tasa de interés nominal corriente en un nivel igual al de la tasa de interés real natural y comprometerse a observar esta política en el futuro. Desde luego, esto supone que el banco central es capaz de identificar perfectamente la tasa de interés real natural y de comprometerse de manera creíble con una trayectoria para la tasa nominal en el futuro. En la siguiente sección se volverá a tocar este tema.

Aun con información y credibilidad perfectas, la necesidad de elegir a corto plazo entre la brecha del producto y la inflación puede surgir si existen presiones de los costos. En

6 En Galí y Gertler (1999) y Galí, Gertler y López-Salido (2005) se estima una versión híbrida de la nueva curva de Phillips en la que la inflación depende de valores rezagados y valores previstos de la inflación. Se considera la inflación rezagada porque una fracción de las empresas fija los precios utilizando una regla empírica retrospectiva. Las estimaciones indican ponderaciones de aproximadamente 0,65 sobe la inflación prevista y de 0,35 sobre la inflación rezagada en el caso de Estados Unidos. Por lo tanto, aunque la inflación rezagada parece ser un factor que incide en la dinámica de la inflación, el comportamiento prospectivo es dominante. Además, según datos presentados por Cogley y Sbordone (2005), una vez que se permite la variación de la inflación tendencial, la inflación rezagada desaparece.

11

este caso, la inflación depende de las fluctuaciones corrientes y previstas de ut y y˜t. La única forma de contrarrestar estas presiones sobre la inflación es que el banco central tome medidas para contraer le economía. Quisiéramos hacer hincapié en que esta idea básica sobre cómo las presiones de los costos pueden crear una disyuntiva a corto plazo se aplica también en un entorno de presiones endógenas derivadas de la rigidez de los salarios nominales (Erceg, Henderson y Levin, 2000).

Por último, la curva de Phillips prospectiva puede dar lugar a un problema potencial

de credibilidad distinto del señalado originalmente por Kydland y Prescott (1977) y Barro y Gordon (1981). Estos primeros estudios destacaban la tentación de los bancos centrales de hacer que el producto se sitúe por encima de su nivel natural. Los bancos centrales que no pueden comprometerse a mantener la inflación en niveles bajos obtendrían como resultado una inflación ineficientemente alta. Este problema potencial de credibilidad, conocido como “sesgo de inflación”, también esta explícitamente presente en la nueva generación de modelos, ya que en ellos el nivel natural del producto por lo general está por debajo del nivel eficiente desde el punto de vista social, debido a la competencia imperfecta. Sin embargo, el carácter prospectivo de la inflación en estos nuevos marcos apunta a la presencia de otro posible riesgo discrecional, conocido en los estudios como “sesgo de estabilización” (Clarida, Galí y Gertler, 1999; Woodford, 2003). En respuesta a presiones previstas de los costos, un banco central se inclinaría a declarar que será firme en el futuro y que contraerá el producto en la medida que sea necesario para combatir la inflación de ese momento sin tener que contraer el producto por debajo de su nivel natural vigente. Si pudiera hacer esta declaración de manera creíble, el banco central podría reducir la inflación corriente sin reducir el producto corriente, gracias al efecto de las expectativas. El problema es que si el banco no tiene una reputación bien establecida (o si no tiene otra forma de garantizar la constancia de sus objetivos), el banco central probablemente no podrá hacer declaraciones que gocen de credibilidad: el sector privado sabrá que una vez que se inicie el siguiente período, el banco central se sentirá tentado a postergar una vez más la contracción de la economía (es decir, los planes iniciales no son constantes a lo largo del tiempo, o adolecen de “inconsistencia temporal”).

Por lo tanto, el grado de credibilidad del banco central con respecto a sus políticas

futuras incidirá en la decisión a corto plazo entre el control de la inflación o la estabilización de la brecha del producto. En vista de los sendos problemas que presentan los sesgos de inflación y estabilización, en los nuevos marcos se señala explícitamente la necesidad de que los bancos centrales desarrollen credibilidad en la gestión de la política monetaria.

La representación de este marco de oferta agregada/demanda agregada puede

reducirse a un sistema de ecuaciones de diferencia que describen la evolución de la brecha del producto y la inflación como una función de dos variables exógenas (la tasa de interés natural y el shock por empuje de los costos), así como la trayectoria de la tasa de interés nominal a corto plazo rt. Esta última depende, directa o indirectamente, de las decisiones del banco central. Así pues, para cerrar el modelo, es necesario describir la manera en que se ejecuta la política monetaria.

12

Política monetaria

En cada período el banco central fija una meta para la tasa de interés a corto plazo en función de las condiciones económicas. Para lograr dicha tasa, el banco central ajusta la masa monetaria, u oferta de dinero, de acuerdo con la cantidad de dinero demandada a esta tasa de interés. ¿Por qué no simplemente hacer lo contrario? Es decir, fijar la masa monetaria nominal y dejar que la tasa de interés se ajuste. Una razón es que los datos indican una inestabilidad potencial de la demanda dinero. En un régimen de objetivos monetarios, esta inestabilidad se traduciría en una volatilidad de las tasas de interés que podría ser perjudicial para la economía real7.

La siguiente es la ecuación simple de una regla de interacciones de la tasa de interés que tiene propiedades estabilizadoras convenientes y que describe adecuadamente lo que los bancos centrales hacen en la práctica:

siendo rτt la meta fijada por el banco central para la tasa de interés real a corto plazo, y siendo ϕπ > 1, ϕy ≥ 0. Con una inflación igual a cero y sin demanda excedentaria, la regla obliga al banco central a justar la tasa nominal siguiendo los movimientos de la tasa real natural, rrn

t.

Cabe señalar que la regla implica que con la inflación y la brecha del producto iguales a cero, el banco central mantiene en cero las brechas corriente y prevista de la tasa de interés real. Por el otro lado, si la economía está “recalentándose”, con una brecha del producto y una inflación positivas, la regla obliga al banco central a elevar las tasas nominales. El coeficiente de interacción de la inflación es mayor que 1, lo que significa que las tasas nominales suben en proporción de uno a uno con la inflación. Esto garantiza que el banco central subirá las tasas reales lo suficiente parta para contraer el demanda (induciendo una secuencia positiva de brechas de la tasa de interés real). En cambio, cuando la economía se desacelera y la inflación baja, la regla obliga al banco central a aplicar una política suficientemente expansiva para estimular la demanda.

La regla de la tasa de interés suele denominarse “regla de Taylor”. Esto se debe a que,

tras un período en que las investigaciones se centraron principalmente en las reglas de crecimiento del dinero, Taylor (1993, 1999) planteó que una regla de la tasa de interés de este

7 Es importante señalar que la teoría cuantitativa del dinero sigue cumpliéndose en estado estable, aun con la tasa de interés como instrumento de política y con la demanda de dinero desempeñando una función puramente pasiva (por ejemplo, Woodford, 2006). Bajo las especificaciones estándar de la demanda de dinero, la razón entre los saldos de dinero real y el producto es constante es un estado estable con inflación constante. Como la razón es contante, en el estado estable se observa una relación proporcional entre la tasa de crecimiento de la masa monetaria y la inflación, conforme a la teoría cuantitativa, independientemente de que el banco central tenga o no un objetivo monetario. Sin embargo, fuera del estado estable, la demanda y oferta agregadas de referencia descritas anteriormente determinan las dinámicas del producto y de la inflación en función de la trayectoria prevista de las tasas de interés.

13

tipo presenta características estabilizadoras beneficiosas y evita los riesgos de las reglas basadas en el dinero adoptadas por algunos bancos centrales en décadas previas. Además, Taylor demostró que una versión de esta regla con una tasa de interés real natural constante y un producto estacionarizado como indicador de la brecha del producto sirve para describir la política monetaria adoptada efectivamente a finales de los años ochenta. Los valores de los coeficientes de interacción de la regla obtenidos a partir de los datos fueron ϕπ = 1,5 y ϕy = 0,5. La característica clave que Taylor destacó era que ϕπ superaba holgadamente 1, con lo cual se garantizaba que la política induciría tasas reales que contrarrestarían las presiones inflacionarias. Esta característica ha recibido el nombre de “principio de Taylor” (Woodford, 2001). Varios autores, entre ellos nosotros, en Clarida, Galí y Gertler (1998, 2000), hemos sostenido que a finales de los años sesenta y durante los años setenta los principales bancos centrales quizás no observaron el principio de Taylor, contribuyendo así a la fuerte inestabilidad nominal y real durante este período.

Para el período sumamente corto de la muestra estudiada por Taylor en su

investigación original, quizá sea aceptable tratar la tasa de interés natural como una constante y suponer que una tendencia suave refleja el nivel natural del producto. Pero con una muestra correspondiente a un período más largo, no sería prudente que el banco central procediera de esta manera. Además, la regla de Taylor simple objeto del estudio no capta la tendencia de los bancos centrales de suavizar las tasas de interés.

Una regla que refleja más aproximadamente los datos obliga al banco central a mover

las tasas de interés hacia la meta rτt , valiéndose de la siguiente regla de ajuste parcial:

siendo ρ un parámetro de suavización que suele estimarse entre 0,6 y 0,9 cuando se usan datos trimestrales. Uso del modelo para evaluar la política monetaria

En esta sección se demuestra cómo puede usarse el modelo para evaluar diferentes escenarios de la evolución de la política monetaria. Se ilustran dos tipos de implicaciones importantes de la nueva generación de modelos para la formulación de políticas que se subrayaron en la introducción: 1) la importancia de gestionar las expectativas sobre las políticas futuras; y 2) la necesidad de seguir los movimientos del equilibrio natural de la economía. Obviamente, para evaluar las diferentes estrategias de política es necesario contar con algún tipo de criterio objetivo. Un objetivo tradicional de los bancos centrales consiste en mantener la estabilidad de los precios y el producto en su nivel natural. En el caso de la Reserva Federal de Estados Unidos, este objetivo se conoce como el “doble mandato”. Dado que la nueva generación de modelos es una evolución de la optimización individual, en principio es posible derivar explícitamente el criterio de bienestar del banco central a partir de una aproximación cuadrática de la función utilitaria del hogar representativo. Por ejemplo, en una versión de nuestro modelo, es posible derivar algo semejante al doble mandato endógenamente; es decir, es posible derivar una función de pérdida para el banco central que es cuadrática en desviaciones de la inflación con respecto a cero y en desviaciones del

14

producto con respecto a su nivel eficiente (equilibrio competitivo) desde el punto de vista social (véase, por ejemplo, Rotemberg y Woodford, 1999).

En este caso simplemente se supone, como se hace en la práctica, que el banco central

tiene en mente un objetivo doble de estabilización de la inflación y de la brecha del producto, sin precisar demasiado la manera exacta de lograr el objetivo. Se supone además que el nivel natural del producto se aproxima lo suficiente al valor socialmente eficiente para que la brecha pertinente al bienestar sea simplemente la desviación del producto con respecto a su nivel natural. Teniendo en cuenta este criterio aproximado, la economía modelo fue sometida a varios tipos de perturbaciones con el fin de evaluar posteriormente los resultados de distintas estrategias de política monetaria. Estos experimentos son representativos de los ejercicios de evaluación de las políticas que los bancos centrales realizan en la práctica.

Se presentan dos simulaciones numéricas del modelo. La primera ilustra las ventajas

que puede obtener un banco central al gestionar las expectativas sobre la evolución futura de las política monetaria. Las ventajas se manifiestan en una mayor facilidad para resolver la disyuntiva entre la inflación y el producto. El segundo experimento demuestra lo importante que es para el banco central tener en cuenta los movimientos del equilibrio natural (precios flexibles) de la economía a la hora de tomar decisiones de política monetaria. Para realizar las simulaciones es necesario elegir valores numéricos para diversos parámetros del modelo. En el apéndice electrónico de este documento, que se encuentra en <http://www.e-jep.org>, se enumeran todos los parámetros del modelo junto con los valores utilizados en las simulaciones. En general se usaron valores convencionales en las investigaciones especializadas. Los experimentos realizados con el modelo fueron los siguientes. Experimento 1: Gestión de las expectativas

Este experimento demuestra cómo la capacidad de un banco central para emitir señales creíbles sobre sus intenciones futuras en materia de política influye en su capacidad para mantener la estabilidad de los precios y de la brecha del producto. Se supone que un banco central procura aplicar una tasa de interés de política monetaria que combata enérgicamente la inflación. Así, se consideraron dos escenarios diferentes: En el primero, el banco central es capaz de comunicar sus intenciones satisfactoriamente al sector privado. En el segundo, el sector privado cree que el banco central probablemente tolerará la inflación.

Se supone que la economía soporta presiones derivadas de un “empuje de los costos”

que se ven reflejadas en un aumento persistente del término ut de la ecuación de la oferta agregada descrito anteriormente. Un ejemplo de este tipo de escenario podría ser una situación en la que los trabajadores se resisten a moderar el crecimiento de los salarios reales por cierto tiempo después de una disminución del crecimiento de la productividad tendencial. En esta situación, los costos unitarios de la mano de obra y, por consiguiente, los costos marginales de las empresas aumentan, lo cual a su vez crea las presiones inflacionarias implícitas en la ecuación de la oferta agregada. Se supone que el shock por empuje de los costos se debe a un proceso autorregresivo de primer orden con una autocorrelación de 0,95. Con estas condiciones nuestro modelo puede captar el alto grado de autocorrelación de la inflación en los datos.

15

La política enérgica que el banco central tiene previsto aplicar consiste en una regla

de tasa de interés que responde solo a la inflación y no a la brecha del producto. El coeficiente de interacción de la inflación ϕπ es 1,5, lo que significa que el banco central eleva las tasas de interés nominal 150 puntos básicos por cada aumento de 100 puntos básicos de la inflación. En el primer caso, el sector privado acepta que el banco central seguirá esta regla indefinidamente en el futuro. En el segundo caso, el sector privado en cambio cree que el banco central aplicará una regla pasiva que no trata de aplacar las presiones inflacionarias. Esta regla pasiva que el sector privado percibe que será aplicada por el banco central en el futuro tiene un coeficiente de interacción de la inflación de 1,0, que implica una respuesta de uno a uno frente a las fluctuaciones de las tasas de interés nominal8. En estas circunstancias, el sector privado considera que cualquier desviación de la tasa de interés a corto plazo corriente con respecto a esta regla es puramente transitoria.

Se supone que aun cuando no goza de credibilidad, el banco central trata de contener

la inflación elevando la tasa de interés nominal lo suficiente para contraer la demanda agregada en la misma medida cada período, como si estuviera aplicando una política enérgica perfectamente creíble en la que ϕπ = 1,5. Concretamente, cada período el banco central eleva la tasa nominal lo necesario para reducir el producto en la misma medida en que se reduciría con una política enérgica creíble. Sin embargo, el problema que enfrenta el banco central es que el mercado está esperando una política acomodaticia. En consecuencia, para generar la misma contracción del producto que generaría una policía enérgica creíble, el banco central tiene que elevar drásticamente la tasa de interés nominal corriente. Como el sector privado espera la reversión de la política acomodaticia en el futuro, para contraer la demanda lo suficiente el banco central tiene que compensar con un aumento adicional de de la tasas a corto plazo corriente. Dicho de otro modo, con una política enérgica creíble, el banco central aprovecha su capacidad para influir en las expectativas a lo largo de toda la curva de rendimiento. El banco contrae la demanda vigente no solo subiendo la tasa a corto plazo de ese momento, sino también creando la expectativa de que las tasas a corto plazo en el futuro también serán suficientemente altas (y para lograrlo induce la expectativa de una brecha del producto más reducida en el futuro). Si no puede influir en las expectativas del mercado, el banco central solo puede recurrir a la tasa de interés a corto plazo como único instrumento para influir en la demanda corriente. Cuadro 1 Respuesta de la inflación y el producto ante un shock por empuje de los costos: Banco central creíble frente a banco central no creíble

Banco central creíble Banco central no creíble Tiempo después del shock Inflación Producto Inflación Producto Tiempo cero 0,20% -0,60% 5,20% -0,60% Un año 0,15% -0,50% 4,40% -0,50% Dos años 0,10% -0,40% 3,50% -0,40% Nota: Las respuestas de la inflación y el producto se miden en relación con su valor en el estado estable (el valor justo antes del shock).

8 Estrictamente, se supone que ϕπ = 1,001, para garantizar la existencia de un equilibrio estacionario único.

16

En el cuadro 1 figuran las respuestas de la inflación y la brecha del producto que la economía del modelo genera en los dos primeros años después de un shock de empuje de los costos, tanto en el caso de un banco central creíble como en el de uno no creíble. El período 0 es el momento en que se produce el shock. En todos los casos se observan variaciones de la inflación y el producto uno y dos años después del shock. En cada escenario, el banco central sube las tasas de interés para contrarrestar presiones inflacionarias. El experimento se diseñó de manera que la disminución del producto sea igual en cada caso. (Como el shock no afecta el nivel natural del producto, la respuesta de la brecha del producto es la misma que respuesta del producto en este caso.) Sin embargo, la inflación aumenta mucho más cuando la percepción es que el banco central es acomodaticio y no creíblemente firme. Esto sucede porque la inflación depende de las expectativas sobre las condiciones futuras de la demanda, además de las condiciones corrientes.

Este experimento demuestra que al poder gestionar eficazmente las expectativas al

banco central se le hace más fácil resolver la disyuntiva a corto plazo entre el producto y la estabilización de la inflación. Cuando el mercado percibe una estrategia acomodaticia el resultado es una inflación más alta frente a una contracción corriente de la actividad económica. Se deduce que para generar una determina desaceleración de la inflación, estas percepciones le obligan al banco central a ir en busca de una contracción del producto mayor de la que habría sido necesaria en otras condiciones.

Este experimento también puede arrojar luz sobre cómo la política monetaria de hoy

en día difiere de la aplicada en el período de la Gran Inflación en los años setenta. En aquel período, cada vez que la Reserva Federal trató de contener la inflación el esfuerzo o bien tuvo poco éxito o bien resultó costoso en términos de pérdida de producto. Últimamente lo contrario parece ser cierto. A nuestro juicio, el motivo de esta diferencia es que en la era actual la Reserva Federal ha demostrado un compromiso creíble a largo plazo para mantener la estabilidad de precios, algo que no sucedía en el período anterior. Esto también ayuda a explicar por qué la actual Reserva Federal se preocupa tanto de comunicar sus intenciones futuras. Experimento 2: Seguimiento del equilibrio natural

Para el siguiente experimento el supuesto fue que la economía se viera golpeada por un shock de productividad. A diferencia del experimento anterior, en este caso la perturbación incide en los valores naturales del producto y de la tasa de interés real. Por lo tanto, ahora la distinción se hace entre los movimientos de la brecha del producto y los movimientos del producto. El objetivo es demostrar por qué es importante que el banco central tenga en cuenta el movimiento del equilibrio natural de la economía al fijar las tasas de interés.

Concretamente, se supone que el crecimiento de la tecnología obedece a un proceso

autorregresivo de primer orden con un coeficiente autorregresivo igual a 0,5. Con esas condiciones, se determina la respuesta de la economía modelo a un aumento imprevisto del crecimiento de la tecnología en dos escenarios de política diferentes: En el primero, el banco central ajusta la tasa de interés nominal en respuesta a fluctuaciones de la tasa de interés

17

natural y de la inflación. En el segundo, el banco central no presta atención a las fluctuaciones de la tasa de interés natural y responde únicamente a la inflación. En cada caso, el coeficiente de interacción de la inflación se fija en ϕπ = 1,5, que corresponde al caso de estrategia firma descrito anteriormente.

En el cuadro 2 se presentan las respuestas de la inflación y el producto. El mayor

crecimiento de la productividad induce un aumento de la tasa de interés natural9. Cabe señalar que con la regla de política en virtud de la cual se realizan ajustes en función de las fluctuaciones de la tasa natural, la inflación permanece estabilizada. En este caso, la respuesta del producto es un reflejo de la respuesta del nivel natural del producto. Dicho de otro modo, aunque el shock de productividad genera un aumento del producto, la brecha entre el producto y su valor natural sigue siendo cero. Al no variar la brecha del producto, no surgen presiones inflacionarias y deflacionarias.

En cambio, si el banco central no tiene en cuenta las fluctuaciones de la tasa natural,

no elevará las tasas nominales lo suficiente para contener la inflación. Como la tasa real es inferior a la tasa natural durante por lo menos un año en este escenario, surge una demanda excedentaria. El producto aumenta con respecto su nivel natural. En el período, la brecha del producto es positiva y, consiguientemente, la inflación se sitúa por encima de su nivel tendencial. Esta tendencia se invierte al cabo de un año, cuando la inflación desciende a un nivel ligeramente inferior al tendencial. El motivo es que la tasa natural a la larga se sitúa por debajo del nivel tendencial por un período prolongado debido a una acumulación inusitada de capital debida a una inversión superior a la tendencial. Al no tomar medidas de compensación, el banco central mantiene la tasa real en un nivel un poco excesivo en relación con la tasa natural. Cuadro 2 Respuesta de la inflación y el producto ante un shock de productividad: Con y sin ajustes con respecto a fluctuaciones de la tasa de interés natural

Con ajuste Sin ajuste Tiempo después del shock Inflación Producto Inflación Producto Tiempo cero 0,00% 0,60% 0,24% 1,05% Un año 0,00% 1,20% -0,07% 1,25% Dos años 0,00% 1,10% -0,10% 1,10% Nota: Las respuestas de la inflación y el producto se miden en relación con su valor en el estado estable (el valor justo antes del shock).

Claro que, en la realidad, el banco central no puede observar directamente la tasa de interés natural. Sin embargo, conforme evolucionan las condiciones económicas, el banco central tiene que hacer inferencias acerca de las consecuencias probables de la tasa natural. De hecho, varios bancos centrales, entre ellos la Reserva Federal, están usando modelos

9 Específicamente, hasta un primer orden, la tasa de interés natural es igual al crecimiento previsto del consumo en un estado de equilibrio de precios flexibles multiplicado por el coeficiente de aversión al riesgo relativa. Esta relación se deriva de la ecuación de consumo de Euler, que se aplica en el equilibrio de precios flexibles y que supone que los mercados de capital son perfectos, etc. El aumento de la tasa de interés natural se debe, por lo tanto, al hecho de que el shock del crecimiento de la productividad genera un aumento previsto del crecimiento del consumo en el estado de equilibrio de precios flexibles.

18

como los que se analizan en este documento para tratar de determinar la tasa natural. Desde luego, también se usan métodos indirectos. Concretamente, el comportamiento de la inflación le da indicios al banco central acerca de la tasa natural subyacente. Una inflación por encima de la tasa esperada puede ser, en principio, una señal de que la tasa natural es más alta de lo que se pensaba, y viceversa. Ampliaciones y nuevos rumbos

Nuestro modelo de referencia, aunque es útil para fines pedagógicos, tiene un alcance demasiado limitado para ser aplicado a los datos o para ser usado en simulaciones con casos reales de política. Por eso no sorprende que buena parte de las investigaciones recientes, realizadas sobre todo por equipos de bancos centrales u organizaciones internacionales, se hayan centrado en hacer más realista el modelo, añadiéndole una serie de características que probablemente mejorarán su capacidad para ajustarse a los datos10. A continuación se describen algunas de esas características y se analizan brevemente algunas ampliaciones en curso. Aplicación del modelo a los datos Las variables macroeconómicas en el modelo de referencia parecen ser en la práctica más persistentes de lo que indica el marco básico. Por ejemplo, los datos hacen pensar que un cambio transitorio exógeno de la política monetaria produce una respuesta rezagada en forma de U invertida de las variables cuantitativas clave: producto, consumo e inversión. El modelo de referencia predice, sin embargo, un fuerte aumento instantáneo de estas variables, seguido de una respuesta monotónica hacia la tendencia. La razón es la falta de fricciones que podrían frenar el ajuste del consumo o la inversión frente a los shocks de ese momento, información sobre el futuro, o ambas cosas.

Este problema suele abordarse introduciendo costos de ajuste. En el caso del consumo, un método típico consiste en suponer que las preferencias de los agentes están determinadas por hábitos, para lo cual se considera que el valor utilitario corriente es una función de la desviación del consumo corriente con respecto a un parámetro que se fija como una fracción (importante) del consumo rezagado. Del mismo modo, para lograr que el modelo sea coherente con la reacción lenta de la inversión ante los shocks, a veces se supone que los costos de ajuste surgen como resultado de variaciones del nivel de inversión, y no como resultado del nivel de inversión propiamente dicho (en relación con la masa de capital), como se observó en el modelo estándar de la q de Tobin. (Los rezagos de planificación en el gasto de inversión son una explicación plausible de esta formulación.) En cambio, el ajuste

10 Unos ejemplos iniciales de modelos que incorporan las características que se describen son Smets y Wouters (2003) y Christiano, Eichenbaum y Evans (2005). Entre los modelos recientes de escala intermedia elaborados por instituciones encargadas de formular políticas a partir de los ejemplos anteriores están el New Area Wide Model desarrollado por el Banco Central Europeo (por ejemplo, Coenen, McAdam y Straub, de próxima publicación), el modelo SIGMA de la Junta de Gobernadores (Erceg, Guerrerri y Gust, 2006), y el modelo GM elaborado por el FMI (Bayoumi, 2004).

19

lento del comportamiento del consumo y la inversión da origen a una dinámica del producto en forma de U invertida, coherente con los datos.

Otra modificación que se considera importante para el desempeño empírico del

modelo es la introducción de rigidez salarial. En el modelo de referencia, el shock por empuje de los costos se trata como exógeno y se hace hincapié en cómo la variación de este shock hace variar las presiones inflacionarias. Los modelos cuantitativos endogenizan las variaciones del shock por empuje de los costos mediante la introducción de salarios nominales rígidos. Un método común, elaborado por Erceg, Henderson y Levin (2000), consiste en introducir una contracción escalonada de los salarios nominales recurriendo al mismo tipo de proceso de ajuste de Calvo/Poisson que se utiliza para modelizar la fijación escalonada de precios. En este contexto, el shock por empuje de los costos en la curva de Phillips deja de ser exógeno, pero en cambio responde de manera exógena a cualquier shock que afecte la brecha entre los salarios y sus valores en estado de equilibrio natural. Nuevos rumbos Varios ramos en que se realizan investigaciones activas sobre estos temas revisten particular interés.

1. Determinación de precios en función del estado. Los modelos descritos anteriormente se basan en la optimización, pero en un aspecto clave siguen siendo del tipo que procesa automáticamente los datos (caja negra), concretamente el momento en que se produce el ajuste de precios. Como se ha visto, para facilitar el rastreo de los datos, los modelos se enfocan exclusivamente en reglas de determinación de precios que dependen del tiempo, en las que la frecuencia de los ajustes de precios es fija. Últimamente se han estado realizando esfuerzos para desarrollar modelos basados en la determinación de precios en función del estado, en los que las empresas se enfrentan a costos fijos de ajuste de los precios y en los que la frecuencia del ajuste se determina de manera endógena. Pueden citarse como ejemplos Dotsey, King y Wolman (1999), Golosov y Lucas (2007), Midrigan (2006) y Gertler y Leahy (2006).

2. Fricciones en el mercado de mano de obra. En los modelos actuales, todas las

fluctuaciones del empleo se registran en el margen de intensidad de participación en el mercado laboral, es decir, toda la variación es expresa en horas por trabajador. No hay desempleo propiamente dicho. Por lo tanto, los modelos no pueden captar las fluctuaciones observadas en el desempleo y en los flujos de puestos de trabajo. Para subsanar esta falla, un número rápidamente creciente de investigaciones recientes utilizan versiones del modelo neokeynesiano que incorporan el tipo de fricciones de mercado laboral que se encuentran en estudios pertinentes. Pueden citarse como ejemplos Walsh (2005), Trigari (2005), Blanchard y Galí (2006) y Gertler, Sala y Trigari (2007).

3. Imperfecciones del mercado financiero. Como se ha señalado, en el modelo de

referencia se supone que los modelos de capital son perfectos. En muchos casos, esta aproximación puede ser aceptable, pero en muchas otras situaciones las fricciones del mercado financiero son consideraciones muy pertinentes. En tal sentido, se está procurando

20

incorporar factores financieros en los tipos de marcos macroeconómicos cuantitativos que se han analizado en este documento, con el fin de comprender mejor la verdadera función que cumple la política monetaria a la hora de mitigar los efectos de las crisis financieras. Pueden citarse como ejemplos Bernanke, Gertler y Gilchrist (1999), Christiano, Motto y Rostagno (2006), Monacelli (2006) y Iacoviello (2006). Reflexiones finales

Los modelos descritos en este estudio aún están en evolución. Pese a los recientes buenos resultados, si no se acumula más experiencia no se puede saber con certeza cuán resistentes serán estos marcos ante los nuevos tipos de perturbaciones que golpeen a la economía. De hecho, estamos convencidos de que estos modelos seguirán evolucionando a medida que se obtengan más datos y que se experimenten más shocks económicos. Es muy probable que se introduzcan importantes nuevas características y que las características que ahora resultan fundamentales en el futuro no lo sean tanto. Al mismo tiempo, si bien esperamos que se registrarán cambios en los modelos, pensamos que el método general seguirá siendo el mismo; los modelos macroeconómicos cuantitativos y el papel que desempeñan en el proceso de formulación de las políticas ya son una realidad permanente. ■ Los autores expresan su agradecimiento a Jim Hines, Andrei Shleifer, Jeremy Stein y Timothy Taylor por sus útiles comentarios y sugerencias a un borrado previo, y a Steve Nicklas por su invalorable asistencia en la investigación. Jordi Galí expresa su agradecimiento a CREA-Barcelona Economics y al Ministerio de Educación y Ciencia. Mark Gertler expresa su agradecimiento a la NSF y a la Fundación Guggenheim.

21

Referencias Alvarez, Luis J. 2007. “What Do Micro Price Data Tell Us on the Validity of the New Keynesian Phillips Curve?” http://www.uni-kiel.de/ifw/konfer/phillips/alvarez.pdf. Ball, Laurence, and David H. Romer. 1990. “Real Rigidities and the Nonneutrality of Money.” Review of Economic Studies, 57(abril), 183–203. Barro, Robert, and David Gordon. 1983. “A Positive Theory of Monetary Policy in a Natural Rate Model.” Journal of Political Economy, 91(4): 589–610. Bayoumi, Tam. 2004. “GEM: A New International Macroeconomic Model.” Estudio No. 239 de la serie “Occasional Papers” del FMI. Bernanke, Ben, Mark Gertler, y Simon Gilchrist. 1999. “The Financial Accelerator in a Quantitative Business Cycle Framework.” In the Handbook of Macroeconomics, vol. 1C, ed. John Taylor and Michael Woodford, capítulo. 21. North-Holland. Blanchard, Olivier J., y Jordi Galí. 2006. “A New Keynesian Model with Unemployment.” MIT, Department of Economics Working Paper No. 06-22 Calvo, Guillermo. 1983. “Staggered Price Setting in a Utility Maximizing Framework.” Journal of Monetary Economics, 12(3): 383–98. Christiano, Lawrence J., Martin Eichenbaum, y Charles L. Evans. 2005: “Nominal Rigidities and the Dynamic Effects of a Shock to Monetary Policy.” Journal of Political Economy, 113(1): 1–45. Christiano, Lawrence J., Roberto Motto, y Massimo Rostagno. 2006. “Monetary Policy and Stock Market Boom-Bust Cycles.” http:// www.ecb.int/events/pdf/conferences/cbc4/ChristianoRostagnoMotto.pdf. Clarida, Richard, Jordi Galí, y Mark Gertler. 1998. “The Financial Accelerator in a Quantitative Business Cycle Framework.” European Economic Review, 42(6), 1033–67. Clarida, Richard, Jordi Galí, y Mark Gertler. 1999. “The Science of Monetary Policy: A New Keynesian Perspective.” Journal of Economic Literature, 37(4): 1661–1707. Clarida, Richard, Jordi Galí, y Mark Gertler. 2000. “Monetary Policy Rules and Macroeconomic Stability: Evidence and Some Theory.” Quarterly Journal of Economics, 105(1): 147–80. Coenen, Gûnter, Peter McAdam, Roland Straub. De próxima publicación. “Tax Reform and Labour Market Performance in the Euro Area: A Simulation Simulation-Based Analysis using the New Area-Wide Model.” Journal of Economic Dynamics and Control. Cogley, Timothy, y Argia M. Sbordone. 2005. “A Search for a Structural Phillips Curve.” Staff Reports 203, Federal Reserve Bank of New York. Dixit, Avinash, y Joseph Stiglitz. 1977. “Monopolistic Competition and Optimum Product Diversity.” American Economic Review, 67(3): 297–308. Dotsey, Michael, Robert G. King, y Alexander L. Wolman. 1999. “State Dependent Pricing and the General Equilibrium Dynamics of Money and Output.” Quarterly Journal of Economics, 114(2): 655–90. Erceg, Christopher J., Luca Guerrieri, Christopher Gust. 2006. “SIGMA: A New Open Economy Model for Policy Analysis.” International Journal of Central Banking, 2(1): 1–50. Erceg, Christopher, Dale Henderson, y Andrew Levin. 2000. “Optimal Monetary Policy with Staggered Wage and Price Contracts.” Journal of Monetary Economics, 46(2): 281–313. Fischer, Stanley. 1977. “Long Term Contracts, Rational Expectations, and the Optimal Money Supply Rule.” Journal of Political Economy, 85(1): 191–205. Fuhrer, Jeffrey C., and George R. Moore. 1995. “Inflation Persistence.” Quarterly Journal of Economics, 110(1): 127–159. Galí, Jordi. De próxima publicación. Monetary Policy, Inflation, and the Business Cycle. Princeton University Press. Galí, Jordi, y Mark Gertler. 1999. “Inflation Dynamics: A Structural Econometric Analysis.” Journal of Monetary Economics, 44(2): 195–222. Galí, Jordi, Mark Gertler, y David López-Salido. 2005. “Robustness of the Estimates of the Hybrid New Keynesian Phillips Curve.” Journal of Monetary Economics, 52(6): 1107–18. Galí, Jordi, and Pau Rabanal. 2005. “Technology Shocks and Aggregate Fluctuations: How Well Does the RBC Model Fit Postwar U.S. Data?” NBER Macroeconomics Annual 2004, 225–88.

22

Gertler, Mark, y John Leahy. 2006. “A Phillips Curve with an S-s Foundation.” Federal Reserve Bank of Philadelphia, Working Paper 06-8. Gertler, Mark, Luca Sala, y Antonella Trigari. 2007. “An Estimated Monetary DSGE Model with Unemployment and Staggered Nash Wage Bargaining.” Documento no publicado. Golosov, Mikhail, y Robert E. Lucas Jr. 2007. “Menu Costs and Phillips Curves.” Journal of Political Economy, 115(2): 171–99. Goodfriend, Marvin, y Robert G. King. 1997. “The New Neoclassical Synthesis and the Role of Monetary Policy.” NBER Macroeconomics Annual, págs. 231–82. Hall, Robert. 2005. “Employment Fluctuations with Equilibrium Wage Stickiness.” American Economic Review, 95(1): 50–64. Iacoviello, Matteo. 2006. “House Prices, Borrowing Constraints and Monetary Policy in the Business Cycle.” American Economic Review, 95(3): 739-64. Klenow, Peter J., y Oleksiy Kryvtsov. 2005. “State-Dependent or Time-Dependent Pricing: Does it Matter for Recent U.S. Inflation?” National Bureau of Economic Research Working Paper 11043. Kydland, Finn, y Edward C. Prescott. 1977. “Rules Rather Than Discretion: The Inconsistency of Optimal Plans.” Journal of Political Economy, 85(3): 473–91. Lucas, Robert E. 1976. “Econometric Policy Evaluation: A Critique.” Carnegie-Rochester Conference Series on Public Policy, vol. 1, pp. 19–46. Mankiw, N. Gregory, y David Romer. 1991. New Keynesian Economics. MIT Press; Cambridge, MA. Midrigan, Virgiliu. 2006. “Menu Costs, Multi-Product Firms, and Aggregate Fluctuations.” http://www.ecb.int/events/pdf/conferences/intforum4/Midrigan.pdf. Monacelli, Tommaso. 2006. “Optimal Monetary Policy with Collateralized Household Debt and Borrowing Constraints.” National Bureau of Economic Research Working Paper 12470. Nakamura, Emi, y Jon Steinsson. 2007. “Five Facts about Prices: A Reevaluation of Menu Costs Models.” http://www.bank-banque-canada.ca/en/conference_papers/frbc_snb/nakamura.pdf. Prescott, Edward. 1986. “Theory Ahead of Measurement.” Federal Reserve Bank of Minneapolis Quarterly Review, Fall, págs, 9–22. Primiceri, Giorgio, Ernst Schaumberg, y Andrea Tambalotti. 2006. “Intertemporal Disturbances.” National Bureau of Economic Research Working Paper 12243. Rotemberg, Julio, y Michael Woodford. 1999. “Interest Rate Rules in an Estimated Sticky Price Model.” In Monetary Policy Rules, ed. J. B. Taylor, capítulo. 2. University of Chicago Press. Sargent, Thomas. 1981. “Interpreting Economic Time Series.” Journal of Political Economy, 99(2): 213–48. Sims, Christopher. 1980. “Macroeconomics and Reality.” Econometrica, 48(1): 1–48. Smets, Frank, y Raf Wouters. 2003. “An Estimated Dynamic Stochastic General Equilibrium Model of the Euro Area.” Journal of the European Economic Association, 1(5):1123–75. Smets, Frank, y Raf Wouters. 2007. “Shocks and Frictions in U.S. Business Cycles: A Bayesian DSGE Approach.” American Economic Review, 97(3): 586–606. Taylor, John B. 1979. “Estimation and Control of a Macroeconomic Model with Rational Expectations.” Econometrica, 47(5): 1267–86. Taylor, John B. 1980. “Aggregate Dynamics and Staggered Contracts.” Journal of Political Economy, 88(1): 1–23. Taylor, John B. 1993. “Discretion versus Policy Rules in Practice.” Carnegie-Rochester Series on Public Policy, vol. 39, págs. 195–214. Taylor, John B. 1999. “An Historical Analysis of Monetary Policy Rules. In Monetary Policy Rules, ed. J.B. Taylor, capítulo. 7. University of Chicago Press. Trigari, Antonella. 2005. “Equilibrium Unemployment, Job Flows, and Inflation Dynamics.” European Central Bank Working Paper 304. Walsh, Carl. 2005. “Labor Market Search, Sticky Prices, and Interest Rate Rules.” Review of Economic Dynamics, 8(4): 829–49. Woodford, Michael. 2001. “The Taylor Rule and Optimal Monetary Policy.” American Economic Review, 91(2): 232–37.

23

Woodford, Michael. 2003. Interest and Prices: Foundations of a Theory of Monetary Policy. Princeton University Press: Princeton, Nueva Jersey. Woodford, Michael. 2006. “How Important is Money in the Conduct of Monetary Policy?“ Queen’s University, Department of Economics, Working Paper 1104.

24

Apéndice A: Una descripción del modelo monetario

El modelo operativo consiste en un conjunto de ecuaciones de diferencia estocásticas lineales. Estas ecuaciones se obtienen tomando una aproximación logarítmicamente lineal de las condiciones de equilibrio del modelo no lineal original, en torno al estado estacionario determinístico. Ese modelo es, a su vez, un modelo de ciclo económico real, complementado con competencia monopolística y rigideces de precios nominales.

A nivel muy general, existen dos diferencias clave respecto de un marco keynesiano tradicional. Primero, todos los coeficientes del sistema dinámico que describe el equilibrio son funciones explícitas de los parámetros primitivos del modelo; es decir, están explícitamente derivados de la teoría subyacente. Segundo, los valores futuros esperados de algunas variables entran en las condiciones de equilibrio, no solo las corrientes y las rezagadas. En otras palabras, las expectativas importan.

Al igual que con el marco tradicional, conviene organizar el sistema en tres bloques: demanda agregada, oferta agregada y política. En este apéndice describimos cada bloque, y su representación matemática. Demanda agregada

El bloque de la demanda agregada consiste en cuatro ecuaciones. Una ecuación central de ese bloque está dada por una condición de desatascamiento del mercado de bienes agregado; es decir, una condición que iguala el producto a la suma de los componentes de la demanda agregada. En términos lineales logarítmicos, podemos escribirla de la siguiente manera:

donde y es el producto, c es el consumo, i es la inversión y dt capta el efecto combinado de otros componentes de la demanda (incluidas las compras del gobierno y la demanda externa). En aras de la simplicidad, consideramos que esos componentes son exógenos. Las cuatro variables están expresadas en desviaciones logarítmicas respecto de un estado estacionario;

e representan la proporción en estado estacionario del consumo y la inversión en el producto, respectivamente.

Las demás relaciones caracterizan el comportamiento de cada componente endógeno del gasto; es decir, el consumo y la inversión. Describimos la relación del consumo primero, y luego pasamos a la inversión.

En el modelo de base, los mercados tanto de capital como de seguros son perfectos. Un hogar representativo toma decisiones sobre el consumo, el ahorro y la oferta de mano de obra en este ambiente. En estas condiciones sin fricción, la hipótesis del ingreso permanente rige perfectamente. Una implicación es que el hogar obedece estrictamente una ecuación

25

convencional de Euler que relaciona el costo marginal del ahorro (la utilidad marginal sacrificada del consumo) con el beneficio marginal esperado (el producto esperado de la tasa de interés real ex post y la utilidad marginal descontada del consumo en el período siguiente). La linealización logarítmica de esta ecuación produce una relación positiva conocida entre el crecimiento del consumo esperado y la tasa de interés real ex ante: manteniendo iguales todas las demás variables, un aumento esperado de las tasas reales le da más atractivo al rendimiento del ahorro, induciendo a los hogares a reducir el consumo corriente en relación con el consumo futuro esperado. Reorganizando esta relación, obtenemos la siguiente ecuación de diferencias para la demanda del consumo corriente:

donde es la tasa de interés nominal, denota la tasa de inflación de precios entre t y t + 1, y es un shock de preferencias exógeno. es el operador expectacional sujeto a la información en el momento t. Obsérvese, en particular, que la ecuación anterior implica que la demanda de consumo corriente depende negativamente de la tasa de interés real y positivamente del consumo futuro esperado.

La inversión está basada en la teoría de la q de Tobin. Al igual que en la formulación convencional, debido a los costos convexos del ajuste, la inversión varía exactamente según q, el coeficiente entre el valor sombra de la unidad marginal de capital instalado y el valor de reemplazo. Se ha incorporado suficiente homogeneidad a la tecnología de producción y de costo de ajuste como para que la q promedio y marginal sean iguales. Por lo tanto, linealizando logarítmicamente las condiciones de primer orden de la inversión, obtenemos una relación lineal simple entre el coeficiente inversión-capital y la q promedio. Formalmente, la inversión agregada, expresada como coeficiente respecto de la masa de

capital , es una función de la q de Tobin (logarítmica) y una perturbación exógena :

Cerramos el sector de la demanda agregada con una ecuación que describe la evolución de q. En general, el precio de reemplazo del capital está fijo en la unidad o dado exógenamente. Por lo tanto, la variación endógena de q proviene del movimiento de su valor sombra, que a su vez está dado por la corriente descontada de rendimientos esperados del capital. Linealizando logarítmicamente esta relación, obtenemos una expresión que relaciona q con la trayectoria esperada de utilidades tras descontar la trayectoria esperada de tasas de interés reales a corto plazo. Formalmente,

donde denota el recargo de precios (logarítmico). Por lo tanto, vemos que q depende positivamente de los rendimientos esperados de la inversión, que en equilibrio están dados

26

por el producto marginal esperado del capital ajustado según el recargo (o, como equivalente,

el costo de renta de equilibrio) , y negativamente de su costo de oportunidad, dado por la tasa de interés real esperada, . Oferta agregada

Hay seis ecuaciones en el bloque de oferta agregada. Comenzamos con la producción. Hay un solo bien final, producido en condiciones de competencia perfecta utilizando un simple agregador CES de bienes intermedios. El único papel significativo que le corresponde al sector de los bienes finales (además de transformar todos los bienes intermedios en un solo bien final) es el de generar una demanda con pendiente descendiente para cada bien intermedio.

Cada empresa del sector de los bienes intermedios es un competidor monopolístico que produce un bien diferenciado y lo vende al sector de los bienes finales. La producción de cada bien intermedio se lleva a cabo con una tecnología Cobb-Douglas que utiliza capital y mano de obra. Formalmente, tenemos

donde y denotan, respectivamente, el capital (logarítmico) y las horas (logarítmicas), y representa (el logaritmo de) la productividad total de los factores. Al igual que en los

modelos de ciclo económico real, la productividad total de los factores supuestamente fluctúa a lo largo del tiempo según un proceso exógeno.

Cada empresa de bienes intermedios fija el precio de su bien en función de la curva de la demanda de su producto, tomando como dados el sueldo, el costo de renta del capital y todas las demás variables agregadas. Un factor crítico es que las empresas no reajustan el precio en cada período, sino que fijan los precios de manera escalonada. En aras de la simplicidad, a menudo se presume que las empresas utilizan estrategias de fijación de precios “que dependen del tiempo”; es decir, fijan los precios de manera óptima a lo largo de un horizonte dado exógenamente. Además de hacer el modelo significativamente más manejable, la principal justificación para tratar la frecuencia de ajuste como exógena es que la evidencia sugiere que las frecuencias de ajuste de los precios son razonablemente estables en las economías con baja inflación11. Por supuesto, eso significa que los modelos son principalmente relevantes para estos tipos de ambiente y ciertamente no son apropiados para analizar economías con una inflación elevada. Al tiempo, hay estudios en curso que, en lugar de suponer políticas de precios que dependen del tiempo, introducen políticas que dependen del estado y en las cuales la frecuencia del ajuste está determinada endógenamente. 11 Véase, por ejemplo, Klenow y Krystov (2005).

27

Por lo tanto, en cualquier momento dado, una fracción de las empresas ajusta el

precio, y las demás lo mantienen fijo. En cualquier momento t, las empresas que no están fijando un nuevo precio simplemente ajustan el producto en función de la demanda, siempre que el recargo del precio por encima del costo marginal siga siendo positivo. Dado que el costo marginal varía positivamente de acuerdo con los desplazamientos de la demanda agregada, los auges que empujan el producto por encima del nivel natural causan una disminución de los recargos de precios en las empresas que no ajustan los precios; lo opuesto sucede con las contracciones que empujan el producto por debajo del nivel natural. Por lo tanto, lo que en última instancia hace posible las desviaciones cíclicas del producto respecto de su nivel natural son movimientos anticíclicos de los recargos que surgen de la rigidez de los precios12.

Las empresas que están ajustando seleccionan sus respectivos precios de manera óptima, dada la restricción que pesa sobre la frecuencia de ajuste de los precios. Por lo general, se supone que las frecuencias de ajuste obedecen a un modelo simple propuesto originalmente por Calvo (1983). Cada período, una empresa puede ajustar los precios con una probabilidad de La realización de esta selección es independiente entre empresas y a lo largo del tiempo. Esta configuración capta la fijación escalonada de precios de la manera más sencilla posible: en cada período, únicamente la fracción de las empresas está ajustando sus precios. El plazo promedio de tiempo en que una empresa mantiene su precio fijo está dado por , donde el parámetro es por lo tanto un indicador del grado de rigidez de los precios. Obsérvese que puede fijarse para equiparar la microevidencia sobre las frecuencias de ajuste de los precios.

Una virtud importante de este enfoque es que, como la probabilidad de ajuste es independiente de la historia de la empresa, no es necesario llevar cuenta de diferentes tipos de empresa, lo cual simplifica enormemente la agregación. En este caso, hasta una primera aproximación, el nivel logarítmico de precios evoluciona como un promedio ponderado del precio logarítmico fijado por las empresas que ajustan y el logaritmo del precio promedio de las empresas que no ajustan. La ponderación del primero es simplemente la fracción que ajusta, , en tanto que la ponderación del segundo es . Formalmente tenemos,

12 Como las empresas de bienes intermedios son competidores monopolísticos, tienen un recargo deseado positivo; es decir, si tuvieran libertad para fijar el precio en cada período, elegirían siempre un recargo positivo. Por lo tanto, en el equilibrio de precios flexibles, el producto se encuentra por debajo del nivel socialmente eficiente. Con los precios rígidos, los auges empujan el producto hacia el nivel eficiente, y lo opuesto ocurre en las contracciones. Se presume que el auge nunca es suficientemente grande como para empujar el producto más allá del nivel socialmente eficiente (es decir, la economía siempre opera en una región en la cual el precio supera el costo marginal).

28

donde es el precio fijado por las empresas que ajustan sus precios en el período corriente13.

Es sencillo mostrar que, hasta una primera aproximación, las empresas que ajustan seleccionan un precio igual a un recargo constante aplicado al promedio ponderado de costos marginales nominales corrientes y esperados futuros. Formalmente, esto puede representarse con las ecuaciones de diferencia

donde denota el sueldo nominal (logarítmico), y es el costo marginal nominal (logarítmico)14. Obsérvese que, solucionada hacia adelante, esta ecuación (A3) implica que las empresas seleccionan un precio igual a una suma descontada de costos marginales nominales corrientes y futuros esperados. En esa suma descontada, la ponderación del costo marginal nominal correspondiente a un período futuro depende de la probabilidad descontada de que la empresa aún tendrá su precio fijo en ese momento. En el caso limitativo de flexibilidad completa de los precios (es decir, ajuste período por período), la empresa simplemente fija el precio como un recargo constante por encima del costo marginal nominal corriente.

El recargo de precio promedio está dado, en términos logarítmicos, por

Como se señaló antes, el comportamiento anticíclico del recargo (junto con la prociclicidad del costo marginal real) surge porque los precios nominales son rígidos. Muchas versiones cuantitativas de estos modelos introducen también una rigidez salarial nominal. Esta característica no solo es coherente con la evidencia; incluirla tiende a mejorar el desempeño empírico global del modelo. Una manera común de añadir rigidez salarial es suponer que existen trabajadores monopolísticamente competitivos que fijan sueldos nominales de manera escalonada a lo largo de múltiples períodos, en estrecha analogía a la manera en que las empresas fijan los precios. En este contexto, podemos definir un “recargo salarial” como la brecha entre el sueldo real y la tasa marginal de sustitución del hogar entre

13 Obsérvese que, como la fracción que no ajusta es una selección aleatoria, el precio promedio de esta población es simplemente el precio promedio de toda la economía en el último período.

14 Obsérvese que, como la tecnología de producción es Cobb-Douglas, los costos marginales nominales corresponden a costos de mano de obra unitarios nominales; es decir, sueldos nominales normalizados según la productividad de la mano de obra.

29

consumo y ocio. Esta relación se puede expresar en términos logarítmicamente lineales de la siguiente manera:

En el equilibrio competitivo sin fricción, este coeficiente es la unidad (en este caso, el logaritmo de este coeficiente es cero). Si el trabajador tiene cierto poder de recargo, entonces este coeficiente es superior a la unidad. Con una rigidez salarial nominal, el recargo salarial se moverá anticíclicamente, análogamente a la manera en que las rigideces de precios nominales ayudan a generar recargos de precios anticíclicos. Para facilitar la exposición, tomamos simplemente el recargo salarial como exógeno, pero teniendo en cuenta que ocupa el lugar de una formulación más explícita.

Por último, existe una relación para la evolución de los bienes de capital. El capital del período siguiente depende de la creación de nuevos bienes de capital y de lo que queda del capital corriente después de la depreciación. Esto se formaliza por medio de la ecuación de acumulación del capital

Como señalamos antes, la creación de capital nuevo implica un costo de ajuste convexo, lo cual da lugar a un valor sombra variable de capital instalado. Equilibrio

Las variables con una tilde (~) denotan la desviación respecto de los valores naturales, definidos como los valores de equilibrio en ausencia de rigideces nominales.

Denotamos las variables naturales con una n superíndice. Así, . Además, en aras de la sencillez, suponemos que las variaciones porcentuales de la masa de capital son

pequeñas, con la aproximación para toda t.

Así, podemos reescribir (AD2) y (AD4) en términos de brechas como:

Combinadas con (AD1), implican

30

donde

Obsérvese que (AD3) puede reescribirse como

Iterando hacia adelante, puede expresarse como

donde . Por ende, manteniendo constantes las tasas de interés corrientes y futuras esperadas, la renta del capital y, por ende, la q de Tobin son procíclicas. Por el contrario, manteniendo constantes las rentas del capital corrientes y futuras esperadas,

se mueve inversamente a los movimientos corrientes y futuros esperados de la tasa de interés.

Señalamos que esta ecuación también deja en claro por qué la mayoría de los bancos centrales son renuentes a ajustar las tasas de interés en función de los precios de los activos (véase, por ejemplo, Bernanke y Gertler (2001)). Primero, no hay razón para creer que el banco central pueda evaluar mejor que el sector privado los determinantes fundamentales de los precios de los activos, que aparecen del lado derecho de esta ecuación. Segundo, hay un

problema de circularidad: es sumamente sensible a la trayectoria corriente y futura de las tasas de interés. Por lo tanto, un banco central que ajusta mecánicamente las tasas de interés para estabilizar los precios de los activos puede terminar infundiendo una volatilidad no deseada en las tasas de interés, los precios de los activos, o ambos.

Además, combinando (AS2), (AS3) y (AS4), obtenemos la ecuación de la oferta agregada:

donde

Así, podemos reescribir la ecuación de inflación en términos de la brecha del

producto como

31

donde

Por último, podemos representar la política monetaria por medio de una regla con la

forma:

Las ecuaciones (1), (2) y (3) constituyen la representación canónica de la dinámica de equilibrio del modelo monetario utilizado en una variedad de aplicaciones en la literatura. Para las simulaciones presentadas en el texto, utilizamos los siguientes valores paramétricos:

. Además, suponemos que la autocorrelación del shock que empuja los costos fue 0.95. Este artículo ha sido citado por: 1. Ricardo J. Caballero. 2010. Macroeconomics after the Crisis: Time to Deal with the Pretense-of-Knowledge SyndromeMacroeconomics after the Crisis: Time to Deal with the Pretense-of-Knowledge Syndrome. Journal of Economic Perspectives 24:4, 85-102. 2. Peter Temin. 2008. Real Business Cycle Views of the Great Depression and Recent Events: A Review of Timothy J. Kehoe and Edward C. Prescott's Great Depressions of the Twentieth Century Real Business Cycle Views of the Great Depression and Recent Events: A Review of Timothy J. Kehoe and Edward C. Prescott's Great Depressions of the Twentieth Century. Journal of Economic Literature 46:3, 669-684.