The New Keynesian Model Soubassements th
UNIVERSITÉ MOHAMMED V - RABAT FACULTÉ DES SCIENCES JURIDIQUES, ÉCONOMIQUES ET SOCIALES AGDAL MASTER RECHERCHE EN SCIENCES ECONOMIQUES
The New Keynesian Model
Soubassements théoriques et dérivation
Réalisé par : EL FAIZ Zakaria
RHANAMI Salaheddine ZOUIRI Sara
Encadré par :
Equipe pédagogique Pr. TOUNSI S., M. LAHLOU K., M. RAGBI A., M. ABDENOUR R.
Année universitaire : 2015/2016
Introduction
Depuis la fin des années 70 et le début des années 80, la théorie et la modélisation macroéconomique et macroéconométrique ont
connu l’une des phases de développement les plus rapides au fil du temps. Ce développement est due principalement à l’évolution de l’économétrie d’un côté et l’informatique d’un autre. Cette évolution a
permis la vérification des théories sur le plan empirique, a facilité l’accès et l’utilisation de l’information et la simulation des modèles de
grande taille ainsi que leur évaluation. Cet environnement sophistiqué a donné naissance à un nouveau programme de recherche piloté théoriquement par Lucas et sa fameuse critique (Lucas, 1976), et empiriquement par Kydland et Prescott et leur Real Business Cycle (RBC) model (Kydland, Prescott, 1980).
Toute naissance est suivie par une croissance, et les modèles RBC ne font pas l’exception de cette règle. Ainsi, ces modèles qui
n’incorporaient pas plusieurs dimensions comme la monnaie, la rigidité des prix et des salaires ont connu un développement considérable depuis les années 90. Ce développement conduit par des nouveaux keynésiens a donné naissance à une extension des modèles RBC
connus sous l’appellation The New Keynesian Model (NKM) et communément par The Dynamic stochastic General Equilibrium (DSGE).
Les modèles DSGE occupent une place capitale dans les banques centrales comme outils d’explication des fluctuations du cycle
économique d’abord, et comme outil de prédiction ensuite. De ce fait, le développement de ces modèles a connu des améliorations
d’inspiration académiques et aussi praticiennes.
A la lumière de ces données, il nous semble légitime de poser un ensemble de question auquel on tentera d’y répondre sur ce papier. Ce dernier a pour objectif la présentation d’une revue de littérature des
p rincipaux développements théoriques et empiriques qu’on résumera comme suit : Quelle est la place qu’occupent les modèles DSGE dans la modélisation macroéconomique aujourd’hui par rapport à la
modélisation keynésienne et la modélisation VAR ? Comment élaborer un modèle DSGE, l’exécuter et l’estimer ?
Modélisation macroéconomique keynésienne
Modélisation keynésienne et de la synthèse IS-LM
Dès sa publication en 1936, la Théorie Générale de Keynes a occasionné de nombreuses réactions. Un pas considérable fut franchi lorsque, à la conférence de la Société d ’économétrie organisée à Oxford en septembre 1936, trois jeunes économistes anglais, Harrod, Meade et Hicks, proposèrent leur lecture de la Théorie générale. Leurs interprétations avaient plusieurs points communs. Enfin, tous trois réussirent à transformer le raisonnement de Keynes en un modèle mathématique simple, composé d'un petit nombre d'équations simultanées. Un seul de ces modèles connut le succès, celui de Hicks le modèle IS-LL qui deviendra le modèle IS-LM appellation faite par Hansen qui a prédominé dans les ouvrages d ’économie. En avril 1937, John Hicks publie un article dans la revue Econometrica intitulé « Keynes and the classics; a suggested interpretation » dans lequel il explique le modèle IS-LM, représentant sur un même plan l ’équilibre macroéconomique à prix fixes sous forme d ’une intersection de deux courbes, le papier en question tente de faire une synthèse des analyses keynésienne et classique. Le modèle de Hicks établissant les bases
d ’une justification des politiques conjoncturelles visant à assurer la croissance en économie fermée va dominer l ’économie durant près de quarante ans. Toutefois, il est reproché au concepteur du modèle
d ’avoir négligé la question des anticipations, et les phénomènes de dépendance temporelle dans son interprétation néoclassique du modèle. Outre cela, Il faut par ailleurs aussi évoquer les principales limites qui sont non seulement une analyse en autarcie mais aussi à des prix fixes, c ’est pourquoi, des économistes ont voulu aller de l’avant, ce qui a débouché sur une extension du modèle IS/LM prenant en considération l ’ouverture de l’économie.
Afin de dissiper les erreurs commises dans le modèle précédent, les économistes John Mercus Fleming et Robert Alexander Mundell dans les années soixante ont ajouté la courbe BP pour mieux cerner la portée globale des mécanismes économiques et ainsi mesurer le mouvement de la mondialisation et ses impacts sur les économies nationales. En fin, ce modèle permet d ’évaluer l’efficacité des politiques budgétaire et monétaire dans les régimes de change fixe et flottant.
Une autre déficience que l'on vise à adresser est l'hypothèse de prix fixes caractérisant les modèles IS-LM. L'incorporation par Samuelson et Solow de la courbe de Phillips permet de la combler. Le pas supplémentaire accompli par ces derniers sera d'affirmer que cette courbe montre que les gouvernements ont deux alternatives dans leur politique économique : favoriser un chômage bas ou une inflation faible, les deux étant antagonistes.
En outre, l ’histoire économique a montré qu’il pouvait y avoir à la fois hausse d ’inflation et du chômage dans des situations de stagflation comme dans le cas des chocs pétroliers des années 1970.
D ’où des critiques acerbes à l’égard de la courbe de Phillips notamment celle de Milton Friedman en décembre 1967 dans sa conférence de L ’American Economic association, il s’agissait pour lui
de plaider pour la validité de la théorie classique du modèle IS-LM, qui suppose la flexibilité des salaires, au détriment de sa version keynésienne, dans laquelle les salaires sont supposés rigides.
Modélisation AD-AS
L ’introduction de la courbe de Phillips au modèle de Hicks et la fameuse critique de Friedman donna naissance au modèle d ’offre globale et de demande globale AS-AD qui est une extension du modèle IS-LM prenant en considération le mouvement du niveau général des prix induit par des chocs d ’offre ou de demande (Blanchard, 2011).
La courbe de demande globale indique la quantité de biens et services demandés dans l ’économie pour tout niveau de prix.
La courbe d ’offre globale est construite à partir des deux courbes (Phillips et Okun) indique la quantité de biens et services produits dans l ’économie pour tout niveau de prix, Contrairement à la courbe AD il faut distinguer l ’offre globale de long terme (OGLT) et de court terme (OGCT).
Popularisé par le Manuel « Macroéconomie » de Mankiw, le modèle AS-AD va gouverner les manuels d ’économie à partir des années 1980. Néanmoins d'innombrables critiques ont été adressées à cette présentation de Mankiw du modèle, il s ’agit notamment de Fred Moseley, « Criticims of aggregate Demand & Agrregate Sypply :
Mankiw ’s presnetation », Review of Radical political Economics, July 2010.
Modélisation macroéconomique dynamique
Critique de Sims et émergence des modèles VAR
Dans un article publié en 1980, intitulé “Macroeconomics and Reality”, Christopher Sims dénonce la quasi-totalité des travaux économétriques d ’inspiration keynésienne à la Klein qui ont dominé l ’économétrie depuis sa naissance. Pour Sims les modèles économétriques issus de la macroéconomie de la synthèse imposent des a priori économiques sans aucune justification statistique. Ainsi,
l’hétérogénéité de certaines variables est postulée, mais elle n’est pas testée.
Ce dernier propose alors d ’utiliser un modèle statistique non contraint et dynamique, i.e. le modèle Vectoriel Auto –Régressif (VAR)
C ’est ce qu’on appelle l’économétrie sans théorie, car ces méthodes font abstraction de la théorie économique et supprime la distinction entre variables endogènes et variables exogènes en considérant toutes les variables comme endogènes. L ’un des principaux avantages de l ’approche VAR est qu’elle permet de donner lieu à différentes utilisations. On peut facilement réaliser des exercices de prévision en utilisant la formulation récursive du modèle VAR. Il faut cependant noter que l ’horizon retenu pour la prévision ne doit pas être trop long car le modèle VAR fournira des prévisions peu informatives à long terme. D’autre part, cette approche permet parfois de justifier un modèle que l ’on peut qualifier de structurel. Elle réalise en fait le souhait
de Sims de se servir d ’une analyse statistique des données afin de bâtir une théorie empiriquement bien fondée. En dépit de son apparente simplicité, l ’approche VAR a vivement été contestée par les partisans
de la calibration, pour qui la théorie économique doit garder sa prééminence sur l ’économétrie statistique.
Critique de Lucas la macroéconomie d’équilibre générale dynamique
Les années 1970 marquèrent une remise en cause de la méthodologie utilisée par les économètres. Robert Emerson Lucas Jr lance une attaque sévère contre les modèles économétriques utilisés à l ’époque, c’est ce qu’on qualifie de critique de Lucas (1976).Selon Les années 1970 marquèrent une remise en cause de la méthodologie utilisée par les économètres. Robert Emerson Lucas Jr lance une attaque sévère contre les modèles économétriques utilisés à l ’époque, c’est ce qu’on qualifie de critique de Lucas (1976).Selon
de la modélisation macroéconomique. Sa critique a été à la base d'une transformation radicale de la modélisation macroéconomique qui est devenue nécessairement dynamique et stochastique en prenant en compte les anticipations des agents, et les fondements microéconomiques dans l ’explication des modèles.
Corpus théorique de la modélisation EGD
Le développement de la modélisation macroéconomique dynamique vient comme une double réponse a des limites à la fois empiriques et théoriques. Les limites empiriques des modèles macro- économétriques keynésiens dans la prédiction de l ’inflation et dans l ’explication des fluctuations pendant les années 70 constituent l’une des défaillances qui a mis fin à l ’hégémonie de ces modèles. La deuxième réponse d ’ordre théorique, considérée comme la réponse la plus importante, est l ’intégration de la critique de Lucas, en rendant les modèles dynamique avec anticipations rationnelles en se basant sur des agents rationnels et optimisateurs, l ’explication des fluctuations et le cycle économique dans le même modèle et la recherche des fondements microéconomiques au comportement macroéconomique.
Méthodologie scientifique de la modélisation EGD
Le cadre méthodologique de la science économique en générale, et de la nouvelle macroéconomie en particulier ont connus un changement profond depuis le début des années 70. L ’approche scientifique n ’est plus hypothético-déductive, mais plutôt une approche positive. Milton Friedman sur son article Essay On positive Economics publié en 1970 est considéré comme l ’un des premiers économistes qui font une distinction entre l ’approche positive et Le cadre méthodologique de la science économique en générale, et de la nouvelle macroéconomie en particulier ont connus un changement profond depuis le début des années 70. L ’approche scientifique n ’est plus hypothético-déductive, mais plutôt une approche positive. Milton Friedman sur son article Essay On positive Economics publié en 1970 est considéré comme l ’un des premiers économistes qui font une distinction entre l ’approche positive et
de l ’économétrie et de l’outil informatique. Dans ce cadre marqué par l ’empirisme, Lucas (1980), Sargent ou
Hanssen ont essayé de discipliner la recherche dans les modèles macroéconomiques dynamiques en donnant une démarche rigoureuse à suivre. Dans le même cadre s ’articule l’article de Kydland et Prescott The computational experiment: an econometric tool publié en 1996. Sur cet article Kydland et Prescott trace au chercheur en économie computationnelle une démarche composée de cinq étapes, et qui combine le théorique et l ’empirique à la fois. Ces étapes peuvent être résumées ainsi :
Poser une question
La première étape est de mettre en évidence la question pivot du travail, qui pourra avoir comme objectif l ’étude d’un phénomène quantitatif comme l ’impact d’une politique économique sur le revenu national, ou un objectif théorique comme la validation d ’une hypothèse. Par exemple, le problème développé par Kydland et Prescott sur la nature des fluctuations engendrés par les chocs technologique (Kydland et Prescott,1982).
Utilisation d ’une théorie « testable »
Le choix de la théorie utilisée pour l ’adapter à la question posée est l ’une des étapes les plus importantes. Le modèle qui y on dérive découle de l ’ensemble des propositions et hypothèses dressées par une théorie. De ce fait, Kydland et Prescott précisent que le choix doit être effectué en raison de la pertinence de la théorie et de sa qualité d ’être testée et vérifiée premièrement. Et deuxièmement à la nature de la question qui doit être adaptée à la théorie choisie, par exemple, l ’étude de la question des inégalités des revenus qui relève de la théorie de développement, par la théorie néoclassique de la croissance. Cette tentative d ’explication n’aura qu’un seul résultat : échec.
Construction du modèle
La cohérence entre la théorie choisie et la question doit aboutir à une première conception du modèle, qui doit être simple et permettant de programmer un processus émanant à un équilibre. Cela n ’est possible qu’avec le recours à l’abstraction. La robustesse du modèle découle de la qualité de la théorie et des hypothèses assumées. Cette première conception doit évoluer dans un deuxième temps pour donner enfin une représentation fine de la problématique posée et du cadre théorique choisis.
Calibration du modèle
La calibration consiste à donner des valeurs aux paramètres du modèle. Cela diffère de l ’estimation des paramètres. L’estimation vise à quantifier approximativement une grandeur, alors que la calibration consiste à rapprocher le modèle le plus possible à la réalité. C ’est l’une des étapes les plus importantes, car le choix erroné d ’une valeur peut affaiblir le modèle. La différence entre calibration et estimation peut être illustrée par le fait de donner une valeur entre 0 et 1 au facteur
d ’escompte dans la fonction de l’utilité des ménages qui relève de la calibration, alors que la détermination du comportement cyclique de la consommation relève de l ’estimation.
Exécuter l ’expérience
Après la calibration du modèle, et à l ’aide de l’ordinateur, le modèle peut être exécuté et estimé. Cette opération de reproduction des données est cruciale dans cette démarche, car en comparant les données issues du modèle et les données réelles, on peut conclure approximativement la qualité de la modélisation et de la théorie utilisée. Ce modèle va servir aussi à la prédiction, d ’où la nécessité de vérifier sa stabilité, ses qualités prédictives et sa spécification.
Principes de la modélisation du cycle d ’affaire
La modélisation en RBC, NKM ou DSGE en générale doit être soumise à un ensemble de restrictions et principes méthodologique dressé par Prescott en 1998 sur son article : Business Cycle Research : Methods and Problems. Les cinq principes sont :
Principle 1: When modifying the standard model of growth theory to address a business cycle question, the modification should continue to display the growth facts.
Principle 2: The model economy being used to measure something should not have a feature which is not supported by other evidence even if its introduction results in the model economy better mimicking reality.
Principle 3: A model that better fits the data may be a worse measurement instrument. Indeed, a model matching the data on certain dimensions can be the basis for rejecting that model economy as being a useful instrument for estimating the quantity of interest.
Principle 4: A corollary of Principle 3 is that the using statistical estimation theory to estimate models used to deduct scientific inference is bad practice. Estimating the magnitude of a measurement instrument, whether it is a thermometer or a model economy makes no sense.
Principle 5: A legitimate challenge to a finding is to introduce a feature into the model economy that is serving as the measurement instrument in a quantitatively reasonable way and show the answer to the question changes.
En résumant, les modifications portées sur le modèle de croissance afin de construir e une présentation du cycle d’affaires, doit continuer à montrer la réalité de la croissance. Ces modifications ne doivent pas intégrer des fonctions qui ne sont pas prouvés par d’autres évidences, même si ces fonctions peuvent améliorer la qualité du modèle dans la représentation de la réalité.
L’utilisation des estimations statistiques pour la détermination des paramètres du modèle peut affaiblir la qualité du modèle . D’où le recours aux méthodes de calibrations, qui peuvent donner des résultats
issus de l’inférence.
Emergence et hypothèses du modèle RBC
Les premiers travaux qui ont été développés dans le sens de la modélisation du cycle d’affaire sont ceux de Lucas (1975 ; 1976 ; 1977),
Blinder et Fisher (1981), Black (1979), Hodrick et Prescott (1980), Long et Plosser (1980), Kydland (1981), Barro (1981), Kydland et Prescott (1982).
Sur ces articles, les économistes qui s ’inscrivaient dans le nouveau programme de recherche initié par Lucas, ont essayé d ’élaborer des modèles d ’équilibre général dynamique avec anticipations rationnels. Pour une représentation complète de cette vision Kydland et Prescott (1982) publient leur article Time to Build and Aggregate Fluctuations. Ce dernier constitue la présentation la plus fine de la modélisation qui découle de la critique de Lucas, et la pierre angulaire de la modélisation macroéconométrique moderne.
Notant que la première génération de ces modèles n’ont adopté que des chocs monétaires pour expliquer les fluctuations, alors que les deux économistes Charles Plosser et John Long sur leur article
de 1980 Real Business Cycle, ont exclu la monnaie de leur modèle d ’où l ’appellation réel. En s’inspirant principalement de ce modèle et
d ’autres travaux établis dans ce sens, Kydland et Prescott (1982) ont intégré des chocs technologiques comme la principale explication des fluctuations du cycle réel des affaires dans un modèle de croissance à agent représentatif plus précisément le modèle de croissance néoclassique de Ramsey.
Le succès du Real Business Cycle Model proposé par Kydland et Prescott (1982) est dû principalement à la simplicité de sa construction, et au nombre d ’équations sur lesquels il se base. Il est constitué de deux blocs d ’équation. Le premier bloc représente les équations du comportement du ménage, firme et gouvernement. Le deuxième bloc concerne l ’identité de l’équilibre où l’ensemble de la production est soit consommée soit investie, l ’ensemble des facteurs sont utilisés et que l ’équilibre se réalise dans un cadre walrasien.
Le Real Business cycle s ’appuie sur l’ensemble des hypothèses classiques et néoclassiques qui assure un équilibre walrasien, en ajoutant la critique de Lucas par rapport aux anticipations rationnelles des agents. Oulhaj (2015) les présentent ainsi :
H1 : Concurrence parfaite sur l ’ensemble des marchés H2 : Ajustement instantané des prix. H3 : Anticipation rationnelle des agents. H4 : Absence d ’asymétrie d’information. H5 : L ’équilibre concurrentiel est parétien. H6 : Les firmes sont identiques et preneurs des prix.
H7 : Les ménages éternels sont identique et preneurs des prix. H8 : Trois agents sont considérés : Firme, ménage et secteur public.
Le modèle RBC par hypothèse se base sur deux agents optimisateur : les ménages et les firmes. Une seule source de fluctuation : le choc technologique, et enfin la relation d ’équilibre où toute la production doit être consommée. Le modèle RBC de base présenté par King and Rebelo (1999) est le suivant :
Préférences :
La fonction de l ’utilité inter-temporelle à optimiser par le ménage représentatif infinitely lived :
:l ’opérateur de l’espérance à l’instant 0, : Le facteur
d ’actualisation, : La consommation, : Loisir. Les agents sont supposés distribuer leur temps entre le travail et loisir. En
normalisant le temps en le rapportant à 1 on aura :
: Nombre d ’heures de travail, : nombre d ’heures de loisir.
Technologie:
La technologie utilisée par la firme est représentée par une fonction de production qui combine entre le travail et le capital. Le facteur capital peut être détenu directement ou indirectement par les ménages. Directement si les ménages louent les machines aux firmes pour un taux d ’intérêt (ou rente). Indirectement quand ils ont le droit de propriété sur la firme, car dans le modèle, les ménages détiennent les firmes. Le seul fournisseur de travail est le ménage.
: La production, : Choc de productivité, : Le capital, : Le
travail, : Evolution de la productivité.
La composante déterministe de l ’évolution de la productivité Xt peut être représentée par l ’augmentation constante dans le temps de sa valeur retardée :
L ’accumulation du stock du capital se fait à un coefficient constant (1-delta) en additionnant l ’investissement de chaque instant t.
: Facteur de dépréciation du capital.
La production peut être soit consommée ou investie , ce qui revient à l ’identité comptable d’une économie fermée sans gouvernement.
The New Keynesian model
Le Real Business Cycle Model adopte plusieurs hypothèses qui le rend, au point de vue des nouveaux keynésiens, un modèle faible. La non intégration des rigidités, le rôle du gouvernement dans la stimulation de la demande, le rôle de la banque centrale dans la sta bilisation des prix, l’absence de la sphère monétaire sont les principales critiques adressés au RBC Model. Une suite de travaux publiés, principalement par Jordi Gali, Smets et Wouters, Goodfriend et King,
Modèle canonique et hypothèses de base du New Keynesian Model
H1 : Le cycle des affaires est conduit par les chocs réels et par les chocs nominaux ; H2 : La concurrence est monopolistique sur les deux marchés du travail et des produits ; H3 : Les prix des biens et services, comme les salaires sont rigides ; H4 : L’équilibre concurrentiel n’est pas parétien ; H4 : La politique monétaire est importante et les politiques de stabilisation en général jouent un rôle actif ; H5 : Les agents font des anticipations rationnelles ; H6 : Absence d’asymétrie de l’information ;
H7 : Une nouvelle courbe de Phillips qui tient compte des rigidités est adoptée.
Un NKM canonique avec rigidité des prix
Le New keynesian Model canonique avec rigidité des prix est composé de trois équations. Une équation IS , représente le bloc de la demande dans le modèle, qui détermine le niveau de l’activité en fonction du taux d’intérêt nominal , l’inflation anticipée
et le niveau d’activité anticipé
. La deuxième équation, la courbe
de Phillips ou The NKPC , représente le bloc de l’offre. Cette équation est dérivée à partir de la fonction de production de la firme
représentative. Le niveau des prix (l’inflation), est en fonction du niveau des prix anticipés et du niveau de la demande à l’instant . En réalité
cela découle principalement de l’idée keynésienne qui postule que l’offre est déterminée à partir du niveau agrégé de la demande. Enfin, L’équation de la politique monétaire est représentée par une fonction
de réaction de type Taylor. Cette équation dite de bouclage met en évidence la réaction de la politique monétaire qui a comme instrument
le taux d’intérêt nominale, face aux changements de l’inflation (l’offre) et de niveau de l’activité (la demande).
Les variables endogènes du modèle sont et . Alors que les variables exogènes sont et Ces derniers suivent un processus aléatoire qui donne la nature stochastique au modèle, et qui nous permettent de suivre les mécanismes de transmission des chocs dans
l’économie. Après l’introduction de la rigidité nominale sur le Real Business
Cycle, et le succès du New Keynesian Model, la modélisation DSGE en générale a connu plusieurs extensions et développements sur le plan théorique et économétrique.
Sur le plan théorique, la monnaie a été analysée sous l’hypothèse de la neutralité depuis les modèles de bases proposés par
Lucas ou le modèle de Long et Plosser (1980) ou bien celui de Cooley Lucas ou le modèle de Long et Plosser (1980) ou bien celui de Cooley
limitée ». La particularité de ces modèles est qu’ils intègrent les imperfections financières et la capacité limitée des agents à ajuster leurs portefeuilles de titres » Tsasa (2012). Dès l’apparition des modèles RBC, l e marché de travail a été considéré comme le talon d’Achille de cette catégorie de modèles. Une première solution a formulé dans le cadre de la nouvelle école classique par Hansen (1985) en introduisant
la notion du « travail indivisible », néanmoins, les résultats de cette introduction n’ont été pas assez satisfaisantes, d’où le recours la rigidité sur le marché du travail (Burnside, Eichenbaum, 1996 ; Burnside – Eichenbaum, Rebelo, 1993). De même, Rotemberg et Woodford (1992, 1995 ) on essayer d’introduire la concurrence imparfaite) travers le modèle de concurrence monopolistique.
Sur le plan économétrique, l es premières méthodes d’estimations employées par Kydland, Prescott et Hansen pour l’estimation des RBC, ou par Woodford et Gali pour l’estimation des NKM sont les méthodes
de maximum de vraisemblance, méthode généralisée des moments, et les méthodes fondées sur les simulations. Le développement récent de
l’économétrie bayésienne a permis l’utilisation de cette approche en introduisant les méthodes MCMC.
Actuellement, les économistes combinent ces développements théoriques dans le but de rapprocher leurs modèles à la réalité, ainsi que la quasi-totalité des travaux utilise les méthodes bayésiennes pour
l’estimation des DSGE.
Dérivation du New Keynesian model
Le modèle qu’on va présenter est celui développé par Sims (2015), basé sur les travaux de Woodford (2003) et Gali (2008).
Ménage, Firme, et l’équilibre
Comme on a signalé, La fonction de la demande inter- temporelle
met en relief trois variables micro-fondées, le niveau de l’activité réel, le taux d’intérêt nominal et l’inflation, et une variable aléatoire Dans ce qui va suivre, nous allons montrer comment ces variables dites micro fondé ont été dérivé.
L’équation IS est obtenue à partir du comportement du ménage. Ce dernier a pour objectif de maximiser sa fonction d’utilité à
travers ses choix inter-temporels entre la consommation, le loisir et la quantité de monnaie qu’il vise à épargner. À ce niveau, le ménage a
le choix entre le détiens des encaisses réels ou le placement de son épargne sous forme de bons en fonction du taux d’intérêt et du niveau d’inflation. Si ce dernier est faible le ménage préfère détenir des encaisses réel alors que dans le cas inverse, si le taux d’intérêt augmente, il acquière des bons, et ce, sous sa contrainte budgétaire.
La fonction objectif du ménage :
: l’opérateur de l’espérance à l’instant 0, : Le facteur d’actualisation, : La consommation, : Nombre d’heure de travail,
: Encaisses réels,
: Elasticités
La contrainte budgétaire :
La maximisation de l’utilité des ménages est soumis à sa contrainte budgétaire qui constitue l ’égalité entre ses ressources et ses dépenses. Ces derniers sont composées des dépenses de
consommations, la quantité de bons à placer durant la période , Les encaisses réels à détenir dans la période t. Ces dépense sont contraintes par leurs ressources constitués par le taux de salaire nominal
multiplié par le nombre d’heures de travail , les dividendes reçus des firmes (hypothèse les ménages détiennent les firmes et reçoivent des droits de propriétés), le rendement des bons
diminué des impôt versés au gouvernement.
D’après les conditions de premier ordre (Voire annexe 1), trois équations sont retenues.
L’offre du travail : Cette condition nous donne l’égalité du rapport du loisir
et la consommation qui n’est que le taux et la consommation qui n’est que le taux
de travail
( . ) qui doit être égale au salaire réel
En d’autres termes, cette équation représente l’arbitrage entre consommation et loisir, à travers le salaire réel.
La demande de monnaie : Cette équation exprime la relation entre la quantité de monnaie demandée par le ménage, le taux d’intérêt nominal et le niveau de la consommation, elle similaire à une
courbe LM.
Cette équation représente le coût de privation de la consommation à l’instant , qui doit être égale au gain de posséder une unité supplémentaire de monnaie, et ce à travers le taux d’intérêt.
L’équation d’Euler : L’utilité marginale de la consommation à l’instant doit être égale à l’utilité marginale de la consommation à l’instant et ce, à travers le mécanisme du prix relatif.
Producteur du bien final :
Les producteurs des biens finaux rassemblent et vendent les produits intermédiaires , et ils sont constitué d’un continuum de producteurs [0, 1]. Le marché où opèrent ces firmes est un marché de concurrence pure et parfaite. Les firmes du bien final sont représentées par l’agrégation en élasticité de substitution constante des firmes des
biens intermédiaires.
Les firmes du bien final cherchent à maximiser leurs profits représenté par :
D’après les conditions du premier ordre (Annexe 2), on pourra tirer la demande agrégé des firmes du produit final en bien intermédiaire est définie par :
Avec l ’indice des prix défini par l’intégral :
Produits intermédiaire
D’après les hypothèses du modèle, on a supposé que la production dépend uniquement du facteur travail et du niveau de
technologie qui est identique pour toutes les firmes, cette fonction prend la forme :
L’objectif de la firme du produit intermédiaire est de minimiser son coût (le salaire versé) sous contrainte de la production qui doit satisfaire la demande des firmes de produits finaux.
Sous contraint :
De ce problème on peut tirer la formule du coût marginal nominal, ce coût marginal est exprimer en fonction du salaire nominal divisé par la productivité (Voire annexe 3) :
Le coût marginal est identique pour toutes les firmes ainsi que la productivité et le salaire (absence de frictions sur le marché de travail). Or une augmentation de la productivité conduit à la baisse du coût marginal.
Comme les firmes du produit intermédiaires opèrent dans un marché de concurrence monopolistique, en court terme, ces firmes peuvent tirer un profit (recettes totales diminuées du coût total) qu’ils cherchent à maximiser.
Avec l’expression du coût marginal nominal , on peut récrire la fonction du profit comme suit :
Comme nous sommes dans un marché de concurrence monopolistique, les firmes exercent un pouvoir sur les prix. La maximisation de ce profit se fait donc par le biais du prix. On parle à ce niveau de la fixation du prix ou « Price Setting ».
Plusieurs mécanismes de fixation de prix ont été développés dans le cadre du New Keynesian Model comme la rigidité à la Taylor (1979), Rotemberg (1981) et la rigidité à la Calvo (1983). Le mécanisme adopté sur ce papier est celui de Calvo (1983). L’idée sur laquelle se base ce mécanisme et que seulement une fraction de firmes qui ré- optimise leurs prix suite à un signale, alors que le reste des firmes ne ré- optimise pas leurs prix. De ce fait, on désigne par , la probité que la firme ne change pas son prix. D’où le nouveau facteur d’escompte qui tient compte du cette rigidité. L’expression du profit à maximiser peut se réécrire de la forme suivante.
La dérivation par rapport au nous donne :
Comme le coût marginal, le niveau des prix, et le niveau de production ne dépend pas de (j), autrement dit, ils sont identiques, les firmes du bien intermédiaire en ajustant leurs prix, vont fixer le même prix. On réécrit la formule précédente sous forme :
Avec :
Et :
Si le facteur de rigidité est nul, le prix fixé sera égal au mark up multiplié par le coût marginal nominal.
Agrégation des contraintes et équilibre :
On suppose que le gouvernement ne fait pas de dépenses, et n’opère pas dans le marché des bons, par conséquent, ses dépenses
sont nulles. Alors que ses recettes sont constituées par la création de monnaie (on fait abstraction que le gouvernement contrôle la masse
monétaire) et par l’impôt forfaitaire d’où sa contrainte :
On peut réécrire cette expression sous la forme :
Puisque le gouvernement ne fait pas de dépense, une création supplémentaire de monnaie i.e. , induit à un impôt forfaitaire négatif. Autrement dit, le gouvernement réduit son revenu de seigneuriage au profit des ménages.
La contrainte du ménage s’écrira donc :
A l’équilibre, et en utilisant la condition de transversalité, la détention des bonds est égale à zéro.
Les conditions de transversalité sont des conditions d’optimalité utilisé souvent d ans les équations d’Euler pour décrire la trajectoire optimale d’un modèle économique dynamique.
Ces conditions stipulent que dans un horizon qui soit fini ou infini, l’agent doit consommer l’ensemble de ces dotations à la dernière période, puisque il n’a pas intérêt à épargner. Autrement dit, si l’agent
continue toujours à épargner plus et à consommer moins, cet agent n’a pas un comportement optimal.
D’où on tire la condition sur le placement des bons, à savoir . La contrainte en terme réel se transforme donc :
Les ressources du ménage destiné à la consommation réel (la seule dépense) sont constituées par le revenu du travail réel (le taux de
salaire réel fois le nombre d’heures travaillés) et le profit réel des firmes des biens intermédiaire.
Agrégation du profit des firmes des biens intermédiaire est définit par l’intégrale :
Après manipulation algébrique (Annexe 5), la contrainte agrégée de l’économie s’écrit :
De même, la production peut être agrégée et écrite sous la forme suivante (Annexe 6) :
Avec la dispersion des prix :
Price setting et la rigidité à la Calvo
Comme on a déjà signalé, la forme de la rigidité adoptée sur ce papier est celle de la rigidité à la Calvo (1983), et comme on est dans un marché de concurrence monopolistique, il existe plusieurs entreprises où chacune d ’elle a le pouvoir de fixer son prix de marché, d’où une certaine hétérogénéité dans le mécanisme d’agrégation de
ces prix. Le problème central est donc, de trouver une solution d’agrégation de cette hétérogénéité et déterminer un prix agrégé des biens intermédiaires pour notre modèle. L’idée de Calvo est assez simple et très pratique pour la résolution de ce problème. En fait, Calvo stipule que la fixation des prix à chaque instant est le résultat de deux
comportements. Un comportement d’optimisation au prix du marché (prix d’équilibre déterminé par le mark up et le coût marginale), et un
comportement rigide face au changement des prix (à l’instant des entreprises fixe le prix de la période
). Pour différencier entre ces deux types d’entreprises, Calvo stipule aussi que les firmes n’ajustant pas leurs prix sont choisies aléatoirement en leurs attribuant une probabilité
. Le reste des entreprises sont les entreprises ré- optimisatrices et à qui on leurs attribut une probabilité de
d’ajuster leurs prix. Dans l’équation du prix agrégé, l’hétérogénéité est représentée par le
prix de chaque entreprise de bien intermédiaire :
L’intervalle de ces entreprises peut être décomposé en deux ensembles. L’intervalle qui représente les entreprises ré-
optimisatrices et l’intervalle les entreprises rigides dans la fixation du prix.
Comme signalé au-dessus, les entreprises ré-optimisatrices du prix sont choisies aléatoirement. Autrem ent dit, l’intervalle de l’intégrale des entreprises peut être choisie en multipliant l’ensemble des entreprises par la probabilité . On peut écrire
donc :
Si l’ensemble des entreprises est composé de deux sous- ensembles
et respectivement des entreprises ré- optimisatrices et rigides, et que la proportion
est choisie aléatoirement par la probabilité
, la proportion des entreprises rigides est donc la probabilité
On peut écrire donc :
De ce fait, le mécanisme du fixation des prix à la Calvo nous a permis de faire face au problème d’hétérogénéité dans la fixation des
prix des entreprises individuel, et par conséquent, de trouver le niveau général des prix qui est dans ce cas composé de deux proportions, entreprises ré- optimisatrices et entreprises rigides qu’on a choisie aléatoirement avec les deux probabilité
et .
On peut réécrire la formule au- dessus en terme d’inflation
(avec : ):
De même, l’équation de vélocité des prix souffre de ce problème d’hétérogénéité.
En suivant la même logique de Calvo développé dans le paragraphe précèdent, on pourra agréger cette dispersion sous la forme suivante (voir Annexe 7) :
En écrivant la définition des prix du bien intermédiaire en terme
de l’inflation :
L’état stationnaire
Avant de déterminer l’état stationnaire de nos équation, on proposera dans un premier temps cette notion, qui peut entrainer des fois des ambiguïtés de compréhension, et de montrer son utilité dans
notre analyse et modèle. Après la critique de Lucas, le nouveau paradigme de la
macroéconomie contemporaine est devenu récursif. Autrement dit, les agents font une série de décisions d'optimisation sur plusieurs périodes dans le temps. La présentation de l’économie est donc devenue à la fois computationnelle et dynamique. Computationnelle dans le sens où la présentation du comportement des agents doit être réalisée à
travers l’abstraction et la modélisation, et dynamique dans le sens où ces équations doivent prendre le temps en considérations, on parle
donc d’équation différentielle ou de l’optimisation dynamique en temps discret ou en temps continu.
Mathématiquement, la détermination de l’état stationnaire d’une équation ou d’un système d’équation, revient à déterminer tout simplement une solution constante qui constitue l’équilibre de ces
équations ou systèmes. La solution stationnaire est stable si elle tend vers l’équilibre (la constante) lorsque t tend vers l’infini, quel que soit la
valeur initiale, exemple de solution stationnaire stable.
En économie, comme en mathématique, l’état stationnaire stable représente l’état où l’ensemble des grandeurs économique sont En économie, comme en mathématique, l’état stationnaire stable représente l’état où l’ensemble des grandeurs économique sont
engendrant les fluctuations, et qu’en long terme, les grandeurs ont pu atteindre leurs valeurs naturelles (PIB potentiel ou taux d’intérêt réel neutre…) ou leurs valeurs cibles, taux d’inflation par exemple.
Dans notre modèle, le concept de l’état stationnaire a une notion à la fois mathématique et économique. Economique dans le sens où on rapprochera l’état stationnaire à la valeur cible et naturelle des grandeurs économiques . Mathématique dans le sens où à l’état
stationnaire il y a absence de la dimension temporelle, et toute variation est nulle. De ce fait, les équations de notre modèle à l’état stationnaire sont présentées comme suit :
Equation d’Euler :
A l’état stationnaire :
Cela signifie que le taux nominal est égal au taux réel neutre (taux d’intérêt de long terme) plus l’inflation avec le facteur
d’escompte, et le taux d’escompte. Le facteur d’escompte est
égale à . Evolution des prix :
A l’état stationnaire :
Si l’inflation , on aura , et si , alors et l’inverse est vrai. Cela veut dire que, si l’inflation est égale à zéro, le
niveau des prix fixés par les entreprises du bien intermédiaire sera à son tour nul. Autrement dit, au point de l’inflation 0, la dispersion des prix est niveau des prix fixés par les entreprises du bien intermédiaire sera à son tour nul. Autrement dit, au point de l’inflation 0, la dispersion des prix est
général des prix. Dispersion des prix :
A l’état stationnaire :
Vu les résultats obtenus au-dessus, si l’inflation est égale à zéro à l’état stationnaire on aura
, et par conséquent D’où la stabilité des prix à l’état stationnaire.
Définition des prix et du coût marginal : Pour le cout marginal, on obtient son expression à l’état
stationnaire à partir de la définition des prix d’où
En réécrivant cette expression sur cette forme :
D’après la définition des prix du bien intermédiaire en terme de
l’inflation des deux termes et , on sait que :
D’où on peut tirer l’expression du coût marginal :
’état stationnaire, et si l’inflation est égale à zéro, le coût A l margina l sera égal à l’inverse du mark-up, autrement dit, le mark up ’état stationnaire, et si l’inflation est égale à zéro, le coût A l margina l sera égal à l’inverse du mark-up, autrement dit, le mark up
Log linéarisation
On sait que
Equation d’Euler :
Forme log linéarisé :
Imposant la contrainte on pourra écrire :
En introduisant le log :
Avec ̃ ,
̃ et ̃ , qui représente la déviation
de l’output gap, le taux d’intérêt et le niveau de l’inflation de leurs valeurs potentielles ou cibles. L’introduction du Log est effectuée sur les variable non exprimé en terme de taux, alors que variable exprimés en terme de taux, sont écrites en déviation absolue. Cette équation, pourra être transformée pour obtenir l’équation IS :
La demande qui est exprimé en terme d ’output gap, est négativement reliée au taux d’intérêt réel, autrement dit, si le taux
d’intérêt réel est élevé, cela induit les agents à épargner plus à l’instant au lieu de consommer ou d’investir, ce qui réduit la demande actuelle. Et elle est positivement reliée à l’output gap anticipé. Car les
agents souhaitent lisser leur consommation dans le temps, ils auront agents souhaitent lisser leur consommation dans le temps, ils auront
Le bloc de demande du New Keynesian Model décrit la relation négative existante entre le taux d'intérêt réel et la demande désirées des ménages.
A ce niveau, et pour obtenir l’équation qui représente le bloc de l’offre dans le NKM. Nous allons procéder à la log linéarisation des
équations nécessaire relative au comportement des firmes pour obtenir l’expression du coût marginal en fonction de l’output gap. Et ensuite réécrire l’équation de l’offre représentée par l’évolution de l’inflation en fonction de l’output gap et de l’inflation anticipée.
Offre de travail
D’après les conditions du premier ordre obtenues par la dérivation du comportement des ménages nous avons l’expression du l’offre de travail :
Avec , la f orme log linéarisée s’écrit :
Coût marginal :
D’après l’équation du coût marginal obtenu de l’optimisation du comportement des firmes des biens intermédiaires nous avons :
Sa forme log linéarisé exprimé en terme réel :
De la relation de l’offre de travail et du coût marginale log linéarisés, nous pouvons éliminer le salaire et écrire :
A ce niveau, nous allons écrire l’output en fonction de la productivité et du travail, pour ce faire nous allons procéder à
l’élimination de la dispersion des prix de la fonction de production. Nous avons la fonction de production :
Sa forme log linéarisée est comme suit :
Nous avons l’expression de la Dispersion des prix en terme d’inflation démontrée précédemment:
Et sa forme log linéarisé qui s’écrit:
A l’état stationnaire, et si l’inflation est égal à zéro, on aura, ̃
Ce qui implique que et la déviation de ce terme en log peut être négligé puisque
. Par conséquent, la dispersion des prix à l’état stationnaire peut être négligée et écrire la fonction de production sous la forme :
De l’équation obtenue de l’offre de travail en fonction du coût marginal, et en éliminant le facteur travail à l’aide de la fonction de production ci-dessus, on pourra écrire :
Apres simplification de cette expression on aura celle du coût marginal comme suite :
Pour obtenir l’expression du coût marginal en fonction de l’output gap, on va remplacer la productivité ̃ par son expression
obtenu de l’output au cas des prix flexible (voir annexe 8).
Le coût marginal en fonction de l’output gap s’écrit donc :
Revenant à notre équation cible qui décrit l’évolution de l’inflation :
Par log linéarisation on obtient :
On peut la réécrire sous la forme :
Apres la log linéarisation des deux termes ( ̃ et ̃ ), nous avons leurs expression en différence exprimé comme suit :
Et comme la Log linéarisation de l’évolution des prix nous donne l’expression suivante :
Nous pouvons les combiner et écrire :
On remplace le terme de droit par son expression, et on isolant le terme d’inflation on obtient l’équation du NKPC :
Qui peut être exprimé e n terme d’output gap :
L’offre dans le modèle est représentée par la NKPC. Cette équation met la relation entre l’inflation, le coût marginal des entreprises représenté par l’output gap, et le niveau de l’inflation anticipée.
Si la demande adressée à l’entreprise est élevée, les entreprises vont augmenter les salaires versés afin d’embaucher plus ou inciter les salariés à travailler d’avantage, ce qui augmente le coût marginal,
faisant pression sur des prix et générant l'inflation. De même, les anticipations des agents après l’augmentation des salaires vont influencer positivement l’inflation anticipée et par conséquent l’inflation
courante. Le bloc d’offre du nouveau keynésien modèle décrit comment
les firmes établissent leurs prix comme une fonction du niveau de demande et le niveau de l’inflation anticipée auxquelles ils font face.
La règle monétaire
Du point de vue théorique, La politique monétaire a connue trois grandes tendances. Le keynésianisme pendant les années 60 a suggéré des politiques monétaires discrétionnaires où les autorités monétaires ne bénéficiaient pas d'une autonomie vis-à-vis du gouvernement, et elles pouvaient intervenir en toute liberté sans préservation des intérêts des acteurs ce qui biaise leurs anticipations. Ce type de politique a été fortement critiqué par Milton Friedman, qui préconisait des politiques non activiste à règle fixe. L'autorité monétaire cette fois-ci est obligée de suivre une règle qui ne réagit pas avec le changement de l'activité ou du niveau de l'inflation, et qui se contente