The New Keynesian Model Soubassements th

UNIVERSITÉ MOHAMMED V - RABAT FACULTÉ DES SCIENCES JURIDIQUES, ÉCONOMIQUES ET SOCIALES AGDAL MASTER RECHERCHE EN SCIENCES ECONOMIQUES

The New Keynesian Model

Soubassements théoriques et dérivation

Réalisé par : EL FAIZ Zakaria

RHANAMI Salaheddine ZOUIRI Sara

Encadré par :

Equipe pédagogique Pr. TOUNSI S., M. LAHLOU K., M. RAGBI A., M. ABDENOUR R.

Année universitaire : 2015/2016

Introduction

Depuis la fin des années 70 et le début des années 80, la théorie et la modélisation macroéconomique et macroéconométrique ont

connu l’une des phases de développement les plus rapides au fil du temps. Ce développement est due principalement à l’évolution de l’économétrie d’un côté et l’informatique d’un autre. Cette évolution a

permis la vérification des théories sur le plan empirique, a facilité l’accès et l’utilisation de l’information et la simulation des modèles de

grande taille ainsi que leur évaluation. Cet environnement sophistiqué a donné naissance à un nouveau programme de recherche piloté théoriquement par Lucas et sa fameuse critique (Lucas, 1976), et empiriquement par Kydland et Prescott et leur Real Business Cycle (RBC) model (Kydland, Prescott, 1980).

Toute naissance est suivie par une croissance, et les modèles RBC ne font pas l’exception de cette règle. Ainsi, ces modèles qui

n’incorporaient pas plusieurs dimensions comme la monnaie, la rigidité des prix et des salaires ont connu un développement considérable depuis les années 90. Ce développement conduit par des nouveaux keynésiens a donné naissance à une extension des modèles RBC

connus sous l’appellation The New Keynesian Model (NKM) et communément par The Dynamic stochastic General Equilibrium (DSGE).

Les modèles DSGE occupent une place capitale dans les banques centrales comme outils d’explication des fluctuations du cycle

économique d’abord, et comme outil de prédiction ensuite. De ce fait, le développement de ces modèles a connu des améliorations

d’inspiration académiques et aussi praticiennes.

A la lumière de ces données, il nous semble légitime de poser un ensemble de question auquel on tentera d’y répondre sur ce papier. Ce dernier a pour objectif la présentation d’une revue de littérature des

p rincipaux développements théoriques et empiriques qu’on résumera comme suit : Quelle est la place qu’occupent les modèles DSGE dans la modélisation macroéconomique aujourd’hui par rapport à la

modélisation keynésienne et la modélisation VAR ? Comment élaborer un modèle DSGE, l’exécuter et l’estimer ?

Modélisation macroéconomique keynésienne

Modélisation keynésienne et de la synthèse IS-LM

Dès sa publication en 1936, la Théorie Générale de Keynes a occasionné de nombreuses réactions. Un pas considérable fut franchi lorsque, à la conférence de la Société d ’économétrie organisée à Oxford en septembre 1936, trois jeunes économistes anglais, Harrod, Meade et Hicks, proposèrent leur lecture de la Théorie générale. Leurs interprétations avaient plusieurs points communs. Enfin, tous trois réussirent à transformer le raisonnement de Keynes en un modèle mathématique simple, composé d'un petit nombre d'équations simultanées. Un seul de ces modèles connut le succès, celui de Hicks le modèle IS-LL qui deviendra le modèle IS-LM appellation faite par Hansen qui a prédominé dans les ouvrages d ’économie. En avril 1937, John Hicks publie un article dans la revue Econometrica intitulé « Keynes and the classics; a suggested interpretation » dans lequel il explique le modèle IS-LM, représentant sur un même plan l ’équilibre macroéconomique à prix fixes sous forme d ’une intersection de deux courbes, le papier en question tente de faire une synthèse des analyses keynésienne et classique. Le modèle de Hicks établissant les bases

d ’une justification des politiques conjoncturelles visant à assurer la croissance en économie fermée va dominer l ’économie durant près de quarante ans. Toutefois, il est reproché au concepteur du modèle

d ’avoir négligé la question des anticipations, et les phénomènes de dépendance temporelle dans son interprétation néoclassique du modèle. Outre cela, Il faut par ailleurs aussi évoquer les principales limites qui sont non seulement une analyse en autarcie mais aussi à des prix fixes, c ’est pourquoi, des économistes ont voulu aller de l’avant, ce qui a débouché sur une extension du modèle IS/LM prenant en considération l ’ouverture de l’économie.

Afin de dissiper les erreurs commises dans le modèle précédent, les économistes John Mercus Fleming et Robert Alexander Mundell dans les années soixante ont ajouté la courbe BP pour mieux cerner la portée globale des mécanismes économiques et ainsi mesurer le mouvement de la mondialisation et ses impacts sur les économies nationales. En fin, ce modèle permet d ’évaluer l’efficacité des politiques budgétaire et monétaire dans les régimes de change fixe et flottant.

Une autre déficience que l'on vise à adresser est l'hypothèse de prix fixes caractérisant les modèles IS-LM. L'incorporation par Samuelson et Solow de la courbe de Phillips permet de la combler. Le pas supplémentaire accompli par ces derniers sera d'affirmer que cette courbe montre que les gouvernements ont deux alternatives dans leur politique économique : favoriser un chômage bas ou une inflation faible, les deux étant antagonistes.

En outre, l ’histoire économique a montré qu’il pouvait y avoir à la fois hausse d ’inflation et du chômage dans des situations de stagflation comme dans le cas des chocs pétroliers des années 1970.

D ’où des critiques acerbes à l’égard de la courbe de Phillips notamment celle de Milton Friedman en décembre 1967 dans sa conférence de L ’American Economic association, il s’agissait pour lui

de plaider pour la validité de la théorie classique du modèle IS-LM, qui suppose la flexibilité des salaires, au détriment de sa version keynésienne, dans laquelle les salaires sont supposés rigides.

Modélisation AD-AS

L ’introduction de la courbe de Phillips au modèle de Hicks et la fameuse critique de Friedman donna naissance au modèle d ’offre globale et de demande globale AS-AD qui est une extension du modèle IS-LM prenant en considération le mouvement du niveau général des prix induit par des chocs d ’offre ou de demande (Blanchard, 2011).

La courbe de demande globale indique la quantité de biens et services demandés dans l ’économie pour tout niveau de prix.

La courbe d ’offre globale est construite à partir des deux courbes (Phillips et Okun) indique la quantité de biens et services produits dans l ’économie pour tout niveau de prix, Contrairement à la courbe AD il faut distinguer l ’offre globale de long terme (OGLT) et de court terme (OGCT).

Popularisé par le Manuel « Macroéconomie » de Mankiw, le modèle AS-AD va gouverner les manuels d ’économie à partir des années 1980. Néanmoins d'innombrables critiques ont été adressées à cette présentation de Mankiw du modèle, il s ’agit notamment de Fred Moseley, « Criticims of aggregate Demand & Agrregate Sypply :

Mankiw ’s presnetation », Review of Radical political Economics, July 2010.

Modélisation macroéconomique dynamique

Critique de Sims et émergence des modèles VAR

Dans un article publié en 1980, intitulé “Macroeconomics and Reality”, Christopher Sims dénonce la quasi-totalité des travaux économétriques d ’inspiration keynésienne à la Klein qui ont dominé l ’économétrie depuis sa naissance. Pour Sims les modèles économétriques issus de la macroéconomie de la synthèse imposent des a priori économiques sans aucune justification statistique. Ainsi,

l’hétérogénéité de certaines variables est postulée, mais elle n’est pas testée.

Ce dernier propose alors d ’utiliser un modèle statistique non contraint et dynamique, i.e. le modèle Vectoriel Auto –Régressif (VAR)

C ’est ce qu’on appelle l’économétrie sans théorie, car ces méthodes font abstraction de la théorie économique et supprime la distinction entre variables endogènes et variables exogènes en considérant toutes les variables comme endogènes. L ’un des principaux avantages de l ’approche VAR est qu’elle permet de donner lieu à différentes utilisations. On peut facilement réaliser des exercices de prévision en utilisant la formulation récursive du modèle VAR. Il faut cependant noter que l ’horizon retenu pour la prévision ne doit pas être trop long car le modèle VAR fournira des prévisions peu informatives à long terme. D’autre part, cette approche permet parfois de justifier un modèle que l ’on peut qualifier de structurel. Elle réalise en fait le souhait

de Sims de se servir d ’une analyse statistique des données afin de bâtir une théorie empiriquement bien fondée. En dépit de son apparente simplicité, l ’approche VAR a vivement été contestée par les partisans

de la calibration, pour qui la théorie économique doit garder sa prééminence sur l ’économétrie statistique.

Critique de Lucas la macroéconomie d’équilibre générale dynamique

Les années 1970 marquèrent une remise en cause de la méthodologie utilisée par les économètres. Robert Emerson Lucas Jr lance une attaque sévère contre les modèles économétriques utilisés à l ’époque, c’est ce qu’on qualifie de critique de Lucas (1976).Selon Les années 1970 marquèrent une remise en cause de la méthodologie utilisée par les économètres. Robert Emerson Lucas Jr lance une attaque sévère contre les modèles économétriques utilisés à l ’époque, c’est ce qu’on qualifie de critique de Lucas (1976).Selon

de la modélisation macroéconomique. Sa critique a été à la base d'une transformation radicale de la modélisation macroéconomique qui est devenue nécessairement dynamique et stochastique en prenant en compte les anticipations des agents, et les fondements microéconomiques dans l ’explication des modèles.

Corpus théorique de la modélisation EGD

Le développement de la modélisation macroéconomique dynamique vient comme une double réponse a des limites à la fois empiriques et théoriques. Les limites empiriques des modèles macro- économétriques keynésiens dans la prédiction de l ’inflation et dans l ’explication des fluctuations pendant les années 70 constituent l’une des défaillances qui a mis fin à l ’hégémonie de ces modèles. La deuxième réponse d ’ordre théorique, considérée comme la réponse la plus importante, est l ’intégration de la critique de Lucas, en rendant les modèles dynamique avec anticipations rationnelles en se basant sur des agents rationnels et optimisateurs, l ’explication des fluctuations et le cycle économique dans le même modèle et la recherche des fondements microéconomiques au comportement macroéconomique.

Méthodologie scientifique de la modélisation EGD

Le cadre méthodologique de la science économique en générale, et de la nouvelle macroéconomie en particulier ont connus un changement profond depuis le début des années 70. L ’approche scientifique n ’est plus hypothético-déductive, mais plutôt une approche positive. Milton Friedman sur son article Essay On positive Economics publié en 1970 est considéré comme l ’un des premiers économistes qui font une distinction entre l ’approche positive et Le cadre méthodologique de la science économique en générale, et de la nouvelle macroéconomie en particulier ont connus un changement profond depuis le début des années 70. L ’approche scientifique n ’est plus hypothético-déductive, mais plutôt une approche positive. Milton Friedman sur son article Essay On positive Economics publié en 1970 est considéré comme l ’un des premiers économistes qui font une distinction entre l ’approche positive et

de l ’économétrie et de l’outil informatique. Dans ce cadre marqué par l ’empirisme, Lucas (1980), Sargent ou

Hanssen ont essayé de discipliner la recherche dans les modèles macroéconomiques dynamiques en donnant une démarche rigoureuse à suivre. Dans le même cadre s ’articule l’article de Kydland et Prescott The computational experiment: an econometric tool publié en 1996. Sur cet article Kydland et Prescott trace au chercheur en économie computationnelle une démarche composée de cinq étapes, et qui combine le théorique et l ’empirique à la fois. Ces étapes peuvent être résumées ainsi :

Poser une question

La première étape est de mettre en évidence la question pivot du travail, qui pourra avoir comme objectif l ’étude d’un phénomène quantitatif comme l ’impact d’une politique économique sur le revenu national, ou un objectif théorique comme la validation d ’une hypothèse. Par exemple, le problème développé par Kydland et Prescott sur la nature des fluctuations engendrés par les chocs technologique (Kydland et Prescott,1982).

Utilisation d ’une théorie « testable »

Le choix de la théorie utilisée pour l ’adapter à la question posée est l ’une des étapes les plus importantes. Le modèle qui y on dérive découle de l ’ensemble des propositions et hypothèses dressées par une théorie. De ce fait, Kydland et Prescott précisent que le choix doit être effectué en raison de la pertinence de la théorie et de sa qualité d ’être testée et vérifiée premièrement. Et deuxièmement à la nature de la question qui doit être adaptée à la théorie choisie, par exemple, l ’étude de la question des inégalités des revenus qui relève de la théorie de développement, par la théorie néoclassique de la croissance. Cette tentative d ’explication n’aura qu’un seul résultat : échec.

Construction du modèle

La cohérence entre la théorie choisie et la question doit aboutir à une première conception du modèle, qui doit être simple et permettant de programmer un processus émanant à un équilibre. Cela n ’est possible qu’avec le recours à l’abstraction. La robustesse du modèle découle de la qualité de la théorie et des hypothèses assumées. Cette première conception doit évoluer dans un deuxième temps pour donner enfin une représentation fine de la problématique posée et du cadre théorique choisis.

Calibration du modèle

La calibration consiste à donner des valeurs aux paramètres du modèle. Cela diffère de l ’estimation des paramètres. L’estimation vise à quantifier approximativement une grandeur, alors que la calibration consiste à rapprocher le modèle le plus possible à la réalité. C ’est l’une des étapes les plus importantes, car le choix erroné d ’une valeur peut affaiblir le modèle. La différence entre calibration et estimation peut être illustrée par le fait de donner une valeur entre 0 et 1 au facteur

d ’escompte dans la fonction de l’utilité des ménages qui relève de la calibration, alors que la détermination du comportement cyclique de la consommation relève de l ’estimation.

Exécuter l ’expérience

Après la calibration du modèle, et à l ’aide de l’ordinateur, le modèle peut être exécuté et estimé. Cette opération de reproduction des données est cruciale dans cette démarche, car en comparant les données issues du modèle et les données réelles, on peut conclure approximativement la qualité de la modélisation et de la théorie utilisée. Ce modèle va servir aussi à la prédiction, d ’où la nécessité de vérifier sa stabilité, ses qualités prédictives et sa spécification.

Principes de la modélisation du cycle d ’affaire

La modélisation en RBC, NKM ou DSGE en générale doit être soumise à un ensemble de restrictions et principes méthodologique dressé par Prescott en 1998 sur son article : Business Cycle Research : Methods and Problems. Les cinq principes sont :

Principle 1: When modifying the standard model of growth theory to address a business cycle question, the modification should continue to display the growth facts.

Principle 2: The model economy being used to measure something should not have a feature which is not supported by other evidence even if its introduction results in the model economy better mimicking reality.

Principle 3: A model that better fits the data may be a worse measurement instrument. Indeed, a model matching the data on certain dimensions can be the basis for rejecting that model economy as being a useful instrument for estimating the quantity of interest.

Principle 4: A corollary of Principle 3 is that the using statistical estimation theory to estimate models used to deduct scientific inference is bad practice. Estimating the magnitude of a measurement instrument, whether it is a thermometer or a model economy makes no sense.

Principle 5: A legitimate challenge to a finding is to introduce a feature into the model economy that is serving as the measurement instrument in a quantitatively reasonable way and show the answer to the question changes.

En résumant, les modifications portées sur le modèle de croissance afin de construir e une présentation du cycle d’affaires, doit continuer à montrer la réalité de la croissance. Ces modifications ne doivent pas intégrer des fonctions qui ne sont pas prouvés par d’autres évidences, même si ces fonctions peuvent améliorer la qualité du modèle dans la représentation de la réalité.

L’utilisation des estimations statistiques pour la détermination des paramètres du modèle peut affaiblir la qualité du modèle . D’où le recours aux méthodes de calibrations, qui peuvent donner des résultats

issus de l’inférence.

Emergence et hypothèses du modèle RBC

Les premiers travaux qui ont été développés dans le sens de la modélisation du cycle d’affaire sont ceux de Lucas (1975 ; 1976 ; 1977),

Blinder et Fisher (1981), Black (1979), Hodrick et Prescott (1980), Long et Plosser (1980), Kydland (1981), Barro (1981), Kydland et Prescott (1982).

Sur ces articles, les économistes qui s ’inscrivaient dans le nouveau programme de recherche initié par Lucas, ont essayé d ’élaborer des modèles d ’équilibre général dynamique avec anticipations rationnels. Pour une représentation complète de cette vision Kydland et Prescott (1982) publient leur article Time to Build and Aggregate Fluctuations. Ce dernier constitue la présentation la plus fine de la modélisation qui découle de la critique de Lucas, et la pierre angulaire de la modélisation macroéconométrique moderne.

Notant que la première génération de ces modèles n’ont adopté que des chocs monétaires pour expliquer les fluctuations, alors que les deux économistes Charles Plosser et John Long sur leur article

de 1980 Real Business Cycle, ont exclu la monnaie de leur modèle d ’où l ’appellation réel. En s’inspirant principalement de ce modèle et

d ’autres travaux établis dans ce sens, Kydland et Prescott (1982) ont intégré des chocs technologiques comme la principale explication des fluctuations du cycle réel des affaires dans un modèle de croissance à agent représentatif plus précisément le modèle de croissance néoclassique de Ramsey.

Le succès du Real Business Cycle Model proposé par Kydland et Prescott (1982) est dû principalement à la simplicité de sa construction, et au nombre d ’équations sur lesquels il se base. Il est constitué de deux blocs d ’équation. Le premier bloc représente les équations du comportement du ménage, firme et gouvernement. Le deuxième bloc concerne l ’identité de l’équilibre où l’ensemble de la production est soit consommée soit investie, l ’ensemble des facteurs sont utilisés et que l ’équilibre se réalise dans un cadre walrasien.

Le Real Business cycle s ’appuie sur l’ensemble des hypothèses classiques et néoclassiques qui assure un équilibre walrasien, en ajoutant la critique de Lucas par rapport aux anticipations rationnelles des agents. Oulhaj (2015) les présentent ainsi :

H1 : Concurrence parfaite sur l ’ensemble des marchés H2 : Ajustement instantané des prix. H3 : Anticipation rationnelle des agents. H4 : Absence d ’asymétrie d’information. H5 : L ’équilibre concurrentiel est parétien. H6 : Les firmes sont identiques et preneurs des prix.

H7 : Les ménages éternels sont identique et preneurs des prix. H8 : Trois agents sont considérés : Firme, ménage et secteur public.

Le modèle RBC par hypothèse se base sur deux agents optimisateur : les ménages et les firmes. Une seule source de fluctuation : le choc technologique, et enfin la relation d ’équilibre où toute la production doit être consommée. Le modèle RBC de base présenté par King and Rebelo (1999) est le suivant :

Préférences :

La fonction de l ’utilité inter-temporelle à optimiser par le ménage représentatif infinitely lived :

:l ’opérateur de l’espérance à l’instant 0, : Le facteur

d ’actualisation, : La consommation, : Loisir. Les agents sont supposés distribuer leur temps entre le travail et loisir. En

normalisant le temps en le rapportant à 1 on aura :

: Nombre d ’heures de travail, : nombre d ’heures de loisir.

Technologie:

La technologie utilisée par la firme est représentée par une fonction de production qui combine entre le travail et le capital. Le facteur capital peut être détenu directement ou indirectement par les ménages. Directement si les ménages louent les machines aux firmes pour un taux d ’intérêt (ou rente). Indirectement quand ils ont le droit de propriété sur la firme, car dans le modèle, les ménages détiennent les firmes. Le seul fournisseur de travail est le ménage.

: La production, : Choc de productivité, : Le capital, : Le

travail, : Evolution de la productivité.

La composante déterministe de l ’évolution de la productivité Xt peut être représentée par l ’augmentation constante dans le temps de sa valeur retardée :

L ’accumulation du stock du capital se fait à un coefficient constant (1-delta) en additionnant l ’investissement de chaque instant t.

: Facteur de dépréciation du capital.

La production peut être soit consommée ou investie , ce qui revient à l ’identité comptable d’une économie fermée sans gouvernement.

The New Keynesian model

Le Real Business Cycle Model adopte plusieurs hypothèses qui le rend, au point de vue des nouveaux keynésiens, un modèle faible. La non intégration des rigidités, le rôle du gouvernement dans la stimulation de la demande, le rôle de la banque centrale dans la sta bilisation des prix, l’absence de la sphère monétaire sont les principales critiques adressés au RBC Model. Une suite de travaux publiés, principalement par Jordi Gali, Smets et Wouters, Goodfriend et King,

Modèle canonique et hypothèses de base du New Keynesian Model

H1 : Le cycle des affaires est conduit par les chocs réels et par les chocs nominaux ; H2 : La concurrence est monopolistique sur les deux marchés du travail et des produits ; H3 : Les prix des biens et services, comme les salaires sont rigides ; H4 : L’équilibre concurrentiel n’est pas parétien ; H4 : La politique monétaire est importante et les politiques de stabilisation en général jouent un rôle actif ; H5 : Les agents font des anticipations rationnelles ; H6 : Absence d’asymétrie de l’information ;

H7 : Une nouvelle courbe de Phillips qui tient compte des rigidités est adoptée.

Un NKM canonique avec rigidité des prix

Le New keynesian Model canonique avec rigidité des prix est composé de trois équations. Une équation IS , représente le bloc de la demande dans le modèle, qui détermine le niveau de l’activité en fonction du taux d’intérêt nominal , l’inflation anticipée

et le niveau d’activité anticipé

. La deuxième équation, la courbe

de Phillips ou The NKPC , représente le bloc de l’offre. Cette équation est dérivée à partir de la fonction de production de la firme

représentative. Le niveau des prix (l’inflation), est en fonction du niveau des prix anticipés et du niveau de la demande à l’instant . En réalité

cela découle principalement de l’idée keynésienne qui postule que l’offre est déterminée à partir du niveau agrégé de la demande. Enfin, L’équation de la politique monétaire est représentée par une fonction

de réaction de type Taylor. Cette équation dite de bouclage met en évidence la réaction de la politique monétaire qui a comme instrument

le taux d’intérêt nominale, face aux changements de l’inflation (l’offre) et de niveau de l’activité (la demande).

Les variables endogènes du modèle sont et . Alors que les variables exogènes sont et Ces derniers suivent un processus aléatoire qui donne la nature stochastique au modèle, et qui nous permettent de suivre les mécanismes de transmission des chocs dans

l’économie. Après l’introduction de la rigidité nominale sur le Real Business

Cycle, et le succès du New Keynesian Model, la modélisation DSGE en générale a connu plusieurs extensions et développements sur le plan théorique et économétrique.

Sur le plan théorique, la monnaie a été analysée sous l’hypothèse de la neutralité depuis les modèles de bases proposés par

Lucas ou le modèle de Long et Plosser (1980) ou bien celui de Cooley Lucas ou le modèle de Long et Plosser (1980) ou bien celui de Cooley

limitée ». La particularité de ces modèles est qu’ils intègrent les imperfections financières et la capacité limitée des agents à ajuster leurs portefeuilles de titres » Tsasa (2012). Dès l’apparition des modèles RBC, l e marché de travail a été considéré comme le talon d’Achille de cette catégorie de modèles. Une première solution a formulé dans le cadre de la nouvelle école classique par Hansen (1985) en introduisant

la notion du « travail indivisible », néanmoins, les résultats de cette introduction n’ont été pas assez satisfaisantes, d’où le recours la rigidité sur le marché du travail (Burnside, Eichenbaum, 1996 ; Burnside – Eichenbaum, Rebelo, 1993). De même, Rotemberg et Woodford (1992, 1995 ) on essayer d’introduire la concurrence imparfaite) travers le modèle de concurrence monopolistique.

Sur le plan économétrique, l es premières méthodes d’estimations employées par Kydland, Prescott et Hansen pour l’estimation des RBC, ou par Woodford et Gali pour l’estimation des NKM sont les méthodes

de maximum de vraisemblance, méthode généralisée des moments, et les méthodes fondées sur les simulations. Le développement récent de

l’économétrie bayésienne a permis l’utilisation de cette approche en introduisant les méthodes MCMC.

Actuellement, les économistes combinent ces développements théoriques dans le but de rapprocher leurs modèles à la réalité, ainsi que la quasi-totalité des travaux utilise les méthodes bayésiennes pour

l’estimation des DSGE.

Dérivation du New Keynesian model

Le modèle qu’on va présenter est celui développé par Sims (2015), basé sur les travaux de Woodford (2003) et Gali (2008).

Ménage, Firme, et l’équilibre

Comme on a signalé, La fonction de la demande inter- temporelle

met en relief trois variables micro-fondées, le niveau de l’activité réel, le taux d’intérêt nominal et l’inflation, et une variable aléatoire Dans ce qui va suivre, nous allons montrer comment ces variables dites micro fondé ont été dérivé.

L’équation IS est obtenue à partir du comportement du ménage. Ce dernier a pour objectif de maximiser sa fonction d’utilité à

travers ses choix inter-temporels entre la consommation, le loisir et la quantité de monnaie qu’il vise à épargner. À ce niveau, le ménage a

le choix entre le détiens des encaisses réels ou le placement de son épargne sous forme de bons en fonction du taux d’intérêt et du niveau d’inflation. Si ce dernier est faible le ménage préfère détenir des encaisses réel alors que dans le cas inverse, si le taux d’intérêt augmente, il acquière des bons, et ce, sous sa contrainte budgétaire.

La fonction objectif du ménage :

: l’opérateur de l’espérance à l’instant 0, : Le facteur d’actualisation, : La consommation, : Nombre d’heure de travail,

: Encaisses réels,

: Elasticités

La contrainte budgétaire :

La maximisation de l’utilité des ménages est soumis à sa contrainte budgétaire qui constitue l ’égalité entre ses ressources et ses dépenses. Ces derniers sont composées des dépenses de

consommations, la quantité de bons à placer durant la période , Les encaisses réels à détenir dans la période t. Ces dépense sont contraintes par leurs ressources constitués par le taux de salaire nominal

multiplié par le nombre d’heures de travail , les dividendes reçus des firmes (hypothèse les ménages détiennent les firmes et reçoivent des droits de propriétés), le rendement des bons

diminué des impôt versés au gouvernement.

D’après les conditions de premier ordre (Voire annexe 1), trois équations sont retenues.

L’offre du travail : Cette condition nous donne l’égalité du rapport du loisir

et la consommation qui n’est que le taux et la consommation qui n’est que le taux

de travail

( . ) qui doit être égale au salaire réel

En d’autres termes, cette équation représente l’arbitrage entre consommation et loisir, à travers le salaire réel.

La demande de monnaie : Cette équation exprime la relation entre la quantité de monnaie demandée par le ménage, le taux d’intérêt nominal et le niveau de la consommation, elle similaire à une

courbe LM.

Cette équation représente le coût de privation de la consommation à l’instant , qui doit être égale au gain de posséder une unité supplémentaire de monnaie, et ce à travers le taux d’intérêt.

L’équation d’Euler : L’utilité marginale de la consommation à l’instant doit être égale à l’utilité marginale de la consommation à l’instant et ce, à travers le mécanisme du prix relatif.

Producteur du bien final :

Les producteurs des biens finaux rassemblent et vendent les produits intermédiaires , et ils sont constitué d’un continuum de producteurs [0, 1]. Le marché où opèrent ces firmes est un marché de concurrence pure et parfaite. Les firmes du bien final sont représentées par l’agrégation en élasticité de substitution constante des firmes des

biens intermédiaires.

Les firmes du bien final cherchent à maximiser leurs profits représenté par :

D’après les conditions du premier ordre (Annexe 2), on pourra tirer la demande agrégé des firmes du produit final en bien intermédiaire est définie par :

Avec l ’indice des prix défini par l’intégral :

Produits intermédiaire

D’après les hypothèses du modèle, on a supposé que la production dépend uniquement du facteur travail et du niveau de

technologie qui est identique pour toutes les firmes, cette fonction prend la forme :

L’objectif de la firme du produit intermédiaire est de minimiser son coût (le salaire versé) sous contrainte de la production qui doit satisfaire la demande des firmes de produits finaux.

Sous contraint :

De ce problème on peut tirer la formule du coût marginal nominal, ce coût marginal est exprimer en fonction du salaire nominal divisé par la productivité (Voire annexe 3) :

Le coût marginal est identique pour toutes les firmes ainsi que la productivité et le salaire (absence de frictions sur le marché de travail). Or une augmentation de la productivité conduit à la baisse du coût marginal.

Comme les firmes du produit intermédiaires opèrent dans un marché de concurrence monopolistique, en court terme, ces firmes peuvent tirer un profit (recettes totales diminuées du coût total) qu’ils cherchent à maximiser.

Avec l’expression du coût marginal nominal , on peut récrire la fonction du profit comme suit :

Comme nous sommes dans un marché de concurrence monopolistique, les firmes exercent un pouvoir sur les prix. La maximisation de ce profit se fait donc par le biais du prix. On parle à ce niveau de la fixation du prix ou « Price Setting ».

Plusieurs mécanismes de fixation de prix ont été développés dans le cadre du New Keynesian Model comme la rigidité à la Taylor (1979), Rotemberg (1981) et la rigidité à la Calvo (1983). Le mécanisme adopté sur ce papier est celui de Calvo (1983). L’idée sur laquelle se base ce mécanisme et que seulement une fraction de firmes qui ré- optimise leurs prix suite à un signale, alors que le reste des firmes ne ré- optimise pas leurs prix. De ce fait, on désigne par , la probité que la firme ne change pas son prix. D’où le nouveau facteur d’escompte qui tient compte du cette rigidité. L’expression du profit à maximiser peut se réécrire de la forme suivante.

La dérivation par rapport au nous donne :

Comme le coût marginal, le niveau des prix, et le niveau de production ne dépend pas de (j), autrement dit, ils sont identiques, les firmes du bien intermédiaire en ajustant leurs prix, vont fixer le même prix. On réécrit la formule précédente sous forme :

Avec :

Et :

Si le facteur de rigidité est nul, le prix fixé sera égal au mark up multiplié par le coût marginal nominal.

Agrégation des contraintes et équilibre :

On suppose que le gouvernement ne fait pas de dépenses, et n’opère pas dans le marché des bons, par conséquent, ses dépenses

sont nulles. Alors que ses recettes sont constituées par la création de monnaie (on fait abstraction que le gouvernement contrôle la masse

monétaire) et par l’impôt forfaitaire d’où sa contrainte :

On peut réécrire cette expression sous la forme :

Puisque le gouvernement ne fait pas de dépense, une création supplémentaire de monnaie i.e. , induit à un impôt forfaitaire négatif. Autrement dit, le gouvernement réduit son revenu de seigneuriage au profit des ménages.

La contrainte du ménage s’écrira donc :

A l’équilibre, et en utilisant la condition de transversalité, la détention des bonds est égale à zéro.

Les conditions de transversalité sont des conditions d’optimalité utilisé souvent d ans les équations d’Euler pour décrire la trajectoire optimale d’un modèle économique dynamique.

Ces conditions stipulent que dans un horizon qui soit fini ou infini, l’agent doit consommer l’ensemble de ces dotations à la dernière période, puisque il n’a pas intérêt à épargner. Autrement dit, si l’agent

continue toujours à épargner plus et à consommer moins, cet agent n’a pas un comportement optimal.

D’où on tire la condition sur le placement des bons, à savoir . La contrainte en terme réel se transforme donc :

Les ressources du ménage destiné à la consommation réel (la seule dépense) sont constituées par le revenu du travail réel (le taux de

salaire réel fois le nombre d’heures travaillés) et le profit réel des firmes des biens intermédiaire.

Agrégation du profit des firmes des biens intermédiaire est définit par l’intégrale :

Après manipulation algébrique (Annexe 5), la contrainte agrégée de l’économie s’écrit :

De même, la production peut être agrégée et écrite sous la forme suivante (Annexe 6) :

Avec la dispersion des prix :

Price setting et la rigidité à la Calvo

Comme on a déjà signalé, la forme de la rigidité adoptée sur ce papier est celle de la rigidité à la Calvo (1983), et comme on est dans un marché de concurrence monopolistique, il existe plusieurs entreprises où chacune d ’elle a le pouvoir de fixer son prix de marché, d’où une certaine hétérogénéité dans le mécanisme d’agrégation de

ces prix. Le problème central est donc, de trouver une solution d’agrégation de cette hétérogénéité et déterminer un prix agrégé des biens intermédiaires pour notre modèle. L’idée de Calvo est assez simple et très pratique pour la résolution de ce problème. En fait, Calvo stipule que la fixation des prix à chaque instant est le résultat de deux

comportements. Un comportement d’optimisation au prix du marché (prix d’équilibre déterminé par le mark up et le coût marginale), et un

comportement rigide face au changement des prix (à l’instant des entreprises fixe le prix de la période

). Pour différencier entre ces deux types d’entreprises, Calvo stipule aussi que les firmes n’ajustant pas leurs prix sont choisies aléatoirement en leurs attribuant une probabilité

. Le reste des entreprises sont les entreprises ré- optimisatrices et à qui on leurs attribut une probabilité de

d’ajuster leurs prix. Dans l’équation du prix agrégé, l’hétérogénéité est représentée par le

prix de chaque entreprise de bien intermédiaire :

L’intervalle de ces entreprises peut être décomposé en deux ensembles. L’intervalle qui représente les entreprises ré-

optimisatrices et l’intervalle les entreprises rigides dans la fixation du prix.

Comme signalé au-dessus, les entreprises ré-optimisatrices du prix sont choisies aléatoirement. Autrem ent dit, l’intervalle de l’intégrale des entreprises peut être choisie en multipliant l’ensemble des entreprises par la probabilité . On peut écrire

donc :

Si l’ensemble des entreprises est composé de deux sous- ensembles

et respectivement des entreprises ré- optimisatrices et rigides, et que la proportion

est choisie aléatoirement par la probabilité

, la proportion des entreprises rigides est donc la probabilité

On peut écrire donc :

De ce fait, le mécanisme du fixation des prix à la Calvo nous a permis de faire face au problème d’hétérogénéité dans la fixation des

prix des entreprises individuel, et par conséquent, de trouver le niveau général des prix qui est dans ce cas composé de deux proportions, entreprises ré- optimisatrices et entreprises rigides qu’on a choisie aléatoirement avec les deux probabilité

et .

On peut réécrire la formule au- dessus en terme d’inflation

(avec : ):

De même, l’équation de vélocité des prix souffre de ce problème d’hétérogénéité.

En suivant la même logique de Calvo développé dans le paragraphe précèdent, on pourra agréger cette dispersion sous la forme suivante (voir Annexe 7) :

En écrivant la définition des prix du bien intermédiaire en terme

de l’inflation :

L’état stationnaire

Avant de déterminer l’état stationnaire de nos équation, on proposera dans un premier temps cette notion, qui peut entrainer des fois des ambiguïtés de compréhension, et de montrer son utilité dans

notre analyse et modèle. Après la critique de Lucas, le nouveau paradigme de la

macroéconomie contemporaine est devenu récursif. Autrement dit, les agents font une série de décisions d'optimisation sur plusieurs périodes dans le temps. La présentation de l’économie est donc devenue à la fois computationnelle et dynamique. Computationnelle dans le sens où la présentation du comportement des agents doit être réalisée à

travers l’abstraction et la modélisation, et dynamique dans le sens où ces équations doivent prendre le temps en considérations, on parle

donc d’équation différentielle ou de l’optimisation dynamique en temps discret ou en temps continu.

Mathématiquement, la détermination de l’état stationnaire d’une équation ou d’un système d’équation, revient à déterminer tout simplement une solution constante qui constitue l’équilibre de ces

équations ou systèmes. La solution stationnaire est stable si elle tend vers l’équilibre (la constante) lorsque t tend vers l’infini, quel que soit la

valeur initiale, exemple de solution stationnaire stable.

En économie, comme en mathématique, l’état stationnaire stable représente l’état où l’ensemble des grandeurs économique sont En économie, comme en mathématique, l’état stationnaire stable représente l’état où l’ensemble des grandeurs économique sont

engendrant les fluctuations, et qu’en long terme, les grandeurs ont pu atteindre leurs valeurs naturelles (PIB potentiel ou taux d’intérêt réel neutre…) ou leurs valeurs cibles, taux d’inflation par exemple.

Dans notre modèle, le concept de l’état stationnaire a une notion à la fois mathématique et économique. Economique dans le sens où on rapprochera l’état stationnaire à la valeur cible et naturelle des grandeurs économiques . Mathématique dans le sens où à l’état

stationnaire il y a absence de la dimension temporelle, et toute variation est nulle. De ce fait, les équations de notre modèle à l’état stationnaire sont présentées comme suit :

Equation d’Euler :

A l’état stationnaire :

Cela signifie que le taux nominal est égal au taux réel neutre (taux d’intérêt de long terme) plus l’inflation avec le facteur

d’escompte, et le taux d’escompte. Le facteur d’escompte est

égale à . Evolution des prix :

A l’état stationnaire :

Si l’inflation , on aura , et si , alors et l’inverse est vrai. Cela veut dire que, si l’inflation est égale à zéro, le

niveau des prix fixés par les entreprises du bien intermédiaire sera à son tour nul. Autrement dit, au point de l’inflation 0, la dispersion des prix est niveau des prix fixés par les entreprises du bien intermédiaire sera à son tour nul. Autrement dit, au point de l’inflation 0, la dispersion des prix est

général des prix. Dispersion des prix :

A l’état stationnaire :

Vu les résultats obtenus au-dessus, si l’inflation est égale à zéro à l’état stationnaire on aura

, et par conséquent D’où la stabilité des prix à l’état stationnaire.

Définition des prix et du coût marginal : Pour le cout marginal, on obtient son expression à l’état

stationnaire à partir de la définition des prix d’où

En réécrivant cette expression sur cette forme :

D’après la définition des prix du bien intermédiaire en terme de

l’inflation des deux termes et , on sait que :

D’où on peut tirer l’expression du coût marginal :

’état stationnaire, et si l’inflation est égale à zéro, le coût A l margina l sera égal à l’inverse du mark-up, autrement dit, le mark up ’état stationnaire, et si l’inflation est égale à zéro, le coût A l margina l sera égal à l’inverse du mark-up, autrement dit, le mark up

Log linéarisation

On sait que

Equation d’Euler :

Forme log linéarisé :

Imposant la contrainte on pourra écrire :

En introduisant le log :

Avec ̃ ,

̃ et ̃ , qui représente la déviation

de l’output gap, le taux d’intérêt et le niveau de l’inflation de leurs valeurs potentielles ou cibles. L’introduction du Log est effectuée sur les variable non exprimé en terme de taux, alors que variable exprimés en terme de taux, sont écrites en déviation absolue. Cette équation, pourra être transformée pour obtenir l’équation IS :

La demande qui est exprimé en terme d ’output gap, est négativement reliée au taux d’intérêt réel, autrement dit, si le taux

d’intérêt réel est élevé, cela induit les agents à épargner plus à l’instant au lieu de consommer ou d’investir, ce qui réduit la demande actuelle. Et elle est positivement reliée à l’output gap anticipé. Car les

agents souhaitent lisser leur consommation dans le temps, ils auront agents souhaitent lisser leur consommation dans le temps, ils auront

Le bloc de demande du New Keynesian Model décrit la relation négative existante entre le taux d'intérêt réel et la demande désirées des ménages.

A ce niveau, et pour obtenir l’équation qui représente le bloc de l’offre dans le NKM. Nous allons procéder à la log linéarisation des

équations nécessaire relative au comportement des firmes pour obtenir l’expression du coût marginal en fonction de l’output gap. Et ensuite réécrire l’équation de l’offre représentée par l’évolution de l’inflation en fonction de l’output gap et de l’inflation anticipée.

Offre de travail

D’après les conditions du premier ordre obtenues par la dérivation du comportement des ménages nous avons l’expression du l’offre de travail :

Avec , la f orme log linéarisée s’écrit :

Coût marginal :

D’après l’équation du coût marginal obtenu de l’optimisation du comportement des firmes des biens intermédiaires nous avons :

Sa forme log linéarisé exprimé en terme réel :

De la relation de l’offre de travail et du coût marginale log linéarisés, nous pouvons éliminer le salaire et écrire :

A ce niveau, nous allons écrire l’output en fonction de la productivité et du travail, pour ce faire nous allons procéder à

l’élimination de la dispersion des prix de la fonction de production. Nous avons la fonction de production :

Sa forme log linéarisée est comme suit :

Nous avons l’expression de la Dispersion des prix en terme d’inflation démontrée précédemment:

Et sa forme log linéarisé qui s’écrit:

A l’état stationnaire, et si l’inflation est égal à zéro, on aura, ̃

Ce qui implique que et la déviation de ce terme en log peut être négligé puisque

. Par conséquent, la dispersion des prix à l’état stationnaire peut être négligée et écrire la fonction de production sous la forme :

De l’équation obtenue de l’offre de travail en fonction du coût marginal, et en éliminant le facteur travail à l’aide de la fonction de production ci-dessus, on pourra écrire :

Apres simplification de cette expression on aura celle du coût marginal comme suite :

Pour obtenir l’expression du coût marginal en fonction de l’output gap, on va remplacer la productivité ̃ par son expression

obtenu de l’output au cas des prix flexible (voir annexe 8).

Le coût marginal en fonction de l’output gap s’écrit donc :

Revenant à notre équation cible qui décrit l’évolution de l’inflation :

Par log linéarisation on obtient :

On peut la réécrire sous la forme :

Apres la log linéarisation des deux termes ( ̃ et ̃ ), nous avons leurs expression en différence exprimé comme suit :

Et comme la Log linéarisation de l’évolution des prix nous donne l’expression suivante :

Nous pouvons les combiner et écrire :

On remplace le terme de droit par son expression, et on isolant le terme d’inflation on obtient l’équation du NKPC :

Qui peut être exprimé e n terme d’output gap :

L’offre dans le modèle est représentée par la NKPC. Cette équation met la relation entre l’inflation, le coût marginal des entreprises représenté par l’output gap, et le niveau de l’inflation anticipée.

Si la demande adressée à l’entreprise est élevée, les entreprises vont augmenter les salaires versés afin d’embaucher plus ou inciter les salariés à travailler d’avantage, ce qui augmente le coût marginal,

faisant pression sur des prix et générant l'inflation. De même, les anticipations des agents après l’augmentation des salaires vont influencer positivement l’inflation anticipée et par conséquent l’inflation

courante. Le bloc d’offre du nouveau keynésien modèle décrit comment

les firmes établissent leurs prix comme une fonction du niveau de demande et le niveau de l’inflation anticipée auxquelles ils font face.

La règle monétaire

Du point de vue théorique, La politique monétaire a connue trois grandes tendances. Le keynésianisme pendant les années 60 a suggéré des politiques monétaires discrétionnaires où les autorités monétaires ne bénéficiaient pas d'une autonomie vis-à-vis du gouvernement, et elles pouvaient intervenir en toute liberté sans préservation des intérêts des acteurs ce qui biaise leurs anticipations. Ce type de politique a été fortement critiqué par Milton Friedman, qui préconisait des politiques non activiste à règle fixe. L'autorité monétaire cette fois-ci est obligée de suivre une règle qui ne réagit pas avec le changement de l'activité ou du niveau de l'inflation, et qui se contente

Dokumen yang terkait

Analisis Komparasi Internet Financial Local Government Reporting Pada Website Resmi Kabupaten dan Kota di Jawa Timur The Comparison Analysis of Internet Financial Local Government Reporting on Official Website of Regency and City in East Java

19 819 7

Dari Penangkapan Ke Budidaya Rumput Laut: Studi Tentang Model Pengembangan Matapencaharian Alternatif Pada Masyarakat Nelayan Di Kabupaten Situbondo, Jawa Timur

2 37 2

The Correlation between students vocabulary master and reading comprehension

16 145 49

The Effectiveness of Computer-Assisted Language Learning in Teaching Past Tense to the Tenth Grade Students of SMAN 5 Tangerang Selatan

4 116 138

The correlation between listening skill and pronunciation accuracy : a case study in the firt year of smk vocation higt school pupita bangsa ciputat school year 2005-2006

9 128 37

kisi kisi un sma ma th 2012 2013

2 89 31

Implementasi Term Frequency Inverse Document Frequency TF IDF dan Vector Space Model Untuk Klasifikasi Berita Bahasa Indonesia

20 102 40

Studi Perbandingan Sikap Sosial Siswa dengan Menggunakan Model Pembelajaraan Kooperatif Tipe Two Stay Two Stray dan Think Pair Share Pada Mata Pelajaran IPS Terpadu

3 49 84

Model Stokastik Curah Hujan Harian dari beberapa Stasiun Curah Hujan di Way Jepara

6 35 58

PENGARUH KOSENTRASI SARI KUNYIT PUTIH (Curcuma zediaria) TERHADAP KUALITAS TELUR ASIN DITINJAU DARI AKTIVITAS ANTIOKSIDAN, TOTAL FENOL, KADAR PROTEIN DAN KADAR GARAM The Addition of White Turmeric (Curcuma zedoaria) Concentrated Base on Quality Antioxidan

1 1 8