Cahiers de la Recherche
La modélisation DSGE : fondements
théoriques et application à la conduite
de la politique monétaire : cas du Maroc
Anas MOSSADAK
Sous la direction du Professeur : Idriss ELABBASSI
Abstract
Les modèles dynamiques et stochastiques d‘équilibre général (DSGE) sont des modèles
macroéconomiques construits sur la base des fondements microéconomiques et des anticipations
rationnelles, ce qui leur permet d‘échapper à la critique de Lucas (1976). A cet effet, ils sont
appropriés à l‘analyse des effets des politiques économiques comme en témoigne le grand intérêt
académique qui leur est porté ainsi que le nombre des banques centrales et d‘instituts spécialisés qui
les intègrent dans leurs dispositifs de prévision et de simulation. L‘objectif de ce travail est de
présenter, dans un premier temps, les évolutions théoriques ayant conduits à la naissance des
modèles DSGE, d‘expliciter les fondements théoriques de la modélisation néokeynésienne
caractérisée par l‘introduction des rigidités sur les marchés et enfin, d‘élaborer une estimation
bayésienne d‘un modèle DSGE de taille réduite pour l‘économie marocaine.
245
Cahiers de la Recherche
1- Introduction
La macroéconomie a connu un profond changement en matière de modélisation depuis la révolution
des anticipations rationnelles et l‘introduction des fondements microéconomiques. Cette évolution
s‘est matérialisée par l‘abandon des modèles macro-économétriques de la Cowles Comission, suite
aux différentes critiques (à la fois théoriques et empiriques) qui leur ont été adressées, au profit des
modèles RBC, lesquels se sont enrichis petit à petit pour aboutir aux modèles dynamiques et
stochastiques d‘équilibre général (DSGE) qui constituent actuellement l‘état de l‘art en matière de
modélisation macroéconomique et d‘étude des fluctuations du cycle économique. La deuxième
section de ce travail décrit les différentes évolutions de la modélisation macroéconomique ayant
débouchés, in fine, sur la naissance des modèles DSGE.
La troisième section présente les éléments de base du modèle de la nouvelle économie keynésienne.
Dans un premier temps, nous introduisons la compétition imparfaite dans le marché des biens, en
assumant que les firmes produisent des biens différentiés et deviennent de ce fait price-maker au
lieu d‘être price-taker comme c‘est le cas dans les modèles RBC. Dans un second temps, nous
posons certaines contraintes sur le processus d‘ajustement des prix en assumant que seule une
proportion des firmes arrive à ré-optimiser son prix. À cet effet, on adopte une rigidité de prix à la
Calvo (1983) pour décrire ce mécanisme. Ces multiples modifications permettent d‘aboutir au
modèle de la nouvelle économie keynésienne qui constitue le noyau de base des modèles d‘analyse
des fluctuations depuis une dizaine d‘années.
La quatrième section propose d‘estimer la forme théorique découlant des développements de la
troisième section pour l‘économie marocaine en vue d‘étudier la politique monétaire dans le cadre
d‘un modèle DSGE de taille réduite. Pour ce faire, l‘estimation bayésienne est adoptée du moment
qu‘elle permet de confronter les croyances à priori de l‘économiste avec les données à sa
disposition pour améliorer l‘ajustement du modèle. En effet, le nombre élevé de paramètres à
estimer rend la fonction de vraisemblance d‘un modèle de dimension élevé plate en raison de la
faiblesse de l‘information contenue dans les données utilisées (Adjemien 2008). L‘estimation des
modèles DSGE s‘oppose au calibrage qui consiste à choisir une valeur ponctuelle aux paramètres
structurels du modèle et sa prédominance s‘explique par les développements des techniques
d‘estimation, de l‘informatique ainsi que la disponibilité de séries chronologiques longues. La
simulation des chocs de politique monétaire et de la demande pour le cas marocain sur la base du
modèle estimé affiche des réponses en ligne avec la théorie économique et témoigne de l‘utilité des
modèles DSGE quant à l‘analyse des fluctuations économiques.
2- Des modèles de la Cowles Commission à la naissance des modèle DSGE : Revue de
littérature
Depuis la synthèse Hicksienne et jusqu'au début des années soixante-dix, la théorie économique et
la modélisation opéraient sur deux champs distincts mais complémentaires. En effet, la théorie
macroéconomique avait pour objet, en se basant sur le modèle offre globale-demande globale, de
dériver des modèles théoriques formels tandis que le rôle de l'économétrie était d'estimer les
multiplicateurs de politique économique en se basant sur ces modèles. Ainsi, le rôle de la théorie
était d‘identifier les variables à intégrer dans les relations économétriques et celui de l‘´econometrie
était de fournir les estimations des relations entre ces variables, postulées généralement de manière
ad-hoc.
246
Cahiers de la Recherche
La théorie n'était pratiquement jamais remise en cause ; celle-ci dictait la structure des équations,
les variables endogènes et exogènes ainsi que le sens de causalité. En effet, en cas de
dysfonctionnement, seuls des modifications à la marge étaient opérés au niveau des modèles telles
que l'ajout d'autres variables explicatives ou l'ajout de variables retardées (Patrick Fève 2005).
Cette distinction de rôles a ancré le caractère scientifique de la macroéconomie. Ainsi, comme en
science physique, il s'agissait d'émettre des assertions théoriques qui sont par la suite vérifiées sur la
base de données empiriques. Cette phase revêt une importance cruciale dans l'histoire de la
macroéconomie du moment qu'elle a permis le développement des méthodes d'estimation, des
systèmes de comptabilité nationale et des outils informatiques appliqués à l'économie.
Néanmoins, dès la fin des années soixante-dix, les modèles macro-économétriques d‘inspiration
keynésienne se sont avérés incapables d‘expliquer la conjoncture économique caractérisée à la fois
par une situation de chômage et de stagnation de l‘activité économique, ce cas de figure est, de
facto, impossible à intégrer dans ces modèles dans la mesure où l‘arbitrage entre chômage et
inflation constituait un cadre structurel (courbe de Phillips) dans leur construction.
Aussi, la taille imposante de ces modèles qui visait à les rendre plus réaliste en intégrant toutes les
facettes de l‘activité économique, rendait leur maniement fastidieux. De même, leur construction en
termes de blocs de secteurs distincts s‘opérait sans que ceux-ci ne forment réellement un ensemble
cohérent.
Mais au-delà des ces critiques empiriques, ce sont plus les critiques d‘ordre théorique qui ont
fortement condamné les grands modèles macro-économétriques menant à leur radiation quasi
immédiate des programmes de recherche universitaires et à un délaissement graduel au niveau des
instituts spécialisés tels que les banques centrales.
La critique de Lucas
En 1976, R. Lucas critiqua213 la validité de la démarche utilisée lors de la construction des modèles
de la Cowles Commission qui supposait que les coefficients et la spécification des équations étaient
stables, c'est-à-dire que les comportements des agents économiques ne varient pas au cours du
temps et qu‘ils ne se modifient pas ni avec la conjoncture actuelle ni avec les anticipations.
En effet, tant que ces modèles sont utilisés uniquement pour des fins de prévision à court terme, leur
utilisation n'est pas forcément remise en cause, cependant ils ne peuvent pas être utilisés pour
analyser la réponse des agents économiques suite aux changements de politiques économiques.
Dans le même ordre d'idée, Sargent (1981) a affirmé également que l‘absence d‘une forme
d‘optimisation lors de la construction des équations structurelles des modèles traditionnels entraîne
l‘estimation de coefficients invariants par rapport aux variations de politiques économiques.
Pour illustrer la critique de Lucas, supposons une économie dans laquelle le niveau de la fiscalité
est proportionnel au niveau du revenu T Y avec T le niveau taxation et Y le revenu. Supposons
213
Lucas, R., Econometric policy evaluation: A critique, Carnegie-Rochester Conference Series on Public Policy, Vol.
6, 1976.
2
Sims,C. A, Macroeconomics and Reality. Econometrica, Vol. 48,1980,.
247
Cahiers de la Recherche
que l‘Etat décide d‘augmenter le niveau des recettes fiscales et particulièrement celles touchant les
ménages à revenu élevé. Ainsi, T (1 )1Y Y avec 1 la proportion de la population à
revenu élevé et 1 le nouveau taux d‘imposition et 1 .
Le nouveau T est clairement plus élevé que l‘ancien mais le calcul est fondé sur la stabilité du
niveau de revenu et de la proportion des individus à revenu élevé. En d‘autres termes, la
construction est basée sur la constance du comportement des agents économiques. Hors, le
relèvement du taux d‘imposition ferait baisser l‘incitation à travailler et à investir et la population à
haut revenu pourrait même quitter le pays vers des pays où la pression fiscale est faible d‘où une
baisse, in fine, du niveau des recettes fiscales. De là, les politiques économiques ne peuvent jamais
s‘appuyer sur des relations mécaniques, invariantes et n'intégrant pas un comportement optimisateur
dans le temps.
La critique de Sims
Dans un article célèbre datant de 1980, C. Sims critiqua 214 les modèles macro-économétriques en
mettant en exergue le fait que l'endogéneité (pour les variables d‘intérêt) et l'exogéniété (pour les
variables de politique économique) étaient stipulées de manière ad-hoc et sans aucune justification
statistique. Aussi le nombre de restriction était tellement élevé et injustifié que Sims les a qualifiées
d‘ «incroyables ». Sims propose alors un modèle dans lequel toutes les variables sont endogènes et
n'imposant de ce fait aucune condition d'identification, il s'agit des modèles VAR (Vectoriel Auto
Régressif).
La forme générale des modèles VAR est la suivante:
p
Yt A0 Ai Yt i t
i 1
Avec Yt (k,1) le vecteur des variables endogènes, Ai (k,k) la matrice des paramètres et A0 (k,1) le
vecteur des constantes et t (k,1) le vecteur des erreurs.
Dans ce type de modèle il n'existe pas de contrainte que se soit sur les variables du système ou
même sur les paramètres du modèle. Aussi, le nombre de retard obéit à une logique purement
statistique (tests d'Akaike ou Schwarz par exemple) et ne pose nullement un problème
d'identification. Concernant l'estimation du modèle, celle-ci ce fait à l'aide de méthodes simples
telle que la méthode des moindres carrées ordinaires. Les modèles VAR sont, jusqu‘à maintenant,
très utilisés en macroéconomie en raison de leur simplicité et de leurs bonnes qualités
prévisionnelles, surtout à court terme. A cet effet, ils sont très utiles pour les exercices de prévision
et de simulation (analyse des chocs impulsionnels).Néanmoins, et dans la perspective d‘effectuer un
exercice de quantification des effets de politique économique, il est nécessaire d'introduire un
certain nombre de restrictions215 issues de la théorie économique (modèles VAR structurels ou S-
VAR) pour pouvoir interpréter économiquement les chocs de politique économique. De plus, le
VAR est une forme réduite et reste ainsi sujet à la critique de Lucas.
215
Voir par exemple Blanchard et Quah, (1989).
248
Cahiers de la Recherche
La conjonction de l‘ensemble de ces critiques, à la fois empiriques et théoriques, a favorisé
l‘émergence d‘un nouveau paradigme économique qui explique les fluctuations macroéconomiques
en se basant sur des fondements microéconomiques. Il s‘agit du courant du cycle réel des affaires
dont la véritable naissance est survenue avec la publication de "time to build and agregate
fluctuations " de Kydland et Prescott (1982).
Les modèles du cycle réel des affaires (RBC)
Le courant du cycle réel des affaires a influencé significativement la macroéconomie quantitative
durant les trente dernières années comme en témoigne la part de publications ayant trait aux
modèles RBC et à leurs extensions dans les grandes revues d‘économie politique. Les critiques
adressées aux modèles de la Cowles Commission associées à la révolution des anticipations
rationnelles ont été à la base de ce développement. Selon les partisans du paradigme RBC, les
fluctuations macroéconomiques trouvent leurs origines dans des facteurs réels (les chocs
technologiques).
La modélisation macroéconomique traditionnelle n‘est pas basée sur des fondements
microéconomiques découlant d‘objectifs d‘optimisation sous contraintes d‘une fonction d‘utilité.
C‘est l'une des principales critiques adressées par le courant du cycle réel à la modélisation macro-
économétrique d‘inspiration keynésienne. Cette critique rejoint celle de Lucas dans la mesure où la
politique économique est à même de changer les contraintes auxquelles l‘agent économique est
confronté ce qui le contraint à un processus de maximisation continu dans le temps.
Les modèles RBC stipulent un agent représentatif qui résout un problème dynamique d‘allocation
sur un horizon, généralement, infini. En vue d‘assurer l‘équilibre à la Arrow-Debreu, un ensemble
d‘hypothèse doivent être émises quant aux agents économiques qui peuplent l‘économie (Gong et
Willi 2004).
En effet, les ménages présents dans l‘économie sont identiques ayant les mêmes préférences, de
même les firmes sont toutes semblables et produisent le même bien avec la même technologie. Sous
ces deux conditions, l‘étude se réduit à celle du comportement d‘un agent représentatif dont le
comportement est agrégé au niveau macroéconomique. Aussi, l‘échange est supposé se dérouler
simultanément sur tous les marchés à un instant donné de sorte que tous les prix et les quantités sont
déterminés en même temps. Après la fermeture des marchés, les agents délivrent les biens vendus et
reçoivent ceux achetés.
Enfin, il est supposé que ce sont les ménages qui détiennent les facteurs de production et les firmes
ont uniquement pour attribue la réalisation de la production. A chaque période, la firme
représentatif loue les facteurs travail et capital auprès des ménages, ces derniers utilisent leurs
revenus dans l‘achat du bien produit par les firmes représentative et tout profit réalisé est
nécessairement versé aux ménages.
En dépit de leurs hypothèses simplistes, les modèles RBC ont montré de bonnes qualités
d‘ajustement et de reproduction des fluctuations du cycle macroéconomique. Petit à petit des
éléments de la nouvelle économie keynésienne ont été introduits dans la construction des modèles
RBC. En effet, à côté des chocs d‘origine technologique d‘autres sources de fluctuation ont été
envisagées (notamment les rigidités nominales) ce qui a débouché sur le développement de modèles
plus étoffés appelés modèles DSGE (pour dynamique stochastique d‘équilibre général) pour les
249
Cahiers de la Recherche
différencier des modèles RBC.
3- Fondements théoriques de la modélisation DSGE
Cette section présente les éléments de base du modèle de la nouvelle économie keynésienne. Dans
un premier temps nous introduisons la compétition imparfaite dans le marché des biens, en
assumant que les firmes produisent des biens différentiés pour lesquels elles fixent le prix, elles sont
ainsi price-maker au lieu d‘être price-taker comme c‘est les cas dans les modèles RBC. Dans un
second temps, nous posons certaines contraintes sur le processus d‘ajustement des prix en assumant
que seule une proportion des firmes arrive à ré-optimiser son prix. À cet effet, on adopte une
rigidité de prix à la Calvo (1983) pour décrire ce mécanisme. Ces multiples modifications
permettent d‘aboutir au modèle néokeynésien de base qui constitue le noyau des modèles d‘analyse
des fluctuations depuis une dizaine d‘années. Les formes fonctionnelles adoptées s‘inspirent de Gali
(2003), Ireland(2004) ou encore Walsh(2010).
Le ménage représentatif
On considère un ménage représentatif maximisant une fonction d‘utilité de la forme :
E0 tU (Ct , Lt )
t 0
Avec Ct un panier de consommation composite définit par :
1 1
1
1
Ct Ct (i) di
0
Ct (i ) représente la quantité du bien i , i 0,1 , consommé par le ménage durant la période t, étant
l‘élasticité de substitution entre les biens i .
La contrainte budgétaire du ménage est donnée par la forme suivante :
1
P (i)C (i) di Q B
0
t t t t Bt 1 Wt Lt Dt
Avec Pt (i ) le prix du bien i , Wt le salaire nominal, Lt le nombre d‘heures travaillées, Qt Bt le
montant des bons de Trésor achetés à la date t et Dt les dividendes versées par les firmes.
En plus de la décision de consommation et d‘offre de travail, le ménage représentatif décide
également de la composition de son indice de consommation Ct . En effet, le ménage maximise Ct
1
sous la contrainte du niveau des dépenses Pt (i)Ct (i) di . La solution de ce programme aboutit à la
0
fonction de demande suivante pour le bien i :
250
Cahiers de la Recherche
P (i)
Ct (i) t Ct (1)
Pt
1
Avec Pt Pt (i)1 di un indice de prix agrégé. On peut alors réécrire la contrainte budgétaire
1 1
0
comme suit :
Pt Ct Qt Bt Bt 1 Wt Lt Dt Avec Pt Ct Pt (i)Ct (i) di
1
0
Les conditions d‘optimalité quant à la consommation et à l‘offre de travail sont données par :
U L ,t Wt
U c ,t Pt
U c ,t 1 Pt
Qt Et
U c ,t Pt 1
1
En adoptons la spécification U (Ct , Lt ) Ct L1t pour la fonction d‘utilité, et en log-linéarisant les
1 1
conditions d‘optimalité on a :
wt pt ct lt (3)
ct Et ct 1 (it Et t 1 )
1
(2)
Où
it log Qt est le taux d‘intérêt de court terme, et log est le taux d‘actualisation. Les lettres
minuscules représentent le logarithme des variables d‘origine.
La firme représentative productrice du bien intermédiaire
On considère un continuum de firmes indexées par i 0,1 . Chaque firme produit un bien différentié
moyennant la même fonction de production donnée par :
Yt (i) At Lt (i)1
Avec At représentant le niveau technologique supposé identique pour toutes les firmes et évoluant
de manière exogène dans le temps.
S‘agissant de la fixation des prix de la part des firmes, on adopte la formulation de Calvo (1983)
selon laquelle chaque firme peut ré-optimiser son prix avec la probabilité (1 ) à chaque période,
tandis que la proportion restante garde son prix inchangé. Le paramètre constitue ainsi un facteur
251
Cahiers de la Recherche
de rigidité nominale.
La dynamique de prix issue de la rigidité à la Calvo implique que :
1
1
Pt Pt 1 (i)1 di (1 )( Pt* )1 (4)
st
Et comme la masse des firmes ne ré-optimisant pas leurs prix est donnée par on peut réécrire
l‘équation comme suit :
1
Pt ( Pt 1 )1 (1 )( Pt* )1 1 (5)
en divisant par Pt 1 on a :
1
P*
1
t (1 ) t (6)
Pt 1
Pt
Avec t le taux d‘inflation entre t et t 1et Pt * est le prix pratiquer par les firmes ré-
Pt 1
optimisatrice durant la période t .
moyennant une approximation log-linéaire autour de l‘état stationnaire, l‘équation (6) devient :
t (1 )( pt* pt ) (7)
L‘équation (7) montre clairement que, dans le cadre des modèles néokeynésiens, l‘inflation résulte
de la ré-optimisation opérée par la proportion (1 ) des firmes. L‘évolution des prix dans
l‘économie dépend donc des facteurs sous-jacents à la décision de fixation des prix de la part des
firmes, ce qui nous amène à l‘étude de l‘optimalité de la fixation des prix.
La fixation optimale des prix :
La firme ré-optimisant son prix à la date t choisira le prix Pt * qui maximise la valeur actuelle de son
profit. Pour ce faire, la firme résout le problème de maximisation suivant :
max
*
Pt
k Et Qt ,t k ( Pt*Yt k / t t k (Yt k / t ))
k 0
Sous le contrainte de demande donnée par :
P*
Yt k / t t Ct k
Pt k
252
Cahiers de la Recherche
Avec Qt ,t k k (Ct k / Ct ) ( Pt / Pt k ) le facteur d‘escompte du profit nominal, t k (.) est une
fonction de coût associé au niveau de production Yt k / t des firmes ayant ré-optimiser leur prix à la
date t .
La condition de premier ordre associé à ce problème est donnée par :
k 0
k
Et Qt ,t k Yt k / t ( Pt* t k / t ) 0 (8)
Avec t k / t = 't k (Yt k / t ) le coût marginal à la période t k et .
1
si 0 alors Pt* t k / t ceci permet d‘interpréter comme étant le markup désiré par les
firmes.
En divisant les deux côtés de l‘équation (8) par Pt 1 on a :
P*
k
Et Qt ,t k Yt k / t t Ct k / t t 1,t k 0
(9)
k 0 Pt 1
Avec Ct k / t = t k / t / Pt k est le coût marginal réel en t k pour les firmes ayant ré-optimiser leur
prix à la date t .
*
A l‘état stationnaire on a Pt 1 , t 1,t k 0 , Yt k / t Y Ct k / t MC , et Qt ,t k k
Pt 1
En remplaçant dans (9) on a :
C 1 /
La log-linéarisation de (9) à l‘état stationnaire nous donne :
pt* pt 1 (1 ) ( ) k Et mˆ ct k / t ( pt k pt 1 ) (10)
k 0
Avec mˆ ct k / t mct k / t mc la déviation du coût marginal de sa valeur à l‘état stationnaire. On ré-
exprimant l‘équation (10) on a :
pt* (1 ) ( ) k Et mˆ ct k / t pt k (11)
k 0
Avec log mc
Ainsi, les firmes ré-optimisatrice choisissent un prix qui correspond à la valeur des coûts marginaux
253
Cahiers de la Recherche
courant et anticipés en plus du markup désiré. Le poids des coûts marginaux futurs étant
proportionnel à la probabilité ( k ) que le prix demeure fixe à chaque horizon.
La firme représentative productrice du bien final :
Le bien final de consommation Y est issu de l‘agrégation de l‘ensemble biens intermédiaires Y (i )
moyennant une agrégation à la Dixit-Stiglitz (1971). Ainsi la production du bien final est donnée
par :
1 1 1 1
Yt Yt (i) di
0
La minimisation des coûts de la firme productrice du bien final par rapport à ses intrants Yt (i )
conduit à la fonction de demande suivante :
P
Yt (i ) it Yt
Pt
Ainsi, la demande de Yi est positivement liée au niveau de production Yt et négativement au prix du
bien i.
La concurrence pure et parfaite qui régie le marché du bien final fait que le prix de vente Pt est la
résultante de la confrontation entre l‘offre et la demande, Pt est alors le même pour toutes les
entreprises du secteur.
Il s‘exprime comme un indice des prix des différents biens intermédiaires suivant une agrégation
donnée par:
1
1 1 1
Pt Pt (i ) di
0
L’équilibre :
A l‘équilibre on a :
Yt Ct (12)
En combinant (12) avec l‘équation d‘Euler issue du programme d‘optimisation du consommateur
on peut ré-exprimer la condition d‘équilibre comme suit :
yt Et yt 1 (it Et t 1 )
1
(13)
L‘équilibre sur le marché du travail implique que :
254
Cahiers de la Recherche
1
Lt lt (i ) di
0
En utilisant la fonction de production on a :
1
Y (i ) 1
Lt t 1 di
0
At
1
Y 1 1 Pt (i ) 1
t di
At 0 Pt
En prenant le logarithme de l‘expression de Lt on :
yt at (1 )lt (14)
Par ailleurs, Le coût marginal est donné par :
mct (wt pt ) mplt
Avec mpl le produit marginal du travail (le seul facteur de production considéré).
On peut ré-exprimer mct en utilisant (14) comme suit :
1
mct ( wt pt ) (at yt ) log(1 )
1
Dans un horizon k on a :
mct k / t (wt k p k ) mplt k / t
Et donc
1
mct k / t ( wt k pt k ) (at k yt k / t ) log(1 )
1
En utilisant l‘équation (1) et la condition d‘équilibre du marché ct yt on a :
mct k / t mct k ( yt k / t yt k ) mct k ( pt* pt k ) (15)
1 1
255
Cahiers de la Recherche
Dans le cas où 0 on a mct k / t mct k c'est-à-dire que le coût marginal serait identique pour
toutes les firmes indépendamment du niveau de production.
En remplaçant (15) dans (10) et en réarrangeant les termes de l‘équation on a :
pt* pt 1 (1 ) ( ) k Et mct k ( pt k pt 1 )
k 0
(1 ) ( ) k Et mct k ( ) k Et t k
k 0 k 0
1
Avec 1
1
L‘équation () peut être écrite de manière plus succincte et on a :
pt* pt 1 Et pt*1 pt (1 )m
ˆ ct t
En combinant (7) et (15) on a :
t Et t 1 m
ˆ ct (16)
Avec (1 )(1 )
La résolution récursive de l‘équation (16) nous donne :
t Et mˆ ct k
k 0
L‘inflation à l‘instant t est donc la somme actualisée des déviations présentes et futures du coût
marginal de son état stationnaire.
Dérivation des équations caractéristiques du modèle néokeynésien
On sait que
mct (wt pt ) mplt
(yt lt ) ( yt lt ) log(1 )
1
yt at log(1 )
1 1
256
Cahiers de la Recherche
Le coût marginal lorsque les prix sont flexible est donné par :
n 1
mc yt at log(1 ) où ytn représente le niveau de revenu avec flexibilité
1 1
des prix.
En soustrayant (18) de (19) on a :
mˆ ct ( yt y t )
n
1
Ainsi la déviation du coût marginal de son état stationnaire est proportionnelle à la déviation de
l‘output de sa valeur à l‘état stationnaire ; l‘output gap.
En posant ~
y t ( yt ytn )
On a :
t Et t 1 k~
yt (17)
Avec k
1
L‘équation (17) est la nouvelle courbe de Phillips néokeynésienne. Elle constitue l‘une des
équations de base dans la construction des modèles DSGE.
En réécrivant (12) en utilisant l‘output gap on a :
yt Et ~
yt 1 (it Et t 1 r n )
~ 1
(18)
Avec r n le taux d‘intérêt naturel donné par :
r n Et ytn1
L‘équation (18) constitue l‘équation IS du modèle keynésien de base.
Avec les équations (17) et (18) on rajoute une équation pour caractériser l‘autorité monétaire. Il
s‘agit d‘une courbe de Taylor (1993) donnée par :
it t y yt et (19)
Avec et un choc exogène.
257
Cahiers de la Recherche
Ainsi, tous les éléments du modèle sont réunis et on peut l‘écrire sous sa forme matricielle comme
suit :
~
yt Et ~
yt 1
A E B(rˆt et )
n
t t t 1
Avec :
rˆt n rt n
1
A
k k ( y
1
B
k
1
y k
La solution du système est unique si les deux valeurs propres de la matrice A se trouve dans le
cercle unité (condition de Blanchard et Khan 1980). Il est démontré (voir Bullard et Mitra 2002)
que la condition nécessaire et suffisante pour assurer l‘unicité de l‘équilibre est donné par :
k ( 1) (1 ) y 0 (20)
Analyse des effets de la politique monétaire dans le cadre du modèle keynésien de base
Le modèle intègre deux sources de perturbation: un choc de politique monétaire et un choc
technologique. Nous nous bornons à l‘analyse théorique de l‘effet d‘un choc de politique monétaire.
L‘analyse du choc technologique, qui ne fait pas l‘objet de ce travail, pouvant être menée de la
même manière.
Assumons d‘abord que le terme d‘erreur contenu dans l‘équation de Taylor suit un processus
AR(1) :
et e et 1 te e 0,1
Une réalisation positive de te est interprétée comme une politique monétaire restrictive tandis
qu‘une réalisation négative implique une politique monétaire expansionniste.
L‘impact de la politique monétaire sur l‘output gap et sur l‘inflation aura la forme ~yt y et et
t et respectivement. En appliquant la méthode de Descartes (ou la méthode des coefficients
indéterminés) sur les équations (18) et (17) on aboutit à la solution suivante :
~
yt (1 e ) e et
t k e et
258
Cahiers de la Recherche
Avec
1
e . Il peut être démontré que cette somme est positive tant
(1 e ) ( (1 e ) y ) k ( e )
que (20) est respectée.
Ainsi un choc positif sur et (politique monétaire restrictive) provoque la baisse à la fois de l‘output
gap et de l‘inflation.
En utilisant l‘équation (18) on peut également retrouver la réaction du taux d‘intérêt réel, on a :
rˆt (1 e )(1 e ) e et
Ainsi une contraction monétaire implique une augmentation du taux d‘intérêt réel.
259
Encadré Cahiers de la
1 : Origine deRecherche
l’appellation DSGE
DSGE est l’abréviation de Dynamic Stochastic General Equilibrium, le modèle contient donc trois
composantes : la dynamique, la stochastique et l’équilibre général. L’explication de ces trois
composantes est de nature à élucider le concept DSGE.
L’analyse dynamique a trait à la prise en considération du temps dans la prise de décision des agents
économiques. En effet, la décision d’aujourd’hui est déterminée sur la base des anticipations (rationnelles
ou adaptatives) du futur. A tire d’exemple, le canal des anticipations constitue un levier important à la
disposition des autorités monétaires pour l’atteinte de leurs objectifs en matière de stabilité des prix.
t-1 t+1 t
Anticipation (rationnelle/adaptative)
Les modèles DSGE sont également stochastiques. Ceci découle de l’existence de chocs aléatoires
impactant l’économie et de la propagation de leur impact dans le temps. Ces chocs rajoutent l’incertitude
au modèle et sans lesquels l’évolution de l’économie serait déterministe. Ces perturbations sont de
différentes natures : choc de l’offre, de la demande, technologique…etc
Réponses Propagation Fluctuation du
impulsionnelle des chocs cycle
s
Enfin, les modèles DSGE analysent les différents secteurs de l’économie (offre, demande, autorité
monétaire…) en équilibre général et tiennent compte de ce faite des interactions instantanées entre les
différents agents ayant chacun des objectifs spécifiques qu’il maximise. Ces interactions aboutissent à
l’équilibre général de l’économie dans son ensemble.
Banque centrale Firmes
Ménages
4- Estimation du modèle DSGE pour l’économie marocaine : une approche bayésienne
L‘estimation bayésienne des modèles DSGE permet de confronter les croyances à priori de
l‘économiste avec les données à sa disposition pour améliorer l‘ajustement du modèle. En effet, le
nombre élevé de paramètres à estimer rend la fonction de vraisemblance d‘un modèle de dimension
élevé plate en raison de la faiblesse de l‘information contenue dans les données utilisées pour
l‘estimation. En privilégiant l‘estimation bayésienne, on parvient à déformer la fonction de
vraisemblance et l‘identification devient possible (Adjemien 2008). Les croyances sont
caractérisées à l‘aide de fonctions de densité de probabilité jointe sur les paramètres du modèle.
260
Cahiers de la Recherche
L‘estimation des modèles DSGE s‘oppose au calibrage qui consiste à choisir une valeur ponctuelle
pour les paramètres structurels du modèle, la validation étant basée sur la capacité du modèle à
reproduire les faits stylisés observés. Le calibrage était dominant lors de la naissance des modèle
dynamique (Kydland et Prescott,1982), néanmoins l‘estimation des modèles DSGE est
prédominante actuellement en raison des développements des techniques d‘estimation, des
développements informatiques et de la disponibilité de séries chronologiques longues et fiables.
Supposons que nous voulons caractériser notre croyance par rapport à un paramètre x. Si nous
savons qu‘il est nécessairement positif et appartenant à l‘intervalle [0,1] (élasticité du travail dans la
fonction de production, rigidité à la Calvo…etc) nous pouvons lui imposer une distribution bêta. Si
sur la base d‘une étude économétrique une estimation de la valeur du paramètre à été obtenue, elle
pourra être utilisée comme mode pour la distribution retenue et la variance mesurant l‘incertitude du
paramètre sera d‘autant plus grande si la qualité de l‘estimation économétrique du paramètre
d‘intérêt est jugée non fiable.
De manière formelle, soit un modèle M et un vecteur de paramètres associés M , les croyances (ou
l‘à priori) sur le vecteur des paramètres sont donnés par :
po ( M M )
Soit YT* yt*
T
t 1
un vecteur de variables représentant l‘échantillon considéré lors de l‘estimation.
L‘estimation de maximum de vraisemblance sur la base de l‘échantillon est donnée par :
L( M ; YT* , M ) p (YT* / M , M )
L‘estimateur du maximum de vraisemblance est donc la valeur des paramètres rendant le plus
probable l‘occurrence de l‘échantillon YT* .
Comme nous disposons de la vraisemblance po ( M M ) et de p(YT* / M , M ) retraçant
l‘information contenue dans les données, L‘estimation bayésienne consiste à croiser ces deux
sources d‘information moyennant l‘utilisation du théorème de Bayes et on a :
po ( M M ) p(YT* / M , M )
p1 ( M / YT* , M )
p(YT* / M )
Avec p(YT* / M ) p
M
o ( M / M ) p(YT* / M , M )d M la densité marginale.
Ainsi si la variance à posteriori d‘un paramètre est plus faible que sa variance à priori cela
signifierai que les données de l‘échantillon apportent une information supplémentaire par rapport à
la croyance à priori.
Le modèle à estimer consiste en les trois équations caractéristiques dérivées des développements
261
Cahiers de la Recherche
théoriques de la section précédente : la courbe IS, la courbe de Phillips néokeynésienne et la
fonction de réaction de la banque centrale postulée de manière ad-hoc.
t Et t 1 m
ˆ ct et
yt Et ~
yt 1 (it Et t 1 r n ) ety
~ 1 ~
it t y yt eti
Les données utilisées pour l‘estimation du modèle sont le taux d‘intérêt interbancaire (TMP),
l‘output gap estimé à l‘aide du filtre de HP et le taux d‘inflation. La périodicité des données et
trimestrielles couvrant la période allant du premier trimestre 1997 au quatrième trimestre 2011. Les
aprioris sur les paramètres du modèle (inspirés des travaux de Smets et Wouters (2003) de
Schorfheide et Del Negro (2008)) ainsi que leurs valeurs à posteriori sont rapporté dans le tableau
suivant.
Tableau 1 : Distribution à priori et à posteriori des paramètres estimés
Moyenne à priori Moyenne à posteriori Intervalle de confiance
Distribution Ecart-type
epsilon 1.500 1.4994 1.3233 1.6703 norm
0.1100
theta 0.700 0.6988 0.5375 0.8649 beta
0.1000
lambda 0.154 0.1491 0.0068 0.2881 beta
0.1000
sigma 1.000 1.0433 0.8780 1.2066 gamm
0.1000
phi 1.000 0.9995 0.8673 1.1291 gamm
0.0800
phi_pi 1.700 1.6927 1.5576 1.8341 gamm
0.1000
phi_i 0.250 0.1789 0.1208 0.2357 gamm
0.0500
rho_a 0.700 0.8881 0.8469 0.9324 beta
0.2000
rho_d 0.500 0.2227 0.1442 0.2989 beta
0.1000
e_a 0.050 0.1577 0.0995 0.2133 invg
0.1000
e_i 0.025 0.0216 0.0181 0.0252 invg
0.1000
e_d 0.050 0.0402 0.0323 0.0477 invg
0.1000
Paramètres calibrés
262
Cahiers de la Recherche
beta=0.9
Rho=-log(beta)
Alpha=0.3
Analyse des chocs impulsionnels
L‘analyse des chocs impulsionnels permet de simuler la réaction des variables d‘intérêt suite à un
choc de politique économique ainsi que la propagation de ce choc dans le temps.
Figure 1 : réponse de l’output gap et de l’inflation suite à un choc de politique monétaire
L‘output gap et l‘inflation affichent des réactions en ligne avec l‘intuition économique, en effet une
hausse du taux d‘intérêt est suivie par une baisse immédiate à la fois de l‘output gap et de
l‘inflation.
Figure 2 : réponse de l’inflation et du taux d’intérêt suite à un choc de demande
Un choc de demande matérialisé par une hausse de l‘output gap implique une hausse immédiate du
taux d‘intérêt et de l‘inflation. Ce choc s‘estompe au bout de six trimestres.
5-Conclusion
263
Cahiers de la Recherche
L‘objectif de ce travail était de présenter les fondements théoriques de la modélisation DSGE ainsi
que les différentes évolutions théoriques ayant menées à l‘éclosion de ce nouveau paradigme en
macroéconomie. En effet, la critique de Lucas concernant la validité de la démarche de construction
des modèles de la Cowles Commission, la critique de Sargent quant à l‘absence d‘une forme
d‘optimisation et la critique de Sims par rapport à l'endogéneité des variables et le nombre élevé de
restrictions, ont constitué les éléments théoriques à la base de l‘abandon des grands modèles macro-
économétriques et à l‘émergence des modèles RBC et DSGE.
En introduisant la compétition imparfaite dans le marché des biens, et en posant certaines
contraintes sur le processus d‘ajustement des prix, on a pu aboutir à la construction du modèle
néokeynésien de base qui constitue le noyau des modèles d‘analyse des fluctuations depuis une
dizaine d‘années.
L‘estimation bayésienne du modèles DSGE issu des développements théoriques pour l‘économie
marocaine a été réalisé à l‘aide de l‘approche bayésienne qui a permis de confronter les croyances à
priori avec les données. Les croyances sont caractérisées à l‘aide de fonctions de densité de
probabilité jointe sur les paramètres du modèle. Les chocs impulsionnels affichent des réactions en
ligne avec l‘intuition économique, en effet une hausse du taux d‘intérêt est suivie par une baisse
immédiate à la fois de l‘output gap et de l‘inflation. Aussi, un choc de demande matérialisé par une
hausse de l‘output gap implique une hausse immédiate du taux d‘intérêt et de l‘inflation, ce choc
s‘estompe quasiment au bout de six trimestres.
264
Cahiers de la Recherche
Bibliographie
Articles
- Bernanke, B., and Gertler, M., Inside the Black Box: The Credit Channel of Monetary Policy
Transmission, Journal of Economic Perspectives, Vol. 9, 1995, p 24-48.
- Blanchard, O., et Khan, C. M.,The solution of linear difference models underrational expectation ,
Econometrica, vol. 48 (5) (July), 1980, pp. 1305-11.
- Calvo, G., ―Staggered prices in a utility maximising framework‖, Journal of Monetary Economics,1983.
- Christiano, L. , Eichenbaum M., et Evans C.,Nominal Rigidities and the Dynamic Effects of a Shock to
Monetary Policy," Journal of Political Economy, 2005,113, 1-45.
- Clarida, R., Gali, J., et Gertler, M., The science of monetary policy: a new Keynesian Perspective ,
Journal of Economic Literature, 37:4,1999, p. 1661-1707.
- Collard, F., et Juillard, M., Perturbation Methods for Rational Expectations Models, Manuscript,
CEPREMAP,2001.
- Dib, A., Gammoudi, M. et Moran, K., Forecasting Canadian Time Series with the New Keynesian Model,
Bank of Canada, Working Paper 05-27,2006.
- Gali, J., et Rabanal, P., Technology Shocks and Aggregate Fluctuations: How Well Does the RBC Model
Fit Postwar U.S. Data, NBER Macroeconomics Annual, 2004, MIT Press, Cambridge, MA.
- Abraham-Frois, G., « La macroéconomie en l'an 2000 »,Revue économique, 2001, Volume 52, Numéro3,
p. 481 – 493
- Goodfriend, M., et King, R., The new neoclassical synthesis and the role of monetary policy , Bernanke, B.
and J. Rotemberg (eds), NBER Macroeconomics Annual, 1997, 231-283.
- Hansen, G., Indivisible Labor and the Business Cycle, Journal of Monetary Economics, 1985, 309-328.
- Ireland, P., Technology Shocks in the New Keynesian Model, The Review of Economics and
Statistics,2004,p 923-936.
- Juillard M., Dynare: A Program for the Resolution and Simulation of Dynamic Models with Forward
Variables through the Use of a Relaxation Algorithm, CEPREMAP Working Paper 9602, CEPREMAP
Paris,1996.
- King, R., Plosser, C., et Rebelo, S.,Production, Growth and Business Cycles: the Basic Neoclassical Model,
Journal of Monetary Economics,1988, 195- 232.
- King, R., et Rebelo S., Resuscitating real business cycles , NBER Working Paper Series, 2000.
- Kydland, F. et Prescott E.,Time to Build and Aggregate Fluctuations, Econometrica, 1982, p. 1345-1369.
- Kydland, F. et Prescott, E., Business Cycles: Real Facts and a Monetary Myth, Federal Reserve Bank of
Minneapolis Quarterly Review, 1990.
- Lucas, R., Econometric policy evaluation: A critique, Carnegie-Rochester Conference Series on Public
Policy, Vol. 6, 1976, pages 19-46.
- Smets, F. et Wouters, R., An estimated dynamic stochastic general equilibrium model of the euro area,
Journal of the European Economic Association, 2003, p.1123-75.
- Zanetti, F., Prototype micro-founded DSGE models in Scilab, Bank of England, CCBS, Technical
Handbook No. 3, 2010.
- Woodford, M., The Taylor Rule and Optimal Monetary Policy, American Economic Review, 2001, p 232-
237.
Ouvrages:
- Canova, F., Methods for Applied Macroeconomic Research, Princeton University Press, 2005.
- Hamilton, J. D., Time Series Analysis, Princeton, New Jersey: Princeton University Press,1994.
- Judd, K., Numerical Methods in Economics, Cambridge, MA: MIT Press, 1998.
- Kamran, D., The evolution of macroeconomic theory and policy, Springer, 2009.
- Miranda, M. J. et Fackler P. L., Applied Computational Economics and Finance, Cambridge MA: MIT
Press, 2002.
- Sargent, T. J., Dynamic Macroeconomic Theory, Cambridge, Mass.: Harvard University Press, 1987.
- Wickens M., Macroeconomic theory: a dynamic general equilibrium approach, Princeton University Press,
265
Cahiers de la Recherche
2009.
- Woodford, M., Interest and Prices: Foundations of a Theory of Monetary Policy, Princeton University
Press,2003.
Annexes
Les distributions à priori et à postériori
i
i
266
Cahiers de la Recherche
Graphiques des variables endogènes
Graphiques des résidus
i
267
Cahiers de la Recherche
Diagnostic uni-varié des paramètres estimés du modèle
i i i
268
Cahiers de la Recherche
269
Cahiers de la Recherche
i i i
270