La modélisation : l’art et la science à l’origine de la politique monétaire

Disponible en format(s) : PDF

Introduction

L’École de commerce de l’Université de l’Alberta se trouve à deux pas du Centre Centennial des sciences interdisciplinaires, qui abrite plusieurs télescopes. Dans un télescope, une étoile ne nous apparaît pas telle qu’elle est aujourd’hui, mais telle qu’elle était il y a des années, au moment où la lumière qu’elle produisait amorçait son parcours vers la Terre. En ce sens, un télescope s’apparente à une machine à remonter le temps.

Si seulement au lieu de nous projeter dans le passé, ces télescopes nous permettaient de voir l’avenir! La prévision et la formulation de la politique économique seraient une simple formalité. À défaut de pouvoir lire l’avenir, nous devons composer avec le meilleur outil à notre disposition : le modèle économique.

Les modèles sont devenus incontournables pour la conduite de la politique monétaire. Et cela, parce que les banques centrales se servent habituellement de la politique monétaire pour encadrer l’évolution future d’une variable, par exemple l’inflation. Les mesures de politique monétaire n’agissent sur les cibles qu’après un certain temps : il faut notamment jusqu’à deux ans avant qu’une modification des taux d’intérêt ne produise tous les effets escomptés sur l’inflation. Dans ces conditions, il n’y a pas vraiment lieu de réagir au moindre mouvement du taux d’inflation. Ce dont ont besoin les banquiers centraux, c’est plutôt d’instruments qui leur permettent de prévoir le niveau probable de l’inflation dans deux ans et leur donnent des pistes de solution pour aménager la politique monétaire aujourd’hui de telle sorte que la cible d’inflation puisse être atteinte demain.

Les modèles économiques ne sont, bien entendu, pas des boules de cristal. Ils expliquent généralement le cours normal de l’activité économique. Ils finissent toujours par faire des erreurs, mais celles-ci sont censées se neutraliser au fil du temps. Le fait que les modèles ne peuvent fournir qu’une approximation de la réalité signifie que la conduite de la politique monétaire n’a rien de mécanique. Elle est le résultat d’un savant dosage d’art et de science : en fait, elle s’apparente à de la gestion de risques.

Tôt ou tard survient un impondérable que le modèle ne parvient pas à expliquer et qui l’amène à faire des erreurs récurrentes. Un prévisionniste peut pendant quelque temps justifier d’une manière rationnelle une série d’erreurs de projection, et réviser ses anticipations en conséquence, mais, inéluctablement, le modèle devra être reconstruit.

La crise financière mondiale de 2007-2009 est un de ces impondérables : un événement atypique, d’une grande ampleur dans l’histoire économique. Les modèles disponibles expliquaient mal les causes de la crise et le comportement des agents dans son sillage. Cette expérience oriente désormais le travail des modélisateurs. La Banque a d’ailleurs inscrit dans les priorités de son récent plan à moyen terme la réinvention du rôle de la banque centrale, et cette réinvention passe en partie par le renouvellement et la mise à niveau de nos outils.

Le cycle de modélisation, prévision et remodélisation est aussi vieux que l’économie empirique. C’est de cette façon que nous progressons. Je vous présenterai aujourd’hui l’histoire des modèles de la Banque du Canada et je montrerai comment chaque nouvelle génération de modèles s’est appuyée sur les réussites de la génération précédente et s’est adaptée aux besoins changeants des décideurs publics. Je décrirai aussi le rôle de la théorie économique et de l’informatique dans ce processus évolutif, et j’avancerai des hypothèses sur les possibilités que devrait offrir la prochaine génération de modèles économiques.

Évolution et progrès

Les modélisateurs sont devant un problème majeur, celui du compromis qu’ils doivent faire entre la qualité des prévisions et la rigueur théorique. Les modèles de projection visent avant tout à reproduire des régularités empiriques. Ils fonctionnent bien quand l’économie et les chocs auxquels elle est soumise sont sensiblement les mêmes au fil du temps. En revanche, les modèles théoriques conçus pour le travail d’analyse reposent sur une interprétation bien précise du fonctionnement de l’économie. Leurs spécifications sont valides en moyenne, mais pas pour chaque point de donnée. Normalement, la qualité des prévisions des modèles comportant une forte assise théorique est le plus souvent moins bonne que celle des modèles empiriques. Néanmoins, les modèles théoriques peuvent être très utiles pour expliquer les comportements observés lorsque des chocs d’envergure provoquent un effondrement des modèles empiriques.

Les deux classes de modèles ont eu tendance à se compléter, ce qui n’a toutefois jamais empêché les économistes de poursuivre leur quête du Graal, c’est-à-dire la recherche d’un modèle qui saurait réunir des fondements théoriques solides et une bonne qualité empirique. Le temps aidant, les progrès de l’informatique ont rendu possible la formalisation d’hypothèses plus réalistes sur le comportement des agents, ce qui a amélioré l’arbitrage. L’histoire de la modélisation à la Banque du Canada illustre à la fois cette recherche d’une synthèse et l’évolution des besoins des décideurs publics. Chaque nouveau modèle a bénéficié des atouts des modèles précédents et a été employé à résoudre leurs défauts. À travers l’histoire, aussi bien les avancées de la théorie économique que les avancées de l’informatique ont porté les progrès.

La Banque s’est lancée dans la modélisation durant les années 1960, au moment où des membres de son personnel et des universitaires invités ont mis au point le modèle RDX (pour Research Department Experimental model). L’avènement de l’ordinateur central a été essentiel à ce travail. Or, on ne trouvait pas ce genre d’ordinateur dans toutes les institutions. L’un des universitaires engagés dans ce travail de pionnier, John Helliwell, de l’Université de la Colombie-Britannique, raconte par exemple comment des boîtes de cartes à perforer étaient expédiées par autocar à un centre informatique de l’Université de Montréal, et comment l’on transmettait des données à distance, par modem, à un ordinateur dans l’Utah.

Les premiers modèles en usage dans la plupart des banques centrales étaient d’inspiration keynésienne, la demande y étant le moteur de la croissance économique. Cependant, les épisodes inflationnistes de la fin des années 1960 révélèrent l’importance de la modélisation des facteurs d’offre. Ce constat a été à l’origine de l’élaboration d’un nouveau modèle, le RDX2. Après le choc pétrolier de 1973-1974, la Banque a voulu appliquer ce modèle à l’étude de politiques différentes. La Banque commença en fait en 1975 à chercher à réduire l’inflation et à arrimer les anticipations d’inflation en établissant des cibles pour la croissance de la masse monétaire, mais le modèle RDX2 n’était pas en mesure d’opérer des comparaisons entre les différents scénarios envisagés.

Cette difficulté a conduit à la construction du modèle RDXF, une version du RDX2 qui était mieux adaptée au travail d’analyse de politiques – le « F » renvoie à la prévision (forecasting). L’acquisition d’un ordinateur central a énormément facilité ce travail. C’est ce modèle qui servait aux projections trimestrielles au moment de mon arrivée à la Banque en 1981.

Je me souviens encore clairement de ma déconvenue lorsque j’ai découvert le modèle RDXF. Je sortais alors d’un établissement supérieur où l’hypothèse du taux naturel et les anticipations rationnelles étaient de rigueur. L’hypothèse du taux naturel est l’idée selon laquelle il n’existe pas d’arbitrage permanent entre l’inflation et le chômage. Selon cette hypothèse, l’économie atteint plutôt son équilibre de plein emploi sur le long terme, et l’inflation est censée être la résultante des actions des autorités monétaires et des anticipations rationnelles des individus. Les anticipations rationnelles étaient considérées comme essentielles à l’ancrage des modèles et des économies, et comme incontournables pour véritablement analyser différents scénarios de politique monétaire.

Le fossé entre le modèle RDXF et la pensée dominante de l’époque s’est encore creusé quand la Banque a abandonné ses cibles monétaires et s’est employée à trouver un nouveau point d’ancrage de la politique monétaire. Nous pensions que le RDXF prêterait le flanc à la critique de Lucas. Selon cette critique, les modèles empiriques fondés sur des données produites au sein d’une économie caractérisée par un régime de politique monétaire donné et un certain processus de formation des anticipations se révéleraient instables et aboutiraient à des prévisions de mauvaise qualité lorsque le régime de politique monétaire connaîtrait un changement majeur.

À la fin des années 1980, le consensus à la Banque tendait à faire du ciblage de l’inflation proprement dite l’objectif central de la politique monétaire. Cette évolution signifiait qu’une attention redoublée serait accordée aux évolutions futures dans la formulation de la politique monétaire. Il nous fallait donc un modèle qui permettrait à la Banque d’effectuer des projections détaillées concernant non plus les trimestres à venir mais au moins les deux prochaines années, de manière à ce que nous puissions disposer du même intervalle que celui qui sépare le moment où intervient une modification des taux d’intérêt du moment où celle-ci se répercute en totalité sur l’inflation.

Ces considérations ont conduit à la conception du modèle SAM (Small Annual Model, ou modèle annuel de petite taille). SAM intégrait l’hypothèse du taux naturel tout en définissant un état stationnaire vers lequel tendrait le modèle après un choc. Seulement, le revers de la médaille, c’est que ces améliorations théoriques rendaient le modèle inutilisable pour la prévision à court terme. C’est pourquoi SAM servait de complément du modèle RDXF.

L’objectif à plus long terme était de se servir du modèle SAM comme d’un prototype avant de construire un modèle de projection trimestrielle doté des mêmes propriétés clés que SAM et destiné à remplacer le RDXF. Ainsi est né le MTP, le modèle trimestriel de prévision (en anglais, QPM : Quarterly Projection Model). Il formalisait des consommateurs au comportement prospectif et des entreprises aux anticipations rationnelles, ainsi qu’un état stationnaire cohérent. La dynamique des évolutions à court terme présentait une adéquation suffisante avec les données pour que le modèle puisse être appliqué au travail de projection. Il rendait aussi compte de l’ensemble des mouvements stocks-flux nécessaires à l’analyse de l’ampleur de l’endettement public, un phénomène qui occupait le devant de la scène au début des années 1990.

Le MTP a représenté un bond majeur en ce qui a trait à la complexité technique. Or, les ordinateurs à notre disposition n’avaient pas les qualités requises. Chef du département des Recherches, j’ai dû tout spécialement demander au gouverneur de l’époque, Gordon Thiessen, des fonds pour l’achat d’ordinateurs plus performants, qui seraient réservés à l’exécution du modèle expérimental. Malgré cela, rien que d’exécuter le modèle nécessitait toute une nuit.

Pendant plus de dix ans, le MTP a été d’une grande utilité. Son principal défaut, cependant, était qu’il ne pouvait rendre compte des chocs des termes de l’échange du Canada – pour l’essentiel, les fluctuations des cours des principaux produits de base, notamment le pétrole – alors que l’amplitude de ces mouvements de prix et leur fréquence allaient augmenter. Il devenait donc prioritaire d’ajouter au MTP un secteur des produits de base.

Parallèlement, la littérature économique faisait une place plus grande à une nouvelle classe de modèles : les modèles d’équilibre général dynamique et stochastique, ou modèles EGDS. Ces modèles partent de l’idée que les comportements économiques – par exemple, les décisions de consommation des ménages et d’investissement des entreprises – sont prospectifs et toujours optimaux, et résultent d’agents parfaitement informés. Ces modèles prédisent également comment évoluera l’économie lorsque les anticipations changent. En outre, des chocs stochastiques sont incorporés dans les modèles EGDS pour les ménages et les entreprises, ce qui règle le problème posé par la critique de Lucas. La solution des modèles EGDS décrit une économie qui a atteint un état d’équilibre général, où les décisions individuelles sont agrégées et s’expriment à travers des prix et des quantités de production valables pour l’ensemble de l’économie.

Par conséquent, la Banque décida de construire le modèle TOTEM (Terms-of-Trade Economic Model), un investissement majeur. TOTEM a conservé toutes les fonctions du MTP, mais est doté d’un secteur des produits de base et s’appuie sur le paradigme de l’équilibre général dynamique et stochastique. Une fois de plus, ce genre de modèle s’est révélé trop lourd pour les ordinateurs que les économistes de la Banque avaient à leur bureau, en dépit des performances supérieures de ces appareils. La calibration du modèle TOTEM était fondée sur une série de problèmes mathématiques extrêmement complexes dont la résolution exigeait une énorme puissance de calcul. À l’étape du prototype, la solution a été d’acquérir des ordinateurs très perfectionnés pour jeux vidéo qui effectuaient les calculs durant la nuit et la fin de semaine, c’est-à-dire à des heures où la chaleur et le vacarme qui en résultaient ne rendaient pas l’atmosphère insupportable dans les bureaux.

TOTEM demeure d’une utilité considérable pour la projection et le travail d’analyse des politiques. Bien évidemment, le socle sur lequel repose ce modèle marquait un choix résolu au profit de la rigueur théorique, et moins en faveur de la qualité prédictive. Le personnel de la Banque a donc élaboré un nouveau modèle destiné à servir de complément à TOTEM et à prévenir divers types de risques en matière de projection. Il s’agit du grand modèle empirique et semi-structurel, ou modèle LENS (en anglais, Large Empirical and Semi-structural). Ce modèle repose sur un autre paradigme que celui de TOTEM; il est collé davantage aux données et ne comporte qu’un groupe souple de contraintes théoriques. LENS est un outil de vérification des résultats de TOTEM, et le personnel emploie les deux modèles ensemble pour effectuer ses projections et faciliter le dialogue autour des possibilités qui s’offrent pour la conduite de la politique monétaire. La Banque prend donc en charge la question de l’arbitrage en utilisant simultanément deux modèles complémentaires, tout comme elle le faisait avec les modèles RDXF et SAM. Sauf qu’il y a bien plus de convergence sur le plan des résultats entre TOTEM et LENS qu’entre le modèle RDXF et le modèle SAM. Cela confirme les améliorations en matière d’arbitrage que j’ai évoquées précédemment.

Notre approche s’est avérée très utile lorsque, à la fin de 2014, le Canada a été confronté à l’effondrement des cours pétroliers. À la différence des modèles keynésiens standard, TOTEM avait permis de prévoir dans toute son ampleur le choc des prix du pétrole, la persistance de ses répercussions et l’ajustement de l’économie à la baisse des cours. La confiance que nous avions dans cette analyse nous a amenés à réduire deux fois le taux directeur en 2015, et cela, bien avant que les effets négatifs du choc ne commencent à se propager. Ces décisions ont permis à l’économie d’amortir le choc et favorisé un ajustement plus rapide.

La crise financière mondiale : un événement atypique important

L’utilisation conjuguée des modèles TOTEM et LENS constitue une puissante approche moderne de la modélisation dans les banques centrales. Néanmoins, ces deux modèles fournissent un éclairage insuffisant sur les forces qui ont donné naissance à la crise financière mondiale ou sur les comportements qui ont été adoptés par la suite. Ce constat vaut pour tous les grands modèles qu’utilisaient les banques centrales.

Ces modèles sont mal outillés pour répondre à des questions connexes qui ont été soulevées depuis la crise financière. Par exemple, quelle sera l’incidence de la longue période de bas taux d’intérêt sur la prise de risques? Comment la confiance des entreprises et l’incertitude géopolitique influent-elles sur les décisions d’affaires? Quel est l’effet des chaînes de valeur mondiales sur le mécanisme de transmission de la politique monétaire?

Soyons clairs, les modèles TOTEM et LENS ont continué de bien nous servir malgré leurs lacunes. En complément de ces modèles, nous avons élaboré des modèles « satellites » pour traiter de questions précises. Par exemple, la Banque a mis au point un modèle d’analyse macroprudentielle et monétaire (ou modèle MP2) dans le but d’étudier l’incidence des chocs financiers et des politiques macroprudentielles sur l’économie. D’autres modèles nous permettent d’évaluer comment les inefficiences des marchés financiers peuvent entraîner des déséquilibres. Des efforts ambitieux ont aussi été consacrés à la modélisation très détaillée des exportations, compte tenu de la destruction considérable des capacités d’exportation observée au cours des dix dernières années.

Cette stratégie axée sur plusieurs modèles nous a permis de pallier les limites des modèles de la génération actuelle et de gérer de manière appropriée les risques qui pèsent sur la politique monétaire. Mais les modèles de nouvelle génération qu’utiliseront les banques centrales devront s’attaquer directement à ces questions.

La prochaine génération de modèles

Bien que personne ne puisse dire avec certitude à quoi ressembleront les modèles de nouvelle génération qu’utiliseront les banques centrales, on peut s’attendre à ce qu’ils se basent sur des modèles tels que le MTP ou les modèles TOTEM et LENS.

Le temps nous a appris qu’il est peu probable qu’un modèle puisse répondre à lui seul à tous nos besoins. Cela tient au fait que les modèles sont, par leur nature même, des représentations abstraites de la réalité. Trouver le bon équilibre entre la théorie et l’adéquation statistique est davantage une affaire de jugement qu’un exercice empirique. Et il est préférable que cette part de jugement repose sur des modèles complémentaires.

Une autre leçon est que les banques centrales sont traditionnellement restées fidèles à leurs modèles bien après la « date de péremption » de ces derniers. Sans doute cette situation se justifie parce qu’un plus grand réalisme des modèles est synonyme d’une plus grande complexité, et nécessite une augmentation de la puissance de calcul ainsi que de gros investissements en recherche et en personnel. Pour éviter de conserver un modèle trop longtemps, il faudrait investir régulièrement dans de nouvelles approches, même lorsque les modèles existants ne présentent aucune lacune manifeste.

En effet, ce sont souvent des changements imprévus des paradigmes de modélisation – rendus possibles grâce au perfectionnement des technologies informatiques – qui amènent des avancées dans la construction de modèles. Aujourd’hui, le paradigme de l’équilibre général dynamique et stochastique semble avoir un bel avenir devant lui, mais personne n’imaginait une telle approche lorsque nous élaborions le MTP, il y a encore seulement 25 ans de cela.

À titre d’exemple, les modèles multi-agents offrent une méthode différente qu’il faudrait peut-être explorer. Contrairement aux modèles EGDS, les modèles multi-agents reposent sur l’hypothèse que l’économie est formée d’individus qui interagissent à répétition les uns avec les autres et peuvent adapter leur comportement en fonction des enseignements tirés de ces interactions. Les comportements macroéconomiques naissent naturellement. Ces modèles ont leurs propres limites, mais en cette ère des mégadonnées, où les publicités vues en ligne peuvent être déterminées par les mots qu’on entre dans un moteur de recherche, les modèles multi-agents pourraient être des outils précieux.

Il est également probable que les modèles de la prochaine génération traiteront les anticipations rationnelles de manière plus nuancée. Dans la réalité, les individus semblent avoir des comportements qui relèvent en partie d’anticipations entièrement rationnelles et de règles empiriques simples. D’où le concept prometteur de « rationalité limitée ».

Il serait probablement souhaitable de voir les modèles de l’avenir intégrer un plus grand nombre d’éléments d’hétérogénéité. Nous savons, par exemple, que les entreprises choisissent d’entrer sur un marché ou d’en sortir à des moments différents et d’investir différemment. Nous savons aussi que des personnes qui n’ont pas les mêmes niveaux de revenu et de richesse réagissent différemment aux variations des taux d’intérêt, et que ces réactions peuvent changer selon les étapes de la vie. De nombreuses transactions financières se réalisent parce que les agents ont des niveaux variés de tolérance au risque. Pourtant, la plupart des modèles actuels partent de l’hypothèse que les entreprises et les particuliers sont uniformes.

Les modèles de la prochaine génération devront en outre permettre, à tout le moins, de cerner les liens qui existent entre le système financier et l’économie réelle. Ils devraient expliquer de quelle manière le système financier peut être une source de chocs et comment ces chocs peuvent se propager. Ils devront intégrer la possibilité que des non-linéarités amènent de faibles chocs à avoir des effets économiques démesurés. Ils devraient aussi pouvoir montrer comment l’accumulation de dettes dans un secteur peut se répercuter sur l’ensemble de l’économie. Nous avons par ailleurs besoin de modèles qui rendent compte des risques et des vulnérabilités au sein du système financier et qui peuvent mettre en évidence leurs interactions avec les politiques monétaires et macroprudentielles.

Je n’ai pas dressé ici une liste exhaustive, mais j’ai simplement tenté d’illustrer mon propos. Le personnel de la Banque dispose de toute la latitude nécessaire pour faire preuve d’innovation sur ces questions, car nous savons qu’il faut du temps pour faire évoluer les modèles et que nous devons sans cesse investir à cette fin.

Les modèles et l’incertitude

Avant de conclure, permettez-moi de revenir à un enjeu auquel j’ai fait référence en début d’exposé : le rôle de l’incertitude dans la prise de décisions en matière de politique monétaire.

Il serait tentant de croire que nous pouvons demander aux modèles avancés actuels de nous fournir des prévisions d’inflation chiffrées et précises sur un horizon de deux ans, et de nous indiquer aujourd’hui la marche à suivre pour maintenir l’inflation précisément à la cible. Dans d’autres discours, j’ai déjà comparé un tel exercice à de la mécanique.

De fait, c’est exactement ce que les économistes font avec leurs modèles, mais ils formulent leurs prévisions en termes probabilistes. Ils soulignent les nombreuses marges d’erreur entourant les variables de leur modèle et attirent l’attention sur toutes les hypothèses qu’ils doivent poser. Ils admettent qu’en définitive, leurs calculs sont entachés par toutes ces sources d’erreur.

Par conséquent, les prévisions d’inflation du modèle et la trajectoire recommandée du taux directeur sont entourées d’incertitude. À la Banque, nous voyons dans cette incertitude inhérente une « zone » au sein de laquelle il est, selon toute vraisemblance, probable qu’un taux d’intérêt donné permettra de ramener l’inflation à la cible dans un délai convenable.

On peut donc dire que de l’incertitude existe même dans des modèles qui donnent de bons résultats. Mais il existe d’autres incertitudes, dont celles liées aux changements structurels qui perturbent les modèles, comme les changements déclenchés par la crise financière mondiale. Ces incertitudes supplémentaires peuvent introduire un biais dans les projections d’un modèle, et ce biais peut rendre la trajectoire du taux d’intérêt suggérée par le modèle plus susceptible de nous faire rater notre cible.

Et, bien sûr, il y a l’incertitude générée par les risques qui entourent notre prévision d’inflation. Dans nos délibérations relatives au taux directeur, nous prenons comme point de départ la trajectoire que recommandent nos modèles, mais nous sommes toujours conscients des incertitudes, y compris en ce qui a trait aux divers risques qui pourraient faire passer le taux d’inflation au-dessus ou en dessous de la cible. Toutes ces sources d’incertitude délimitent la zone dans laquelle nous pouvons avoir l’assurance raisonnable que la politique monétaire est sur la bonne voie. Les facteurs qui renforcent l’incertitude – comme les risques géopolitiques – peuvent entraîner un élargissement temporaire de cette zone. À l’inverse, l’atténuation des incertitudes peut la rétrécir.

C’est là l’essence même de l’approche de gestion des risques que la Banque suit en matière de politique monétaire. L’interprétation, la pondération et la gestion de ces risques s’apparentent à un art, mais un art qui s’appuie sur la science de nos modèles.

J’aimerais maintenant apporter trois précisions. Premièrement, le point de départ compte dans une décision de politique monétaire. Si l’inflation est à la cible et qu’on prévoit qu’elle y sera dans deux ans, divers risques peuvent être interprétés et gérés de la même manière. La situation actuelle sert toutefois de contre-exemple. Bien que la Banque prévoie que l’inflation retrouvera de manière durable son niveau cible vers le milieu de l’année prochaine, nous sommes bien conscients que les séquelles persistantes de la crise ont laissé subsister au sein de l’économie canadienne une marge de capacités excédentaires, et que l’inflation se maintient depuis un certain temps dans la moitié inférieure de la fourchette cible.

Deuxièmement, étant donné l’incertitude inhérente aux modèles économiques, il est peu judicieux de réduire la conduite de la politique monétaire à une simple règle mécanique. Vu le nombre élevé de sources d’incertitude, dont certaines ne peuvent être quantifiées, la gestion des risques est un exercice qui repose sur une grande part de jugement. C’est pourquoi nous devons très soigneusement expliquer notre raisonnement sous-jacent afin qu’il soit bien compris. À cette fin, la Banque a pris certaines mesures au cours des dernières années pour accroître la transparence de sa politique monétaire.

Troisièmement, incertitude n’est pas synonyme d’indécision. Il est vrai que la notion d’une zone générée par l’incertitude peut créer un degré de tolérance pour les petits chocs. Parallèlement, un choc de grande ampleur, voire l’accumulation de plusieurs petits chocs, peut faire pencher la balance des risques entourant la projection d’inflation et nous inciter à agir.

Au début de 2015, par exemple, le modèle TOTEM nous ayant indiqué les conséquences possibles du choc des prix du pétrole, le risque à la baisse qui pesait sur notre projection d’inflation était devenu d’une ampleur insoutenable. Le choc nous a fait sortir de la zone au sein de laquelle le taux directeur en vigueur nous donnait l’assurance raisonnable que l’inflation toucherait la cible dans un délai convenable. Par conséquent, nous avons abaissé le taux directeur pour ramener l’inflation à un niveau compatible avec notre cible.

Conclusion

Voici venu maintenant pour moi le temps de conclure.

La Banque a un régime de ciblage de l’inflation depuis 25 ans, période durant laquelle l’inflation s’est maintenue, en moyenne, très près de la cible. Ce résultat montre à lui seul que nos modèles ont été assez performants.

Et bien que nos modèles actuels restent performants, l’expérience récente a fait ressortir certaines lacunes que nous devons combler. Étant donné tout le temps qu’il faut pour élaborer un nouveau modèle, l’une des priorités de la Banque est d’investir dans la prochaine génération de modèles, et je souhaite que l’ensemble des économistes en fassent également une priorité. L’amélioration des outils nous permettra de maintenir l’inflation à un taux plus stable et plus prévisible, et elle facilitera la prise de décisions en économie.

La science économique et la politique monétaire connaissent une période stimulante. Je suis impatient de voir ce que l’avenir nous réserve. Mais les économistes ont tendance à trop s’enthousiasmer à propos des questions qui les intéressent. Je vous laisserai donc sur une analogie qui vous aidera à relativiser les choses.

Les modèles macroéconomiques d’aujourd’hui sont différents de ceux des années 1970, de la même manière que le plus récent film de la saga Star Wars, Rogue One, diffère du premier opus de la trilogie originale qui a pris l’affiche en 1977, Un nouvel espoir. Quel que soit le film que vous préférez, il est clair que les outils et la technologie mis à la disposition des réalisateurs ont beaucoup évolué. Ce que l’on considère à la fine pointe aujourd’hui est à des années-lumière de ce qui nous semblait être le nec plus ultra il y a 40 ans. Mais au final, c’est l’histoire qu’on raconte qui est importante. Ça, ça n’a pas changé.

Nos modèles économiques continueront d’évoluer et deviendront plus sophistiqués. Cela dit, il reviendra toujours aux banquiers centraux de faire usage de ces modèles, de même que de leur jugement, pour mener la politique monétaire, atteindre leurs cibles et présenter un scénario convaincant que tous peuvent comprendre.

Je tiens à remercier Rhys Mendes et Oleksiy Kryvtsov de l’aide qu’ils m’ont apportée dans la préparation de ce discours.

Information connexe

31 janvier 2017

École de commerce de l’Université de l’Alberta - Discours (Diffusions)

La modélisation : l’art et la science à l’origine de la politique monétaire - Le gouverneur de la Banque du Canada, M. Stephen S. Poloz, prononce la conférence de 2017 de la série Princeton Developments Ltd de conférenciers émérites sur la finance, organisée par l’École de commerce de l’Université de l’Alberta (17 h 35 (HE) approx.)

31 janvier 2017

École de commerce de l’Université de l’Alberta - Conférence de presse (Diffusions)

Models and the art and science of making monetary policy - Stephen S. Poloz, the Governor of the Bank of Canada, delivers the 2017 Princeton Developments Ltd Distinguished Lecture in Finance, hosted by the University of Alberta School of Business (18:40 (ET) approx.)