Nous avons travaillé de concert avec des particuliers et des entreprises afin de trouver des solutions novatrices aux défis auxquels nous faisons face en tant que banque centrale. Voyez quels sont les résultats.
Améliorer l’efficience des systèmes de paiement grâce à l’informatique quantique
Le défi
Dans le cadre de son mandat, la Banque du Canada veille à la sûreté et à l’efficience des systèmes de paiement qu’utilisent les institutions financières du pays. Cette efficience dépend toutefois de la quantité de liquidités que ces institutions décident d’affecter aux systèmes et du moment auquel elles choisissent que leurs instructions de paiement soient traitées. En général, celles qui participent au système de paiements de grande valeur (SPGV) du Canada font ces choix en fonction de l’urgence de chaque paiement, de leurs pratiques internes et des principes directeurs du secteur. En 2021, les institutions financières canadiennes ont affecté au SPGV des liquidités s’élevant à 5,5 milliards de dollars pour le règlement journalier de 40 000 paiements en moyenne.
L’expérience qui suit visait à déterminer si un algorithme quantique pourrait réduire les besoins de liquidité au sein du SPGV du Canada en optimisant la séquence de règlement des paiements des participants à ce système.
L’expérience
L’équipe du programme Partenariats en innovation et technologie (PIVOT) a travaillé en collaboration avec GoodLabs Studio. Ensemble, ils ont conçu un modèle permettant d’expérimenter avec des solutions d’informatique quantique en vue d’améliorer la séquence des paiements en attente de règlement et ainsi réduire le montant total de liquidités nécessaire dans le système sans faire augmenter cette attente de façon considérable. Compte tenu du grand nombre de paiements devant être réglés chaque jour, les nouvelles séquences possibles sont tout simplement trop nombreuses pour les techniques d’optimisation traditionnelles. En revanche, ce n’est pas un problème pour les techniques quantiques.
La première étape a été d’aider GoodLabs Studio à comprendre les incitations économiques d’utiliser le SPGV du Canada et à créer un modèle pour tester la capacité des ordinateurs quantiques existants à résoudre le problème posé. L’équipe a choisi de procéder au moyen d’un algorithme quantique de prétraitement. Selon cette démarche, les lots d’instructions de paiements sont soumis tout d’abord à un algorithme central, puis au système de paiement en tant que tel. Cet algorithme recherche la séquence de règlement optimale de chaque lot soumis, c’est-à-dire celle qui réduit au minimum le besoin de liquidités pour traiter le lot en entier.
Un large ensemble de données anonymisées sur les transactions a servi de base à l’exploration empirique au sein de l’environnement infonuagique sécurisé que la Banque a approuvé aux fins de collaboration. Enfin, avec l’aide de l’équipe du programme PIVOT, GoodLabs Studio s’est penché sur la meilleure façon de traduire le problème d’optimisation combinatoire (c.-à-d. la recherche de la séquence de règlement optimale) en un format compatible avec un ordinateur quantique. Après avoir évalué différentes approches, l’équipe a formulé un problème d’optimisation binaire mixte qu’elle a ensuite traduit en problème d’optimisation binaire quadratique sans contrainte pouvant être traité par un appareil quantique. L’optimisation s’est faite sur le système D-Wave au moyen d’une plateforme de calcul quantique hybride.
Collaborer avec la Banque du Canada dans le cadre du programme PIVOT nous donne des occasions de placer le Canada à la pointe de l’innovation dans le domaine des paiements grâce à la technologie quantique.
Thomas Lo, fondateur, GoodLabs Studio
Le résultat
L’algorithme développé par GoodLabs Studio dans le cadre de ce défi PIVOT a montré qu’il était possible d’apporter des améliorations quantifiables à l’efficience des systèmes de paiement en réduisant les liquidités nécessaires au règlement des paiements. Même si les ordinateurs quantiques d’aujourd’hui sont limités par leur taille et leur vitesse, l’algorithme a pu économiser des liquidités dans presque tous les lots de paiements, et ce, en ne faisant augmenter que de 90 secondes en moyenne le temps dans la file d’attente de règlement. Pour une journée typique, les économies étaient de 240 millions de dollars, quoiqu’elles aient dépassé 1 milliard de dollars dans certains cas. Ce type d’amélioration a le potentiel d’avoir des retombées nettement plus grandes à mesure que les ordinateurs quantiques gagneront en puissance.
L’application de nouveaux algorithmes d’une façon qui n’exige pas qu’on modifie fondamentalement les systèmes de paiement est l’un des grands défis que pose cette recherche de gains d’efficience. Utilisés à des fins de prétraitement, les algorithmes quantiques d’optimisation pourraient proposer des séquences qui ont des avantages tangibles pour les participants. L’une des façons d’intégrer de tels algorithmes aux systèmes existants serait d’inciter les participants à soumettre leurs paiements dans l’ordre proposé.
Cette expérience novatrice met en lumière les efforts de la Banque au chapitre de l’informatique quantique et les possibilités qu’offre cette nouvelle technologie pour régler des problèmes dans le monde réel. Elle montre que l’informatique quantique a le potentiel d’améliorer l’efficience des liquidités dans les systèmes de paiements de grande valeur.
Des méthodes novatrices de nettoyage des données
Le défi
La Banque du Canada utilise des données sur des titres provenant de diverses sources externes dans le but de surveiller les marchés financiers et de mener les travaux de recherche connexes. Pour que ces données soient exploitables, les employés doivent passer beaucoup de temps à « nettoyer » manuellement l’information reçue, c’est-à-dire à organiser et à préparer les données. Le défi consiste à trouver des façons novatrices de nettoyer les données et de dépasser les limites actuelles au moyen d’une solution automatisée.
L’expérience
En collaboration avec Bronson Consulting, nous avons cherché une solution qui permettrait d’atteindre les objectifs suivants :
- réduire le dédoublement de l’information;
- automatiser le nettoyage des données;
- améliorer l’exactitude des résultats obtenus au moyen de notre processus interne actuel.
Bronson Consulting a commencé par examiner les données fournies par le département des Marchés financiers de la Banque. Ces données concernaient un cas d’utilisation particulier qui nécessitait la mise en correspondance de noms d’organisations parmi trois ensembles de données différents. Des flux de travaux ont été créés à l’aide d’Alteryx Designer pour analyser, nettoyer et uniformiser les données, ce qui a permis d’associer plus facilement les champs communs à ces ensembles.
Après avoir examiné les résultats initiaux et en avoir discuté, les employés de la Banque et Bronson Consulting se sont concentrés sur la production de résultats qui pourraient servir à accroître la précision de l’appariement des données. Un deuxième examen a montré qu’il est possible d’avoir une solution robuste et évolutive qui pourrait mener à l’automatisation de nos méthodes de nettoyage des données.
Bronson était ravi d’aider la Banque à relever ce défi. Le nettoyage des données, c’est difficile pour bien des organisations. Nous avions bon espoir de pouvoir soutenir la Banque non seulement grâce à la technologie, mais aussi par notre approche basée sur la lisibilité des données et l’organisation des grands ensembles de données.
Phil Cormier, CA, CPA, consultant principal, Groupe Conseil Bronson
Le résultat
Une fois traitées à l’aide d’Alteryx Designer, les données ont été nettoyées et uniformisées de manière considérable pour en faciliter la correspondance ultérieure entre les différents ensembles de données fournis par la Banque.
En tenant compte de tous les facteurs, nous pouvons difficilement déterminer si les flux de travaux automatisés ont permis d’améliorer les résultats, comparativement au processus interne actuel. Toutefois, Bronson Consulting a démontré qu’Alteryx Designer est une solution viable pouvant être automatisée en vue de réduire le nombre d’heures passées par les employés de la Banque à trier les ensembles de données pour y repérer les cas de dédoublement ou de mauvaise identification de l’information.
Détection de la fraude liée aux modes de paiement
Le défi
L’une de nos grandes fonctions consiste à assurer des services de gestion financière pour notre propre compte, ainsi qu’au nom du gouvernement du Canada et d’autres clients, ce qui implique l’entrée et la sortie de paiements en toute sécurité. L’objectif de ce défi consistait à déterminer si l’intelligence artificielle et l’apprentissage automatique pourraient nous aider à :
- améliorer nos processus actuels;
- tirer des leçons des transactions antérieures;
- modéliser les comportements transactionnels normaux;
- effectuer un suivi des transactions pour détecter les activités atypiques.
En plus de réaliser le mandat initial – démontrant qu’elle serait en mesure d’appuyer la vérification des paiements –, nous avons examiné le texte libre dans nos activités de paiement. Nous avons ainsi repéré et rapproché les noms, entités, pays et mots clés à risques élevés qui figurent sur des listes de sanctions.
L’expérience
Nous avons collaboré pendant six mois avec MindBridge, une entreprise d’Ottawa spécialisée dans l’intelligence artificielle. Nous avons d’abord organisé un atelier en vue d’établir un point de référence pour les activités typiques de nos systèmes de paiement (en fonction des clients, des montants et des modes de paiement) et les risques de crimes financiers connexes. Grâce au portrait détaillé des activités de paiement typiques, MindBridge a pu déterminer des applications possibles de l’intelligence artificielle et de l’apprentissage automatique.
Les partenariats comme celui-ci sont primordiaux : ils font progresser les innovations dans le secteur des paiements et renforcent l’expertise du Canada dans l’apprentissage automatique et l’intelligence artificielle.
Nima Anvari, scientifique des données, MindBridge
Pour cerner les schémas transactionnels inhabituels et atypiques de nos activités de paiement à l’aide de ses capacités d’intelligence artificielle et d’apprentissage automatique, MindBridge a entrepris de tester et de mettre au point ses algorithmes. À cette fin, nous avons compilé sept mois de données de paiement, que nous avons reformatées, analysées et masquées. Ces données ont ensuite été exportées vers MindBridge et intégrées dans son environnement d’analyse.
Après plusieurs cycles d’analyse et de révision, MindBridge a présenté ses résultats et son analyse.
Les résultats
Le système de MindBridge a pu repérer les anomalies connues ainsi que les attributs et schémas transactionnels auparavant inconnus et non détectés, ce qui nous a donné une nouvelle perspective sur les activités de nos clients.
Selon MindBridge, l’expérience a prouvé que l’intelligence artificielle et l’apprentissage automatique peuvent détecter des paiements atypiques. Étant donné la nature expérimentale du projet, des recherches poussées devront être menées pour mettre en œuvre un système d’intelligence artificielle et d’apprentissage automatique qui contribue à la surveillance des crimes financiers.
Nous cherchons toujours à mieux comprendre les applications possibles de l’intelligence artificielle et de l’apprentissage automatique pour affiner notre travail, ce à quoi cette expérience a contribué. Nous avons ainsi appris que, pour aboutir à un système de surveillance des paiements viable, la solution doit pouvoir s’intégrer à nos processus et opérations de paiement. De plus, elle devrait être en mesure d’identifier et de bloquer en temps réel les activités de paiement atypiques.
Catégorisation des données de nature délicate
Le défi
La protection de nos données est d’une importance primordiale. Nos employés doivent donc catégoriser correctement les courriels et les documents institutionnels ou autres. Cette tâche peut s’avérer fastidieuse et le processus manuel est propice aux erreurs. C’est pourquoi nous voulions voir si l’apprentissage automatique et l’intelligence artificielle pourraient aider les employés à effectuer cette catégorisation.
Le défi consistait à développer un algorithme qui pourrait distinguer les documents de nature délicate des autres documents.
L’expérience
Nous avons établi un partenariat avec PigeonLine, une entreprise d’intelligence artificielle spécialisée dans les solutions technologiques accessibles, sur mesure et interactives à des problèmes courants.
Plusieurs questions importantes ont guidé notre travail :
- Comment pouvons-nous développer un algorithme exact à partir de données de test étiquetées?
- Les utilisateurs comprendront-ils les raisons de certains choix de l’algorithme?
- Des spécialistes peuvent-ils « entraîner » l’algorithme?
- Que faire si les spécialistes sont en désaccord?
- Pouvons-nous entraîner l’algorithme pour qu’il saisisse des informations plus complexes?
Nous avons prévu une expérience en deux étapes. À la première étape, nous avons développé un modèle d’apprentissage automatique à l’aide d’un échantillon de 1 000 documents de différents formats que nous avons rapidement séparés en deux catégories, « délicat » et « non délicat ».
PigeonLine a utilisé une partie de ces documents pour entraîner un modèle d’apprentissage automatique. L’entreprise a choisi un modèle bayésien naïf multinomial qui expliquait ses résultats dans une certaine mesure, ce qui a été utile à la deuxième étape. Les autres documents de l’échantillon ont servi à vérifier l’exactitude du modèle.
À la deuxième étape, nous avons muni un de nos spécialistes d’une interface utilisateur lui permettant d’inspecter les résultats du modèle d’apprentissage automatique, de corriger les erreurs et de trouver des explications supplémentaires, comme du contexte basé sur des mots et des segments de phrases dans les documents. Les modifications apportées par notre spécialiste ont servi à la création d’un second modèle d’apprentissage automatique, dont l’exactitude a également été vérifiée.
Les résultats
Ce projet montre qu’on peut se servir d’un modèle d’apprentissage automatique pour catégoriser automatiquement des données de nature délicate. Notre échantillon a donné lieu à une catégorisation exacte dans 80 % des cas, et l’exactitude est passée à 83 % grâce aux corrections apportées par un seul spécialiste humain. Les solutions d’apprentissage automatique fonctionnent de manière itérative et nécessitent davantage d’entraînement par plusieurs spécialistes. Des recherches plus poussées promettent d’améliorer l’exactitude de la méthode.
Il faut poursuivre les recherches pour comprendre comment les connaissances de spécialistes et des explications tirées des documents améliorent le modèle. En cas de réussite, on pourrait déployer l’algorithme pour effectuer la catégorisation automatique des données de tous les employés, ce qui permettrait d’épargner du temps et de réduire le nombre d’erreurs. Le modèle pourrait jouer un rôle important en renforçant la cybersécurité et la protection des données de nature délicate de la Banque.
Mesures des dépenses des ménages
Le défi
Les dépenses des ménages jouent un rôle important dans notre économie, et des mesures publiques qui touchent les ménages canadiens, notamment les décisions liées aux taux d’intérêt, sont régulièrement introduites à l’échelle nationale et régionale. Il est donc important que la banque centrale comprenne comment ces mesures influent sur la croissance des dépenses des ménages.
Une bonne compréhension des fluctuations économiques est essentielle pour nous permettre de bien mener nos activités courantes. Or les données économiques traditionnelles mettent du temps à être publiées.
Grâce au projet PIVOT, j’ai pu élaborer des modèles et utiliser des données ayant trait à la consommation des ménages, et ainsi avoir une expérience pratique de la recherche universitaire, avec ses hauts et ses bas.
John Baker, participant au programme PIVOT, doctorant à l’Université de Waterloo
C’est pourquoi nous voulions explorer comment évaluer en temps réel la façon dont les Canadiens réagissent aux décisions de la Banque du Canada en matière de politiques. Par exemple, comment réagissent-ils à nos décisions concernant le taux directeur lorsque leur niveau d’endettement est élevé? L’analyse de ces données à haute fréquence nous fournirait plus rapidement un portrait de l’économie canadienne et appuierait notre politique axée sur les données, nous aidant ainsi à remplir notre mandat.
L’expérience
En partenariat avec John Baker, doctorant à l’Université de Waterloo, nous avons d’abord évalué les méthodes qui nous permettraient de recueillir, de traiter et d’analyser de telles données à mesure qu’elles deviennent accessibles. Ainsi, nous nous sommes demandé si nous pouvions parvenir à nos fins en analysant les recherches Internet, c’est-à-dire la chaîne de caractères qu’un internaute tape dans un moteur de recherche comme Google.
Au cours du projet, nous avons appris à tirer profit des données liées aux recherches Internet pour déterminer en temps réel l’incidence des mesures prises par la Banque sur les dépenses des ménages. M. Baker a effectué des expériences à l’Université de Waterloo, sous la supervision de membres du corps professoral de la faculté des sciences économiques. De plus, il a reçu des conseils des experts de la Banque quant aux aspects techniques et aux objectifs du projet.
C’est lorsque deux partenaires mettent en commun leurs connaissances de façon ouverte et franche qu’on optimise l’innovation et la prise de risques.
Daniel de Munnik, directeur, Activité économique réelle, Analyses de l’économie canadienne
Les résultats
Les résultats de recherches Internet effectuées après les dates d’annonce préétablies de la Banque ont été utilisés dans le cadre de l’étude événementielle. Ces données ont brossé un portrait unique de la façon dont les Canadiens réagissent à diverses annonces de politique monétaire et mis en lumière une nouvelle façon potentielle d’analyser l’impact des communications des banques centrales.
L’expérience empirique principale a mis en évidence les avantages possibles de l’intégration d’autres sources de données aux méthodes de prévision conventionnelles. Dans ce cas-ci, nos modèles de dépenses des ménages se sont améliorés après que nous avons combiné les données sur les recherches Internet avec les sources de données habituelles.
Par ailleurs, l’expérience a permis à M. Baker d’appuyer la composante de recherche de son doctorat ainsi que d’analyser des données concrètes et d’élaborer des modèles de dépenses de consommation. Qui plus est, sa collaboration avec des économistes de la banque centrale lui a fait découvrir les défis auxquels ils font face lorsqu’ils doivent fournir rapidement des conseils stratégiques au Conseil de direction de la Banque.
Analyse de la cybersécurité
Défi
Dans un monde technologique et informatique en constante évolution, notre Centre de cyberdéfense doit repérer rapidement et efficacement les tendances pertinentes à partir de diverses sources de données, comme les données contextuelles et les données sur les activités (p. ex., les journaux des pare-feu et des serveurs mandataires, les journaux des systèmes d’exploitation et les alertes du système de prévention des intrusions).
Pour relever ce défi, nous avons voulu mettre à l’essai de nouvelles méthodes analytiques, en portant un intérêt particulier à l’apprentissage automatique, afin de détecter plus efficacement les cybermenaces auxquelles la Banque est exposée.
Nous cherchions ainsi à améliorer notre analyse en essayant des méthodes novatrices pour détecter les activités malveillantes qui peuvent nous échapper quand nous avons recours à des outils plus traditionnels ou aux plateformes d’alerte actuelles.
Le programme PIVOT favorise l’innovation et permet aux participants de relever de nouveaux défis en mettant à profit des idées novatrices. L’expérience nous a appris l’importance de disposer d’un large éventail de sources de données et d’assurer la qualité des données recueillies qui sont utilisées pour entraîner des modèles d’apprentissage automatique.
Félix Trépanier, analyste chargé de la recherche et des tests liés à l’architecture de sécurité, Services des technologies de l’information
Expérience
Nous avons relevé le défi avec la collaboration d’une entreprise d’Ottawa spécialisée en cybersécurité, C3SA Cyber Security Audit Corporation. Le projet comportait un certain nombre étapes :
- Nous avons intégré une plateforme capable de surveiller les données de l’ensemble de l’infrastructure des technologies de l’information (TI) de la Banque. Cette plateforme utilise l’apprentissage automatique pour assimiler et interpréter en temps réel de gros volumes de données relatives aux TI et à la sécurité.
- Nous avons analysé ces données, prenant en compte plusieurs aspects de la sécurité.
- Nous avons élaboré des modèles permettant de détecter les anomalies sur notre réseau. À cette étape, nous avons également évalué dans quelle mesure l’apprentissage automatique parvenait à détecter les cyberincidents simulés et non simulés. Cette démarche nous a permis de réaliser des tests plus efficaces sur notre réseau.
Au cours du projet, nous avons mis à l’essai plus de 25 modèles d’apprentissage automatique, dont certains continuent de surveiller notre infrastructure et de nous aviser de tout problème en temps réel.
Soyez ambitieux. Profitez des nombreuses possibilités qu’offre le programme PIVOT pour favoriser l’excellence de votre projet et de vos résultats.
Jeff Schwartzentruber, Ph. D., de C3SA Cyber Security Audit Corporation
Résultats
Ce défi a révélé le potentiel de l’apprentissage automatique comme ressource supplémentaire pour détecter les anomalies dans notre infrastructure et réduire les risques de cyberincidents.
Nous avons montré comment l’analyse de grands volumes de données pouvait nettement améliorer notre méthode traditionnelle de surveillance de la cybersécurité par voie d’alertes. En exploitant ces données efficacement, nous pouvons renforcer la résilience et la sécurité de notre infrastructure TI.
Évaluation des compétences en français
Le défi
De nombreux employés de la Banque cherchent à améliorer ou à maintenir leur connaissance de leur seconde langue officielle afin d’atteindre le niveau de compétence exigé par l’institution. À cet effet, nous voulions voir si l’intelligence artificielle peut aider les apprenants à évaluer leurs progrès entre leurs évaluations officielles. Dans l’affirmative, un outil axé sur cette technologie pourrait aussi être utile aux postulants à un emploi qui veulent estimer de façon informelle leurs compétences linguistiques avant même de poser leur candidature.
Dans l’idéal, nous voulions que l’outil classe l’employé au même niveau de compétence que donnerait un évaluateur. Par contre, nous savions qu’il serait difficile d’arriver à ce résultat, car pour évaluer avec précision les compétences linguistiques d’une personne, il faut juger avec distinction plusieurs facteurs, comme la syntaxe, le ton et la prononciation.
Ayant en tête la modernisation des services de langues secondes ainsi que l’amélioration et la promotion du bilinguisme à la Banque, nous croyions que PIVOT serait un bon moyen de voir si l’intelligence artificielle et l’apprentissage automatique pourraient aider les employés à atteindre leurs objectifs d’apprentissage.
Marie-Claude Decobert-Delcourt, professeure de français, Ressources humaines
L’expérience
Pendant cinq mois, nous avons travaillé avec Silver, une entreprise technologique d’Edmonton qui se spécialise dans la création de produits et services de reconnaissance vocale, pour bâtir un outil d’intelligence artificielle à partir de zéro.
Nous avons commencé par recueillir des données, puis nous nous sommes penchés sur le processus d’évaluation en place et avons commencé à élaborer le prototype de base. L’équipe de Silver voulait produire un prototype qui recréerait une interaction humaine, et souhaitait observer des évaluations afin de bien en connaître le processus. L’équipe a travaillé en étroite collaboration avec les Ressources humaines afin de mieux comprendre le point de vue de l’évaluateur et celui du participant.
Nous avons ensuite « entraîné » le premier prototype en utilisant les voix de 20 volontaires, qui nous ont également dit ce qu’ils pensaient de l’expérience.
Enfin, en mai 2019, nous avons lancé SilverFR, la version améliorée de l’outil, et avons invité les employés de la Banque à en faire l’essai. Une centaine de personnes de différents niveaux de compétence linguistique se sont portées volontaires à cette fin.
Le programme PIVOT repose sur l’expérimentation. Par son intermédiaire, la Banque offre un environnement où tout est possible, alors mettez vos idées de l’avant et repoussez vos limites.
Grâce à cet outil, la Banque dispose maintenant d’un prototype qui pourra être développé et perfectionné, et servir aux employés qui apprennent activement le français comme langue seconde. Pour sa part, Silver possède désormais un produit à partir duquel elle peut en développer d’autres.
Shawn Kanungo, fondateur et chef de la direction, Silver
Les résultats
Selon les résultats présentés par Silver en juin 2019, l’outil a réussi à déterminer approximativement le niveau de compétence en français dans plus de 60 % des cas, et ce, pour la plupart des niveaux évalués. Par ailleurs, nous croyons que ce résultat pourrait être amélioré avec un plus grand échantillon de participants.
Même si elle n’avait aucune expérience dans le domaine de l’évaluation linguistique, Silver a accepté de relever ce défi et a dû créer un outil qui n’existait nulle part ailleurs. Les connaissances et les compétences que les employés de cette entreprise ont acquises en travaillant avec la Banque seront bénéfiques pour leurs projets à venir.
Pour la Banque, le succès de cette expérience reposait sur l’innovation et l’efficacité. Nous avons pu constater le potentiel de l’intelligence artificielle et la valeur qu’apportent les technologies innovatrices lorsque nous devons relever un défi pour lequel il n’y a pas de solution toute faite sur le marché. Ce projet représente une excellente base pour les expériences que la Banque effectuera à l’avenir.