Objectifs
- Connaître et comprendre les exigences sur la qualité des données telles que spécifiée sans la norme BCBS 239.
- Avoir les clés pour implémenter, améliorer, auditer un dispositif de data quality robuste au sein de la banque
- Être en mesure d’identifier les impacts dans son établissement.
Animateur(s)

Evelyne NGNOTUÉ
ngnotue@afges.com
- Audit.
- Contrôle interne.
- Management des risques.
- Opérations de marché.
Programme
1INTRODUCTION
Enjeu autour de la qualité des données au sein de la banque.
Le périmètre de banques concernées.
Les objectifs de la norme BCBS 239 :
- Augmenter les capacités des banques en matière d’agrégation de données de risques financiers.
- Augmenter la capacité à produire des reportings sur les risques.
- Améliorer la qualité des données risques.
Les enjeux de mise en œuvre au sein des banques : des transformations considérables attendues.
Délais de mise en œuvre et dispositions transitoires.
214 CRITÈRES SUR LA QUALITÉ DES DONNÉES À RESPECTER
Les critères à respecter par les banques :
- Gouvernance globale et infrastructure :
- Dispositif de gouvernance solide de la qualité des données.
- Infrastructure informatique permettant l’automatisation et la fiabilisation de la chaîne d’agrégation de données et des reportings clés.
- Capacités d’agrégations de données :
- Les exigences en matière d’exactitude et d’intégrité de données risques.
- Les exigences en matière de complétude de données risques.
- Les exigences en matière d’actualité de données risques.
- Les exigences en matière d’adaptabilité de données risques.
- Capacités de reporting sur les données risques.
- Les exigences en matière de précisions, d’exactitude et de fidélité des rapports sur la gestion des risques.
- Le principe de représentativité sur les différentes familles de risques.
- Le principe de clarté et d’utilité des rapports sur les risques :
- Les exigences en matière de fréquence de production de reporting.
- Les exigences en matière de distribution des reporting.
Les critères à respecter par les autorités de supervision :
- Le principe de la surveillance des banques afin de s’assurer qu’elles se conforment aux 11 principes précédents.
- Le principe relatif aux actions correctives et des mesures prudentielles.
- Le principe de coopération entre autorités de supervision.
Les attentes de la BCE en matière de qualité des données issues de son guide de 2023.
3LE PÉRIMÈTRE DE LA QUALITÉ DES DONNÉES
Notion de données critiques pour la banque.
Recensement des données critiques.
Cas particulier des données ESG.
Suivi des incidents sur les données critiques et plan d’action d’amélioration.
Gouvernance autour de la qualité des données :
- Implication du top management.
- Comitologie.
4MISE EN PLACE DE DÉPARTEMENT EN CHARGE DE LA QUALITÉ DES DONNÉES AU SEIN DE LA BANQUE
Objectif et contrainte réglementaire.
Rôle et fonction du CDO : Chief Data Officer.
Rôle et fonction du département en charge des données.
Positionnement de la fonction.
La nécessaire implication forte du top management.
Les challenges de la mise en place d’une telle fonction transversale.
L’enjeu du big data au sein de la banque.
Les reportings sur la qualité des données.
5LA MISE EN PLACE DU DATAWAREHOUSE COMME GOLDEN SOURCE
Introduction et textes relatifs aux outils de suivi.
Notion de datawarehouse :
- Objectifs.
- Bénéfices de l’outil.
- Limites et contraintes.
Structure du datawarehouse :
- Description d’un datawarehouse.
- Modèle de données.
- Sources de données utilisées en entrées.
- Données types en sortie du datawarehouse.
- Technologies utilisées.
Enjeux et challenges autour de l’outil :
- Enjeux d’implémentation.
- Enjeux de mise en production.
- Enjeux de maintenance de l’outil.
6SYNTHÈSE ET CONCLUSION
Synthèse de la journée.
Évaluation de la formation.
Public et pré-requis
Participants
- Personnel des départements IT, risk management, qualité des données, reportings.
- Personnel de la comptabilité, de la trésorerie, du contrôle de gestion, du back-office, du contrôle et de l’audit.
- Commissaires aux Comptes et leurs collaborateurs.
- Toute personne concernée par les problématiques de qualité des données au sein de la banque.
Supports et moyens pédagogiques
- Documentation en PowerPoint.
- Alternance d’illustrations et d’exercices pratiques.
- QCU, Vrai/Faux, questions/réponses pour vérifier, réviser et confirmer les acquis.
- Synthèses.
Connaissances requises
- Une connaissance minimale des opérations bancaires est souhaitée.
Dates
Dates | Localisation / Modalité | Animateur(s) | |
---|---|---|---|
06/10/2025 | Paris | Evelyne NGNOTUÉ | S'inscrire |
06/10/2025 | Distanciel | Evelyne NGNOTUÉ | S'inscrire |
Formation Data Quality : maîtriser les exigences réglementaires en matière de qualité des données
La gestion des données n’est plus un simple enjeu technique, mais une exigence réglementaire et stratégique, notamment dans le secteur bancaire.
Depuis la publication du standard BCBS 239 par le Comité de Bâle, les établissements financiers sont tenus d’assurer une qualité, une complétude et une traçabilité irréprochables de leurs données, en particulier celles utilisées dans les processus de gestion des risques et de reporting réglementaire.
Dans ce contexte, la formation Data Quality de l’AFGES s’impose non seulement comme un levier essentiel de mise en conformité, mais aussi de performance opérationnelle.
L’enjeu dépasse la seule conformité : il touche à la robustesse des décisions prises à partir de données, à la capacité d’anticiper les risques, et à la crédibilité des informations financières et prudentielles transmises aux régulateurs.
De la conformité réglementaire à l’alignement stratégique
La norme BCBS 239 a introduit une série de principes structurants pour améliorer la gestion des données de risque au sein des groupes bancaires systémiques.
Ces principes portent autant sur la capacité des systèmes à produire des données fiables que sur la gouvernance mise en place pour encadrer leur qualité.
Une formation Data Quality permet de comprendre les attentes des régulateurs, d’interpréter les exigences techniques et organisationnelles de BCBS 239, et de les transposer dans un cadre opérationnel adapté.
L’intégration de ces standards suppose une gouvernance rigoureuse : processus de contrôle, documentation des flux, identification des référentiels critiques, mais aussi clarification des responsabilités.
L’objectif : bâtir une architecture de données robuste, auditée et capable de soutenir l’analyse des risques dans toutes les conditions de marché.
Gérer la gouvernance des données et le pilotage institutionnel
La montée en puissance des enjeux de gouvernance des données transforme la façon dont les institutions financières conçoivent et exploitent leurs actifs informationnels.
Loin d’être une tâche confiée aux seuls services informatiques, la qualité des données devient un sujet transversal impliquant les directions des risques, de la conformité, de la finance, et bien sûr, de la stratégie.
C’est dans cette logique qu’apparaît le rôle central du Chief Data Officer (CDO), garant de la cohérence, de la fiabilité et de la conformité des données critiques. Ce poste, devenu incontournable dans les grandes institutions, reflète la reconnaissance du data management comme fonction stratégique.
La formation Data Quality intègre ainsi des dimensions organisationnelles fortes, permettant de comprendre comment articuler gouvernance, architecture et pilotage transverse.
Structurer une démarche efficace grâce à une formation data quality
Les leviers d’amélioration de la qualité des données sont multiples : standardisation des formats, nettoyage des référentiels, automatisation des contrôles, documentation des règles de gestion…
Mais encore faut-il savoir par où commencer, comment mesurer l’impact des initiatives, et comment embarquer les différents métiers dans une dynamique d’amélioration continue.
La formation Data Quality de l’Afges ne se limite donc pas à une présentation théorique des enjeux. Elle repose sur une approche méthodique du cycle de vie de la donnée, depuis sa création jusqu’à son exploitation, et s’appuie sur des retours d’expérience concrets.
À travers des cas d’usage tirés du secteur bancaire, la formation met en lumière les erreurs fréquentes, les bonnes pratiques de priorisation, et les solutions technologiques disponibles.
Voici quelques axes abordés :
- Identification des données critiques au regard de la réglementation (ex. : solvabilité, risques de crédit, liquidité)
- Évaluation de la maturité des dispositifs internes de contrôle de la donnée
- Définition d’indicateurs de qualité alignés sur les exigences BCBS 239
- Structuration d’un plan d’action pluriannuel pour fiabiliser le reporting
La formation data quality de l’Afges est un levier stratégique du pilotage des risques
La qualité des données est un socle indispensable pour piloter les risques, assurer la cohérence des reportings et garantir la transparence auprès des régulateurs.
Mais c’est aussi un levier de transformation interne : améliorer la donnée, c’est améliorer la prise de décision, réduire les coûts d’audit, limiter les écarts d’interprétation, et fiabiliser les modèles analytiques.
Grâce à la formation Data Quality de l’AFGES, les institutions financières acquièrent les clés pour intégrer durablement ces enjeux dans leurs dispositifs opérationnels.
L’objectif n’est pas seulement de cocher une case réglementaire, mais de renforcer les fondations informationnelles sur lesquelles repose toute stratégie de pilotage des risques.