Dans le paysage en pleine mutation de l’audit interne, l’enthousiasme autour de l’IA et de l’analytique avancée est omniprésent. Pourtant, pour de nombreux professionnels de l’audit, la promesse d’audits plus intelligents et plus efficaces reste souvent lettre morte, freinée par la réalité complexe des données. Le mois dernier, un webinaire intitulé « Maîtriser la qualité des données pour réussir l’analytique en audit » a su clarifier le débat en proposant une feuille de route pragmatique à destination des équipes d’audit interne. Animé par des experts reconnus – Trent Russell (fondateur de Greenskies Analytics), Robert Murray (Senior Manager Audit Interne chez Mativ) et Arnaud Merlet (co-CEO de Supervizor) – la session a expliqué pourquoi la qualité des données n'est pas simplement un élément à cocher, mais la pierre angulaire du succès des analyses d'audit.
La session a débuté par un chiffre frappant, partagé lors de l'événement GAM au printemps : 80% du temps consacré à l’analytique est dédié à la structuration et au nettoyage des données sources. Ce constat met en lumière le principal défi auquel sont confrontées les équipes d’audit : la qualité des données.
Comme souligné dans le webinaire, sans données fiables, précises et cohérentes, tous les efforts analytiques vont aboutir à des informations erronées, conduire à des conclusions incorrectes, gaspiller des ressources et engendrer un manque de confiance dans les résultats d'audit. Le message est limpide : quelles que soient la sophistication des outils et des méthodes, la qualité des données reste le facteur déterminant. Construire une base de données robuste et pérenne est une condition sine qua non du succès de l’analytique en audit.
Dès l’ouverture du webinaire, un sondage a mis en lumière les principaux obstacles auxquels les participants sont confrontés. Près de la moitié d’entre eux ont identifié le manque d’accès aux jeux de données nécessaires comme leur difficulté majeure – un enjeu avant tout relationnel, bien plus que technique. D’autres défis notables ont également été évoqués :
Ce panorama met en évidence combien les enjeux de qualité des données sont omniprésents.
Trent Russell, reconnu pour son pragmatisme et sa capacité à concrétiser les projets d’analytique, s’est immédiatement penché sur les dimensions humaines et organisationnelles de la qualité des données. Selon lui, nombre de difficultés rencontrées relèvent avant tout d’un manque de compétences en gestion des données. Il a illustré son propos avec l’exemple d’une équipe d’audit bancaire incapable de relier deux jeux de données, simplement parce que l’un contenait « ID de succursale ; nom de la succursale » et l’autre uniquement « nom de la succursale ». Ce qui semblait insurmontable à l’équipe aurait pu être résolu en quelques clics dans Excel par une personne plus à l’aise avec la manipulation de données.
Trent constate par ailleurs que les auditeurs sont souvent découragés lorsque les données ne sont pas « parfaites ». Même dans les équipes épaulées par des data engineers, l’essentiel du temps est consacré à préparer des données « impeccables » avant leur analyse, révélant un véritable manque de maîtrise des manipulations de base.
Rebondissant sur le principal frein évoqué dans le sondage, Trent insiste : l’accès aux données relève surtout d’une question de relations humaines. Les administrateurs de bases et équipes IT savent parfaitement extraire les données, mais la réticence provient bien souvent d’une perception négative de l’audit (« que comptez-vous faire de ces données ? Nous auditer en permanence ? »). Nouer des liens de confiance et démontrer la valeur ajoutée de l’audit rend le refus difficile. Trent a même partagé sa méthode secrète pour créer du lien… autour du pickleball – mais pour en savoir plus, il faudra visionner le webinaire !
Enfin, Trent recommande une approche relationnelle à plusieurs niveaux :
Fort de son parcours chez SAP et dans l’édition de logiciels, Arnaud Merlet rappelle que le « problème des données » est voué à perdurer, et ce, d’autant plus à l’ère de l’intelligence artificielle. Il préconise une vraie synergie avec les équipes internes garantes de la qualité des données, qui œuvrent chaque jour à structurer les référentiels, au bénéfice direct des missions d’audit.
Pour Arnaud, la clé face à la complexité des données issues des grands ERP comme SAP ou Oracle réside dans l’accès direct aux systèmes sources : cela permet de limiter les altérations et de préserver la qualité et la réutilisabilité des données. Supervizor, par exemple, met l’accent sur la normalisation des données directement à la source.
Au-delà des aspects techniques, Arnaud insiste sur l’importance de tisser des liens avec l’IT et d’adopter une démarche pragmatique : passer du temps avec les personnes en charge de la saisie pour comprendre les processus et le contexte métier – une compréhension qu’aucune technologie ou IA ne pourra remplacer.
Robert Murray a livré un témoignage concret sur la trajectoire d’audit analytique de Mativ, en précisant que le chemin est encore long — « nous n’en sommes qu’à la quatrième manche ! » selon ses mots. Il attribue les avancées de l’entreprise en matière de qualité des données à la collaboration étroite avec l’IT et à l’implication du management, réaffirmant la nécessité de relations solides et d’une communication transparente. Leur choix actuel d’un transfert de fichiers sécurisé, en attendant de pouvoir se connecter directement à l’ERP, illustre bien la place centrale du support informatique. Robert a aussi mis en avant l’importance de rencontres régulières entre le Directeur de l’Audit Interne et la DSI, et n’a pas manqué de rappeler que le pickleball joue aussi son rôle dans la création de liens !
Le principal frein, selon lui, reste la disponibilité limitée des ressources IT et la multiplicité des priorités. Pour dépasser cet obstacle, il prône la démonstration d’une proposition de valeur forte et d’un ROI tangible. Il souligne l’intérêt de présenter les premiers résultats analytiques à la direction financière, afin d’obtenir leur validation comptable et de renforcer ainsi l’engagement des équipes informatiques.
Le webinaire a mis en avant que la réussite des analyses d’audit et la qualité des données ne relèvent pas uniquement de la technologie. Il s’agit avant tout d’une question de personnes, de relations et d’évolution des mentalités.
Même si l’humain et la compétence data sont au cœur du succès, il ne faut pas négliger la puissance de la technologie. Disposer d’un outil adapté est indispensable pour surmonter les défis liés à la qualité des données en audit analytique. Des plateformes comme Supervizor le prouvent : elles permettent de réduire drastiquement le temps passé à préparer les données, en automatisant la structuration et la normalisation de jeux de données hétérogènes issus de différents ERP et systèmes. Cette automatisation libère les auditeurs des tâches répétitives de nettoyage, tout en garantissant une bien meilleure fiabilité des données exploitées. Ces outils sont donc incontournables pour passer de jeux de données bruts et disparates à un format exploitable, cohérent et fiable, même dans les environnements les plus complexes.
Pour approfondir ces méthodes et découvrir les conseils des experts : regardez le webinaire en replay ! Vous y apprendrez comment Supervizor simplifie la normalisation des données et comment votre équipe peut accélérer son succès en analytique d’audit.