SEPTEMBRE 2024
L’utilisation de l’intelligence artificielle dans
l’audit : équilibrer l’innovation et le risque
Des avancées importantes dans les applications exploitant les technologies de l’intelligence artificielle (IA) ont vu
le jour au cours des dernières années. Si ces avancées technologiques ont le potentiel d’améliorer
considérablement l’efficacité, la précision et les connaissances de l’audit, elles créent également des risques qui
doivent être gérés efficacement.
Le Conseil canadien sur la reddition de comptes (CCRC) a observé que l’adoption des technologies d’IA dans les
outils d’audit n’en est qu’à ses débuts, avec des mises en œuvre limitées constatées dans les dossiers d’audit des
sociétés ouvertes que nous avons inspectés à ce jour. Nous prévoyons une utilisation accrue des outils fondés sur
l’IA dans un proche avenir.
La présente publication donne un aperçu de nos observations sur la façon dont l’IA pourrait améliorer la qualité de
l’audit et décrit la manière dont nous nous attendons à ce que les cabinets d’audit et les auditeurs gèrent les
risques liés à l’utilisation de ces outils.
Principaux points à retenir liés à l’utilisation de l’IA dans le cadre de l’audit
Alors que l’utilisation d’outils fondés sur l’IA connaît un essor, les auditeurs doivent
toujours adopter une approche anthropique lors de la réalisation d’un audit. Nous nous attendons à
ce que les cabinets d’audit définissent des politiques concernant l’utilisation responsable et
appropriée des outils fondés sur l’IA et procèdent notamment à des tests de certification de ces
outils avant de les utiliser dans le cadre d’audits. Nous encourageons également les directions des
cabinets d’audit à continuer d’élargir les programmes de surveillance des outils fondés sur l’IA. Ces
programmes pourraient comprendre des examens des dossiers en cours d’exécution et la collecte
d’autres renseignements pertinents afin d’évaluer l’incidence globale sur la qualité de l’audit.
Les auditeurs qui utilisent l’IA devraient :
▪ faire preuve d’un plus grand scepticisme professionnel et ne pas se fier uniquement aux
conclusions générées par l’IA;
▪ prendre en considération les risques, les limites et les biais éventuels associés à chaque outil
fondés sur l’IA;
▪ participer à une formation continue afin d’utiliser et d’interpréter efficacement les résultats de
l’IA;
▪ respecter les politiques du cabinet concernant l’utilisation des outils fondés sur l’IA;
▪ évaluer les considérations éthiques liées à l’utilisation de l’IA.
L'ÉCHANGE CCRC L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE DANS L’AUDIT : ÉQUILIBRER L’INNOVATION ET LE RISQUE 1
Avantages potentiels des outils d’audit fondés sur l’IA
Les outils fondés sur l’IA ont le potentiel de traiter rapidement l’information, ce qui permet aux auditeurs de se
concentrer sur les aspects plus complexes et basés sur le jugement d’un audit. Ces outils d’audit permettent
également de réaliser une analyse exhaustive de vastes ensembles de données qui peuvent aider les auditeurs en
leur communiquant des renseignements détaillés sur l’ensemble de la population faisant l’objet d’un test. Parmi les
autres cas1 possibles d’utilisation de l’IA, citons les outils d’analyse qui contribuent à identifier les transactions à
risque élevé, les résumeurs de documents ou lecteurs de contrats, les créateurs de premières ébauches qui
utilisent les directives et modèles du cabinet, les examinateurs de documentation qui repèrent les incohérences
dans les travaux effectués, et les robots conversationnels qui peuvent aider à mener des recherches sur les normes
et d’autres directives.
Rôles et responsabilités liés à l’utilisation des outils fondés sur l’IA
L’un des principaux objectifs des outils fondés sur l’IA devrait être d’améliorer la qualité de l’audit. Pour y parvenir,
les cabinets d’audit doivent gérer efficacement les risques tant au niveau du cabinet qu’au niveau de la mission. La
portée et l’étendue des processus de surveillance varieront en fonction de la nature et de la situation du cabinet
d’audit, de ses missions et des outils fondés sur l’IA utilisés.
Rôles et responsabilités au niveau du cabinet
La Norme canadienne de gestion de la qualité (NCGQ 1) décrit un cadre global pour la gestion de la qualité au
sein d’un cabinet d’audit. Celle-ci exige que chaque cabinet d’audit établisse des politiques et des procédures
pour s’assurer que toutes les ressources technologiques (y compris les outils d’IA) fonctionnent comme prévu et
produisent des résultats fiables2.
Les responsabilités particulières des directions des cabinets d’audit sont les suivantes :
▪ Élaborer des politiques, des processus et des directives sur
l’utilisation appropriée des outils fondés sur l’IA pour les Les outils d’IA n’ont pas la
différentes missions d’audit et en surveiller la conformité. Par capacité de raisonner de
exemple : manière éthique. Ainsi, les
◦ Veiller à ce que les outils fondés sur l’IA soient configurés de outils d’IA peuvent utiliser des
façon à respecter les lignes directrices et les cadres éthiques hypothèses erronées ou
pertinents. Cette démarche peut comprendre une évaluation inappropriées, créer des
des paramètres éthiques définis par les programmeurs et les citations ou des appuis fictifs,
développeurs de l’outil. faciliter le clonage vocal non
autorisé, etc. Ces risques
◦ Établir des lignes directrices pour aider les auditeurs à se
doivent être soigneusement
conformer à toutes les normes éthiques et professionnelles
gérés par le cabinet.
pertinentes lorsqu’ils utilisent des outils d’IA certifiés par le
cabinet.
▪ Certifier et tester tous les outils conformément à la NCGQ 13, ce qui comprend l’évaluation de l’exactitude
1
Ces exemples ne sont pas destinés à représenter une liste exhaustive des outils fondés sur l’IA mis à la disposition des
auditeurs.
2
NCGQ 1, paragraphe 32 (g).
3
Cette exigence s’applique indépendamment du fait que l’outil soit développé à l’échelle mondiale, locale ou par un tiers. Pour
ce qui est des outils de série, les cabinets doivent vérifier la disponibilité d’un rapport sur les contrôles au niveau du système et
au niveau organisationnel (SOC 2) concernant les contrôles généraux des technologies de l’information.
L'ÉCHANGE CCRC L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE DANS L’AUDIT : ÉQUILIBRER L’INNOVATION ET LE RISQUE 2
et de la fiabilité de l’outil ainsi que des risques associés à son utilisation4.
▪ Gérer le déploiement et l’utilisation des outils utilisés par les auditeurs, notamment en offrant une
formation pertinente avant leur utilisation.
▪ Surveiller les modes d’utilisation, les fonctionnalités, et s’assurer que les outils utilisés sont adaptés à
l’usage prévu. Cette surveillance comprend l’identification des problèmes ou des risques qui surviennent
lors de l’utilisation de l’outil par les auditeurs.
▪ Évaluer et surveiller de façon continue l’incidence des outils fondés sur l’IA sur la qualité de l’audit.
Modèles de développement communs pour les outils fondés sur l’IA
Le développement d’outils fondés sur l’IA peut prendre diverses formes. À ce jour, nous
avons observé les modèles de développement suivants :
▪ Un réseau mondial de cabinets d’audit peut créer un outil fondé sur l’IA pour usage des
cabinets membres locaux. Le réseau mondial s’occupe du développement, des tests, de la
certification et de la diffusion des mises à jour. Le cabinet membre local certifie l’outil
développé à l’échelle mondiale avant de le déployer localement.
▪ Un cabinet d’audit développe ou fait développer par un tiers un outil fondé sur l’IA qui utilise
un modèle de langage de grande taille génératif pré-entraîné (GPT) tiers.
▪ Un cabinet d’audit peut acquérir une licence d’utilisation d’un progiciel d’audit tiers fondé sur
l’IA afin qu’il l’intègre à ses processus d’audit.
Confidentialité et protection des renseignements personnels
L’intégration de l’IA dans l’audit introduit également des risques importants liés au traitement, à l’accès et à la
diffusion d’information sensible. Il s’agit notamment du risque que l’IA ou l’algorithme sous-jacent utilise les
données saisies par les auditeurs à l’insu ou sans le consentement explicite des personnes concernées. Les
cabinets d’audit doivent s’assurer qu’ils ont pris en compte les exigences relatives à la confidentialité, y compris la
façon d’atténuer les risques associés à l’échange involontaire de renseignements confidentiels à l’intérieur ou à
l’extérieur du cabinet d’audit. Les cabinets d’audit doivent également s’assurer que les données traitées par les
outils d’audit fondés sur l’IA sont conformes aux normes pertinentes en matière juridiques, éthiques,
professionnelles et du cabinet.
Rôles et responsabilités de l’auditeur
Les auditeurs doivent être en mesure d’expliquer l’objectif et la fonction de tout outil fondé sur l’IA utilisé dans
leurs dossiers d’audit. Cette compréhension est essentielle pour garder le contrôle du processus d’audit, même si
l’outil exploite des technologies de pointe. Les auditeurs qui utilisent des outils fondés sur l’IA devraient :
▪ participer à une formation pour comprendre les capacités et les limites de l’outil d’IA utilisé;
▪ déterminer si l’outil est approprié, en fonction des faits et circonstances particuliers de la mission d’audit;
4
NCGQ 1, paragraphe 32 (g) et paragraphes A98 à A104.
L'ÉCHANGE CCRC L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE DANS L’AUDIT : ÉQUILIBRER L’INNOVATION ET LE RISQUE 3
▪ tester l’exhaustivité et la fiabilité des données sous-jacentes utilisées par l’outil fondé sur l’IA;
▪ examiner les résultats de l’outil fondé sur l’IA pour s’assurer qu’ils reflètent les faits et circonstances
particuliers de l’audit et pour demeurer sceptique quant à l’existence éventuelle d’un biais sous-jacent;
▪ vérifier l’exactitude de toute référence aux, ou interprétation des, normes professionnelles, directives du
cabinet ou toute autre méthodologie obtenue par l’interrogation d’un modèle de langage GPT.
Exemple : Utilisation de l’IA dans le cadre d’un audit
Un auditeur utilise un outil fondé sur l’IA pour résumer un contrat de revenus et en
comparer les modalités avec les normes comptables correspondantes et les
directives d’interprétation du cabinet d’audit.
Pour gérer le risque lié à l’utilisation de l’outil, l’auditeur devrait comparer les données extraites au
contrat d’origine, en veillant à l’exhaustivité et à l’exactitude de l’information et en s’assurant que
tous les renseignements pertinents ont été saisis de manière appropriée. Il devrait également
examiner les directives citées en référence et se demander si d’autres normes ou directives sont
appropriées, compte tenu des faits et des circonstances. Ce dernier doit déterminer s’il est
nécessaire de consulter les experts spécialisés du cabinet d’audit.
Risques associés à l’utilisation d’outils fondés sur l’IA
Les cabinets d’audit qui utilisent des outils fondés sur l’IA doivent s’assurer qu’ils comprennent clairement la
technologie sous-jacente. Il s’agit notamment de comprendre les limites, les biais et les nuances d’interprétation
de l’outil fondé sur l’IA. Dans la publication intitulée Alerte de risque d’audit du CCRC – Utilisation d’applications
d’intelligence artificielle dans l’audit, nous avons souligné que les cabinets doivent mettre en œuvre des mesures
de protection pour gérer des risques, comme la fiabilité, l’explicabilité et la confidentialité, afin de maintenir la
qualité de l’audit.
Les risques qui doivent être pris en compte par les auditeurs qui utilisent des outils fondés sur l’IA figurent ci-
dessous.
Confiance excessive et biais
Les normes canadiennes d’audit (NCA), définissent le scepticisme professionnel comme « une attitude d’esprit
interrogateur, être attentif aux conditions pouvant éventuellement indiquer la présence d’un écart ou d’une
anomalie résultant de fraudes ou d’erreurs, et n’accepter aucun élément probant sans une évaluation critique
préalable5 ». Les auditeurs qui utilisent des outils fondés sur l’IA pourraient devenir trop dépendants de la
technologie, ce qui entraînerait une diminution de l’esprit critique et du scepticisme professionnel.
Les directions des cabinets d’audit doivent mettre l’accent sur l’importance de la supervision humaine et sur le fait
que les outils fondés sur l’IA sont conçus pour améliorer le jugement professionnel exercé par les auditeurs, et non
pour le remplacer. Une formation professionnelle doit être offerte aux auditeurs sur la manière de faire preuve de
5
NCA 200, alinéa 13l).
L'ÉCHANGE CCRC L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE DANS L’AUDIT : ÉQUILIBRER L’INNOVATION ET LE RISQUE 4
scepticisme professionnel lorsqu’ils utilisent des outils fondés sur l’IA
et sur la façon de contester efficacement les conclusions tirées. Un outil fondé sur l’IA peut
effectuer des analyses inexactes ou
Explicabilité et transparence inappropriées en raison de biais
présents dans les données
L’explicabilité des algorithmes d’IA continue d’être un sujet de d’entraînement. Par exemple, un
préoccupation. De nombreux modèles d’IA traitent les données outil de détection des fraudes peut
comme des « boîtes noires », où le processus de prise de décisions signaler de manière
n’est pas transparent. Il peut donc être difficile de comprendre et disproportionnée des transactions
d’expliquer les décisions basées sur l’IA. Étant donné que provenant de certains groupes
l’apprentissage continu est un élément essentiel de nombreux démographiques si les données
modèles de données GPT, qu’ils soient compréhensifs ou non, nous d’entraînement sous-jacentes ont
nous attendons à ce que les cabinets d’audit acquièrent une été biaisées en ce sens.
compréhension approfondie de la façon dont l’algorithme d’IA a été
entraîné et testé, et de la manière dont il parvient aux conclusions
tirées. Les cabinets d’audit devront également être en mesure d’assurer une supervision efficace afin d’évaluer
comment les changements de programmation, les nouvelles données ou l’apprentissage supplémentaire par le
modèle GPT sous-jacent seront déployés dans les outils d’audit et les applications qui les utilisent.
Tourné vers l’avenir
L’intégration d’outils fondés sur l’IA dans le cadre de l’audit a le potentiel d’améliorer à la fois la qualité et
l’efficacité de l’audit. Le CCRC encourage les cabinets d’audit à continuer d’évaluer leurs politiques et leurs
mécanismes de surveillance concernant l’utilisation de l’IA dans les audits. Il s’agit notamment de veiller à ce que
la prise de décisions en matière d’IA soit à la fois transparente et responsable. Nous continuerons de surveiller
l’application de ces technologies dans le cadre de nos inspections, et nous ferons part de nos observations au
moyen de diverses communications, dont les résultats de nos inspections annuelles et intermédiaires. Pour en
savoir plus, consultez notre site Web.
Pour en savoir plus
Visitez-nous à l’adresse https://cpab-ccrc.ca et inscrivez-vous à notre liste de diffusion. Suivez-nous sur LinkedIn.
La présente publication n’est aucunement assimilable à la prestation de services juridiques, de services de comptabilité, de services d’audit ou de
tout autre type de conseils ou de services professionnels, et elle ne doit pas être perçue comme telle. Sous réserve des dispositions relatives à la
protection des droits d’auteur du CCRC, la présente publication peut être diffusée dans son intégralité, sans autre autorisation du CCRC, dans la
mesure où aucune modification n’y est apportée et que le CCRC y est cité en tant que source. © CONSEIL CANADIEN SUR LA REDDITION DE
COMPTES, 2024. TOUS DROITS RÉSERVÉS.
L'ÉCHANGE CCRC L’UTILISATION DE L’INTELLIGENCE ARTIFICIELLE DANS L’AUDIT : ÉQUILIBRER L’INNOVATION ET LE RISQUE 5