L'IA « membre de l'équipe d'audit » doit respecter le code de déontologie des CAC
L'utilisation de l'IA dans l'audit, considérée comme un « membre de l'équipe d'audit », nécessite une formation adéquate, des collaborateurs et des jeunes auditeurs, mais aussi de l'IA elle-même, telle que celle d'un assistant junior. Lors de l'utilisation de l'IA, sont indispensables la transparence avec les clients ainsi que, pour maintenir la qualité des audits, une vigilance face aux biais et aux risques de perte d'indépendance, tout comme la qualité des données et le respect des réglementations comme le RGPD (35e assises de la CNCC, atelier « Le code de déontologie à l'ère des nouvelles technologies et de l'IA », décembre 2024).
Si l'on considère l'IA comme un « membre de l'équipe d'audit », elle doit respecter les principes fondamentaux du code de déontologie des CAC.
Ayant le niveau d'un assistant junior, elle nécessite formation, supervision et réorientation.
Les CAC doivent effectuer un usage raisonné et honnête de l'IA et être transparents avec les clients quant à cette utilisation.
L'IA doit être utilisée dans un cadre sécurisé (prévoir l'utilisation des données clients dans les lettres de mission, respecter le RGPD, notamment).
Bien qu'elle puisse être un outil puissant pour effectuer un certain nombre de tâches, il faut garder son esprit critique, s'assurer de la qualité des données et être attentif à la confidentialité de ces dernières.
Les professionnels et les collaborateurs doivent être formés à l'utilisation de l'IA, la dimension éthique de cette utilisation étant primordiale.
Évolution des métiers d'audit liée aux nouvelles technologies et à l'IA
Enjeux déontologiques liés à l'utilisation des nouveaux outils technologiques…
L'audit évolue rapidement avec le développement et l'utilisation de nouveaux outils, allant de l'analyse, notamment, des données financières à l'automatisation de processus, intégrant, ou non, l'intelligence artificielle.
L'utilisation de ces nouveaux outils nécessite de s'interroger sur l'impact qu'ils peuvent avoir sur le respect des règles déontologiques.
Si l'on considère l'IA comme un « membre de l'équipe d'audit », elle doit se conformer aux exigences du code de déontologie. Si l'IA et les nouvelles technologies offrent de nouvelles perspectives en matière de missions, le CAC doit, ainsi, s'assurer qu'elles ne créent pas d'incompatibilité avec la mission de certification des comptes.
Afin de sécuriser les missions et prestations, il est donc essentiel de connaître et de comprendre les enjeux déontologiques liés à l'utilisation d'outils issus des nouvelles technologies.
… soulevant des questions concrètes pour le CAC
L'atelier objet du présent article avait pour ambition d'apporter aux professionnels :
-un premier éclairage sur les principaux points d'attention en matière déontologique lors du développement ou de l'utilisation de ces outils ;
-des pistes de réflexion quant aux bonnes pratiques à développer afin de sécuriser leur utilisation lors des missions ou prestations, en se basant sur les travaux qui ont été réalisés à l'international et, notamment, par l'IESBA (International Ethics Standards Board for Accountants), organisme rédacteur du code international de déontologie des professionnels comptables.
L'objectif est, bien sûr, d'assurer une utilisation éthique et responsable de ces outils.
L'atelier s'est articulé, s'agissant de l'IA, autour des 3 questions suivantes :
-si l'IA était un « membre de l'équipe d'audit » au sein du cabinet, comment lui appliquer le code de déontologie ?
-quels sont les principes déontologiques auxquels le CAC doit être attentif lors de la réalisation de missions ou prestations sur la base de technologies utilisées ou développées par des professionnels ?
-quelles sont les pratiques/procédures que le CAC peut mettre en place afin de s'assurer d'une utilisation éthique et responsable des nouvelles technologies ?
Impacts de l'IA sur le code de déontologie et sur les pratiques professionnelles
Intégration de l'IA dans les équipes d'audit
L'IA doit être intégrée dans les équipes d'audit en respectant les principes fondamentaux du code de déontologie (intégrité, indépendance, compétence, secret professionnel...). Si elle peut devenir un « membre de l'équipe d'audit », quand le cabinet d'audit la met en place, elle a le niveau d'un assistant junior, et non d'un senior manager. Elle nécessite donc formation, supervision et réorientation.
Par ailleurs, lors de l'utilisation de l'IA, la transparence avec les clients est essentielle. En effet, ce qu'attendent les entreprises dans l'utilisation de l'IA pour la production de l'information financière, c'est, notamment, la capacité à prédire les temps (processus plus proactifs, plus prédictifs), la possibilité d'obtenir des informations en temps réel sur les risques et le fait de disposer de données précises, beaucoup plus fines, qui permettent de prendre de meilleures décisions. Les directions financières qui utilisent l'IA ou ont l'intention de l'utiliser attendent que leurs auditeurs eux-mêmes intègrent l'IA dans leurs travaux. Les CAC doivent donc être transparents avec elles et effectuer un usage raisonné et honnête de l'IA.
Application du code de déontologie dans un environnement technologique
Dans un environnement technologique en perpétuelle évolution, le but est d'utiliser l'IA tout en restant dans un cadre sécurisé. Pour ce faire, il faut que les CAC :
-anticipent la généralisation des outils d'IA ;
-prévoient l'utilisation des données clients dans les lettres de mission (en effet, puisque l'IA apprend avec les données qu'on lui fournit, il faut prévenir les clients que leurs données sont susceptibles d'être utilisées) ;
-respectent les réglementations, comme le RGPD, lors de l'utilisation de l'IA.
Formation et compétences
L'introduction de l'IA dans le domaine de l'audit nécessite une adaptation des compétences, notamment pour apprendre à utiliser ces outils de manière critique. Il faut donc former les professionnels et les jeunes collaborateurs aux nouvelles technologies et à l'IA.
Intégration et gestion des risques liés à l'utilisation de l'IA dans les processus d'audit
Il est essentiel de maintenir l'indépendance, l'impartialité et l'esprit critique (ne pas se fier aveuglément aux résultats générés par l'IA mais aller chercher d'autres sources de données), en évitant les biais cognitifs (de confirmation et de disponibilité) et les biais d'automatisation, qui peuvent être exacerbés par l'IA, et en s'assurant que l'IA ne crée pas de nouveaux conflits d'intérêts.
Le biais de confirmation signifie que les nouvelles technologies vont avoir tendance à confirmer les choses et ne pas aller chercher les éléments qui pourraient les contredire.
Le biais de disponibilité existe lorsque tous les collaborateurs ont d'importantes charges de travail et qu'ils veulent aller chercher l'information la plus facilement disponible et la plus rapidement.
Le biais d'automatisation, quant à lui, consiste à donner toujours plus de crédit à ce qui sort de la machine qu'à ce qui sort de la tête d'un être humain.
Ce n'est pas parce qu'on fait quelque chose avec un outil qu'on n'a plus de risque d'indépendance. Autrement dit, la nouvelle technologie ne redonne pas au CAC une « virginité » sur des actes qui ne seraient pas compatibles.
Un CAC utilise un logiciel pour évaluer les indemnités de fin de carrière (IFC), vérifier les provisions constituées par son client ou les informations qu'il aura mises dans son annexe. Si son client souhaite que son CAC lui mette à disposition son outil, c'est incompatible car cela engendrerait une situation d'autorévision (le CAC donne une opinion sur ces IFC).
L'IA peut être un outil puissant pour résumer des documents, améliorer la qualité des traductions, effectuer des prévisions et des extrapolations, vérifier des dépréciations de stock…, mais elle doit être utilisée avec prudence pour ne pas compromettre la qualité de l'audit (questions de confidentialité des données).
Enfin, l'utilisation de l'IA comporte aussi des risques en termes de pression et d'intimidation et de dépendance excessive à la technologie. La pression et l'intimidation peuvent survenir lorsque les jeunes auditeurs se sentent dépassés par la technologie mais cette dernière ne doit pas obscurcir leur capacité à exprimer des opinions contradictoires et à rester vigilants face à la surcharge d'informations. Quant à la dépendance à l'IA, elle peut compromettre l'indépendance de l'auditeur.
L'IA donne le résultat le plus vraisemblable et, de temps en temps, va chercher à corroborer. Or, l'auditeur ne cherche pas à corroborer les choses mais à obtenir à la fois des éléments qui peuvent corroborer et des éléments qui peuvent contredire. Il va être rare que l'IA, sans entraînement, puisse alerter sur l'existence d'une information qui n'est peut-être pas la plus répandue, mais qui peut contredire ce qu'on lui dit.
Utilisation éthique et responsable de l'IA dans l'audit
Tester les nouvelles technologies (susceptibles d'être) utilisées dans l'audit
L'utilisation des nouvelles technologies, notamment de l'IA, dans l'audit peut améliorer l'efficacité (en corroborant les analyses et en en vérifiant la cohérence) et la capacité de jugement professionnel. Cependant, il est indispensable de tester et de paramétrer correctement ces outils, car une erreur pourrait avoir des conséquences à long terme sur tous les clients.
L'IA doit être vue comme un « membre de l'équipe », mais elle ne peut pas remplacer l'intelligence humaine.
S'assurer de la qualité des données
Par ailleurs, la qualité des données est indispensable pour l'efficacité des outils d'IA (par exemple, la qualité de la numérisation impacte la restitution des données). Les auditeurs doivent donc s'assurer que les données sont exhaustives et fiables.
Une société qui vient d'acheter une autre société, afin de diversifier ses activités, demande à son CAC, en amont de la clôture, de valider le traitement comptable de l'acquisition. Le CAC utilise un outil qui lui permet d'analyser les principales clauses du contrat et qui lui donne les éléments pour ce faire. Il va falloir regarder la qualité des données, car l'IA va traiter un document qui est numérisé. Est-ce que l'IA dira qu'elle n'a pas pu lire la page 5 parce qu'elle était mal numérisée ? Est-ce qu'elle dira que le document n'est pas exhaustif ?
Assumer ses responsabilités et se protéger
S'agissant de la responsabilité de l'auditeur, elle est pleine et entière, même en cas de problème avec un outil tiers : elle ne peut pas être transférée à un fournisseur d'outils ou de données. Par conséquent, le CAC doit prévoir contractuellement les cas de fuite de données et s'assurer de la fiabilité des outils utilisés.
Former à l'utilisation éthique de l'IA
Il est important de sensibiliser et de former les collaborateurs à l'utilisation éthique des outils d'IA. Des règles d'utilisation claires doivent être établies (par exemple, dans le livret d'accueil ou dans la charte informatique du cabinet) et régulièrement revues pour encadrer l'utilisation de ces technologies.
Être attentif lors de la transcription et de la synthèse de réunions
La transcription de réunions est un outil efficace mais peut être fastidieuse à lire. L'utilisation de la synthèse permet de simplifier la compréhension des discussions. Il convient, toutefois, de respecter les conventions de confidentialité et d'utiliser des noms de code (et non les noms réels des projets) lorsque cela s'avère nécessaire.
Nécessité de former l'IA
La formation d'une IA nécessite du temps (au moins autant de temps qu'un collègue) et un environnement sécurisé. Il faut poser correctement les questions pour améliorer l'apprentissage de l'IA.
En tout état de cause, l'intégration des nouvelles technologies doit être progressive et maîtrisée pour éviter (ou limiter au maximum) les risques.










