AI Act : sanctions applicables dès le 2 août 2026 - Il reste ... jours pour vous mettre en conformité
Reglement UE 2024/1689 - Audit de conformité

Audit AI Act : évaluez votre niveau de conformité avant août 2026

Le 2 août 2026, les autorités nationales auront le pouvoir de sanctionner. Sans cartographie de vos usages IA et sans documentation de vos mesures de conformité, votre organisation est exposée - même si elle n'a jamais entendu parler de l'AI Act. Voici comment réaliser un audit structuré, défendable, et utile.

A retenir avant de commencer

L'AI Act ne demande pas un "audit" au sens certifié du terme. Il exige une documentation des systèmes IA, une évaluation des risques et des mesures de gestion proportionnées. Ce que les professionnels appellent "audit AI Act" est précisément la démarche qui permet de produire cette documentation de manière structurée et défendable.

Pourquoi réaliser un audit AI Act maintenant et pas en juillet 2026

La question revient régulièrement : "On a encore du temps, non ?" La réponse est non, et ce n'est pas une figure de style. Voici pourquoi.

D'abord, l'obligation de formation IA (Article 4 - AI Literacy) est en vigueur depuis le 2 février 2025. Si vos collaborateurs utilisent ChatGPT, Copilot, un CRM avec scoring prédictif ou tout autre outil IA, vous êtes déjà en situation d'obligation - pas en 2026, maintenant.

Ensuite, les projets menés en interne sur les audits AI Act montrent systématiquement le même écart : les organisations pensent avoir 3 à 5 outils IA à évaluer, et en identifient 15 à 40 lors de la cartographie. Le Shadow AI - ces usages IA informels que la direction ne connaît pas - représente souvent 60 à 70 % des usages réels.

Enfin, le calendrier opérationnel est contraint. Une démarche d'audit sérieuse prend de 4 à 12 semaines selon la taille de l'organisation. Si vous commencez en juin, vous n'aurez pas le temps de mettre en oeuvre les mesures correctives avant la date limite.

Erreur fréquente

Confondre l'AI Act avec le RGPD et penser que le DPO peut "gérer ça en plus". L'audit AI Act nécessite une compétence distincte sur les systèmes d'IA, la classification des risques et la documentation technique. Le DPO est un acteur clé, mais il ne peut pas tout porter seul.

Étape 1 - Constituer l'équipe d'audit et le mandat de direction

Un audit AI Act sans sponsor de direction ne débouche sur rien. La première décision est organisationnelle : qui pilote, qui contribue, qui valide.

Le trinôme efficace réunit trois profils complémentaires. Le responsable conformité ou DPO apporte la lecture réglementaire : quelles obligations s'appliquent, quelles preuves produire. Le DSI ou RSSI apporte la vision technique : quels systèmes sont déployés, quelles données circulent, quels fournisseurs sont impliqués. Les représentants métiers (RH, finance, marketing, opérations) apportent la connaissance du terrain : comment l'IA est réellement utilisée au quotidien.

Ce trinôme doit travailler sur la base d'un mandat écrit de la direction, précisant le périmètre de l'audit, les ressources allouées et le délai attendu pour les conclusions. Ce document est lui-même une preuve de bonne foi en cas de contrôle.

Étape 2 - Cartographier tous les usages IA (y compris les usages informels)

C'est l'étape la plus longue et la plus révélatrice. L'objectif est de dresser un inventaire exhaustif de tous les systèmes d'IA utilisés ou déployés par l'organisation - qu'ils soient achetés, développés en interne, ou simplement utilisés par des collaborateurs via leurs comptes personnels.

La méthode terrain combine trois sources d'information. Les entretiens avec les directions métiers permettent d'identifier les outils intégrés aux processus (ATS de recrutement avec scoring, outil de scoring crédit, plateforme de maintenance prédictive...). Les enquêtes anonymes auprès des collaborateurs font émerger le Shadow AI : ChatGPT pour rédiger des emails, Midjourney pour des visuels marketing, Claude pour analyser des contrats. La revue des achats et licences logicielles permet d'identifier les abonnements SaaS avec composantes IA souvent passés sous les radars.

Pour chaque système identifié, l'inventaire doit documenter : le nom et la version, le fournisseur, le cas d'usage, les données traitées, les personnes concernées, le débit (combien de décisions ou d'analyses par jour) et le département responsable.

Exemple concret

Une ETI de 800 personnes dans la logistique pensait avoir 6 outils IA à cartographier. La phase terrain en a identifié 34 : 8 outils métiers avec IA intégrée (optimisation de tournées, gestion des stocks, planification), 11 outils SaaS avec fonctionnalités IA activées par défaut (CRM, SIRH, suite bureautique), et 15 usages individuels de LLM grand public non encadrés. Seuls les 8 premiers étaient connus de la DSI.

Étape 3 - Classifier chaque système selon les niveaux de risque AI Act

Une fois l'inventaire établi, chaque système doit être classifié selon les quatre niveaux de risque définis par le règlement. Cette étape est critique : c'est elle qui détermine le niveau d'obligations à respecter.

Niveau de risque Exemples typiques Obligations principales Sanction maximale
Inacceptable (interdit) Scoring social, manipulation subliminale, biométrie en temps réel dans l'espace public Interdiction absolue - cesser tout usage immédiatement 35 M€ ou 7 % CA mondial
Haut risque Recrutement IA, scoring crédit, outils santé, évaluation scolaire, sécurité des infrastructures Documentation technique (Annexe IV), gestion des risques (Art. 9), supervision humaine, enregistrement dans la base de données UE 15 M€ ou 3 % CA mondial
Risque limité Chatbots, IA générative, deepfakes, recommandations Information de l'utilisateur (Art. 50), marquage des contenus synthétiques 7,5 M€ ou 1 % CA mondial
Risque minimal Filtres anti-spam, correcteurs orthographiques, moteurs de recommandation de contenu Aucune obligation spécifique - bonnes pratiques recommandées -

La classification des systèmes haut risque suit l'Annexe III du règlement, qui liste 8 domaines d'application : les infrastructures critiques, l'éducation et la formation professionnelle, l'emploi et la gestion des ressources humaines, l'accès aux services essentiels (crédit, assurance), l'application des lois, la gestion des migrations et frontières, l'administration de la justice, et les processus démocratiques. Tout système d'IA qui influence des décisions dans ces domaines est présumé haut risque.

Étape 4 - Évaluer les écarts et produire la documentation requise

La phase d'analyse des écarts consiste à comparer ce que chaque système exige (selon son niveau de risque) avec ce que l'organisation a effectivement mis en place. C'est ici que l'audit devient opérationnel.

Pour les systèmes haut risque, l'Article 9 exige un système de gestion des risques documenté, tenu à jour et validé avant déploiement. L'Article 10 impose des exigences sur la qualité et la gouvernance des données utilisées pour entraîner ou alimenter le système. L'Article 12 prévoit des obligations de journalisation automatique pour garantir la traçabilité des décisions.

Pour les systèmes à risque limité (chatbots notamment), la priorité est l'information des utilisateurs : est-ce qu'ils savent qu'ils interagissent avec une IA ? Cette information est-elle claire, compréhensible et fournie avant l'interaction ?

Pour tous les systèmes, l'Article 4 exige que les personnes qui travaillent avec ces outils disposent d'une formation adaptée à leur rôle. Sans documentation de cette formation, vous êtes en non-conformité quelle que soit la catégorie de risque du système.

A retenir

La documentation AI Act ne doit pas être un exercice de paperasse. Elle doit répondre à une question simple : si un inspecteur arrive demain et vous demande de prouver que vous gérez votre IA de manière responsable, qu'avez-vous à lui montrer ? Un inventaire, une classification, une analyse de risques, des preuves de formation et des procédures de supervision : voilà les cinq piliers d'un dossier de conformité défendable.

Étape 5 - Mettre en oeuvre les mesures correctives et le plan d'action

L'audit n'est pas une fin en soi. Il produit un plan d'action priorisé, avec des responsables et des délais. Les mesures correctives les plus fréquemment identifiées lors des audits AI Act se regroupent en cinq familles.

Formation des collaborateurs : c'est souvent la mesure la plus rapide à déployer et la plus structurante pour la conformité Article 4. Une formation AI Literacy de demi-journée suffit pour les utilisateurs non techniques. Les profils conformité, juridique et IT nécessitent un niveau de compréhension plus avancé, couvrant la classification des risques et les obligations documentaires. Nos programmes de formation AI Act sont calibrés pour chacun de ces publics.

Encadrement des usages informels : mettre en place une politique d'usage de l'IA, valider les outils autorisés, créer une procédure d'escalade pour les nouveaux usages. Ce travail relève à la fois des RH, du juridique et de la DSI.

Documentation technique des systèmes haut risque : c'est le chantier le plus lourd, mais il ne concerne que les systèmes classifiés haut risque. La documentation doit décrire le système, ses données d'entraînement, ses limites, les tests effectués et les mécanismes de supervision humaine.

Mise à jour des contrats fournisseurs : si vous utilisez des systèmes IA développés par des tiers, vérifiez que vos contrats prévoient les garanties de conformité nécessaires et que vous disposez des informations techniques requises pour vos propres obligations de déployeur.

Gouvernance continue : l'AI Act est un cadre vivant. Les usages IA évoluent, les systèmes changent. Mettre en place un processus de revue régulière (au minimum annuel) de l'inventaire et de la classification est une obligation implicite du règlement.

Combien coûte un audit AI Act et comment le financer

Les coûts varient significativement selon le périmètre. Pour une PME de moins de 100 personnes avec des usages IA limités (essentiellement des outils grand public et quelques SaaS), un audit externe accompagné et une mise en conformité complète représentent généralement entre 3 000 et 8 000 euros. Pour une ETI ou un groupe avec des systèmes haut risque, la fourchette est plutôt de 15 000 à 50 000 euros selon la complexité.

Ces coûts sont en partie finançables. Les formations associées à l'audit (formation de l'équipe d'audit, formation AI Literacy des collaborateurs) sont éligibles aux financements OPCO dès lors qu'elles sont dispensées par un organisme certifié Qualiopi. Certaines formations sont également éligibles au CPF. Le dispositif France 2030 prévoit des aides spécifiques pour les PME engagées dans des démarches de conformité réglementaire liées à l'IA.

Pour aller plus loin sur les obligations détaillées et les niveaux de risque, notre guide complet est disponible en accès libre. Vous pouvez également consulter notre page sur les sanctions AI Act pour évaluer précisément votre exposition.

Questions fréquentes sur l'audit AI Act

Combien de temps dure un audit AI Act ?

Comptez entre 4 et 12 semaines selon la taille de l'organisation et le nombre de systèmes d'IA déployés. Une PME avec 3 à 5 outils IA peut conclure l'audit en 4 à 6 semaines. Un groupe industriel avec des systèmes haut risque nécessite généralement 2 à 3 mois.

Qui doit piloter l'audit AI Act en interne ?

L'audit implique idéalement un trinôme : le DPO ou responsable conformité (pilotage réglementaire), le DSI ou RSSI (cartographie technique) et un représentant des métiers (identification des usages terrain). La direction doit mandater et valider les conclusions.

Un audit AI Act est-il obligatoire ?

L'AI Act n'impose pas formellement un "audit" comme démarche nommée, mais il exige une documentation des systèmes IA, une évaluation des risques et des mesures de gestion proportionnées. En pratique, une démarche d'audit structurée est le seul moyen de répondre à ces exigences de manière défendable devant les autorités.

Que se passe-t-il si on ne réalise pas d'audit avant août 2026 ?

Sans audit, vous ne pouvez pas prouver votre conformité. En cas de contrôle par l'autorité nationale compétente (en France, la CNIL devrait jouer ce rôle), l'absence de documentation expose à des sanctions allant jusqu'à 15 millions d'euros ou 3 % du chiffre d'affaires mondial pour les systèmes haut risque.

L'audit AI Act et l'audit RGPD sont-ils les mêmes ?

Non, mais ils se complètent. L'audit RGPD porte sur les traitements de données personnelles. L'audit AI Act porte sur les systèmes d'IA et leurs niveaux de risque. Les deux démarches partagent des outils communs (registre, analyse de risques) mais couvrent des périmètres différents. Il est recommandé de les mener en coordination. Voir aussi notre page AI Act vs RGPD.

Besoin d'un accompagnement pour votre audit AI Act ?

Nos experts vous aident à cartographier vos usages IA, classifier vos systèmes et produire la documentation requise. Formation des équipes incluse. Réponse sous 48h ouvrées.

Demander un accompagnement audit
Devis formation AI Act gratuit →